
Ve sci-fi příbězích umělá inteligence často pohání nejrůznější chytré, schopné a příležitostně vražedné roboty. Odhalujícím omezením nejlepšího AI je, že prozatím zůstává v okně chatu přímo uvězněn.
Google DeepMind signalizoval plán na změnu, že dnes – pravděpodobně mínus minus vražedná část – tím, že oznámil novou verzi svého modelu AI Gemini, která spojuje jazyk, vizi a fyzickou akci společně, aby napájela řadu schopnějších, adaptivnějších a potenciálně užitečných robotů.
V řadě demonstračních videí společnost ukázala několik robotů vybavených novým modelem, nazvaným Gemini Robotics, manipulovat s předměty v reakci na mluvené příkazy: robotické paže složené papír, předávání zeleniny, jemně vložte do pouzdra pár brýlí a dokončují další úkoly. Roboti se spoléhají na nový model pro připojení položek, které jsou viditelné s možnými akcemi, aby udělaly to, co jim bylo řečeno. Model je vyškolen způsobem, který umožňuje zobecnění chování na velmi odlišném hardwaru.
Google DeepMind také oznámil verzi svého modelu s názvem Gemini Robotics-ER (pro ztělesněné uvažování), která má pouze vizuální a prostorové porozumění. Cílem je, aby ostatní vědci robotů mohli tento model využít k trénování svých vlastních modelů pro kontrolu akcí robotů.
V demonstraci videa použili vědci Google DeepMind tento model k ovládání humanoidního robota zvaného Apollo z startup apptronik. Robot konverzuje s člověkem a pohybuje dopisy kolem stolního stolu, když je pokyn.
„Podařilo se nám přivést na světové porozumění-porozumění obecnému konceptu-Gemini 2.0 do robotiky,“ řekla Kanishka Rao, výzkumná pracovník robotiky v Google Deepmind, který vedl práci, při briefingu před dnešním oznámením.
Google Deepmind říká, že nový model je schopen úspěšně ovládat různé roboty ve stovkách specifických scénářů, které dosud nebyly zahrnuty do jejich tréninku. „Jakmile má robotický model porozumění obecnému konceptu, stane se mnohem obecnějším a užitečnějším,“ řekl Rao.
Průlomy, které vedly k mocným chatbotům, včetně Openai’s Chatgpt a Google Gemini, v posledních letech zvýšily naději na podobnou revoluci v robotice, ale velké překážky zůstávají.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com