Nathan Strauss, mluvčí Amazonu, uvedl, že společnost tento index pečlivě přezkoumává. „Titan Text je stále v soukromém náhledu a bylo by předčasné hodnotit transparentnost základního modelu dříve, než bude připraven k obecné dostupnosti,“ říká. Meta odmítla komentovat zprávu ze Stanfordu a OpenAI nereagovala na žádost o komentář.
Rishi Bommasani, doktorand na Stanfordu, který na studii pracoval, říká, že to odráží skutečnost, že umělá inteligence se stává více neprůhlednou, i když se stává vlivnější. To je ve velkém kontrastu s posledním velkým boomem umělé inteligence, kdy otevřenost pomohla podpořit velký pokrok ve schopnostech, včetně rozpoznávání řeči a obrazu. „Na konci roku 2010 byly společnosti transparentnější ohledně svých výzkumů a publikovaly mnohem více,“ říká Bommasani. „To je důvod, proč jsme měli úspěch hlubokého učení.“
Stanfordova zpráva také naznačuje, že modelky nemusí být z konkurenčních důvodů tak tajné. Kevin Klyman, politický výzkumník ze Stanfordu, říká, že skutečnost, že řada předních modelů má relativně vysoké skóre v různých měřítcích transparentnosti, naznačuje, že všechny by se mohly stát otevřenějšími, aniž by prohrály se soupeři.
Zatímco se experti na AI snaží zjistit, kam se bude ubírat nedávný rozkvět určitých přístupů k AI, někteří říkají, že utajování riskuje, že se z tohoto oboru stane méně vědecká disciplína než disciplína zaměřená na zisk.
„Toto je klíčový okamžik v historii AI,“ říká Jesse Dodge, vědec z Allen Institute for AI, neboli AI2. „Nejvlivnější hráči, kteří dnes vytvářejí generativní systémy umělé inteligence, jsou stále více uzavřeni a nesdílejí klíčové detaily svých dat a procesů.“
AI2 se snaží vyvinout mnohem transparentnější jazykový model AI, nazvaný OLMo. Trénuje se pomocí kolekce dat pocházejících z webu, akademických publikací, kódu, knih a encyklopedií. Tato datová sada s názvem Dolma byla vydána pod licencí ImpACT společnosti AI2. Až bude OLMo připraveno, AI2 plánuje vydat fungující systém umělé inteligence a také kód za ním, což umožní ostatním stavět na projektu.
Dodge říká, že rozšíření přístupu k datům za výkonnými modely umělé inteligence je obzvláště důležité. Bez přímého přístupu je obecně nemožné vědět, proč nebo jak model může dělat to, co dělá. „Pokrok ve vědě vyžaduje reprodukovatelnost,“ říká. „Bez poskytnutí otevřeného přístupu k těmto zásadním stavebním kamenům tvorby modelů zůstaneme v „uzavřené“, stagnující a proprietární situaci.“
Vzhledem k tomu, jak široce jsou modely umělé inteligence nasazovány – a jak nebezpeční někteří odborníci varují, že by mohly být – by trochu větší otevřenost mohla znamenat dlouhou cestu.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com