Před šesti měsíci tento týden podepsalo mnoho předních výzkumníků, inženýrů a podnikatelů v oblasti umělé inteligence otevřený dopis vyzývající k šestiměsíční pauze ve vývoji systémů umělé inteligence, které jsou schopnější než nejnovější generátor jazyků GPT-4 OpenAI. Argumentovalo tím, že AI postupuje tak rychle a nepředvídatelně, že by mohla odstranit nespočet pracovních míst, zaplavit nás dezinformacemi a – jak hlásila vlna panických titulků – zničit lidstvo. Jejda!
Jak jste si mohli všimnout, dopis neměl za následek pauzu ve vývoji AI, ani zpomalení na odměřenější tempo. Společnosti místo toho zrychlily své úsilí o vybudování pokročilejší umělé inteligence.
Elon Musk, jeden z nejvýraznějších signatářů, na sebe nenechal dlouho čekat a ignoroval vlastní výzvu ke zpomalení. V červenci oznámil xAI, novou společnost, o které řekl, že se bude snažit jít nad rámec stávající AI a konkurovat OpenAI, Google a Microsoft. A mnoho zaměstnanců Google, kteří také podepsali otevřený dopis, zůstalo u své společnosti, když se připravuje na vydání modelu umělé inteligence s názvem Gemini, který se může pochlubit širšími možnostmi než GPT-4 OpenAI.
WIRED oslovil více než tucet signatářů dopisu, aby se zeptal, jaký účinek to podle nich mělo a zda se jejich znepokojení ohledně AI za posledních šest měsíců prohloubilo nebo vytratilo. Zdá se, že nikdo, kdo odpověděl, neočekával, že se výzkum AI skutečně zastaví.
„Nikdy jsem si nemyslel, že se společnosti dobrovolně chystají pozastavit,“ říká Max Tegmark, astrofyzik z MIT, který vede Institut budoucnosti života, organizaci stojící za dopisem – díky přiznání, které by někteří mohli namítnout, vypadá celý projekt cynicky. Tegmark říká, že jeho hlavním cílem nebylo pozastavit AI, ale legitimizovat konverzaci o nebezpečích této technologie, včetně skutečnosti, že by mohla obrátit lidstvo. Výsledek „předčil moje očekávání,“ říká.
Odpovědi na mé následné kroky také ukazují obrovskou rozmanitost obav, které mají odborníci ohledně AI – a že mnoho signatářů není ve skutečnosti posedlých existenčním rizikem.
Lars Kotthoff, docent na univerzitě ve Wyomingu, říká, že by dnes nepodepsal stejný dopis, protože mnozí, kteří volali po pauze, stále pracují na pokroku AI. „Jsem otevřený podepisování dopisů, které jdou podobným směrem, ale ne přesně jako tento,“ říká Kotthoff. Dodává, že to, co ho dnes nejvíce znepokojuje, je vyhlídka na „společenský odpor proti vývoji umělé inteligence, který by mohl uspíšit další zimu v oblasti umělé inteligence“ zrušením financování výzkumu a tím, že lidé zavrhnou produkty a nástroje umělé inteligence.
Ostatní signatáři mi řekli, že by rádi podepsali znovu, ale zdá se, že jejich velké obavy zahrnují spíše krátkodobé problémy, jako jsou dezinformace a ztráty zaměstnání, spíše než scénáře Terminátora.
„V době internetu a Trumpa snadněji vidím, jak může umělá inteligence vést ke zničení lidské civilizace tím, že zkresluje informace a kazí znalosti,“ říká Richard Kiehl, profesor zabývající se mikroelektronikou na Arizonské státní univerzitě.
„Dostaneme Skynet, který se nabourá do všech těchto vojenských serverů a vypustí atomovky po celé planetě?“ Opravdu si to nemyslím,“ říká Stephen Mander, doktorand pracující na AI na Lancaster University ve Spojeném království. Vidí však hrozící rozsáhlé vytlačování pracovních míst a nazývá to „existenčním rizikem“ pro sociální stabilitu. Ale také se obává, že dopis možná podnítil více lidí k experimentování s umělou inteligencí, a uznává, že nejednal na základě výzvy dopisu, aby zpomalil. „Co jsem udělal za poslední rok, když jsem podepsal dopis? Dělal jsem výzkum AI,“ říká.
Navzdory tomu, že dopis nevyvolal rozsáhlou pauzu, pomohl prosadit myšlenku, že umělá inteligence by mohla vytlačit lidstvo do hlavního proudu diskuse. Následovalo veřejné prohlášení podepsané vedoucími představiteli OpenAI a divize AI DeepMind společnosti Google, které přirovnalo existenční riziko, které AI představuje, k riziku jaderných zbraní a pandemií. Příští měsíc bude britská vláda hostit mezinárodní konferenci o bezpečnosti umělé inteligence, na které budou lídři z mnoha zemí diskutovat o možných škodách, které by umělá inteligence mohla způsobit, včetně existenčních hrozeb.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com