Michal Kosinski je stanfordský výzkumný psycholog s čichem na aktuální témata. Svou práci chápe nejen jako rozšiřování znalostí, ale také jako upozorňování světa na potenciální nebezpečí zažehnutá důsledky počítačových systémů. Jeho nejznámější projekty zahrnovaly analýzu způsobů, jak Facebook (nyní Meta) získal šokující hluboké porozumění svým uživatelům ze všech dob, kdy na platformě klikli na „To se mi líbí“. Nyní se přesunul ke studiu překvapivých věcí, které umělá inteligence dokáže. Provedl například experimenty, které naznačují, že počítače mohou předvídat sexualitu člověka analýzou digitální fotografie jeho obličeje.
S Kosinskim jsem se seznámil díky mému psaní o Meta a znovu jsem se s ním spojil, abych probral jeho nejnovější článek, publikovaný tento týden v recenzovaném Proceedings of the National Academy of Sciences. Jeho závěr je zarážející. Velké jazykové modely, jako je OpenAI, jak tvrdí, překročily hranici a používají techniky analogické skutečnému myšlení, kdysi považovanému výhradně za říši lidí z masa a kostí (nebo alespoň savců). Konkrétně testoval OpenAI GPT-3.5 a GPT-4, aby zjistil, zda zvládli to, co je známé jako „teorie mysli“. Toto je schopnost lidí, vyvinutá v dětství, porozumět myšlenkovým pochodům jiných lidí. Je to důležitá dovednost. Pokud počítačový systém nedokáže správně interpretovat to, co si lidé myslí, jeho porozumění světu bude ochuzeno a mnoho věcí bude špatně. Pokud modely dělat mají teorii mysli, jsou o krok blíže k tomu, aby se vyrovnali a překonali lidské schopnosti. Kosinski otestoval LLM a nyní říká, že jeho experimenty ukazují, že konkrétně v GPT-4 se teorie schopnosti podobné mysli „mohla objevit jako nezamýšlený vedlejší produkt zlepšujících se jazykových dovedností LLM… Znamenají příchod více výkonná a společensky zdatná AI.“
Kosinski považuje svou práci v oblasti umělé inteligence za přirozený důsledek svého dřívějšího ponoření se do lajků na Facebooku. „Ve skutečnosti jsem nestudoval sociální sítě, studoval jsem lidi,“ říká. Když OpenAI a Google začaly budovat své nejnovější generativní modely umělé inteligence, mysleli si, že je školí, aby primárně zvládali jazyk. „Ale ve skutečnosti vycvičili model lidské mysli, protože nemůžete předvídat, jaké slovo řeknu příště, aniž byste modelovali svou mysl.“
Kosinski si dává pozor, aby netvrdil, že LLM dokonale ovládají teorii mysli – zatím. Ve svých experimentech představil chatbotům několik klasických problémů, z nichž některé zvládli velmi dobře. Ale i ten nejpropracovanější model GPT-4 ve čtvrtině případů selhal. Úspěchy, jak píše, staví GPT-4 na úroveň šestiletých dětí. Není to špatné, vzhledem k ranému stavu hřiště. „Při pozorování rychlého pokroku umělé inteligence si mnozí kladou otázku, zda a kdy by umělá inteligence mohla dosáhnout ToM nebo vědomí,“ píše. Když pominu to radioaktivní c-slovo, je toho hodně k sežrání.
„Pokud se v těchto modelech spontánně objevila teorie mysli, také to naznačuje, že se další schopnosti mohou objevit jako další,“ říká mi. „Díky těmto schopnostem nás mohou lépe vychovávat, ovlivňovat a manipulovat.“ Obává se, že nejsme ve skutečnosti připraveni na LLM, které rozumí tomu, jak lidé myslí. Zvláště pokud se dostanou do bodu, kdy lidem rozumí lépe než lidé.
„My lidé nesimulujeme osobnost – my.“ mít osobnost,“ říká. „Takže jsem uvízl ve své osobnosti.“ Tyto věci model osobnost. Výhodu mají v tom, že mohou mít libovolnou osobnost, kterou chtějí a kdykoli.“ Když se Kosinskému zmíním, že to zní, jako by popisoval sociopata, rozsvítí se. „Používám to při svých rozhovorech!“ říká. „Sociopat si může nasadit masku – ve skutečnosti není smutný, ale může hrát smutného člověka.“ Tato chameleonská síla by mohla z umělé inteligence udělat skvělého podvodníka. S nulovou lítostí.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com