Když se minulý týden na sociálních sítích rozšířily bizarní a zavádějící odpovědi na vyhledávací dotazy generované novou funkcí Přehled AI společnosti Google, společnost vydala prohlášení, která obecně bagatelizovala představu, že technologie má problémy. Vedoucí vyhledávání společnosti Liz Reid koncem čtvrtka přiznala, že flubs zvýraznily oblasti, které je třeba zlepšit, a napsala, že „chtěli jsme vysvětlit, co se stalo, a kroky, které jsme podnikli“.
Reidův příspěvek přímo odkazoval na dva nejvirálnější a naprosto nesprávné výsledky přehledu AI. Jeden viděl, že algoritmy Google podporují pojídání kamenů, protože to „může být pro vás dobré“, a druhý navrhl použití netoxického lepidla k zahuštění omáčky na pizzu.
Rock jedení není téma, o kterém mnoho lidí kdy psalo nebo kladlo otázky online, takže není mnoho zdrojů, ze kterých by vyhledávač mohl čerpat. Podle Reida nástroj AI našel článek ze satirického webu The Onion, který znovu zveřejnila softwarová společnost, a nesprávně vyložil informace jako faktické.
Pokud jde o to, že Google řekl svým uživatelům, aby na pizzu namazali lepidlo, Reid ve skutečnosti připsal chybu selhání smyslu pro humor. „Viděli jsme přehledy AI, které obsahovaly sarkastický nebo trollí obsah z diskusních fór,“ napsala. „Fóra jsou často skvělým zdrojem autentických informací z první ruky, ale v některých případech mohou vést k méně užitečným radám, jako je použití lepidla, aby se sýr přilepil na pizzu.“
Pravděpodobně je nejlepší nevytvářet žádné večeře vytvořené umělou inteligencí, aniž byste si je nejprve pečlivě přečetli.
Reid také naznačil, že posuzovat kvalitu nového přístupu Googlu k vyhledávání na základě virálních snímků obrazovky by bylo nespravedlivé. Tvrdila, že společnost před svým spuštěním provedla rozsáhlé testování a že data společnosti ukazují, že lidé si AI cení, včetně toho, že lidé s větší pravděpodobností zůstanou na takto objevené stránce.
Proč ty trapné neúspěchy? Reid charakterizoval chyby, které získaly pozornost jako výsledek celointernetového auditu, který nebyl vždy dobře zamýšlen. „Není nic jako to, že tuto funkci využívají miliony lidí s mnoha novými vyhledáváními. Zaznamenali jsme také nesmyslná nová vyhledávání, zdánlivě zaměřená na vytváření chybných výsledků.“
Google tvrdí, že některé široce distribuované snímky obrazovky s chybnými přehledy AI byly falešné, což se na základě vlastního testování WIRED zdá být pravdivé. Například uživatel na X zveřejnil snímek obrazovky, který vypadal jako přehled umělé inteligence v odpovědi na otázku „Může ve vašem penisu žít šváb?“ s nadšeným potvrzením vyhledávače, že je to normální. Příspěvek byl zobrazen více než pět milionůkrát. Po další kontrole však formát snímku obrazovky neodpovídá tomu, jak jsou přehledy AI skutečně prezentovány uživatelům. WIRED nebyl schopen znovu vytvořit nic blízkého tomuto výsledku.
A nejsou to jen uživatelé na sociálních sítích, kteří byli podvedeni zavádějícími snímky obrazovky falešných přehledů AI. The New York Times vydal opravu svých zpráv o této funkci a objasnil, že přehledy AI nikdy nenavrhovaly, aby uživatelé skočili z Golden Gate Bridge, pokud trpí depresí – to byl jen temný meme na sociálních sítích. „Jiní naznačili, že jsme vrátili nebezpečné výsledky pro témata, jako je ponechání psů v autech, kouření v těhotenství a deprese,“ napsal ve čtvrtek Reid. „Tyto přehledy AI se nikdy neobjevily.“
Reidův příspěvek však také jasně ukazuje, že s původní formou velkého nového upgradu vyhledávání Google nebylo vše v pořádku. Společnost provedla „více než tucet technických vylepšení“ přehledů AI, napsala.
Jsou popsány pouze čtyři: lepší detekce „nesmyslných dotazů“, které si nezaslouží přehled AI; díky tomu se tato funkce méně spoléhá na obsah vytvářený uživateli ze stránek jako Reddit; nabízet přehledy AI méně často v situacích, kdy je uživatelé nepovažovali za užitečné; a posílení mantinelů, které deaktivují souhrny AI o důležitých tématech, jako je zdraví.
V Reidově příspěvku na blogu nebyla žádná zmínka o tom, že by souhrny AI výrazně vrátily zpět. Google říká, že bude i nadále sledovat zpětnou vazbu od uživatelů a upravovat funkce podle potřeby.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com