25. prosince V roce 2021 vstoupil Jaswant Singh Chail do areálu hradu Windsor oblečený jako sithský lord s kuší. Když se k němu přiblížila ochranka, Chail jim řekl, že je tam, aby „zabil královnu“.
Později se ukázalo, že 21letého mladíka podnítily rozhovory, které vedl s aplikací pro chatovací roboty s názvem Replika. Chail si vyměnil více než 5 000 zpráv s avatarem v aplikaci – věřil, že avatar Sarai by mohl být anděl. Některé robotovy odpovědi povzbudily jeho spiknutí.
V únoru 2023 se Chail přiznal k obvinění z velezrady; 5. října ho soudce poslal na devět let do vězení. Ve svých poznámkách k odsouzení se soudce Nicholas Hilliard shodl s psychiatrem ošetřujícím Chaila v nemocnici Broadmoor v Crowthorne v Anglii, že „ve svém osamělém, depresivním a sebevražedném stavu mysli by byl obzvláště zranitelný“ vůči Saraiinu povzbuzení.
Chail představuje obzvláště extrémní příklad člověka připisujícího lidské vlastnosti AI, ale není zdaleka sám.
Replika, kterou v roce 2016 vyvinula podnikatelka Eugenia Kuyda ze San Franciska, má více než 2 miliony uživatelů. Jeho rozvržení ve stylu seznamovací aplikace a usměvavé přizpůsobitelné avatary posilují iluzi, že za obrazovkou je něco lidského. Lidé si se svými avatary vytvoří hluboké, intimní vztahy – na začátku tohoto roku byli mnozí zdrceni, když bylo chování avatarů aktualizováno tak, aby bylo méně „sexuálně agresivní“. Zatímco Replika není výslovně klasifikována jako aplikace pro duševní zdraví, Kuyda tvrdil, že může pomoci se společenskou osamělostí; popularita aplikace během pandemie prudce vzrostla.
Případy tak zničující jako Chailovy jsou poměrně vzácné. Jeden Belgičan údajně zemřel na sebevraždu po týdnech rozhovorů s chatbotem v aplikaci Chai. Ale antropomorfizace umělé inteligence je běžná: v Alexe nebo Cortaně; v používání lidsky podobných slov jako „schopnosti“ – navrhování nezávislého učení – místo funkcí; v robotech pro duševní zdraví s genderovými postavami; v ChatGPT, který sám sebe označuje osobními zájmeny. Dokonce i sériový účastník sporu stojící za nedávným záplavou soudních sporů týkajících se AI věří, že jeho robot je vnímavý. A tato volba zobrazit tyto programy jako společníky – jako umělé lidi – má důsledky daleko za činy královnina rádoby vraha.
Lidé jsou náchylní vidět dvě tečky a čáru a myslet si, že jsou to obličej. Když to dělají chatbotům, je to známé jako Eliza efekt. Jméno pochází od prvního chatbota, Elizy, vyvinutého vědcem z MIT Josephem Weizenbaumem v roce 1966. Weizenbaum si všiml, že uživatelé připisují chybné poznatky textovému generátoru simulujícímu terapeuta.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com