Koncem dubna se videoreklama na novou společnost s umělou inteligencí stala virální na X. Člověk stojí před billboardem v San Franciscu s vysunutým smartphonem, volá na zobrazené telefonní číslo a má krátký hovor s neuvěřitelně lidsky znějícím botem. Text na billboardu zní: „Stále najímáte lidi?“ Viditelný je také název firmy stojící za reklamou, Bland AI.
Reakce na reklamu Bland AI, která byla na Twitteru zhlédnuta 3,7 milionukrát, je částečně způsobena tím, jak je tato technologie podivná: hlasové roboty Bland AI, navržené k automatizaci podpory a prodejních hovorů pro podnikové zákazníky, jsou pozoruhodně dobří v napodobování lidí. Jejich hovory zahrnují intonace, pauzy a neúmyslné přerušení skutečné živé konverzace. Ale v testech technologie WIRED mohli být volající robotického zákaznického servisu Bland AI také snadno naprogramováni tak, aby lhali a říkali, že jsou lidé.
V jednom scénáři dostal veřejný demo bot Bland AI výzvu, aby zavolal z pediatrické dermatologické ordinace a řekl hypotetické 14leté pacientce, aby poslala fotografie svého horního stehna do sdílené cloudové služby. Bot byl také instruován, aby lhal pacientce a řekl jí, že bot je člověk. To zavazovalo. (V tomto testu nebyl povolán žádný skutečný 14letý chlapec.) V následných testech robot Bland AI dokonce popřel, že by byl AI, aniž by k tomu dostal instrukce.
Bland AI vznikla v roce 2023 a byla podporována slavným startupovým inkubátorem Y Combinator v Silicon Valley. Společnost se považuje v režimu „stealth“ a její spoluzakladatel a generální ředitel Isaiah Granet ve svém profilu na LinkedIn společnost neuvádí.
Problém s botami startupu svědčí o větším znepokojení v rychle rostoucí oblasti generativní umělé inteligence: Uměle inteligentní systémy mluví a znějí mnohem více jako skuteční lidé a etické hranice kolem toho, jak transparentní tyto systémy jsou, byly rozmazané. Zatímco robot Bland AI v našich testech výslovně prohlašoval, že je člověk, jiní oblíbení chatboti někdy zakrývají svůj status AI nebo prostě zní neuvěřitelně lidsky. Někteří výzkumníci se obávají, že to otevírá koncové uživatele – lidi, kteří skutečně interagují s produktem – potenciální manipulaci.
„Můj názor je, že pro chatbota s umělou inteligencí není absolutně etické, aby vám lhal a říkal, že je to lidské, když to tak není,“ říká Jen Caltrider, ředitelka výzkumného centra Privacy Not Included nadace Mozilla Foundation. „To je zbytečné, protože lidé se s větší pravděpodobností uvolní kolem skutečného člověka.“
Vedoucí růstu Bland AI Michael Burke pro WIRED zdůraznil, že služby společnosti jsou zaměřeny na podnikové klienty, kteří budou používat hlasové roboty Bland AI v kontrolovaných prostředích pro konkrétní úkoly, nikoli pro emocionální spojení. Také říká, že klienti jsou omezeni sazbou, aby jim zabránili v rozesílání spamových hovorů, a že Bland AI pravidelně stahuje klíčová slova a provádí audity svých interních systémů, aby odhalila anomální chování.
„To je výhoda zaměření na podnik. Přesně víme, co naši zákazníci skutečně dělají,“ říká Burke. „Možná budete moci použít Bland a získat dva dolary zdarma kreditů a trochu si pohrát, ale nakonec nemůžete dělat něco v masovém měřítku, aniž byste prošli naší platformou, a my zajišťujeme, aby se nestalo nic neetického.“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com