OpenAI dnes vydala svou první zprávu o hrozbách, která podrobně popisuje, jak se aktéři z Ruska, Íránu, Číny a Izraele pokoušeli využít její technologie pro zahraniční vlivové operace po celém světě. Zpráva pojmenovala pět různých sítí, které OpenAI identifikovala a vypnula v letech 2023 až 2024. Ve zprávě OpenAI odhaluje, že zavedené sítě jako ruský Doppleganger a čínský Spamoflauge experimentují s tím, jak využít generativní umělou inteligenci k automatizaci svých operací. Taky na tom nejsou moc dobře.
A i když je skromnou úlevou, že tito herci nezvládli generativní umělou inteligenci, aby se stali nezastavitelnými silami pro dezinformace, je jasné, že experimentují, a to samo o sobě by mělo být znepokojující.
Zpráva OpenAI odhaluje, že kampaně ovlivňující vliv narážejí na limity generativní umělé inteligence, která spolehlivě neprodukuje dobrou kopii nebo kód. Potýká se s idiomy – díky nimž jazyk zní spolehlivěji lidsky a osobně – a také někdy se základní gramatikou (a to natolik, že OpenAI pojmenovalo jednu síť „Bad Grammar.“) Síť Bad Grammar byla tak nedbalá, že jednou odhalila svou pravou identitu. : „Jako jazykový model AI jsem tu, abych vám pomohl a poskytl požadovaný komentář,“ napsalo.
Jedna síť používala ChatGPT k ladění kódu, který by jí umožnil automatizovat příspěvky na Telegramu, chatovací aplikaci, která je dlouho oblíbená mezi extremisty a ovlivňují sítě. To někdy fungovalo dobře, ale jindy to vedlo k odeslání stejného účtu jako dvě samostatné postavy, čímž byla hra pryč.
V jiných případech byl ChatGPT použit k vytvoření kódu a obsahu pro webové stránky a sociální média. Spamoflauge například použil ChatGPT k ladění kódu k vytvoření webové stránky WordPress, která publikovala příběhy útočící na členy čínské diaspory, kteří byli kritičtí vůči vládě země.
Podle zprávy se obsahu generovanému umělou inteligencí nepodařilo proniknout ze samotných sítí vlivu do hlavního proudu, a to ani při sdílení na široce používaných platformách, jako je X, Facebook nebo Instagram. To byl případ kampaní provozovaných izraelskou společností, která zdánlivě pracovala na základě pronájmu, a zveřejňovala obsah, který sahal od anti-Kataru po anti-BJP, hinduisticko-nacionalistickou stranu, která v současnosti kontroluje indickou vládu.
Celkově vzato, zpráva vykresluje obraz několika relativně neúčinných kampaní s hrubou propagandou, zdánlivě zmírňující obavy mnoha odborníků z potenciálu této nové technologie šířit dezinformace a dezinformace, zejména během klíčového volebního roku.
Kampaně ovlivňování na sociálních sítích se ale často v průběhu času inovují, aby se vyhnuly odhalení, učili se platformy a jejich nástroje, někdy lépe než zaměstnanci platforem samotní. I když tyto počáteční kampaně mohou být malé nebo neúčinné, zdá se, že jsou stále ve fázi experimentu, říká Jessica Walton, výzkumnice z CyberPeace Institute, která studovala Dopplegangerovo použití generativní umělé inteligence.
V jejím výzkumu by síť využívala skutečně vypadajících facebookových profilů k zveřejňování článků, často kolem rozdělujících politických témat. „Skutečné články jsou psány generativní AI,“ říká. „A většinou se snaží zjistit, co poletí, co algoritmy Meta budou a nebudou schopny zachytit.“
Jinými slovy, očekávejte, že se odsud polepší.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com