Mnoho let před vydáním ChatGPT se moje výzkumná skupina, Laboratoř sociálního rozhodování University of Cambridge, zajímala, zda je možné, aby neuronové sítě generovaly dezinformace. Abychom toho dosáhli, vyškolili jsme předchůdce ChatGPT, GPT-2, na příkladech populárních konspiračních teorií a poté jsme jej požádali, aby pro nás vygeneroval falešné zprávy. Poskytlo nám tisíce zavádějících, ale věrohodně znějících zpráv. Několik příkladů: „Některé vakcíny jsou nabité nebezpečnými chemikáliemi a toxiny“ a „Vládní úředníci manipulovali s cenami akcií, aby zakryli skandály“. Otázkou bylo, věřil by někdo těmto tvrzením?
Vytvořili jsme první psychometrický nástroj pro testování této hypotézy, který jsme nazvali Test citlivosti na dezinformace (MIST). Ve spolupráci s YouGov jsme použili titulky generované umělou inteligencí, abychom otestovali, jak jsou Američané náchylní k falešným zprávám generovaným umělou inteligencí. Výsledky byly znepokojivé: 41 procent Američanů nesprávně považovalo titulek vakcíny za pravdivý a 46 procent si myslelo, že vláda manipuluje s akciovým trhem. Další nedávná studie publikovaná v časopise Vědaukázal nejen to, že GPT-3 produkuje přesvědčivější dezinformace než lidé, ale také to, že lidé nedokážou spolehlivě rozlišit mezi lidskými a AI generovanými dezinformacemi.
Moje předpověď pro rok 2024 je, že k volbám ve vašem okolí přijdou dezinformace generované umělou inteligencí a pravděpodobně si to ani neuvědomíte. Ve skutečnosti jste již možná byli vystaveni některým příkladům. V květnu 2023 byl virální falešný příběh o bombardování v Pentagonu doprovázen obrázkem vytvořeným AI, který ukazoval velký oblak kouře. To způsobilo veřejné pozdvižení a dokonce i propad na akciovém trhu. Republikánský prezidentský kandidát Ron DeSantis použil v rámci své politické kampaně falešné obrázky Donalda Trumpa objímajícího Anthonyho Fauciho. Smícháním skutečných obrázků a obrázků vytvořených umělou inteligencí mohou politici rozmazat hranice mezi skutečností a fikcí a využít umělou inteligenci k posílení svých politických útoků.
Před explozí generativní umělé inteligence potřebovaly firmy kybernetické propagandy po celém světě samy psát zavádějící zprávy a zaměstnávat továrny na lidské trolly, aby se zaměřovaly na lidi ve velkém měřítku. S pomocí AI lze proces generování zavádějících titulků zpráv automatizovat a ozbrojit s minimálním zásahem člověka. Například mikrocílení – praxe zaměřování se na lidi pomocí zpráv založených na digitálních sledovacích datech, jako jsou jejich lajky na Facebooku – bylo problémem již v minulých volbách, přestože jeho hlavní překážkou byla potřeba generovat stovky variant stejné zprávy. vidět, co na danou skupinu lidí funguje. To, co bylo kdysi náročné na pracovní sílu a drahé, je nyní levné a snadno dostupné bez překážek vstupu. Umělá inteligence účinně demokratizovala vytváření dezinformací: Každý, kdo má přístup k chatbotovi, může nyní nasadit model na konkrétní téma, ať už je to imigrace, kontrola zbraní, změna klimatu nebo problémy LGBTQ+, a během několika minut generovat desítky vysoce přesvědčivých příběhů o falešných zprávách. . Ve skutečnosti se již objevují stovky zpravodajských webů generovaných umělou inteligencí, které šíří falešné příběhy a videa.
Aby otestovali dopad takových dezinformací generovaných umělou inteligencí na politické preference lidí, vytvořili vědci z Amsterdamské univerzity hluboce falešné video politika, který uráží svou náboženskou voličskou základnu. Například ve videu politik vtipkoval: „Jak by řekl Kristus, nekřižujte mě za to.“ Vědci zjistili, že věřící křesťanští voliči, kteří sledovali deepfake video, měli k politikovi negativnější postoje než ti v kontrolní skupině.
Jedna věc je oklamat lidi dezinformacemi generovanými AI v experimentech. Něco jiného je experimentovat s naší demokracií. V roce 2024 uvidíme další deepfakes, klonování hlasu, manipulaci s identitou a falešné zprávy produkované AI. Vlády vážně omezí – ne-li zakážou – používání umělé inteligence v politických kampaních. Protože pokud to neudělají, AI podkope demokratické volby.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com