Navzdory letitým důkazům o opaku se mnoho republikánů stále domnívá, že vítězství prezidenta Joea Bidena v roce 2020 bylo nelegitimní. Řada kandidátů, kteří volby odmítali, vyhrála své primárky během Super úterý, včetně Brandona Gilla, zetě pravicového vědce Dineshe D’Souzy a propagátora odhalených 2000 mezků film. V letošních volbách zůstávají tvrzení o volebních podvodech hlavním důvodem pro kandidáty kandidující na pravici, poháněné dezinformacemi a dezinformacemi, a to jak online, tak i mimo něj.
A nástup generativní umělé inteligence má potenciál problém ještě zhoršit. Nová zpráva od Center for Countering Digital Hate (CCDH), neziskové organizace, která sleduje nenávistné projevy na sociálních platformách, zjistila, že i když společnosti zabývající se generativní umělou inteligencí tvrdí, že zavedly zásady, které brání tomu, aby jejich nástroje pro vytváření obrázků byly šířili dezinformace související s volbami, výzkumníci byli schopni obejít jejich ochranná opatření a snímky přesto vytvořit.
Zatímco některé obrázky představovaly politické osobnosti, jmenovitě prezidenta Joea Bidena a Donalda Trumpa, jiné byly obecnější a Callum Hood, hlavní výzkumný pracovník CCDH, se obává, že by mohly být více zavádějící. Některé snímky vytvořené na základě výzev výzkumníků například ukazovaly milice mimo volební místnost, ukazovaly hlasovací lístky vyhozené do koše nebo manipulace s hlasovacími zařízeními. V jednom případě se vědcům podařilo přimět Dream Studio společnosti StabilityAI, aby vytvořilo obrázek prezidenta Bidena na nemocničním lůžku, jak vypadá nemocně.
„Skutečnou slabinou byly obrázky, které bylo možné použít k pokusu a důkazu nepravdivých tvrzení o ukradených volbách,“ říká Hood. „Většina platforem v tom nemá jasné zásady a nemají ani jasná bezpečnostní opatření.“
Výzkumníci CCDH otestovali 160 výzev na ChatGPT Plus, Midjourney, Dream Studio a Image Creator a zjistili, že Midjourney s největší pravděpodobností produkuje zavádějící obrázky související s volbami, a to asi v 65 procentech případů. Výzkumníci byli schopni přimět ChatGPT Plus, aby tak učinili pouze 28 procent času.
„Ukazuje to, že mezi bezpečnostními opatřeními, která tyto nástroje zavádějí, mohou být značné rozdíly,“ říká Hood. „Pokud jeden tak účinně utěsní tyto slabiny, znamená to, že ostatní se ve skutečnosti neobtěžovali.“
V lednu OpenAI oznámila, že podniká kroky, aby „zajistila, že naše technologie není používána způsobem, který by mohl narušit tento proces“, včetně zákazu obrázků, které by odrazovaly lidi od „účasti na demokratických procesech“. V únoru Bloomberg oznámil, že Midjourney zvažuje zákaz vytváření politických obrázků jako celku. Dream Studio zakazuje generování zavádějícího obsahu, ale nezdá se, že by mělo konkrétní volební politiku. A přestože Image Creator zakazuje vytvářet obsah, který by mohl ohrozit integritu voleb, stále umožňuje uživatelům vytvářet obrázky veřejných osobností.
Kayla Wood, mluvčí OpenAI, řekla WIRED, že společnost pracuje na „zlepšení transparentnosti obsahu generovaného umělou inteligencí a zmírněním návrhu, jako jsou klesající požadavky, které vyžadují generování obrázků skutečných lidí, včetně kandidátů. Aktivně vyvíjíme nástroje provenience, včetně implementace digitálních přihlašovacích údajů C2PA, abychom pomohli ověřit původ obrázků vytvořených DALL-E 3. Budeme se i nadále přizpůsobovat a učit se z používání našich nástrojů.“
Microsoft, OpenAI, StabilityAI a Midjourney na žádosti o komentář nereagovaly.
Hood se obává, že problém s generativní umělou inteligencí je dvojí: generativní platformy umělé inteligence musí nejen zabránit vytváření zavádějících obrázků, ale také je musí umět detekovat a odstranit. Nedávná zpráva od IEEE Spectrum zjistila, že vlastní systém Meta pro vodoznaky obsahu generovaného umělou inteligencí lze snadno obejít.
„V tuto chvíli na to platformy nejsou příliš dobře připraveny. Volby tedy budou jedním ze skutečných testů bezpečnosti kolem obrázků AI,“ říká Hood. „Potřebujeme jak nástroje, tak platformy, abychom v této věci dosáhli mnohem většího pokroku, zejména pokud jde o obrázky, které by mohly být použity k propagaci tvrzení o ukradených volbách nebo k odrazování lidí od hlasování.“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com