„Posouváme se do nové fáze informační války na platformách sociálních médií, kde technologický pokrok způsobil, že klasický přístup botů je zastaralý,“ říká Jonas Kunst, profesor komunikace na BI Norwegian Business School a jeden ze spoluautorů zprávy.
Pro odborníky, kteří strávili roky sledováním a bojem proti dezinformačním kampaním, dokument představuje děsivou budoucnost.
„Co kdyby umělá inteligence nebyla jen halucinačními informacemi, ale tisíce AI chatbotů spolupracovaly, aby poskytly masku základní podpory tam, kde žádná nebyla? Takovou budoucnost si tento list představuje – farmy ruských trolů na steroidech,“ říká Nina Jankowicz, bývalá carka za dezinformace Bidenovy administrativy, která je nyní generální ředitelkou American Sunlight Project.
Vědci tvrdí, že není jasné, zda se tato taktika již používá, protože současné systémy zavedené pro sledování a identifikaci koordinovaného neautentického chování je nejsou schopny detekovat.
„Kvůli jejich nepolapitelným rysům, které napodobují lidi, je velmi těžké je skutečně odhalit a posoudit, do jaké míry jsou přítomni,“ říká Kunst. „K většině nám chybí přístup [social media] platformy, protože platformy se staly stále restriktivnějšími, takže je těžké tam získat přehled. Technicky to určitě možné je. Jsme si docela jisti, že se testuje.“
Kunst dodal, že tyto systémy budou mít pravděpodobně stále nějaký lidský dohled, protože jsou vyvíjeny, a předpovídá, že i když nemusí mít masivní dopad na listopadové pololetní období v USA v roce 2026, velmi pravděpodobně budou nasazeny, aby narušily prezidentské volby v roce 2028.
Účty k nerozeznání od lidí na platformách sociálních médií jsou jen jedním problémem. Kromě toho schopnost mapovat sociální sítě ve velkém měřítku umožní podle vědců těm, kteří koordinují dezinformační kampaně, zaměřit se na agenty na konkrétní komunity, což zajistí největší dopad.
„Vybaveny takovými schopnostmi mohou roje umístit tak, aby měly maximální dopad a přizpůsobit zprávy přesvědčení a kulturním podnětům každé komunity, což umožňuje přesnější zacílení než u předchozích botnetů,“ píší.
Takové systémy by se mohly v zásadě zlepšovat samy a používat odpovědi na své příspěvky jako zpětnou vazbu ke zlepšení uvažování, aby bylo možné lépe předat zprávu. „S dostatečnými signály mohou provádět miliony testů microA/B, šířit vítězné varianty rychlostí stroje a opakovat mnohem rychleji než lidé,“ píší vědci.
Aby bylo možné bojovat s hrozbou, kterou představují roje umělé inteligence, vědci navrhují zřízení „Observatoře vlivu umělé inteligence“, která by sestávala z lidí z akademických skupin a nevládních organizací pracujících na „standardizaci důkazů, zlepšení situačního povědomí a umožnění rychlejší kolektivní reakce spíše než uvalování reputačních trestů shora dolů“.
Jedna skupina, která není zahrnuta, jsou manažeři ze samotných platforem sociálních médií, především proto, že se výzkumníci domnívají, že jejich společnosti motivují k angažovanosti nade vše ostatní, a proto mají malou motivaci tyto roje identifikovat.
„Řekněme, že roje umělé inteligence jsou tak časté, že nemůžete nikomu věřit a lidé opouštějí platformu,“ říká Kunst. „Samozřejmě, pak to ohrožuje model. Pokud jen zvýší zapojení, pro platformu je lepší to neprozradit, protože se zdá, že je tam větší zapojení, více reklam, což by bylo pozitivní pro ocenění určité společnosti.“
Kromě nedostatečné akce ze strany platforem se odborníci domnívají, že existuje jen malá pobídka pro vlády, aby se zapojily. „Současná geopolitická situace nemusí být přívětivá pro „observatoře“, které v podstatě sledují online diskuse,“ říká Olejnik. Jankowicz souhlasí: „Nejděsivější na této budoucnosti je, že existuje velmi malá politická vůle řešit škody, které AI způsobuje, tzn. [AI swarms] může být brzy realitou.“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com
