Meta, stejně jako další přední technologické společnosti, strávila minulý rok sliby, že urychlí nasazení generativní umělé inteligence. Dnes uznala, že musí také reagovat na rizika této technologie, a oznámila rozšířenou politiku označování obrázků vytvořených umělou inteligencí zveřejněných na Facebooku, Instagramu a Threads varovnými štítky, které lidi informují o jejich umělém původu.
Přesto je nepravděpodobné, že by se nová politika vztahovala na velkou část syntetických médií, která se pravděpodobně objeví na platformách Meta, což zanechává mnoho mezer, kterými by mohli proklouznout zákeřní aktéři. „Je to krok správným směrem, ale s výzvami,“ říká Sam Gregory, programový ředitel neziskové organizace Witness, která pomáhá lidem využívat technologie k podpoře lidských práv.
Meta již označuje obrázky generované umělou inteligencí vytvořené pomocí vlastních generativních nástrojů umělé inteligence štítkem „Imagined with AI“, částečně tím, že hledá digitální „vodoznak“, který její algoritmy vkládají do svého výstupu. Nyní Meta říká, že v nadcházejících měsících bude také označovat obrázky AI vytvořené pomocí nástrojů nabízených jinými společnostmi, které do své technologie vkládají vodoznaky.
Tato politika má snížit riziko šíření dezinformací nebo dezinformací prostřednictvím obrázků vygenerovaných umělou inteligencí vydávaných za fotografie. Ale ačkoli Meta uvedla, že pracuje na podpoře technologie zveřejňování ve vývoji ve společnostech Google, OpenAI, Microsoft, Adobe, Midjourney a Shutterstock, tato technologie ještě není široce nasazena. A k dispozici je mnoho nástrojů pro generování obrázků AI, které neoznačují svůj výstup vodoznakem, přičemž tato technologie je stále snadněji přístupná a upravitelná. „Jediným způsobem, jak bude takový systém účinný, je zapojení široké škály generativních nástrojů a platforem,“ říká Gregory.
I když existuje široká podpora pro vodoznak, není jasné, jak robustní bude jakákoli ochrana, kterou nabízí. Neexistuje žádný univerzálně nasazený standard, ale iniciativa Coalition for Content Provenance and Authenticity (C2PA), iniciativa založená společností Adobe, pomohla společnostem začít pracovat na tomto konceptu. Doposud vyvinutá technologie však není spolehlivá. Ve studii zveřejněné v loňském roce vědci zjistili, že mohou snadno rozbít vodoznaky nebo je přidat k obrázkům, které nebyly vygenerovány umělou inteligencí, aby to vypadalo, že ano.
Škodlivá mezera
Hany Farid, profesor na UC Berkeley School of Information, který radil iniciativě C2PA, říká, že kdokoli, kdo se zajímá o použití generativní umělé inteligence se zlým úmyslem, se pravděpodobně obrátí na nástroje, které neoznačí jejich výstup vodoznakem ani nezradí jeho povahu. Například tvůrci falešného robocallu používajícího hlas prezidenta Joe Bidena, který se minulý měsíc zaměřil na některé voliče v New Hampshire, nepřidali žádné zveřejnění jeho původu.
A myslí si, že společnosti by měly být připraveny na to, že špatní herci se zaměří na jakoukoli metodu, kterou se pokusí použít k identifikaci původu obsahu. Farid má podezření, že k robustní identifikaci obrázků generovaných umělou inteligencí může být nutné použít více forem identifikace, například kombinací vodoznaku s technologií založenou na hash, která se používá k vytváření seznamů sledovaných materiálů týkajících se sexuálního zneužívání dětí. A vodoznak je méně rozvinutý koncept pro média generovaná umělou inteligencí jiná než obrázky, jako je zvuk a video.
„Zatímco společnosti začínají začleňovat signály do svých generátorů obrázků, nezačaly je začleňovat do nástrojů AI, které generují zvuk a video ve stejném měřítku, takže zatím nemůžeme detekovat tyto signály a označit tento obsah od jiných společností. “Přiznává mluvčí Meta Kevin McAlister. „Zatímco průmysl pracuje na této schopnosti, přidáváme funkci, kterou lidé mohou zveřejnit, když sdílejí video nebo zvuk generovaný umělou inteligencí, abychom k tomu mohli přidat štítek.“
Nové zásady Meta mohou pomoci zachytit více falešného obsahu, ale ne všechna zmanipulovaná média jsou generována AI. Rozhodnutí vydané v pondělí dozorčí radou nezávislých odborníků Meta, které přezkoumává některé moderační hovory, potvrdilo rozhodnutí společnosti zanechat video prezidenta Joea Bidena, které bylo upraveno tak, aby vypadalo, že se nevhodně dotýká hrudi své vnučky. Správní rada však uvedla, že zatímco video, které nebylo vytvořeno umělou inteligencí, neporušuje současné zásady společnosti Meta, mělo by revidovat a rozšířit svá pravidla pro „manipulovaná média“, aby pokrývala více než jen obsah generovaný umělou inteligencí.
McAlister, mluvčí Meta, říká, že společnost „reviduje pokyny dozorčí rady a bude veřejně reagovat na jejich doporučení do 60 dnů v souladu se stanovami“. Farid říká, že díra v zásadách Meta a technické zaměření pouze na obrázky generované AI s vodoznakem naznačuje, že plán společnosti pro éru gen AI není úplný.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com