Odborníci varují, že nyní probíhá děsivá nová éra ultrarealistických, umělou inteligencí generovaných obrázků sexuálního zneužívání dětí. Pachatelé používají ke stažení generativní modely umělé inteligence s otevřeným zdrojovým kódem, které mohou produkovat obrázky, s ničivými účinky. Tato technologie se používá k vytvoření stovek nových obrázků dětí, které byly dříve zneužívány. Pachatelé sdílejí datové sady obrázků zneužívání, které lze použít k přizpůsobení modelů umělé inteligence, a začínají prodávat měsíční předplatné materiálů o sexuálním zneužívání dětí (CSAM) generovaných umělou inteligencí.
Podrobnosti o tom, jak je tato technologie zneužívána, jsou zahrnuty v nové, rozsáhlé zprávě vydané nadací Internet Watch Foundation (IWF), neziskovou organizací se sídlem ve Spojeném království, která prohledává a odstraňuje zneužívání obsahu z webu. V červnu IWF uvedla, že na otevřeném webu nalezla sedm adres URL obsahujících materiál podezřelý z umělé inteligence. Při vyšetřování jednoho temného webového fóra CSAM, které poskytuje přehled o tom, jak se používá umělá inteligence, bylo nyní nalezeno téměř 3 000 obrázků vytvořených umělou inteligencí, které IWF považuje podle britského práva za nezákonné.
Podle výzkumu IWF obrázky generované umělou inteligencí zahrnují znásilňování miminek a batolat, zneužívání slavných nedospělých dětí a také obsah BDSM s teenagery. „Viděli jsme požadavky, diskuse a skutečné příklady materiálů týkajících se sexuálního zneužívání dětí, které zahrnovaly celebrity,“ říká Dan Sexton, technologický ředitel IWF. Sexton říká, že někdy jsou celebrity zestárlé, aby vypadaly jako děti. V jiných případech jsou dospělé celebrity zobrazeny jako ti, kdo zneužívají děti.
Zatímco zprávy o sexuálním zneužívání generovaném umělou inteligencí jsou stále zakrnělé počtem obrázků skutečného zneužívání a videí nalezených online, Sexton říká, že je znepokojen rychlostí vývoje a potenciálem, který vytváří pro nové druhy obtěžujících obrázků. Zjištění jsou v souladu s ostatními skupinami zkoumajícími šíření CSAM online. V jedné sdílené databázi vyšetřovatelé z celého světa označili 13 500 obrázků sexuálního zneužívání a vykořisťování dětí vytvořených umělou inteligencí, říká Lloyd Richardson, ředitel informačních technologií Kanadského centra pro ochranu dětí, WIRED. „To je jen špička ledovce,“ říká Richardson.
Realistická noční můra
Současná úroda generátorů obrázků AI – schopných produkovat působivé umění, realistické fotografie a bizarní návrhy – poskytuje nový druh kreativity a příslib, že umění navždy změní. Byly také použity k vytvoření přesvědčivých padělků, jako je Balenciaga Pope a časná verze zatčení Donalda Trumpa. Systémy jsou trénovány na obrovském množství existujících obrázků, často stažených z webu bez povolení, a umožňují vytvářet obrázky z jednoduchých textových výzev. Požádat o „slona v klobouku“ bude mít za následek právě to.
Není překvapením, že pachatelé vytvářející sexuální zneužívání přijali nástroje pro generování obrázků. „Způsob, jakým jsou tyto obrázky generovány, je obvykle pomocí volně dostupného softwaru,“ říká Sexton. Pachatelé, které IWF viděla, často odkazují na Stable Diffusion, model umělé inteligence zpřístupněný britskou firmou Stability AI. Společnost nereagovala na žádost WIRED o komentář. Ve druhé verzi svého softwaru, vydané na konci loňského roku, společnost změnila svůj model, aby lidem ztížila vytváření CSAM a dalších nahých obrázků.
Sexton říká, že zločinci používají starší verze modelů umělé inteligence a dolaďují je, aby vytvořili nelegální materiál dětí. To zahrnuje naplnění modelu existujícími obrázky zneužívání nebo fotografiemi tváří lidí, což umožňuje AI vytvářet obrázky konkrétních jedinců. „Vidíme vyladěné modely, které vytvářejí nové snímky existujících obětí,“ říká Sexton. Pachatelé si „vyměňují stovky nových obrázků stávajících obětí“ a vznášejí požadavky na jednotlivce, říká. Některá vlákna na tmavých webových fórech sdílejí sady tváří obětí, říká výzkum, a jedno vlákno se jmenovalo: „Zdroje fotografií pro AI a Deepfaking Specific Girls“.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com