Ať už přes zamračenou tvář šimpanze s vysokým rozlišením nebo psychedelického, růžovo-červeného doppelganger sám sebe, Reuven Cohen používá obrázky generované umělou inteligencí, aby upoutal pozornost lidí. „Vždy mě zajímalo umění, design a video a baví mě posouvat hranice,“ říká – ale konzultant z Toronta, který pomáhá společnostem vyvíjet nástroje AI, také doufá, že zvýší povědomí o temnějších využitích této technologie.
„Může být také specificky vycvičen, aby byl docela hrozný a špatný v celé řadě způsobů,“ říká Cohen. Je fanouškem experimentování naprázdno, které rozpoutala technologie generování obrázků s otevřeným zdrojovým kódem. Ale ta samá svoboda umožňuje vytvářet explicitní obrazy žen používaných k obtěžování.
Poté, co se na X nedávno rozšířily nekonsensuální obrázky Taylor Swift, Microsoft přidal do svého generátoru obrázků nové ovládací prvky. Modely s otevřeným zdrojovým kódem může zabavit téměř kdokoli a obvykle se dodávají bez zábradlí. Navzdory snahám některých nadějných členů komunity odradit od vykořisťovatelského použití je open source free-for-all téměř nemožné kontrolovat, říkají odborníci.
„Open source pohání zneužívání falešných obrázků a nekonsensuální pornografii. To je nemožné pocukrovat nebo se kvalifikovat,“ říká Henry Ajder, který strávil roky výzkumem škodlivého použití generativní umělé inteligence.
Ajder říká, že ve stejné době, kdy se software pro generování obrázků s otevřeným zdrojovým kódem stává oblíbeným mezi výzkumníky, kreativci jako Cohen a akademiky pracujícími na AI, se stal základem hluboce falešného porna. Některé nástroje založené na algoritmech s otevřeným zdrojovým kódem jsou účelově vytvořeny pro neslušné nebo obtěžující použití, jako jsou například aplikace na „nudifying“, které digitálně odstraňují ženské oblečení z obrázků.
Ale mnoho nástrojů může sloužit jak legitimním, tak obtěžujícím případům použití. Jeden populární open source program pro výměnu obličejů používají lidé v zábavním průmyslu a jako „nástroj volby pro špatné herce“ vytvářející nekonsensuální deepfakes, říká Ajder. Generátor obrázků s vysokým rozlišením Stable Diffusion, vyvinutý startupem Stability AI, má údajně více než 10 milionů uživatelů a má nainstalované ochranné zábradlí, aby se zabránilo vytváření explicitních obrázků a zásady zabraňující jejich zneužití. Společnost však v roce 2022 také otevřela verzi generátoru obrázků, která je přizpůsobitelná, a online průvodci vysvětlují, jak obejít jeho vestavěná omezení.
Mezitím menší modely umělé inteligence známé jako LoRA usnadňují vyladění modelu Stable Diffusion pro výstup obrázků s konkrétním stylem, konceptem nebo pózou – jako je podobizna celebrity nebo určité sexuální akty. Jsou široce dostupné na tržištích s modely umělé inteligence, jako je Civitai, komunitní web, kde uživatelé sdílejí a stahují modely. Jeden tvůrce zásuvného modulu Taylor Swift naléhal na ostatní, aby jej nepoužívali „pro obrázky NSFW“. Po stažení je však jeho použití mimo kontrolu jeho tvůrce. „Způsob, jakým open source funguje, znamená, že bude docela těžké zabránit někomu v potenciálním únosu,“ říká Ajder.
4chan, stránka s obrázkovými zprávami s pověstí chaotického moderování, je domovem stránek věnovaných nekonsensuálnímu hluboce falešnému pornu, nalezenému WIRED, vytvořeným pomocí volně dostupných programů a modelů AI věnovaných výhradně sexuálním obrázkům. Nástěnky pro obrázky pro dospělé jsou plné nekonsensuálních aktů skutečných žen, od pornoherců až po herečky, jako je Cate Blanchett, vytvořená umělou inteligencí. WIRED také pozoroval uživatele 4chan, kteří sdíleli řešení pro obrázky NSFW pomocí Dall-E 3 od OpenAI.
Tento druh aktivity inspiroval některé uživatele v komunitách věnujících se tvorbě obrázků AI, včetně Reddit a Discord, aby se pokusili zatlačit proti moři pornografických a škodlivých obrázků. Tvůrci také vyjadřují obavy z toho, že software získá reputaci pro obrázky NSFW, a povzbuzují ostatní, aby hlásili obrázky zobrazující nezletilé na Redditu a webech hostujících modely.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com