Ed Newton-Rex říká, že generativní AI má etický problém. Měl by to vědět, protože býval součástí rychle se rozvíjejícího průmyslu. Newton-Rex byl hlavním návrhářem umělé inteligence TikTok a poté výkonným pracovníkem společnosti Stability AI, dokud v listopadu znechuceně neodešel kvůli postoji společnosti ke shromažďování školicích dat.
Po svém odchodu z velkého profilu se Newton-Rex vrhl do rozhovoru za rozhovorem o tom, jak by budování AI vypadalo eticky v praxi. „Zarazilo mě, že existuje spousta lidí, kteří chtějí používat generativní modely umělé inteligence, které zacházejí s tvůrci spravedlivě,“ říká. „Pokud jim můžete poskytnout lepší nástroje pro rozhodování, je to užitečné.“
Nyní Newton-Rex spustil novou neziskovou organizaci Fairly Trained, která má lidem poskytnout přesně tento typ nástroje pro rozhodování. Nabízí certifikační program k identifikaci společností AI, které licencují svá tréninková data. Průmysl umělé inteligence má nyní svou vlastní verzi certifikačních štítků „fair trade“, které vidíte na kávě.
Aby společnost získala certifikační štítek Fairly Trained, který nazývá L Certification, musí prokázat, že její školicí data byla buď výslovně licencována pro účely školení, ve veřejné doméně nebo nabízena pod vhodnou otevřenou licencí, nebo že již společnosti patřila.
Certifikaci zatím získalo devět společností, včetně generátoru obrázků Bria AI, který trénuje výhradně na datech licencovaných ze zdrojů, jako je Getty Images, a platformy pro generování hudby LifeScore Music, která licencuje práci všech hlavních nahrávacích společností. Několik dalších je blízko dokončení certifikace. Nezisková organizace si účtuje poplatek 500 až 6 000 USD v závislosti na velikosti podniku žadatele.
OpenAI – přední světová společnost zabývající se generativní AI – nedávno tvrdila, že je nemožné vytvořit generativní služby AI, jako je ChatGPT, bez použití nelicencovaných dat. Newton-Rex a první společnosti, které získaly schvalovací razítko Fairly Certified, nesouhlasí. „Už to považujeme za povinnou věc,“ říká generální ředitel Bria Yair Adato o licenčních datech. Modely umělé inteligence postavené na nelicencovaných datech srovnává s Napsterem a Pirate Bay a svou vlastní společnost se Spotify. „Je pro nás opravdu snadné vyhovět požadavkům,“ říká spoluzakladatel Lifescore Music Tom Gruber, který je také poradcem Fairly Certified. „Hudebnímu byznysu opravdu záleží na původu a právech.“
Newton-Rex říká, že má podporu od obchodních skupin, jako je Asociace amerických vydavatelů a Asociace nezávislých hudebních vydavatelů, stejně jako společnosti jako Universal Music Group. Ale hnutí za převrácení standardního přístupu průmyslu umělé inteligence spočívajícího v seškrabování tréninkových dat podle libosti je stále velmi v plenkách. A Fairly Trained je operace jednoho muže. Ne že by to Newton-Rexovi vadilo; stále má myšlení zakladatele startupu. „Věřím v včasné odeslání věcí,“ říká.
Nezisková organizace také není jediná, kdo se snaží standardizovat myšlenku označování produktů AI informacemi o jejich složkách. Bývalý výkonný ředitel Warner Music Group Howie Singer, který nyní studuje, jak technologie mění hudební průmysl, vidí podobnosti mezi Fairly Trained a Content Authority Initiative, projektem vedený Adobe, který má lidem pomoci sledovat pravost obrázků. „To je dobrý krok,“ říká o projektu Newton-Rex.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com