Dopis zákonodárců také tvrdí, že NIST je uspěchaný s definováním standardů, přestože výzkum testování systémů umělé inteligence je v rané fázi. V důsledku toho mezi odborníky na umělou inteligenci panuje „významná neshoda“ ohledně toho, jak pracovat na nebo dokonce měřit a definovat bezpečnostní problémy s technologií, uvádí. „Současný stav v oblasti výzkumu bezpečnosti umělé inteligence vytváří výzvy pro NIST, protože se orientuje ve své vedoucí roli v této otázce,“ tvrdí dopis.
Mluvčí NIST Jennifer Huergo potvrdila, že agentura dopis obdržela, a uvedla, že „odpoví prostřednictvím vhodných kanálů“.
NIST podniká určité kroky, které by zvýšily transparentnost, včetně vydání žádosti o informace 19. prosince, kdy žádá externí odborníky a společnosti o vstupy do standardů pro hodnocení modelů umělé inteligence a red-teamingu. Není jasné, zda to byla odpověď na dopis poslaný členy Kongresu.
Obavy vznesené zákonodárci sdílejí i někteří odborníci na AI, kteří strávili roky vývojem způsobů, jak zkoumat systémy AI. „Jako nestranný vědecký orgán je NIST nejlepší nadějí, jak překonat humbuk a spekulace kolem rizika AI,“ říká Rumman Chowdhury, datový vědec a generální ředitel společnosti Parity Consulting, který se specializuje na testování modelů AI na zkreslení a další problémy. „Ale aby svou práci dělali dobře, potřebují víc než jen mandáty a přání.“
Yacine Jernite, vedoucí strojového učení a společnosti ve společnosti Hugging Face, která podporuje projekty umělé inteligence s otevřeným zdrojovým kódem, říká, že velká technologie má mnohem více zdrojů než agentura, která má klíčovou roli při implementaci ambiciózního plánu Bílého domu v oblasti umělé inteligence. „NIST odvedl úžasnou práci na pomoci řídit rizika AI, ale tlak na okamžitá řešení dlouhodobých problémů jejich misi extrémně ztěžuje,“ říká Jernite. „Mají výrazně méně zdrojů než společnosti vyvíjející nejvíce systémy viditelné umělé inteligence.“
Margaret Mitchellová, hlavní etická vědecká pracovnice společnosti Hugging Face, říká, že rostoucí utajování komerčních modelů umělé inteligence činí měření pro organizaci, jako je NIST, náročnější. „Nemůžeme zlepšit to, co nemůžeme měřit,“ říká.
Výkonný příkaz Bílého domu požaduje, aby NIST provedl několik úkolů, včetně zřízení nového institutu bezpečnosti umělé inteligence na podporu vývoje bezpečné umělé inteligence. V dubnu byla oznámena britská pracovní skupina zaměřená na bezpečnost AI. Dostane 126 milionů dolarů v počátečním financování.
Výkonný příkaz dal NIST agresivní lhůtu pro vypracování, mimo jiné, pokynů pro hodnocení modelů umělé inteligence, principů pro modely „red-teaming“ (nepříznivé testování) a vypracování plánu, jak přimět státy, které jsou spojenci USA, aby souhlasily se standardy NIST. a přichází s plánem „prosazování odpovědných globálních technických standardů pro vývoj AI“.
Ačkoli není jasné, jak NIST spolupracuje s velkými technologickými společnostmi, diskuse o rámci NIST pro řízení rizik, které proběhly před oznámením výkonného příkazu, zahrnovaly Microsoft; Anthropic, startup tvořený bývalými zaměstnanci OpenAI, který vytváří špičkové modely umělé inteligence; Partnerství v oblasti AI, které zastupuje velké technologické společnosti; a Future of Life Institute, nezisková organizace věnující se mimo jiné existenčnímu riziku.
„Jako kvantitativní sociální vědec miluji i nenávidím, že si lidé uvědomují, že síla je v měření,“ říká Chowdhury.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com