
Demokraté na Výbor pro dohled nad dohledem vystřelil dvě desítky žádostí ve středu ranního stisknutí vedoucího federální agentury o informace o plánech instalace softwaru AI v celé federální agentury uprostřed probíhajících škrtů na vládní pracovní sílu.
Harba dotazů se řídí nedávným vykazováním Wired a Washington Post týkající se úsilí tzv. Ministerstva vládní efektivity Elona Muska (DOGE) automatizovat úkoly s různými proprietárními nástroji AI a citlivými údaji o přístupu.
„Američané svěřují federální vládě citlivé osobní údaje týkající se jejich zdraví, financí a dalších biografických informací na základě toho, že tyto informace nebudou zveřejněny nebo nesprávně použity bez jejich souhlasu,“ četly žádosti, „včetně použití neschváleného a nezodpovědného softwaru AI třetích stran.“
Žádosti, poprvé získané společností Wired, podepsají Gerald Connolly, demokratický kongresman z Virginie.
Ústředním účelem žádostí je tlačit agentury, aby prokázaly, že jakékoli možné využití AI je legální a že jsou podniknuty kroky k ochraně soukromých údajů Američanů. Demokraté také chtějí vědět, zda nějaké použití AI bude finančně prospěch Musk, který založil Xai a jehož problémová společnost Electric Car, Tesla, pracuje na otáčení směrem k robotice a umělé inteligenci. Demokraté se dále obávají, Connolly říká, že Musk by mohl využívat svůj přístup k citlivým vládním údajům pro osobní obohacení a využívat údaje k „překonanému“ vlastnímu proprietárnímu modelu AI, známého jako Grok.
V žádostech Connolly poznamenává, že federální agentury jsou „vázány několika zákonnými požadavky v jejich používání softwaru AI“, což ukazuje hlavně na federální program řízení rizik a autorizace, který pracuje na standardizaci vládního přístupu k cloudovým službám a zajišťuje, že nástroje založené na AI jsou řádně posouzeny pro bezpečnostní rizika. Poukazuje také na pokročilý americký zákon AI, který vyžaduje, aby federální agentury „připravily a udržovaly soupis případů agentury umělé inteligence“ a „zpřístupnily inventáře agentur veřejnosti“.
Dokumenty získané společností Wired minulý týden ukazují, že pracovníci Doge nasadili proprietární chatbot s názvem GSAI přibližně 1 500 federálním pracovníkům. GSA dohlíží na nemovitosti federální vlády a dodává služby informačních technologií mnoha agenturám.
Memorandum, které získalo kabelové reportéry, ukazuje, že zaměstnanci byli varováni před krmením softwaru jakékoli kontrolované nezařazené informace. Podle dokumentů, které sledovaly Wired, zvažovaly jiné agentury, včetně oddělení ministerstva financí a zdravotnictví a lidských služeb, zvažovaly pomocí chatbota, i když ne nutně GSAI.
Společnost Wired také uvedla, že armáda Spojených států v současné době používá software dabovaný Camogpt k prohledání svých záznamových systémů pro jakékoli odkazy na rozmanitost, kapitál, začlenění a přístupnost. Mluvčí armády potvrdil existenci nástroje, ale odmítl poskytnout další informace o tom, jak jej armáda plánuje používat.
V žádostech Connolly píše, že ministerstvo školství má osobně identifikovatelné informace o více než 43 milionech lidí spojených s federálními programy pomoci studentům. „Vzhledem k neprůhledným a frenetickým tempu, kterým se zdá, že Doge funguje,“ píše, „jsem hluboce znepokojen tím, že studenti, rodiče, rodiče, manželé“, rodinné příslušníky a všechny ostatní dlužníky se zabývají tajnými členy týmu DOG Washington Post dříve uvedl, že Doge začala krmit citlivá federální data z rekordních systémů na ministerstvu školství, aby analyzovala jeho výdaje.
Ministr školství Linda McMahon v úterý uvedla, že postupuje s plány na vystřelení více než tisíc pracovníků na oddělení a připojila se ke stovkám dalších, kteří minulý měsíc přijali „výkup“ Doge. Oddělení vzdělávání ztratilo téměř polovinu své pracovní síly – první krok, říká McMahon při plném zrušení agentury.
„Použití AI k vyhodnocení citlivých údajů je plné vážných rizik nad nesprávným zveřejněním,“ píše Connolly a varuje, že „použité vstupy a parametry vybrané pro analýzu mohou být chybné, mohou být chyby zavedeny prostřednictvím návrhu softwaru AI a zaměstnanci mohou nesprávně vykládat doporučení AI, mezi ostatními.“
Dodává: „Bez jasného účelu za použití AI, zábradlí k zajištění vhodného zpracování údajů a přiměřeného dohledu a transparentnosti je aplikace AI nebezpečná a potenciálně porušuje federální zákon.“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com