„Rámec umožňuje federálním agenturám sadu závazných požadavků, aby zavedly ochranná opatření pro používání AI, abychom mohli využít výhody a umožnit veřejnosti důvěřovat službám, které federální vláda poskytuje,“ říká Jason Miller, zástupce ředitele OMB. pro řízení.
Návrh memoranda zdůrazňuje určitá použití AI, kde může tato technologie poškodit práva nebo bezpečnost, včetně zdravotní péče, bydlení a vymáhání práva – všechny situace, kdy algoritmy v minulosti vedly k diskriminaci nebo odepření služeb.
Příklady potenciálních bezpečnostních rizik zmíněných v návrhu OMB zahrnují automatizaci kritické infrastruktury, jako jsou přehrady a samořídící vozidla, jako je Cruise robotaxis, které byly minulý týden odstaveny v Kalifornii a jsou vyšetřovány federálními a státními regulačními orgány poté, co chodec srazil vozidlo. byl tažen 20 stop. Příklady toho, jak by umělá inteligence mohla porušovat práva občanů v návrhu zprávy, zahrnují prediktivní policejní práci, umělou inteligenci, která může blokovat chráněnou řeč, software pro detekci plagiátorství nebo emocí, algoritmy prověřování nájemníků a systémy, které mohou ovlivnit imigraci nebo péči o děti.
Podle OMB federální agentury v současné době používají více než 700 algoritmů, ačkoli soupisy poskytnuté federálními agenturami jsou neúplné. Miller říká, že návrh memoranda vyžaduje, aby federální agentury sdílely více o algoritmech, které používají. „Očekáváme, že v následujících týdnech a měsících zlepšíme schopnosti agentur identifikovat a hlásit případy jejich použití,“ říká.
Viceprezidentka Kamala Harrisová zmínila memorandum OMB spolu s dalšími odpovědnými iniciativami v oblasti umělé inteligence v dnešních poznámkách na americkém velvyslanectví v Londýně, které se konalo tento týden na britském summitu o bezpečnosti umělé inteligence. Řekla, že zatímco některé hlasy v politice AI se zaměřují na katastrofická rizika, jako je role, kterou může AI jednoho dne hrát v kyberútocích nebo vytváření biologických zbraní, předsudky a dezinformace jsou již zesilovány AI a ovlivňují jednotlivce a komunity každý den.
Merve Hickok, autor připravované knihy o politice nákupu AI a výzkumný pracovník na University of Michigan, vítá, jak by memorandum OMB vyžadovalo, aby agentury zdůvodňovaly své použití AI a přidělovaly konkrétním lidem odpovědnost za technologii. To je potenciálně účinný způsob, jak zajistit, aby se AI nedostala do každého vládního programu, říká.
Obává se však, že poskytnutí výjimek by tyto mechanismy mohlo podkopat. „Bála bych se, kdybychom viděli, že agentury toto zproštění ve velké míře využívají, zejména vymáhání práva, vnitřní bezpečnost a dohled,“ říká. „Jakmile dostanou výjimku, může to být neomezené.“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com