
Národní institut pro standardy a technologii (NIST) vydal vědcům nové pokyny, kteří spolupracují s americkým institutem pro bezpečnost umělé inteligence (AISI), které eliminují zmínku o „bezpečnosti AI“, „odpovědné AI“ a „spravedlivosti AI“ v dovednostech, které od členů očekává, a zavádí žádost o upřednostňování ideologické předpoklady, aby enizovala lidská, a hospodářská konkurenční “.
Informace přicházejí jako součást aktualizované dohody o spolupráci a vývoji pro členy konsorcia konsorcia AI, zaslané začátkem března. Dříve tato dohoda povzbudila výzkumné pracovníky, aby přispěli technickou prací, která by mohla pomoci identifikovat a opravit diskriminační chování modelu související s nerovností pohlaví, rasy, věku nebo bohatství. Taková zkreslení jsou nesmírně důležitá, protože mohou přímo ovlivnit koncové uživatele a nepřiměřeně poškodit menšiny a ekonomicky znevýhodněné skupiny.
Nová dohoda odstraňuje zmínku o vývoji nástrojů „pro ověření obsahu a sledování jeho provenience“ a „označování syntetického obsahu“, což signalizuje menší zájem o sledování dezinformací a hlubokých padělků. Rovněž klade důraz na první místo Ameriky a požádá jednu pracovní skupinu o vývoj testovacích nástrojů „pro rozšíření americké globální pozice AI“.
„Trumpova administrativa odstranila bezpečnost, spravedlnost, dezinformace a odpovědnost za věci, které si cení pro AI, což si myslím, že mluví za sebe,“ říká jeden výzkumný pracovník v organizaci pracující s bezpečnostním institutem AI, který požádal, aby nebyl jmenován ze strachu z reprisalu.
Výzkumník se domnívá, že ignorování těchto problémů by mohlo poškodit běžné uživatele tím, že by umožnilo algoritmy, které diskriminují na základě příjmů nebo jiných demografických údajů, aby se nekontrolovaly. „Pokud nejste technický miliardář, povede to k horší budoucnosti pro vás a pro lidi, na které vám záleží.“ Očekávejte, že AI bude nespravedlivá, diskriminační, nebezpečná a nezodpovědně nasazena, “tvrdí vědec.
„Je to divoké,“ říká další výzkumný pracovník, který v minulosti pracoval s bezpečnostním institutem AI. „Co to vůbec znamená, že lidé vzkvétají?“
Elon Musk, který v současné době vede kontroverzní úsilí o snížení vládních výdajů a byrokracie jménem prezidenta Trumpa, kritizoval modely AI postavené společností OpenAI a Google. Loni v únoru zveřejnil meme na X, ve kterém byli Gemini a Openai označeni za „rasistické“ a „probuzené“. Často cituje incident, kdy jeden z modelů společnosti Google diskutoval o tom, zda by bylo špatné někoho chytit, i když by to zabránilo jaderné apokalypse – vysoce nepravděpodobný scénář. Kromě Tesla a SpaceX provozuje Musk Xai, společnost AI, která soutěží přímo s OpenAI a Google. Výzkumník, který radí XAI, nedávno vyvinul novou techniku pro možná změnu politických sklonů velkých jazykových modelů, jak uvádí Wired.
Rostoucí část výzkumu ukazuje, že politická zaujatost v modelech AI může ovlivnit liberály i konzervativce. Například studie algoritmu doporučení Twitteru zveřejněného v roce 2021 ukázala, že uživatelům je pravděpodobnější, že budou na platformě zobrazeny perspektivy správně.
Od ledna se Muskovo takzvané oddělení vládní efektivity (DOGE) zametalo americkou vládou, účinně střílela státní úředníky, zastavila výdaje a vytvářela životní prostředí, o kterém se předpokládá, že je nepřátelské vůči těm, kteří by se mohli postavit proti cílům Trumpovy administrativy. Některá vládní oddělení, jako je ministerstvo školství, archivovaly a odstranily dokumenty, které zmiňují DEI. Doge se v posledních týdnech také zaměřila na NIST, mateřskou organizaci AISI. Desítky zaměstnanců byly propuštěny.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com