Antropický „nemá splnil přísné požadavky“ dočasně ztratit označení rizika dodavatelského řetězce uložené Pentagonem, rozhodl ve středu americký odvolací soud ve Washingtonu, DC. Rozhodnutí je v rozporu s rozhodnutím vydaným minulý měsíc soudcem nižšího soudu v San Franciscu a nebylo okamžitě jasné, jak budou konfliktní předběžné rozsudky vyřešeny.
Vláda schválila Anthropic na základě dvou různých zákonů o dodavatelském řetězci s podobnými účinky a soudy v San Franciscu a Washingtonu, DC, rozhodují každý pouze o jednom z nich. Společnost Anthropic uvedla, že je první americkou společností, která byla označena podle dvou zákonů, které se obvykle používají k potrestání zahraničních podniků, které představují riziko pro národní bezpečnost.
„Udělení pobytu by přinutilo armádu Spojených států prodloužit své jednání s nechtěným dodavatelem kritických služeb AI uprostřed významného probíhajícího vojenského konfliktu,“ napsal ve středu tříčlenný odvolací panel v tom, co označili za bezprecedentní případ. Panel uvedl, že ačkoliv Anthropic může utrpět finanční újmu z probíhajícího jmenování, nechtěli riskovat „podstatné soudní uvalení na vojenské operace“ nebo „lehce potlačit“ rozsudky armády o národní bezpečnosti.
Soudce ze San Francisca zjistil, že ministerstvo obrany pravděpodobně jednalo ve zlé víře proti Anthropic, vedené frustrací z limitů navržených společností AI ohledně toho, jak lze její technologii používat, a její veřejnou kritikou těchto omezení. Soudce nařídil minulý týden odstranit označení rizika dodavatelského řetězce a Trumpova administrativa vyhověla obnovením přístupu k nástrojům Antropické umělé inteligence uvnitř Pentagonu a ve zbytku federální vlády.
Mluvčí společnosti Antropic Danielle Cohenová říká, že společnost je vděčná tomu, že soud ve Washingtonu, DC „uznal, že tyto problémy je třeba vyřešit rychle“ a zůstává přesvědčen, že „soudy budou nakonec souhlasit s tím, že tato označení dodavatelského řetězce byla nezákonná“.
Ministerstvo obrany na žádost o vyjádření okamžitě nereagovalo.
Případy testují, jakou moc má výkonná moc nad chováním technologických společností. Bitva mezi Anthropic a Trumpovou administrativou se také odehrává, když Pentagon nasazuje AI do své války proti Íránu. Společnost tvrdila, že je nezákonně potrestána za to, že její nástroj AI Claude postrádá přesnost potřebnou pro určité citlivé operace, jako je provádění smrtících útoků dronů bez lidského dohledu.
Několik expertů na vládní kontrakty a korporátní práva řeklo WIRED, že Antropic má proti vládě silný argument, ale soudy někdy odmítají přehlasovat Bílý dům v záležitostech týkajících se národní bezpečnosti. Někteří výzkumníci umělé inteligence uvedli, že akce Pentagonu proti Antropické „odborné debatě“ o výkonu systémů umělé inteligence.
Společnost Anthropic u soudu tvrdila, že kvůli tomuto označení přišla o obchod, o kterém vládní právníci tvrdí, že brání Pentagonu a jeho dodavatelům používat Claude AI společnosti jako součást vojenských projektů. A dokud Trump zůstane u moci, Anthropic nemusí být schopen znovu získat významnou oporu, kterou měl ve federální vládě.
Konečné rozhodnutí ve dvou soudních sporech společnosti může trvat měsíce. Soud ve Washingtonu, DC, má vyslechnout ústní argumenty 19. května.
Strany zatím odhalily minimální podrobnosti o tom, jak přesně ministerstvo obrany Clauda využilo nebo jak velký pokrok udělalo v přechodu zaměstnanců na jiné nástroje AI od Google DeepMind, OpenAI nebo dalších. Armáda, která si za prezidenta Donalda Trumpa říká Ministerstvo války, uvedla, že podnikla kroky k zajištění toho, aby se Anthropic nemohl během přechodu záměrně pokusit sabotovat své nástroje AI.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com
