Americké ministerstvo Zdá se, že ministerstvo obrany nezákonně trestá společnost Anthropic za to, že se snaží omezit používání jejích nástrojů umělé inteligence armádou, řekla v úterý během soudního jednání americká okresní soudkyně Rita Lin.
„Vypadá to jako pokus o zmrzačení Antropie,“ řekl Lin o Pentagonu, který označil společnost za riziko dodavatelského řetězce. „Vypadá to [the department] trestá společnost Anthropic za pokus o veřejnou kontrolu tohoto smluvního sporu, což by samozřejmě bylo porušením prvního dodatku.“
Společnost Anthropic podala dvě federální žaloby, v nichž tvrdí, že rozhodnutí Trumpovy administrativy označit společnost za bezpečnostní riziko představovalo nezákonnou odvetu. Vláda udeřila štítkem na Anthropic poté, co prosadila omezení toho, jak by jeho AI mohla být používána armádou. Úterní slyšení přišlo v případu podaném v San Franciscu.
Anthropic usiluje o dočasný příkaz k pozastavení označení. Anthropic doufá, že úleva by pomohla přesvědčit některé plaché zákazníky společnosti, aby u ní ještě chvíli vydrželi. Lin může dát pauzu, pouze pokud zjistí, že Anthropic pravděpodobně vyhraje celkový případ. Její rozhodnutí o soudním příkazu se očekává v nejbližších dnech.
Spor rozpoutal širší veřejnou konverzaci o tom, jak je umělá inteligence stále více využívána ozbrojenými silami a zda by společnosti ze Silicon Valley měly vládě uctívat při určování způsobu nasazení technologie, kterou vyvíjejí.
Ministerstvo obrany, které si nyní říká Department of War (DoW), tvrdilo, že postupovalo podle postupů a náležitě rozhodlo, že na nástroje AI společnosti Anthropic již nelze spoléhat, že budou v kritických okamžicích fungovat podle očekávání. Požádala Lina, aby nepřemýšlel o svém hodnocení hrozby, kterou podle něj Antropický představuje pro národní bezpečnost.
„Obáváme se, že Anthropic, místo toho, aby pouze upozorňoval na obavy a odmítal, řekne, že máme problém s tím, co DoW dělá, a bude manipulovat se softwarem… takže nefunguje tak, jak DoW očekává a chce,“ řekl právník Trumpovy administrativy Eric Hamilton během úterního slyšení.
Lin řekl, že je úkolem ministra obrany Petea Hegsetha – nikoli její – rozhodnout, zda je společnost Anthropic vhodným dodavatelem pro ministerstvo. Lin však řekla, že je na ní, aby určila, zda Hegseth porušil zákon tím, že podnikl kroky nad rámec pouhého zrušení vládních zakázek Anthropic. Lin řekla, že ji „znepokojuje“, že bezpečnostní označení a směrnice, které šířeji omezují používání nástroje AI společnosti Anthropic Claude ze strany vládních dodavatelů, „se nezdá být přizpůsobeny deklarovaným obavám o národní bezpečnost“.
Když se spory Anthropicu s vládou minulý měsíc stupňovaly, Hegseth na X zveřejnil, že „žádný dodavatel, dodavatel ani partner, který obchoduje s armádou Spojených států, nesmí provádět žádnou komerční činnost s Anthropicem“.
V úterý ale Hamilton přiznal, že Hegseth nemá žádnou zákonnou pravomoc zakázat vojenským dodavatelům používat Anthropic k práci, která nesouvisí s ministerstvem obrany. Když se Lin zeptal, proč to Hegseth zveřejnil, Hamilton odpověděl: „Nevím.“
Lin dále položil Hamiltonovi otázku, zda Pentagon uvažoval o přijetí méně represivních opatření, aby oddělení přestal používat nástroje Anthropic. Označení dodavatelského řetězce-rizika popsala jako mocnou autoritu typicky vyhrazenou pro zahraniční protivníky, teroristy a další nepřátelské aktéry.
Michael Mongan, právník WilmerHale zastupující Anthropic, řekl, že je mimořádné, aby vláda šla po „tvrdohlavém“ vyjednávacím partnerovi s tímto označením.
Pentagon uvedl, že v nadcházejících měsících pracuje na nahrazení technologií Anthropic alternativami od Googlu, OpenAI a xAI. Uvedla také, že zavedla opatření, která zabrání Anthropicu v jakékoli manipulaci během přechodu. Hamilton řekl, že neví, jestli je vůbec možné, aby Anthropic aktualizoval své modely AI bez povolení Pentagonu; společnost tvrdí, že není.
Očekává se, že rozhodnutí v druhém případě u federálního odvolacího soudu ve Washingtonu DC přijde brzy bez slyšení.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com
