Antropický soubor a Federální žaloba proti americkému ministerstvu obrany a dalším federálním agenturám v pondělí zpochybňuje její označení společnosti AI jako „rizika dodavatelského řetězce“.
Pentagon minulý týden formálně schválil Anthropic, čímž završil týdny trvající veřejně vysílaný nesouhlas ohledně omezení používání jeho generativní AI technologie pro vojenské aplikace, jako jsou autonomní zbraně.
„Nevěříme, že je tento krok právně správný, a nevidíme jinou možnost, než jej napadnout u soudu,“ napsal ve čtvrtek na blogu generální ředitel Anthropic Dario Amodei.
Žaloba, která byla podána u federálního soudu v Kalifornii, požadovala, aby soudce toto označení zrušil a federálním agenturám zabránil v jeho vymáhání. „Ústava nedovoluje vládě využít svou obrovskou moc k potrestání společnosti za její chráněný projev,“ uvedl Anthropic v podání. „Anthropic se obrací na soudnictví jako poslední možnost, aby obhájil svá práva a zastavil nezákonnou odvetnou kampaň exekutivy.“
Startup AI, který vyvíjí sadu modelů AI s názvem Claude, čelí možnosti ztráty stovek milionů dolarů na ročních příjmech Pentagonu a zbytku americké vlády. Může také přijít o podnikání softwarových společností, které začleňují Clauda do služeb, které prodávají federálním agenturám. Několik zákazníků společnosti Anthropic údajně uvedlo, že hledají alternativy kvůli označení rizik ministerstvem obrany.
Amodei napsal, že „velká většina“ zákazníků společnosti Anthropic nebude muset provádět změny. Označení vlády USA „jednoznačně platí pouze pro použití Claude zákazníky jako přímou součást kontraktů s armádou“, řekl. Všeobecné používání antropických technologií vojenskými dodavateli by nemělo být ovlivněno.
Ministerstvo obrany, které také spadá pod ministerstvo války, a Bílý dům okamžitě nereagovaly na žádosti o vyjádření k žalobě Anthropic.
Advokáti s odbornými znalostmi v oblasti vládních zakázek tvrdí, že Anthropic čelí těžké bitvě u soudu. Pravidla, která opravňují ministerstvo obrany označit technologickou společnost za riziko dodavatelského řetězce, neumožňují mnoho odvolání. „Stanovení parametrů smlouvy je 100% v pravomoci vlády,“ říká Brett Johnson, partner advokátní kanceláře Snell & Wilmer. Pentagon, říká, má také právo vyjádřit, že produkt vzbuzující obavy, pokud jej používá některý z jeho dodavatelů, „poškozuje schopnost vlády uskutečnit své poslání“.
Největší šance společnosti Anthropic na úspěch u soudu by mohla být prokázání toho, že byla vybrána, říká Johnson. Brzy poté, co ministr obrany Pete Hegseth oznámil, že označuje Anthropic za riziko dodavatelského řetězce, konkurenční OpenAI oznámila, že uzavřela novou smlouvu s Pentagonem. To by mohlo být užitečné pro právní argument Anthropic, pokud společnost může prokázat, že hledala podobné podmínky jako vývojář ChatGPT.
OpenAI uvedla, že její dohoda zahrnovala smluvní a technické prostředky k zajištění toho, že její technologie nebudou použity pro hromadné domácí sledování nebo pro řízení autonomních zbraňových systémů. Dodala, že je proti akci proti Anthropic a ví, proč její rival nemůže dosáhnout stejné dohody s vládou.
Vojenská priorita
Hegseth upřednostnil vojenské osvojení technologií umělé inteligence, přičemž plakáty, které byly nedávno viděny v Pentagonu, ukazují, jak ukazuje: „Chci, abyste používali umělou inteligenci“. Spor se společností Anthropic vypukl v lednu poté, co Hegseth nařídil několika dodavatelům umělé inteligence, aby souhlasili s tím, že oddělení může volně používat jejich technologie pro jakýkoli zákonný účel.
Společnost Anthropic, která je jedinou společností, která v současnosti poskytuje chatboty s umělou inteligencí a analytické nástroje pro nejcitlivější případy použití v armádě, odstoupila. Tvrdí, že její technologie zatím nejsou dostatečně schopné, aby mohly být použity pro masové domácí sledování Američanů nebo plně autonomní zbraně. Hegseth řekl, že Anthropic chce právo veta nad rozsudky, které by měly být ponechány ministerstvu obrany.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com
