Stejně jako mnoho dnešních společností ze Silicon Valley i Scout AI školí velké modely umělé inteligence a agenty, aby automatizovali domácí práce. Velký rozdíl je v tom, že místo psaní kódu, odpovídání na e-maily nebo nakupování věcí online jsou agenti Scout AI navrženi tak, aby hledali a ničili věci ve fyzickém světě pomocí explodujících dronů.
Při nedávné demonstraci, která se konala na nezveřejněné vojenské základně v centrální Kalifornii, dostala technologie Scout AI na starost samořídící terénní vozidlo a pár smrtících dronů. Agenti použili tyto systémy k nalezení náklaďáku ukrývajícího se v oblasti a poté jej rozstříleli na kousky pomocí výbušné nálože.
„Musíme do armády přinést AI nové generace,“ řekl mi v nedávném rozhovoru Colby Adcock, generální ředitel Scout AI. (Adcockův bratr, Brett Adcock, je generálním ředitelem Figure AI, startupu pracujícího na humanoidních robotech). „Vezmeme model základů hyperscaler a trénujeme ho, aby se z obecného chatbota nebo agentského asistenta stal válečník.“
Adcockova společnost je součástí nové generace startupů, které se snaží adaptovat technologie z velkých laboratoří umělé inteligence pro bojiště. Mnoho politiků věří, že využití umělé inteligence bude klíčem k budoucí vojenské dominanci. Bojový potenciál AI je jedním z důvodů, proč se vláda USA snažila omezit prodej pokročilých čipů AI a zařízení na výrobu čipů do Číny, ačkoli Trumpova administrativa se nedávno rozhodla tyto kontroly uvolnit.
„Pro startupy v oblasti obranných technologií je dobré posouvat hranice s integrací AI,“ říká Michael Horowitz, profesor na Pensylvánské univerzitě, který dříve sloužil v Pentagonu jako náměstek náměstka ministra obrany pro rozvoj sil a vznikající schopnosti. „To je přesně to, co by měli dělat, pokud se USA chystají vést ve vojenském přijetí AI.“
Horowitz však také poznamenává, že využití nejnovějších pokroků umělé inteligence se v praxi může ukázat jako obzvláště obtížné.
Velké jazykové modely jsou ze své podstaty nepředvídatelné a agenti umělé inteligence – jako ti, kteří ovládají populárního asistenta umělé inteligence OpenClaw – se mohou chovat špatně, když dostanou i relativně neškodné úkoly, jako je online objednávání zboží. Horowitz říká, že může být obzvláště těžké prokázat, že takové systémy jsou robustní z hlediska kybernetické bezpečnosti – něco, co by bylo vyžadováno pro široké vojenské použití.
Nedávné demo Scout AI zahrnovalo několik kroků, ve kterých měla AI volnou ruku nad bojovými systémy.
Na začátku mise byl následující příkaz vložen do systému Scout AI známého jako Fury Orchestrator:
Relativně velký model umělé inteligence s více než 100 miliardami parametrů, který může běžet buď na zabezpečené cloudové platformě, nebo na počítači se vzduchovou mezerou na místě, interpretuje počáteční příkaz. Scout AI používá nezveřejněný open source model s odstraněnými omezeními. Tento model pak funguje jako agent a vydává příkazy menším modelům s 10 miliardami parametrů běžících na pozemních vozidlech a dronech zapojených do cvičení. Menší modely také fungují jako agenti sami, kteří vydávají své vlastní příkazy systémům umělé inteligence nižší úrovně, které řídí pohyby vozidel.
Vteřiny po obdržení rozkazu k pochodu se pozemní vozidlo rozjelo po polní cestě, která se vine mezi křovím a stromy. O několik minut později vozidlo zastavilo a vyslalo dvojici dronů, které vletěly do oblasti, kde dostal pokyn, že cíl čeká. Poté, co agent AI běžící na jednom z dronů zpozoroval náklaďák, vydal rozkaz letět k němu a těsně před dopadem odpálit výbušninu.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com
