Dokonce i ten nejchytřejší a nejmazanější algoritmus umělé inteligence bude pravděpodobně muset dodržovat zákony křemíku. Jeho schopnosti budou omezeny hardwarem, na kterém běží.
Někteří výzkumníci zkoumají způsoby, jak toto spojení využít k omezení potenciálu systémů umělé inteligence způsobovat škody. Cílem je zakódovat pravidla, jimiž se řídí výcvik a nasazení pokročilých algoritmů, přímo do počítačových čipů potřebných k jejich spuštění.
Teoreticky – ve sféře, kde se v současnosti hodně diskutuje o nebezpečně mocné umělé inteligenci – by to mohlo představovat nový účinný způsob, jak zabránit ničemným národům nebo nezodpovědným společnostem v tajném vývoji nebezpečné umělé inteligence. A je těžší se vyhnout než konvenční zákony nebo smlouvy. Zpráva zveřejněná počátkem tohoto měsíce Centrem pro novou americkou bezpečnost, vlivným americkým zahraničním politickým think-tankem, nastiňuje, jak pečlivě lze využít okopaný křemík k prosazení řady kontrol AI.
Některé čipy již obsahují důvěryhodné komponenty určené k ochraně citlivých dat nebo k ochraně před zneužitím. Nejnovější iPhony například uchovávají biometrické informace člověka v „bezpečné enklávě“. Google používá na svých cloudových serverech vlastní čip, aby zajistil, že s ničím nebude manipulováno.
Dokument navrhuje využít podobné funkce zabudované do GPU – nebo vyleptat nové do budoucích čipů – aby se zabránilo projektům AI v přístupu k více než určitému množství výpočetního výkonu bez licence. Protože k trénování nejvýkonnějších algoritmů umělé inteligence, jako jsou algoritmy ChatGPT, je zapotřebí velký výpočetní výkon, který by omezoval, kdo může postavit nejvýkonnější systémy.
CNAS říká, že licence by mohly být vydávány vládou nebo mezinárodním regulátorem a pravidelně obnovovány, což by umožnilo odříznout přístup ke školení AI odmítnutím nového. „Mohli byste navrhnout protokoly tak, abyste mohli nasadit model pouze v případě, že jste provedli konkrétní hodnocení a získali skóre nad určitou prahovou hodnotu – řekněme kvůli bezpečnosti,“ říká Tim Fist, kolega z CNAS a jeden ze tří autorů papír.
Někteří představitelé umělé inteligence se obávají, že umělá inteligence je nyní tak chytrá, že by se jednoho dne mohla ukázat jako neukázněná a nebezpečná. Bezprostředněji se někteří odborníci a vlády obávají, že i stávající modely umělé inteligence by mohly usnadnit vývoj chemických nebo biologických zbraní nebo automatizaci kybernetické kriminality. Washington již zavedl řadu kontrol exportu čipů AI, aby omezil přístup Číny k nejpokročilejší AI, protože se obával, že by mohla být použita pro vojenské účely – ačkoli pašování a chytré inženýrství poskytlo několik způsobů, jak je obejít. Nvidia to odmítla komentovat, ale kvůli posledním americkým exportním kontrolám přišla společnost o objednávky z Číny v hodnotě miliard dolarů.
Fist of CNAS říká, že i když se omezení pevného kódování do počítačového hardwaru mohou zdát extrémní, existuje precedens ve vytváření infrastruktury pro sledování nebo kontrolu důležitých technologií a prosazování mezinárodních smluv. „Pokud přemýšlíte o bezpečnosti a nešíření jaderných zbraní, ověřovací technologie byly naprosto klíčové pro zajištění smluv,“ říká Fist z CNAS. „Síť seismometrů, kterou nyní musíme odhalit podzemní jaderné testy, je základem smluv, které říkají, že nebudeme testovat podzemní zbraně nad určitou hranici kilotun.“
Myšlenky předložené CNAS nejsou zcela teoretické. Naprosto důležité školicí čipy AI společnosti Nvidia – zásadní pro vytváření nejvýkonnějších modelů AI – již přicházejí s bezpečnými kryptografickými moduly. A v listopadu 2023 výzkumníci z Future of Life Institute, neziskové organizace věnující se ochraně lidstva před existenčními hrozbami, a Mithril Security, bezpečnostní startup, vytvořili demo, které ukazuje, jak lze bezpečnostní modul procesoru Intel použít pro šifrování. schéma, které může omezit neoprávněné použití modelu AI.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com