Smrtící biologické zbraně, automatizované útoky kybernetické bezpečnosti, výkonné modely umělé inteligence unikající lidské kontrole. To jsou jen některé z potenciálních hrozeb, které umělá inteligence představuje, podle nové zprávy britské vlády. Byl zveřejněn, aby pomohl nastavit agendu pro mezinárodní summit o bezpečnosti AI, který bude příští týden hostit Spojené království. Zpráva byla sestavena na základě informací od předních společností zabývajících se umělou inteligencí, jako je jednotka DeepMind společnosti Google a několik vládních ministerstev Spojeného království, včetně zpravodajských agentur.
Joe White, zmocněnec Spojeného království pro technologie v USA, říká, že summit poskytuje příležitost spojit země a přední společnosti v oblasti umělé inteligence, aby lépe porozuměly rizikům, která tato technologie představuje. Řízení potenciálních nevýhod algoritmů bude vyžadovat staromódní organickou spolupráci, říká White, který pomáhal naplánovat summit příští týden. „Toto nejsou výzvy mezi stroji a člověkem,“ říká White. „Jsou to výzvy mezi lidmi.“
Britský premiér Rishi Sunak zítra vystoupí s projevem o tom, že zatímco AI otevírá příležitosti k pokroku lidstva, je důležité být upřímný ohledně nových rizik, která vytváří pro budoucí generace.
Britský summit o bezpečnosti umělé inteligence se bude konat 1. a 2. listopadu a zaměří se především na způsoby, jak mohou lidé zneužít pokročilé formy umělé inteligence nebo nad nimi ztratit kontrolu. Někteří odborníci na AI a manažeři ve Spojeném království kritizovali zaměření akce a uvedli, že vláda by měla upřednostňovat spíše krátkodobé záležitosti, jako je pomoc Spojenému království konkurovat globálním lídrům v oblasti AI, jako jsou USA a Čína.
Někteří odborníci na umělou inteligenci varovali, že nedávný nárůst v diskuzi o vzdálených scénářích umělé inteligence, včetně možnosti vyhynutí lidstva, by mohl odvést pozornost regulátorů a veřejnosti od bezprostřednějších problémů, jako jsou neobjektivní algoritmy nebo technologie umělé inteligence posilující již dominantní společnosti.
Dnes zveřejněná zpráva Spojeného království se zabývá dopady velkých jazykových modelů na národní bezpečnost, technologie umělé inteligence za ChatGPT. White říká, že britské zpravodajské agentury spolupracují s Frontier AI Task Force, britskou vládní expertní skupinou, na prozkoumání scénářů, jako by se mohlo stát, kdyby špatní herci spojili velký jazykový model s tajnými vládními dokumenty. Jedna ošklivá možnost diskutovaná ve zprávě naznačuje, že velký jazykový model, který urychluje vědecké objevy, by mohl také podpořit projekty snažící se vytvořit biologické zbraně.
Letos v červenci Dario Amodei, generální ředitel startupu Anthropic s umělou inteligencí, řekl členům amerického Senátu, že během příštích dvou nebo tří let by mohlo být možné, aby jazykový model navrhl, jak provádět rozsáhlé útoky biologickými zbraněmi. Ale White říká, že zpráva je dokumentem na vysoké úrovni, který nemá sloužit jako nákupní seznam všech špatných věcí, které lze udělat.
Kromě vládních agentur Spojeného království byla dnes zveřejněná zpráva přezkoumána panelem složeným z odborníků na politiku a etiku z laboratoře DeepMind AI společnosti Google, která začala jako londýnský startup AI a byla koupena vyhledávací společností v roce 2014, a Hugging Face, startup. vývoj open source AI softwaru.
Konzultován byl také Yoshua Bengio, jeden ze tří „kmotrů AI“, který získal nejvyšší ocenění v oblasti výpočetní techniky, Turingovu cenu, za techniky strojového učení klíčové pro současný boom AI. Bengio nedávno řekl, že jeho optimismus ohledně technologie, kterou pomáhal pěstovat, se otřásl a že je zapotřebí nové organizace „obrany lidstva“, která pomůže udržet AI pod kontrolou.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com