Spuštění a rozšířené používání ChatGPT, vývoje generativní umělé inteligence založeného na technologii LLM (extensive language model), podněcuje velkou zvědavost a debatu o výhodnosti jejího používání a rizicích, která s sebou může nést.
Je to forma strojového učení, založená na jazykových modelech, schopná generovat a propojovat nápady a vytvářet jedinečné odpovědi podobné těm, které píší lidé z analýzy velkého množství informačních zdrojů. Stejně tak Microsoft představil svůj návrh Bingu s AI s mnohem větší silou, dokonce než ChatGPT a Google také uvedl na trh své řešení Bard. Společně s nimi se množí množství návrhů, které revolučně mění způsob, jakým komunikujeme s počítači.
Tyto nástroje nabízejí firmám a občanům velké příležitosti a nepochybně změní způsob práce jak pro uživatele, tak pro firmy, ale představují riziko pro kybernetickou bezpečnost nebo je můžeme považovat spíše za pomoc při zavádění bezpečnější prostředí?
Existují určitá bezpečnostní rizika, která vyplývají z ChatGPT a přetrvávají i v jeho nejpokročilejším modelu, GPT-4.
Škodlivé použití AI s ChatGPT
Hlavním problémem, který je třeba zvážit, je možnost úniku informací a krádeže dat. Organizace již varují své zaměstnance před riziky sdílení informací o samotné společnosti v ChatGPT (a podobných aplikacích), která by se později mohla odhalit v odpovědích, které se naučí nabízet uživatelům. Po nedávném úniku dat se také objevilo mnoho pochybností o bezpečnosti samotné platformy, protože informace, které ukládá, nejsou šifrované.
Kromě toho existuje riziko, že zločinci používají tyto nástroje k psaní přesvědčivých, vícejazyčných phishingových e-mailů zasílaných s úmyslem oklamat uživatele a získat od nich citlivé informace. Text generovaný umělou inteligencí je napsán ve vysoké kvalitě, což eliminuje podezření, které může běžný phishing vzbudit.
Spuštění ChatGPT, vývoje generativní umělé inteligence, podněcuje velkou zvědavost a debatu o pohodlnosti jejího používání a rizicích, která s sebou může nést.
Podobně jsou možné další útoky sociálního inženýrství díky schopnosti těchto nástrojů generovat obrázky, videa a dokonce simulovat hlas. Falešné profily na sociálních sítích lze vytvořit a upravit tak, aby vypadaly velmi realisticky. Je snadné si představit, jak mohou být tyto falešné identity použity k klamání lidí ak provádění podvodů a podvodů.
Vývoj škodlivého kódu je dalším způsobem, jak mohou kyberzločinci, a to i ti s malými znalostmi programování, vytvářet viry, trojské koně, malware, ransomware a spyware. Již byly nalezeny náznaky škodlivých aktérů používajících ChatGPT k vytváření skriptů pro škodlivé účely.
A i když existují další využití, stojí za zmínku také možnost generování falešných zpráv nebo zpráv určených k ovlivnění veřejného mínění nebo například k ovlivnění volebních procesů. Dezinformace jsou jasným problémem, který může ovlivnit národní bezpečnost, poškodit sociální soudržnost a demokratické principy. Tyto falešné zprávy však pravděpodobně ovlivní i společnosti („doxing“), a to šířením hoaxů, neobjektivních informací nebo manipulací s dokumenty, které poškodí důvěryhodnost organizací. Jeho účel může sahat od útoku na pověst až po ovlivňování trhů.
Technologie jako velký faktor změny v našich společnostech však není navržena tak, aby byla používána pro škodlivé účely. Z tohoto důvodu chceme také analyzovat příležitosti, které mohou nové nástroje AI generovat v oblasti bezpečnosti, mezi nimiž vynikají: automatizace rutinních úkolů v bezpečnostních funkcích, podpora při detekci phishingu, testy a testování kód, identifikace vzorů ve velkém množství dat, se kterými se zachází, strukturování doporučení ohledně bezpečnostních otázek atd.
Kromě toho mohou být generativní AI prvním bodem učení o tématech souvisejících s bezpečností, technologií nebo rizikem. Budou obzvláště zajímavé, protože poskytují množství zdrojů, které budou lepší a lepší.
GPT Chat může být nepochybně velmi užitečným nástrojem, který usnadňuje naše každodenní úkoly, ale může být také potenciálně nebezpečný, pokud to osoba, která jej používá, činí z neetických důvodů. Musíme věnovat pozornost vývoji tohoto nástroje, stejně jako všech nástrojů založených na AI, které se brzy objeví, abychom úspěšně čelili výzvě, kterou představují, v oblasti bezpečnosti a zvýšení efektivity.
Autor: Juan Pablo Navarro, ředitel informační bezpečnosti, Sopra-Steria
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com