Přesto „nezdá se příliš dlouho, než by tato technologie mohla být použita pro monitorování zaměstnanců,“ říká Elcock.
Autocenzura
Generativní umělá inteligence představuje několik potenciálních rizik, ale existují kroky, které mohou podniky a jednotliví zaměstnanci podniknout, aby zlepšili soukromí a zabezpečení. Za prvé, nevkládejte důvěrné informace do výzvy pro veřejně dostupný nástroj, jako je ChatGPT nebo Gemini od Googlu, říká Lisa Avvocato, viceprezidentka marketingu a komunity datové firmy Sama.
Při vytváření výzvy buďte obecní, abyste se vyhnuli přílišnému sdílení. „Ptejte se: ‚Napište šablonu návrhu pro rozpočtové výdaje‘, ne ‚Tady je můj rozpočet, napište návrh výdajů na citlivý projekt‘,“ říká. „Použijte AI jako svůj první návrh a poté navrstvěte citlivé informace, které potřebujete zahrnout.“
Pokud jej používáte pro výzkum, vyhněte se problémům, jako jsou ty, které se vyskytují v přehledech AI společnosti Google, tím, že ověříte, co poskytuje, říká Avvocato. „Požádejte ji, aby poskytla reference a odkazy na své zdroje. Pokud požádáte AI, aby napsala kód, musíte jej stále zkontrolovat, spíše než předpokládat, že je dobré jít.“
Microsoft sám prohlásil, že Copilot musí být správně nakonfigurován a že by mělo být použito „nejmenší privilegium“ – koncept, že uživatelé by měli mít přístup pouze k informacím, které potřebují. To je „zásadní bod“, říká Robinson z Prism Infosec. „Organizace musí položit základy pro tyto systémy a nejen důvěřovat technologii a předpokládat, že vše bude v pořádku.“
Za zmínku také stojí, že ChatGPT používá data, která sdílíte, k trénování svých modelů, pokud to nevypnete v nastavení nebo nepoužíváte podnikovou verzi.
Seznam záruk
Firmy integrující generativní umělou inteligenci do svých produktů tvrdí, že dělají vše pro ochranu bezpečnosti a soukromí. Společnost Microsoft se snaží nastínit aspekty zabezpečení a ochrany osobních údajů ve svém produktu Recall a možnost ovládat tuto funkci Nastavení > Soukromí a zabezpečení > Vyvolání a snímky.
Google říká, že generativní umělá inteligence ve Workspace „nemění naši základní ochranu soukromí, která uživatelům dává možnost volby a kontrolu nad jejich daty“, a stanoví, že informace se nepoužívají k reklamě.
OpenAI znovu zdůrazňuje, jak ve svých produktech udržuje zabezpečení a soukromí, zatímco podnikové verze jsou k dispozici s dalšími ovládacími prvky. „Chceme, aby se naše modely umělé inteligence učily o světě, ne o soukromých osobách – a podnikáme kroky k ochraně dat a soukromí lidí,“ říká mluvčí OpenAI pro WIRED.
OpenAI říká, že nabízí způsoby, jak ovládat, jak jsou data využívána, včetně samoobslužných nástrojů pro přístup, export a mazání osobních údajů, stejně jako možnost odhlásit se z používání obsahu za účelem vylepšení svých modelů. ChatGPT Team, ChatGPT Enterprise a jeho API nejsou trénovány na data nebo konverzace a jejich modely se podle společnosti ve výchozím nastavení neučí z používání.
Ať tak či onak, vypadá to, že váš spolupracovník AI tu zůstane. Jak se tyto systémy stávají sofistikovanějšími a všudypřítomnými na pracovišti, rizika se budou jen stupňovat, říká Woollven. „Již jsme svědky vzniku multimodální umělé inteligence, jako je GPT-4o, která dokáže analyzovat a generovat obrázky, zvuk a video. Nyní se tedy společnosti nemusí starat o zabezpečení pouze textových dat.“
S ohledem na to se lidé – a firmy – musí začít s AI chovat jako s jakoukoli jinou službou třetí strany, říká Woollven. „Nesdílejte nic, co byste nechtěli veřejně vysílat.“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com