Způsob, jakým vy talk o vás může hodně prozradit – zvláště pokud mluvíte s chatbotem. Nový výzkum odhaluje, že chatboti jako ChatGPT dokážou odvodit spoustu citlivých informací o lidech, se kterými chatují, i když je konverzace naprosto všední.
Zdá se, že tento jev pramení ze způsobu, jakým jsou algoritmy modelů trénovány s širokými pásy webového obsahu, což je klíčová součást toho, co umožňuje jejich fungování, což pravděpodobně ztěžuje prevenci. „Není ani jasné, jak tento problém vyřešit,“ říká Martin Vechev, profesor informatiky na ETH Zurich ve Švýcarsku, který výzkum vedl. „To je velmi, velmi problematické.“
Vechev a jeho tým zjistili, že velké jazykové modely, které pohánějí pokročilé chatboty, dokážou přesně odvodit alarmující množství osobních informací o uživatelích – včetně jejich rasy, polohy, povolání a dalších – z konverzací, které vypadají neškodně.
Vechev říká, že podvodníci by mohli využít schopnosti chatbotů odhadnout citlivé informace o osobě, aby získali citlivá data od nic netušících uživatelů. Dodává, že stejná základní schopnost by mohla předzvěst nové éry reklamy, ve které společnosti využívají informace shromážděné od chabotů k vytváření podrobných profilů uživatelů.
Některé společnosti, které stojí za výkonnými chatboty, také hodně spoléhají na reklamu pro své zisky. „Už by to mohli dělat,“ říká Vechev.
Vědci z Curychu testovali jazykové modely vyvinuté OpenAI, Google, Meta a Anthropic. Prý na problém upozornili všechny společnosti. OpenAI, Google a Meta neodpověděly okamžitě na žádost o komentář. Společnost Antropic odkázala na své zásady ochrany osobních údajů, které uvádí, že neshromažďuje ani „neprodává“ osobní údaje.
„To jistě vyvolává otázky o tom, kolik informací o sobě nechtěně unikáme v situacích, kdy bychom mohli očekávat anonymitu,“ říká Florian Tramèr, odborný asistent také na ETH Zurich, který se na práci nepodílel, ale viděl podrobnosti prezentované na konferenci. minulý týden.
Tramèr říká, že mu není jasné, kolik osobních informací by se dalo tímto způsobem odvodit, ale spekuluje, že jazykové modely mohou být mocným pomocníkem při odhalování soukromých informací. „Pravděpodobně existují určité vodítka, že LLM jsou obzvláště dobré v hledání, a jiné, kde jsou lidská intuice a předchozí mnohem lepší,“ říká.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com