Skupina současných a bývalých zaměstnanců OpenAI vydala veřejný dopis s varováním, že společnost a její konkurenti budují umělou inteligenci s nepřiměřeným rizikem, bez dostatečného dohledu a přitom umlčují zaměstnance, kteří by mohli být svědky nezodpovědných aktivit.
„Tato rizika sahají od dalšího zakořenění existujících nerovností přes manipulaci a dezinformace až po ztrátu kontroly nad autonomními systémy umělé inteligence, která může mít za následek vyhynutí lidí,“ stojí v dopise zveřejněném na righttowarn.ai. „Dokud neexistuje účinný vládní dohled nad těmito korporacemi, jsou současní a bývalí zaměstnanci jedni z mála lidí, kteří je mohou pohnat k odpovědnosti.“
Dopis vyzývá nejen OpenAI, ale všechny společnosti AI, aby se zavázaly, že nebudou trestat zaměstnance, kteří mluví o svých aktivitách. Vyzývá také, aby společnosti zavedly „ověřitelné“ způsoby, jak pracovníkům poskytovat anonymní zpětnou vazbu o jejich činnostech. „Běžná ochrana oznamovatelů je nedostatečná, protože se zaměřuje na nezákonnou činnost, zatímco mnoho rizik, kterých se obáváme, ještě není regulováno,“ píše se v dopise. „Někteří z nás se důvodně obávají různých forem odplaty, vzhledem k historii takových případů v celém odvětví.“
OpenAI se minulý měsíc stala terčem kritiky poté, co článek Vox odhalil, že společnost pohrozila zpětným získáním kapitálu zaměstnanců, pokud nepodepíší dohody o neznevažování, které jim zakazují kritizovat společnost nebo dokonce zmiňovat existenci takové dohody. CEO OpenAI, Sam Altman, řekl nedávno na X že o takových ujednáních nevěděl a společnost nikdy nezískala zpět něčí kapitál. Altman také řekl, že klauzule bude odstraněna a zaměstnanci budou moci mluvit. OpenAI neodpověděla na žádost o komentář v době zveřejnění.
OpenAI také nedávno změnila svůj přístup k řízení bezpečnosti. Minulý měsíc byla výzkumná skupina OpenAI odpovědná za hodnocení a boj proti dlouhodobým rizikům, která představují výkonnější modely umělé inteligence společnosti, účinně rozpuštěna poté, co několik prominentních osobností odešlo a zbývající členové týmu byli začleněni do jiných skupin. O několik týdnů později společnost oznámila, že vytvořila výbor pro bezpečnost a zabezpečení, vedený Altmanem a dalšími členy představenstva.
Loni v listopadu byl Altman vyhozen představenstvem OpenAI za to, že údajně nezveřejnil informace a úmyslně je uvedl v omyl. Po velmi veřejné tahanici se Altman vrátil do společnosti a většina představenstva byla vyloučena.
Mezi signatáře dopisů patří lidé, kteří pracovali na bezpečnosti a správě v OpenAI, současní zaměstnanci, kteří podepsali anonymně, a výzkumníci, kteří v současné době pracují v konkurenčních společnostech využívajících umělou inteligenci. Bylo také podpořeno několika významnými výzkumníky AI včetně Geoffreyho Hintona a Yoshuy Bengia, kteří oba získali Turingovu cenu za průkopnický výzkum AI, a Stuarta Russella, předního odborníka na bezpečnost AI.
K bývalým zaměstnancům, kteří dopis podepsali, patří William Saunders, Carroll Wainwright a Daniel Ziegler, kteří všichni pracovali na bezpečnosti AI v OpenAI.
„Veřejnost jako celek v současné době podceňuje tempo, jakým se tato technologie vyvíjí,“ říká Jacob Hilton, výzkumník, který dříve pracoval na posílení vzdělávání v OpenAI a který před více než rokem opustil společnost, aby využil novou výzkumnou příležitost. Hilton říká, že ačkoli se společnosti jako OpenAI zavazují k bezpečnému budování umělé inteligence, existuje jen malý dohled, aby tomu tak bylo. „Ochrany, které požadujeme, se mají vztahovat na všechny hraniční společnosti s umělou inteligencí, nejen na OpenAI,“ říká.
„Odešel jsem, protože jsem ztratil důvěru, že se OpenAI bude chovat zodpovědně,“ říká Daniel Kokotajlo, výzkumník, který dříve pracoval na AI governance v OpenAI. „Staly se věci, o kterých si myslím, že by měly být zveřejněny,“ dodává a odmítá uvést podrobnosti.
Kokotajlo říká, že návrh dopisu by zajistil větší transparentnost, a věří, že existuje velká šance, že OpenAI a další reformují své politiky vzhledem k negativní reakci na zprávy o dohodách o neznevažování. Také říká, že AI postupuje znepokojivou rychlostí. „Sázky budou v příštích několika letech mnohem, mnohem, mnohem vyšší,“ říká, „alespoň tomu věřím.“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com