Když generální ředitel společnosti Google Sundar Pichai tento měsíc zaslal svým zaměstnancům e-mail s prioritami společnosti pro rok 2024, byl odpovědný vývoj umělé inteligence na prvním místě. Někteří zaměstnanci se nyní ptají, zda Google dokáže tento cíl splnit. Podle čtyř lidí obeznámených se změnami malý tým, který sloužil jako jeho primární interní hlídač etiky umělé inteligence, ztratil svého vůdce a prochází restrukturalizací. Mluvčí Google říká, že jeho práce bude v budoucnu pokračovat v silnější formě, ale odmítá poskytnout podrobnosti.
Tým odpovědných inovací společnosti Google, známý jako RESIN, se nacházel v kanceláři pro dodržování předpisů a integrity v divizi globálních záležitostí společnosti. Přezkoumala interní projekty z hlediska kompatibility s principy AI společnosti Google, které definují pravidla pro vývoj a používání této technologie, což je klíčová role, když společnost závodí v soutěži o generativní AI. Společnost RESIN provedla v loňském roce více než 500 recenzí, včetně chatbota Bard, podle výroční zprávy o práci na principech umělé inteligence, kterou Google zveřejnil tento měsíc.
Role RESIN vypadá nejistě od té doby, co její vůdce a zakladatel Jen Gennai, ředitel odpovědných inovací, tuto roli tento měsíc náhle opustil, říkají zdroje, které hovořily pod podmínkou anonymity k diskusi o personálních změnách. Gennaiův profil LinkedIn ji od tohoto měsíce uvádí jako poradkyni pro etiku a dodržování předpisů v oblasti umělé inteligence ve společnosti Google, přičemž zdroje říkají, že brzy odejde na základě toho, jak probíhaly minulé odchody ze společnosti.
Google rozdělil Gennaiův tým asi 30 lidí na dva. Některé zůstanou na svém místě, zatímco jiné byly převedeny do důvěry a bezpečí, které bojuje proti zneužívání služeb Google, a také sídlí v divizi globálních záležitostí. Zdá se, že nikdo nebyl propuštěn, říkají zdroje. Zdůvodnění změn a způsob rozdělení odpovědností se nepodařilo zjistit. Některé zdroje tvrdí, že jim nebylo sděleno, jak se bude v budoucnu s hodnocením principů AI nakládat.
Mluvčí společnosti Brian Gabriel odmítá říci, jak se bude v budoucnu řešit práce společnosti RESIN při posuzování projektů umělé inteligence, ale otřesy popisuje jako signál odhodlání společnosti Google k odpovědnému vývoji umělé inteligence. Tento krok „přivedl tento konkrétní tým odpovědné umělé inteligence do centra našeho dobře zavedeného úsilí o důvěru a bezpečnost, které je zasazeno do našich recenzí a plánů produktů,“ říká. „Pomůže nám to posílit a rozšířit naši odpovědnou inovační práci v celé společnosti.“
Máte tip?
Google je známý tím, že často mění své řady, ale RESIN byl od založení skupiny z velké části nedotčen. Přestože na dohledu nad umělou inteligencí ve společnosti Google pracují další týmy a stovky dalších lidí, nejprominentnější byla RESIN, jejíž kompetence pokrývaly všechny základní služby Google.
Kromě odchodu svého vůdce Gennaie, RESIN tento měsíc také opustila jednu z jejích nejvlivnějších členek Saru Tangdall, hlavní specialistku na etiku principů AI. Podle jejího profilu na LinkedIn je nyní odpovědnou produktovou ředitelkou AI v Salesforce. Tangdall odmítl komentovat a Gennai nereagoval na výzvy k vyjádření.
Povstání AI
Google vytvořil svůj tým Responsible Innovation v roce 2018, nedlouho poté, co odborníci na AI a další ve společnosti veřejně povstali na protest proti smlouvě Pentagonu nazvané Project Maven, která používala algoritmy Google k analýze snímků sledování dronů. RESIN se stal hlavním správcem souboru principů umělé inteligence zavedených po protestech, které říkají, že Google bude používat umělou inteligenci ve prospěch lidí, nikoli pro zbraně nebo podkopávání lidských práv. Gennai pomohl vytvořit principy.
Týmy z celého Google mohly předkládat projekty ke kontrole společnosti RESIN, které poskytovaly zpětnou vazbu a někdy blokovaly nápady považované za porušující principy umělé inteligence. Skupina zastavila vydávání generátorů obrazu AI a algoritmů hlasové syntézy, které by mohly být použity k vytváření deepfakes.
Hledání pokynů k principům AI není pro většinu týmů povinné, na rozdíl od kontrol rizik ochrany soukromí, kterými musí projít každý projekt. Gennai však řekl, že včasné revize systémů AI se vyplatí tím, že zabrání nákladným etickým porušením. „Pokud je odpovědná umělá inteligence správně implementována, vylepšuje produkty tím, že odhaluje a pracuje na snížení škod, které může způsobit nekalá zaujatost, zlepšuje transparentnost a zvyšuje bezpečnost,“ řekla na konferenci Google v roce 2022.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com