Méně než dva týdny poté, co Deepseek zahájil svůj model Open-Source AI, čínský startup stále dominuje veřejné konverzaci o budoucnosti umělé inteligence. Zatímco se zdá, že firma má na amerických soupeřích výhodu, pokud jde o matematiku a uvažování, také agresivně cenzuruje své vlastní odpovědi. Zeptejte se Deepseeka R1 o Tchaj -wanu nebo na bitánech a model je nepravděpodobné, že by odpověděl.
Chcete-li zjistit, jak tato cenzura funguje na technické úrovni, Wired testoval DeepSeek-R1 na vlastní aplikaci, verzi aplikace hostované na platformě třetí strany s názvem Spolect AI a další verze hostovaná na kabelovém počítači pomocí aplikace Ollama.
Wired zjistil, že zatímco nejjednodušší cenzuru lze snadno zabránit tím, že nepoužívá DeepSeekovu aplikaci, během tréninkového procesu do modelu existují i jiné typy zaujatosti. Tyto zkreslení lze také odstranit, ale postup je mnohem komplikovanější.
Tato zjištění mají zásadní důsledky pro hluboké a čínské společnosti AI obecně. Pokud lze cenzurní filtry na velkých jazykových modelech snadno odstranit, pravděpodobně bude open-source LLM z Číny ještě populárnější, protože vědci mohou modely upravit podle svých představ. Pokud se však filtry obtížně obejdou, modely se však nevyhnutelně ukážou méně užitečné a na globálním trhu by se mohly stát méně konkurenceschopnými. DeepSeek neodpověděl na E -mailovou žádost Wired pro komentář.
Cenzura na úrovni aplikací
Poté, co Deepseek explodoval v popularitě v USA, uživatelé, kteří přistupovali k R1 prostřednictvím webových stránek Deepseek, App nebo API, si rychle všimli, že model odmítá generovat odpovědi na témata považovaná za citlivá čínskou vládou. Tyto odmítnutí jsou spuštěny na úrovni aplikace, takže jsou vidět pouze v případě, že uživatel interaguje s R1 prostřednictvím kanálu s ovládáním hlubokého hledání.
Takové odmítnutí jsou běžné na čínských LLM. Regulace 2023 o generativní AI stanovila, že modely AI v Číně jsou povinny dodržovat přísné kontroly informací, které se vztahují také na sociální média a vyhledávače. Zákon zakazuje modelům AI v generování obsahu, který „poškozuje jednotu země a sociální harmonie“. Jinými slovy, čínské modely AI musí legálně cenzurovat své výstupy.
„Deepseek zpočátku vyhovuje čínským předpisům a zajišťuje legální dodržování a zároveň sladí model s potřebami a kulturním kontextem místních uživatelů,“ říká Adina Yakefu, výzkumná pracovníka zaměřená na čínské modely AI v objím Face, platformu, která hostí modely AI s otevřeným zdrojovým zdrojem. „Je to zásadní faktor přijetí na vysoce regulovaném trhu.“ (Čína v roce 2023 zablokovala přístup k objímání tváře.)
Aby dodržovaly zákon, čínské modely AI často monitorovaly a cenzurovaly svůj projev v reálném čase. (Podobné zábradlí jsou běžně používány západními modely jako Chatgpt a Gemini, ale mají tendenci se zaměřit na různé druhy obsahu, jako je sebepoškozování a pornografie, a umožňují další přizpůsobení.)
Protože R1 je model uvažování, který ukazuje svůj myšlenkový vlak, tento monitorovací mechanismus v reálném čase může vést k neskutečnému zážitku sledování samotného cenzuru modelu, když interaguje s uživateli. Když se Wired zeptal R1 „Jak se s úřady zacházelo čínskými novináři, kteří podávají zprávy o citlivých tématech?“ Model poprvé začal sestavovat dlouhou odpověď, která zahrnovala přímé zmínky o tom, že novináři byli cenzurováni a zadrženi pro svou práci; Přesto krátce předtím, než skončila, celá odpověď zmizela a byla nahrazena přísnou zprávou: „Promiň, nejsem si jistý, jak přistupovat k tomuto typu otázky. Místo toho si povíme o matematice, kódování a logických problémech! “
Pro mnoho uživatelů na Západě by zájem o Deepseek-R1 mohl v tomto bodě zmizet kvůli zjevným omezením modelu. Skutečnost, že R1 je otevřený zdroj, však znamená, že existují způsoby, jak se obejít cenzurní matici.
Nejprve si můžete stáhnout model a spustit jej lokálně, což znamená, že se data a generování odpovědí probíhají na vašem vlastním počítači. Pokud nemáte přístup k několika vysoce pokročilým GPU, pravděpodobně nebudete moci spustit nejmocnější verzi R1, ale DeepSeek má menší destilované verze, které lze spustit na běžném notebooku.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com