V sobotu tech Podnikatel Siqi Chen vydal open source plug-in pro asistenta AI Claude Code společnosti Anthropic, který instruuje model AI, aby přestal psát jako model AI.
Jednoduchý plug-in s názvem Humanizer poskytuje Claudovi seznam 24 jazykových a formátovacích vzorů, které editoři Wikipedie zařadili jako dárky pro chatboty. Chen zveřejnil plugin na GitHubu, kde od pondělí získal více než 1 600 hvězdiček.
„Je opravdu užitečné, že Wikipedia šla a shromáždila podrobný seznam ‚znaků psaní AI‘,“ napsal Chen na X. „Tolik, že můžete svému LLM říct, aby to… nedělal.“
Zdrojovým materiálem je průvodce od WikiProject AI Cleanup, skupiny editorů Wikipedie, kteří od konce roku 2023 loví články generované AI. Francouzský editor Wikipedie Ilyas Lebleu projekt založil. Dobrovolníci označili přes 500 článků ke kontrole a v srpnu 2025 zveřejnili formální seznam vzorů, které stále viděli.
Chenův nástroj je „soubor dovedností“ pro Claude Code, terminálového programovacího asistenta Anthropic, který zahrnuje soubor ve formátu Markdown, který přidává seznam písemných instrukcí (můžete je vidět zde) připojených k výzvě vložené do velkého jazykového modelu, který pohání asistenta. Na rozdíl od běžné systémové výzvy jsou například informace o dovednostech naformátovány standardizovaným způsobem, takže Claudeovy modely jsou vyladěny tak, aby interpretovaly s větší přesností než obyčejná systémová výzva. (Vlastní dovednosti vyžadují placené předplatné Claude se zapnutým spouštěním kódu.)
Ale stejně jako u všech výzev AI, jazykové modely ne vždy dokonale odpovídají souborům dovedností, takže Humanizer skutečně funguje? V našem omezeném testování Chenův soubor dovedností způsobil, že výstup agenta AI zněl méně přesně a ležérněji, ale mohlo by to mít určité nevýhody: nezlepší faktografii a může poškodit schopnost kódování.
Zejména některé pokyny Humanizeru vás mohou svést z omylu, v závislosti na úkolu. Dovednost Humanizer zahrnuje například tento řádek: „Mějte názory. Neoznamujte pouze fakta – reagujte na ně. ‚Opravdu nevím, jak se k tomu mám cítit‘ je lidštější než neutrální výčet pro a proti.“ Být nedokonalý se sice zdá lidské, ale tento druh rady by vám pravděpodobně neprospěl, pokud byste používali Clauda k psaní technické dokumentace.
I se svými nevýhodami je ironické, že jeden z nejvíce odkazovaných souborů pravidel webu pro detekci psaní pomocí AI může některým lidem pomoci jej rozvrátit.
Pozorování vzorů
Jak tedy vypadá AI psaní? Průvodce Wikipedií je specifický mnoha příklady, ale pro stručnost vám zde uvedeme jen jeden.
Někteří chatboti rádi napumpují své předměty frázemi jako „označení klíčového okamžiku“ nebo „stojí jako svědectví“, jak uvádí průvodce. Píší jako turistické brožury, názory nazývají „dechberoucí“ a popisují města jako „zasazená do“ malebných oblastí. Připevňují fráze „-ing“ na konec vět, aby zněly analyticky: „symbolizují závazek regionu k inovacím“.
Aby tato pravidla obešla, dovednost Humanizer říká Claudeovi, aby nahradil nafoukaný jazyk prostými fakty, a nabízí tento příklad transformace:
Před: „Statistický ústav Katalánska byl oficiálně založen v roce 1989, což znamená klíčový okamžik ve vývoji regionálních statistik ve Španělsku.“
Po: „Statistický ústav Katalánska byl založen v roce 1989, aby shromažďoval a publikoval regionální statistiky.“
Claude si to přečte a udělá vše, co je v jeho silách jako stroj na porovnávání vzorů, aby vytvořil výstup, který odpovídá kontextu konverzace nebo úkolu.
Proč selhává detekce AI zápisu
I s tak sebevědomým souborem pravidel vytvořeným editory Wikipedie jsme již dříve psali o tom, proč detektory psaní AI nefungují spolehlivě: Na lidském psaní není nic přirozeně jedinečného, co by jej spolehlivě odlišovalo od psaní LLM.
Jedním z důvodů je, že i když většina jazykových modelů AI inklinuje k určitým typům jazyků, mohou být také vyzváni, aby se jim vyhnuli, jako u dovednosti Humanizer. (I když je to někdy velmi obtížné, jak OpenAI zjistila ve svém letitém boji proti em dash.)
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com
