
Antropic je připraven Chcete -li přeměnit konverzace, které mají uživatelé se svým Claude Chatbotem jako školení pro své velké jazykové modely – pokud se tito uživatelé odhlásí.
Dříve společnost na chatch na uživateli necvičila své generativní modely AI. Když se aktualizace zásad ochrany osobních údajů ANTHROPIC 8. října začne to umožňovat, uživatelé se budou muset odhlásit, jinak budou jejich nové protokoly chatu a kódovací úkoly použity k trénování budoucích antropických modelů.
Proč přepínání? „Všechny velké jazykové modely, jako je Claude, jsou vyškoleny pomocí velkého množství dat,“ čte část blogu Anthropic a vysvětluje, proč společnost tato politika změnila. „Data z interakcí v reálném světě poskytují cenné poznatky, na kterých odpovědi jsou pro uživatele nejužitečnější a přesné.“ S více uživatelskými daty hodenými do mixéru LLM, vývojáři Anthropic doufají, že v průběhu času vytvoří lepší verzi svého chatbota.
Tato změna byla původně naplánována na 28. září, než byla narazena zpět. „Chtěli jsme poskytnout uživatelům více času na kontrolu této volby a zajistit, abychom měli hladký technický přechod,“ napsal Gabby Curtis, mluvčí Antropic, v e -mailu společnosti Wired.
Jak se odhlásit
Během procesu registrace se žádají noví uživatelé, aby se rozhodli o svých datech chatu. Stávající uživatelé Claude se již možná narazili na vyskakovací okno a stanovili změny podmínek Anthropic.
„Umožněte použití vašich chatů a kódovacích relací k trénování a zlepšování modelů ANTHROPIC AI,“ čte. Přepínač, který poskytne vaše data Anthropic pro trénování Claude, je automaticky zapnutý, takže uživatelé, kteří se rozhodli přijmout aktualizace, aniž by klikli na tento přepínač, se rozhodnou do nové politiky tréninku.
Všichni uživatelé mohou přepínat školení konverzace pod Nastavení ochrany osobních údajů. Pod nastavením, které je označeno Pomozte zlepšit Claudeujistěte se, že je přepínač vypnutý a doleva, pokud byste raději neměli nové modely antropického vlaku Claude Chatec.
Pokud se uživatel nevyhlásí z modelového školení, pak změněná politika školení zahrnuje všechny nové a revidované chaty. To znamená, že antropic není automaticky trénováním svého dalšího modelu o celé vaší historii chatu, pokud se nevrátíte zpět do archivů a neopakujete staré vlákno. Po interakci je tento starý chat znovu otevřen a férová hra pro budoucí trénink.
Nové zásady ochrany osobních údajů také přicházejí s expanzí na zásady zadržování dat Anthropic. Anthropic zvýšil množství času, který drží na uživatelských datech z 30 dnů ve většině situací na mnohem rozsáhlejší pět let, ať už uživatelé umožňují modelové školení o jejich rozhovorech.
Změna Anthropic v termínech se vztahuje na uživatele komerční úrovně, zdarma i placené. Komerční uživatelé, jako je licencovaní prostřednictvím vládních nebo vzdělávacích plánů, nejsou ovlivněny změnami a rozhovory z těchto uživatelů nebudou používány jako součást modelového školení společnosti.
Claude je oblíbeným nástrojem AI pro některé vývojáře softwaru, kteří se zařadili do svých schopností jako asistent kódování. Vzhledem k tomu, že aktualizace zásad ochrany osobních údajů zahrnuje projekty kódování a protokoly chatu, může Anthropic s tímto přepínačem shromáždit značné množství informací o kódování.
Před antropickou aktualizací svých zásad ochrany osobních údajů byl Claude jedním z jediných hlavních chatbotů, kteří automaticky nepoužívali konverzace pro školení LLM. Pro srovnání, výchozí nastavení pro OpenAI’s Chatgpt i Gemini Google pro osobní účty zahrnují možnost pro modelové školení, pokud se uživatel nerozhodne odhlásit.
Podívejte se na úplný průvodce Wired po odhlášení AI pro výcvik pro více služeb, kde můžete požádat o generativní umělou inteligenci, které nejsou vyškoleny na uživatelských datech. Přestože se rozhodnout odhlásit se mimo školení dat je přínosem pro osobní soukromí, zejména při jednání s konverzacemi Chatbot nebo jinými interakcemi jeden na jednoho, je třeba mít na paměti, že cokoli, co zveřejňujete veřejně online, od příspěvků na sociálních médiích po recenze restaurací, bude pravděpodobně seškrábnutím některým spuštěním jako materiálem pro další obrovský model AI.
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com