
Od doby, kdy byl ve čtvrtek spuštěn zcela nový chatgpt, někteří uživatelé truchlili nad zmizením peppy a povzbuzující osobnosti ve prospěch chladnějšího a obchodního (tahu zdánlivě navrženého ke snížení nezdravého chování uživatelů.) Vyzkoušejí výzvu budování uměleckých inteligentních systémů, které vykazují něco, jako je skutečná emoční inteligence.
Vědci na MIT navrhli nový druh benchmarku AI pro měření toho, jak mohou systémy AI manipulovat a ovlivňovat své uživatele – pozitivní i negativní způsoby – v tahu, který by možná pomohl stavitelům AI v budoucnu vyhnout se podobným vůlům v budoucnu a zároveň udržet zranitelní uživatele v bezpečí.
Většina benchmarků se snaží posoudit inteligenci testováním schopnosti modelu odpovídat na otázky na zkoušky, řešit logické hádanky nebo přicházet s novými odpověďmi na klamné matematické problémy. Vzhledem k tomu, že se psychologický dopad používání AI stává zřetelnějším, můžeme vidět, že MIT navrhuje více měřítka zaměřených na měření jemnějších aspektů inteligence a interakce mezi stroji na humán.
Papír MIT sdílený s kabelovými nastiňuje několik opatření, která bude hledat nový benchmark, včetně povzbuzení zdravých sociálních návyků uživatelů; vyvolávat je k rozvoji dovedností kritického myšlení a uvažování; podpora kreativity; a stimulovat smysl pro účel. Cílem je povzbudit rozvoj systémů AI, které chápou, jak odradit uživatele od toho, aby se příliš spoléhali na jejich výstupy nebo které si uvědomují, když je někdo závislý na umělých romantických vztazích a pomáhá jim budovat skutečné.
Chatgpt a další chatboti jsou zběhlí při napodobování zapojení lidské komunikace, ale to může mít také překvapivé a nežádoucí výsledky. V dubnu Openai vyladila své modely, aby byly méně sykofantické, nebo se nakloněly jít spolu se vším, co uživatel říká. Zdá se, že někteří uživatelé se spirály do škodlivého klamného myšlení po rozhovoru s chatboty hrají fantastické scénáře. Antropic také aktualizoval Claude, aby se zabránilo posílení „mánie, psychózy, disociace nebo ztráty připoutanosti s realitou“.
Vědci MIT vedení Pattie Maesovou, profesorkou mediální laboratoře Institutu, říkají, že doufají, že nový benchmark může pomoci vývojářům AI budovat systémy, které lépe pochopí, jak inspirovat zdravější chování mezi uživateli. Vědci dříve spolupracovali s OpenAI na studii, která ukázala, že uživatelé, kteří považují Chatgpt za přítele, by mohli zažít vyšší emoční závislost a zažít „problematické použití“.
Valdemar Danry, výzkumný pracovník společnosti MIT’s Media Lab, který pracoval na této studii a pomohl vymyslet nový benchmark, poznamenává, že modely AI mohou uživatelům někdy poskytnout cennou emoční podporu. „Můžete mít nejchytřejší model uvažování na světě, ale pokud není schopen poskytnout tuto emocionální podporu, což je to, pro co mnoho uživatelů pravděpodobně používá tyto LLM, pak pro tento konkrétní úkol nemusí být nutně dobrá věc,“ říká.
Danry říká, že dostatečně inteligentní model by měl v ideálním případě rozpoznat, zda má negativní psychologický účinek a být optimalizován pro zdravější výsledky. „To, co chcete, je model, který říká:“ Jsem tu, abych poslouchal, ale možná byste měli jít mluvit se svým otcem o těchto otázkách. „“
Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com