Web-Tech.cz https://web-tech.cz Wed, 04 Mar 2026 22:56:37 +0000 cs hourly 1 https://wordpress.org/?v=6.9.1 https://web-tech.cz/wp-content/uploads/2022/11/cropped-como-el-deep-learning-impulsa-la-hiperpersonalizacion-de-la-publicidad-digital-32x32.jpg Web-Tech.cz https://web-tech.cz 32 32 Grammarly nabízí „odborné“ recenze AI od vašich oblíbených autorů – mrtvých nebo živých https://web-tech.cz/grammarly-nabizi-odborne-recenze-ai-od-vasich-oblibenych-autoru-mrtvych-nebo-zivych/ Wed, 04 Mar 2026 22:56:37 +0000 https://web-tech.cz/grammarly-nabizi-odborne-recenze-ai-od-vasich-oblibenych-autoru-mrtvych-nebo-zivych/






Máte? krásné vzpomínky na to, že jsi učitelův mazlíček? Přáli byste si, abyste stále dostávali poznámky od svého oblíbeného univerzitního profesora? Sníte o nějakém nesmiřitelném hlasu autority, který opraví každé vaše slovo a interpunkční znaménko? Dobrá zpráva: Jistá softwarová společnost vymyslela způsob, jak simulovat kritiku nejen od nejprodávanějších autorů a slavných akademiků naší doby, ale také od mnoha, kteří zemřeli před desítkami let – a společnost k tomu evidentně nepotřebovala od nikoho povolení.

Kdysi se spoléhalo pouze na korektury správné gramatiky a pravopisu, psací nástroj Grammarly přidal za posledních několik let řadu generativních funkcí umělé inteligence. V říjnu generální ředitel Shishir Mehrotra oznámil, že se celá společnost přejmenovala na Superhuman, aby odrážela novou sadu produktů poháněných umělou inteligencí. Nicméně „partner“ pro psaní AI zůstává nazýván Grammarly. „Když technologie funguje všude, začíná to být obyčejné,“ napsal Mehrotra ve své tiskové zprávě. „A to obvykle znamená, že se pod kapotou děje něco mimořádného.“

Rozšířená platforma Grammarly nyní nabízí řešení AI pro každou představitelnou potřebu – a některá jste pravděpodobně nikdy neměli. K dispozici je chatbot s umělou inteligencí, který vám bude odpovídat na konkrétní otázky při sestavování konceptu, funkce „parafrázování“, která navrhuje změny stylu, „humanizér“, který reviduje podle vybraného hlasu, srovnávač umělé inteligence, který předpovídá, jak by váš dokument zabodoval jako vysokoškolská práce, a dokonce nástroje pro označování a ladění frází běžně produkovaných velkými jazykovými modely. (Jasně, ke všemu zde používáte AI, ale nechcete to zvuk takhle.)

Pravděpodobně nejzákeřnější je však Grammarly, který má nyní možnost „odborného hodnocení“, která namísto vytváření toho, co vypadá jako obecná kritika od bezejmenného LLM, uvádí řadu skutečných akademiků a autorů, kteří jsou k dispozici pro posouzení vašeho textu. Aby bylo jasno: Tito lidé nemají s tímto procesem nic společného. Jak objasňuje prohlášení o vyloučení odpovědnosti: „Odkazy na odborníky v tomto produktu mají pouze informativní charakter a nenaznačují žádné spojení s Grammarly nebo podporu těchto jednotlivců nebo subjektů.“

Jak je inzerováno na stránce podpory, uživatelé Grammarly mohou žádat o tipy od virtuálních verzí žijících spisovatelů a učenců, jako jsou Stephen King a Neil deGrasse Tyson (ani jeden z nich nereagoval na žádost o komentář), a také od zesnulých, jako je redaktor William Zinsser a astronom Carl Sagan. Pravděpodobně jsou tito různí agenti umělé inteligence vycvičeni na dílech lidí, které mají napodobovat, ačkoli zákonnost tohoto sklízení obsahu zůstává přinejlepším nejasná a je předmětem mnoha, mnoho autorská práva.

„Náš agent Expert Review zkoumá text, na kterém uživatel pracuje, ať už jde o marketingový briefing nebo studentský projekt o biodiverzitě, a využívá naše základní LLM k zobrazování odborného obsahu, který může pomoci autorovi dokumentu utvářet jeho práci,“ říká Jen Dakin, senior manažer komunikace ve společnosti Superhuman. „Navrhovaní odborníci závisejí na obsahu hodnoceného textu. Agent Expert Review si nenárokuje podporu ani přímou účast od těchto odborníků; poskytuje návrhy inspirované pracemi odborníků a odkazuje uživatele na vlivné hlasy, jejichž stipendium pak mohou prozkoumat hlouběji.“

Někdo jako King může vidět pokrok umělé inteligence jako nezastavitelný a možná nezbude nikdo, kdo by bránil Zinsserovu příručku z roku 1976 O dobrém psaní od velkých technologických supů, ale co bezpočet dalších osobností, které stále chtějí, aby jejich materiál nebyl komprimován do algoritmu? Vanessa Heggie, docentka historie vědy a medicíny na univerzitě v Birminghamu, se nedávno na LinkedIn podělila o obzvláště pochmurný příklad toho, jak tato funkce funguje, a obvinila Superhuman z „vytváření malých LLM“ založených na „seškrábané práci“ živých i mrtvých, obchodování s „jejich jmény a pověstmi“. Snímek obrazovky, který zveřejnila, ukázal dostupnost analýzy od agenta umělé inteligence podle vzoru Davida Abulafia, anglického historika středověku a renesance, který zemřel v lednu. „Obscénní,“ napsal Heggie.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Big Tech podepisuje slib datového centra Bílého domu s dobrou optikou a malým množstvím látky https://web-tech.cz/big-tech-podepisuje-slib-datoveho-centra-bileho-domu-s-dobrou-optikou-a-malym-mnozstvim-latky/ Wed, 04 Mar 2026 22:13:27 +0000 https://web-tech.cz/big-tech-podepisuje-slib-datoveho-centra-bileho-domu-s-dobrou-optikou-a-malym-mnozstvim-latky/






Několik klíčových technologií Společnosti ve středu v Bílém domě podepsaly nezávazný závazek, že podle Trumpovy administrativy zajistí, že technologické společnosti nepřenesou náklady na datová centra na účty spotřebitelů za energie.

„Datová centra… potřebují nějakou PR pomoc,“ řekl na akci prezident Donald Trump. „Lidé si myslí, že když dojde k datovému centru, zvedne se jim elektřina.“

Po jeho boku stáli zástupci společností Microsoft, Meta, OpenAI, xAI, Google/Alphabet, Oracle a Amazon.

Hněv obou stran ohledně datových center a jejich potenciálního dopadu na účty spotřebitelů za elektřinu za poslední rok explodoval. Vzhledem k tomu, že se Bílý dům naplno věnuje umělé inteligenci, slib představuje významnou salvu Trumpovy administrativy, která má voliče ujistit, že nebudou ovlivněni rostoucími náklady.

Ale odborníci na elektřinu a zasvěcenci z průmyslu pochybovali o tom, jakou sílu má Bílý dům ve skutečnosti k vytvoření smysluplné ochrany spotřebitelů.

„Toto je divadlo,“ říká Ari Peskoe, ředitel iniciativy pro zákon o elektřině na Harvardské právnické fakultě v rámci programu environmentálního a energetického práva. „Toto je tisková zpráva navržená tak, aby to vypadalo, že se tímto problémem zabývají. Ale tento problém mohou skutečně řešit pouze regulátoři veřejných služeb nebo Kongres. Bílý dům zde opravdu nemá mnoho tahů a nemyslím si, že samotné technologické společnosti jsou nejdůležitějšími stranami v otázkách nákladů.“

Bílý dům na žádost o komentář okamžitě neodpověděl.

Datová centra hrála klíčovou roli v loňských volbách v některých státech, včetně Georgie a Virginie, a započítávají se do dalších závodů, které se tento měsíc odehrají po celé zemi. Nedávný průzkum provedený společností Heatmap News ukazuje, že méně než 30 procent amerických voličů by podpořilo výstavbu datového centra poblíž místa, kde žijí. Řada států letos zavedla do svých státních zákonodárných sborů moratoria na datová centra, zatímco jiné mají návrhy zákonů, které se snaží pomoci přenést náklady ze spotřebitele na společnosti, které budují a provozují zařízení.

Během několika posledních měsíců některé velké technologické společnosti – včetně Microsoftu a Anthropic – přijaly různé závazky týkající se výstavby a provozu svých datových center. Tyto sliby následují po několika zprávách, že prezident hledal ujištění od technologických společností, aby pomohl snížit náklady na datová centra od amerických spotřebitelů.

Na konci ledna Trump v příspěvku Truth Social napsal, že demokraté jsou vinni za vysoké náklady na elektřinu a že „spolupracuje s velkými americkými technologickými společnostmi“, aby zajistil, že „Američané ‚nezvednou peníze‘ za svou spotřebu ENERGIE ve formě placení vyšších účtů za energie. O méně než měsíc později během svého projevu o stavu Unie řekl, že zavede „závazek ochrany poplatníků“.

„Říkáme hlavním technologickým společnostem, že mají povinnost zajistit si vlastní energetické potřeby,“ řekl. „Mohou si postavit vlastní elektrárny jako součást své továrny, takže nikomu nepůjdou ceny nahoru a v mnoha případech ceny elektřiny pro komunitu klesnou, a to velmi podstatně.“

Závazky, které letos nezávisle učinily klíčové technologické společnosti, a ten, který byl podepsán ve středu, opakují mnoho slibů a iniciativ, na kterých některé technologické společnosti již pracovaly. V blogovém příspěvku zveřejněném společností Google, který zdůrazňuje svůj závazek k tomuto závazku, společnost uvádí několik probíhajících iniciativ, včetně investic do jaderné a geotermální energie, jakož i rámců dohod s energetickými společnostmi a závazků investovat do vytváření pracovních míst.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Jak ve skutečnosti vypadají modely umělé inteligence pro válku https://web-tech.cz/jak-ve-skutecnosti-vypadaji-modely-umele-inteligence-pro-valku/ Wed, 04 Mar 2026 22:00:03 +0000 https://web-tech.cz/jak-ve-skutecnosti-vypadaji-modely-umele-inteligence-pro-valku/






Společnost Anthropic může mít pochybnosti o poskytnutí neomezeného přístupu americké armádě ke svým modelům umělé inteligence, ale některé startupy budují pokročilou umělou inteligenci speciálně pro vojenské aplikace.

Společnost Smack Technologies, která tento týden oznámila kolo financování ve výši 32 milionů dolarů, vyvíjí modely, které podle ní brzy překonají Claudeovy schopnosti, pokud jde o plánování a provádění vojenských operací. A na rozdíl od Anthropic se startup zdá, že se méně zabývá zákazem konkrétních typů vojenského použití.

„Když sloužíte v armádě, skládáte přísahu, že budete sloužit čestně, zákonně a v souladu s pravidly války,“ říká generální ředitel Andy Markoff. „Podle mě lidé, kteří nasazují technologii a zajišťují, aby byla používána eticky, musí být v uniformě.“

Markoff je stěží běžným manažerem umělé inteligence. Bývalý velitel ve velitelství speciálních operací námořní pěchoty USA pomáhal provádět operace speciálních jednotek s vysokými sázkami v Iráku a Afghánistánu. Spoluzaložil Smacka s Clintem Alanisem, dalším bývalým mariňákem, a Danem Gouldem, počítačovým vědcem, který dříve pracoval jako viceprezident pro technologii ve společnosti Tinder.

Smackovy modely se učí identifikovat optimální plány mise pomocí procesu pokusů a omylů, podobně jako Google trénoval svůj program AlphaGo z roku 2017. V Smackově případě strategie zahrnuje procházení modelu různými scénáři válečných her a expertní analytici poskytují signál, který modelu řekne, zda se jeho zvolená strategie vyplatí. Startup možná nemá rozpočet konvenční hraniční laboratoře umělé inteligence, ale utrácí miliony na výcvik svých prvních modelů umělé inteligence, říká Markoff.

Bojové linie

Vojenské využití umělé inteligence se v Silicon Valley stalo horkým tématem poté, co se úředníci ministerstva obrany střetli s vedoucími pracovníky společnosti Anthropic ohledně podmínek smlouvy v hodnotě zhruba 200 milionů dolarů.

Jedním z problémů, který vedl ke zhroucení, které mělo za následek, že ministr obrany Pete Hegseth prohlásil Anthropic za riziko dodavatelského řetězce, byla touha Anthropic omezit použití svých modelů v autonomních zbraních.

Markoff říká, že rozruch zakrývá skutečnost, že dnešní velké jazykové modely nejsou optimalizovány pro vojenské použití. Univerzální modely, jako je Claude, jsou dobré ve shrnutí zpráv, říká. Ale nejsou trénovaní na vojenských datech a postrádají pochopení fyzického světa na lidské úrovni, takže se nehodí k ovládání fyzického hardwaru. „Mohu vám říci, že absolutně nejsou schopni identifikace cíle,“ tvrdí Markoff.

„Nikdo, koho znám na ministerstvu války, nehovoří o plné automatizaci řetězce zabíjení,“ tvrdí s odkazem na kroky spojené s rozhodováním o použití smrtící síly.

Rozsah mise

USA a další armády již v určitých situacích používají autonomní zbraně, včetně systémů protiraketové obrany, které potřebují reagovat nadlidskou rychlostí.

„USA a více než 30 dalších států již nasazuje zbraňové systémy s různou mírou autonomie, včetně některých, které bych definoval jako plně autonomní,“ tvrdí Rebecca Crootof, autorita na právní otázky kolem autonomních zbraní na University of Richmond School of Law.

V budoucnu by podle Markoffa mohly být specializované modely, jako je ten, na kterém pracuje Smack, použity pro účely plánování misí. Modely společnosti mají velitelům pomoci zautomatizovat velkou část dřiny při načrtnutí plánů misí. Plánování vojenských misí se stále obvykle provádí ručně pomocí tabulí a poznámkových bloků, říká Markoff.

Pokud by USA šly do války s „blízkým protějškem“, jako je Rusko nebo Čína, říká Markoff, automatizované rozhodování by mohlo nabídnout USA tolik potřebnou „rozhodovací dominanci“.

Je ale stále otevřenou otázkou, zda by AI mohla být za takových okolností spolehlivě použita. Jeden nedávný experiment, který provedl výzkumník z King’s College v Londýně, znepokojivě ukázal, že LLM měly tendenci eskalovat jaderné konflikty ve válečných hrách.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Pentesting: od brzdy po katalyzátor https://web-tech.cz/pentesting-od-brzdy-po-katalyzator/ Tue, 03 Mar 2026 23:04:00 +0000 https://web-tech.cz/pentesting-od-brzdy-po-katalyzator/






Sergio Rubio, Account Manager ve společnosti Synack
Sergio Rubio, Account Manager ve společnosti Synack

Žijeme v době vysokorychlostních potrubí. Týmy, které nasazují 20, 30 nebo dokonce 50krát denně. Upravené cestovní mapy. Kultura „Chci to včera“. Pentesting je v této souvislosti často vnímán jako poslední velká překážka před výrobou. Brzda.

Nedávno jsem na Redditu četl debatu o tom, zda je „online“ nebo automatizovaný pentesting mýtem v zrychlených vývojových prostředích. Rozhovor se dotkl klíčového bodu, se kterým se každý den setkává mnoho bezpečnostních inženýrů: neustálé třenice mezi dodržováním přísného bezpečnostního postoje a tím, že se nestanou úzkým hrdlem podnikání. Možná problém není v rychlosti. Možná je problém v tom, jak rozumíme pentestingu.

Mýtus o automatizovaném pentestingu

Jednou z opakujících se debat v technických komunitách je, zda automatizované pentestování může nahradit ruční pentesting ve vysokorychlostních prostředích. Pokušení spoléhat se výhradně na nástroje DAST a SAST zabudované do potrubí je pochopitelné. Tato řešení jsou nezbytná pro zachycení známých zranitelností a fungují jako automatizovaná bezpečnostní síť. Záměna skenování za pentesting je však strategická chyba.

Automatizované nástroje jsou skvělé při zjišťování opakujících se vzorů a známých slabých stránek signatur, ale stále mají významná omezení, pokud jde o identifikaci nedostatků obchodní logiky, komplexní cesty eskalace oprávnění nebo zřetězené útoky mezi službami. Jinými slovy, automatizované systémy analyzují kód; Lidé interpretují záměr a detekují trhliny, které vznikají při interakci mezi součástmi.

Automatizace vs lidská logika

Skutečný kvalitativní skok není ve výběru mezi automatizací nebo lidským zásahem, ale v předefinování jejich vztahu. Automatizace se musí postarat o objem, opakování a předvídatelnost. Lidský talent se na druhé straně musí zaměřit na kontextuální, kreativní a na to, co vyžaduje systémové porozumění.

Navíc, když ruční pentest objeví zranitelnost, která mohla být detekována automaticky, učení by nemělo zůstat ve zprávě: mělo by se převést do chytřejších pravidel v rámci samotného kanálu. Lidská práce tedy nekonkuruje automatizaci, ale spíše ji nutí vyvíjet se.

V prostředích, kde je nasazení konstantní, tzv drift prostředí dochází při vysoké rychlosti. Malé nahromaděné změny, nové integrace nebo úpravy architektury vytvářejí nové útočné plochy téměř bez toho, aby si toho kdokoli všiml. V tomto kontextu poskytuje ruční petesting něco, co žádný kanál nemůže nabídnout sám o sobě: kontext skutečného rizika.

Dalším odlišujícím prvkem je kreativita aplikovaná na extrémní případy. Agilní týmy často spoléhají na modulární kód a opakovaně použitelné komponenty, aby urychlily vývoj. Tato účinnost, i když je pozitivní, vytváří neviditelné „švy“ mezi moduly, kde může logika prasknout. Pentesters nehledají jen zjevná zranitelnost, ale právě ta třecí místa mezi službami, kde se zhmotňují ty nejsofistikovanější útoky.

Dále by se neměla podceňovat hodnota dobře zdokumentovaného důkazu konceptu. V mnoha případech není největším problémem identifikace zranitelnosti, ale spíše stanovení priority. Funkční zpráva proof-of-concept transformuje abstraktní varování na hmatatelnou demonstraci. Mluvte jazykem vývojářů a usnadněte rozhodování.

Modely kontinuálního dodávání

Chceme-li, aby se pentesting vešel do vysokorychlostního zařízení, musíme také přehodnotit jeho doručovací model. Tradiční přístup provádění velkého ročního testu a poskytování rozsáhlé zprávy již neodpovídá realitě agilních cyklů. Místo toho je efektivnější přijmout kontinuální model nebo model založený na mikrotestech zaměřený na vysoce rizikové funkce.

Nejde o zastavení každého nasazení, ale o definování jasných kritérií, která aktivují lidský zásah, když se systémové riziko zvýší, například kvůli změnám v autentizační logice, integraci kritických API nebo strukturálním úpravám v architektuře.

Stejně tak musí být pentesting integrován do kultury DevSecOps skutečným, nikoli symbolickým způsobem. Najít zranitelná místa nestačí, pokud se zjištění nepromítnou do strukturálních vylepšení. Spolupráce s platformovými týmy nebo SRE za účelem převedení vzorců útoků na pravidla automatické detekce je hmatatelným způsobem, jak uzavřít smyčku. Měření dopadu pomocí ukazatelů, jako je průměrná doba nápravy, hustota zranitelnosti nebo frekvence nasazení, ukazuje, že zabezpečení nezpomaluje podnikání, ale spíše posiluje jeho odolnost.

V neposlední řadě je důležitý i jazyk. Mluvit pouze o „zlepšení bezpečnosti“ jen zřídka vyvolává nadšení. Místo toho vysvětlení, že dobře integrovaný proces pentestingu zabraňuje nouzovým opravám, snižuje neplánované výpadky a chrání plán produktu, přímo navazuje na obchodní cíle. Bezpečnost, když je formulována jako kontinuita a účinnost, již není vnímána jako brzda a stává se aktivátorem.

Zkrátka…

Pentesting na vysokorychlostních zařízeních by neměl být chápán jako kontrolní mechanismus, který omezuje inovace, ale spíše jako inteligentní ověřování, které zajišťuje, že nás rychlost nesvede na špatnou cestu. Automatizace je nezbytná a bude i nadále získávat na popředí, ale kreativita a lidský úsudek zůstávají zásadní pro ověření, že naše bezpečnostní sítě fungují tak, jak věříme. Otázkou není, zda bychom si měli vybrat mezi automatizací nebo manuálním pentestingem. Otázkou je, zda každý z nich používáme tam, kde poskytuje největší hodnotu.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Co je to tajemné kovové zařízení, které používá hlavní designér USA Joe Gebbia? https://web-tech.cz/co-je-to-tajemne-kovove-zarizeni-ktere-pouziva-hlavni-designer-usa-joe-gebbia/ Tue, 03 Mar 2026 01:06:01 +0000 https://web-tech.cz/co-je-to-tajemne-kovove-zarizeni-ktere-pouziva-hlavni-designer-usa-joe-gebbia/






Joe Gebbia, spoluzakladatel z Airbnb a americký hlavní designér jmenovaný Trumpem, byl dnes spatřen v San Franciscu pomocí záhadného kovového zařízení. V příspěvku na sociálních sítích na X, který byl zhlédnut více než 500 000krát, muž, který vypadá jako Gebbia, sedí s espressem v kavárně. Má na sobě kovové pupeny, které mu půlí uši, a před sebou na pultu má odpovídající kotouč ve tvaru véčka.

Po zveřejnění videa v pondělí ráno uživatelé sociálních sítí rychle navrhli, že by to mohl být nějaký prototyp z nadcházející řady hardwarových zařízení OpenAI navržených ve spolupráci se známým designérem Apple Jony Ivem. Mluvčí OpenAI odmítl komentovat potenciální video Gebbia poté, co WIRED oslovil. Gebbia také nereagovala na žádost o vyjádření.

Zdá se, že zařízení, které Gebbia nosí, vypadá docela podobně jako hardware ve falešné reklamě OpenAI, která se v únoru široce šířila na Redditu a sociálních sítích. To video z minulého měsíce se zdánlivě ukázalo Tandem herec Alexander Skarsgård interagující se zařízením AI, které mělo podobně vypadající sluchátka a kruhový disk. V té době OpenAI odsoudilo široce viděné video jako nereálné. „Falešné zprávy,“ napsal tehdy prezident OpenAI Greg Brockman v reakci na příspěvek na sociálních sítích.

Sluchátka, která vidíte na videu Gebbia, také vypadají velmi podobně jako Huawei FreeClip 2, pár otevřených špuntů vydaných začátkem tohoto roku. Véčko na kávovém pultu vedle Gebbie se však liší od nejnovějšího pouzdra na sluchátka Huawei. Bylo by také docela překvapivé, kdyby vládní úředník byl viděn, jak používá technologii Huawei, vzhledem k tomu, že čínská společnost má fakticky zakázáno prodávat své telefony v USA kvůli obavám o bezpečnost.

Zvukoví experti WIRED říkají, že s největší pravděpodobností nosí otevřená sluchátka, protože dvojice Gebbia sdílí určité podobnosti s AeroClips Soundcore nebo LinkBuds Clip od Sony, i když pouzdra na tato sluchátka neodpovídají tomu, co je na stole před Gebbia. WIRED také spustil fotografii a video prostřednictvím softwaru, který se pokouší identifikovat výstupy generované AI a další deepfake. Detekční software od společnosti Hive říká, že pravděpodobnost, že tyto snímky Gebbie byly vytvořeny umělou inteligencí, je nízká. Detektory umělé inteligence však nejsou vždy spolehlivé a mohou obsahovat falešné výstupy. Je možné, že celý příspěvek může být syntetický podvod.

Mohl by to být nějaký druh soft launch upoutávky pro hardware OpenAI? Načasování tohoto úniku by dávalo smysl, protože společnost může dodávat zařízení spotřebitelům někdy počátkem roku 2027. Přesto OpenAI popřela jakoukoli spojitost s předchozí pseudoreklamou na kovový hardware AI se svými lesklými sluchátky a odpovídajícím diskem.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Tento agent umělé inteligence je připraven obsluhovat během hovoru https://web-tech.cz/tento-agent-umele-inteligence-je-pripraven-obsluhovat-behem-hovoru/ Tue, 03 Mar 2026 00:25:44 +0000 https://web-tech.cz/tento-agent-umele-inteligence-je-pripraven-obsluhovat-behem-hovoru/






Deutsche Telekom, německý mobilní operátor, který je také většinovým akcionářem T-Mobile v USA, zavádí do své telefonní linky asistenta AI. Tato funkce je výsledkem partnerství s AI-audio společností ElevenLabs a nazývá se Magenta AI Call Assistant. Prozatím bude k dispozici pouze v Německu a nevyžaduje aplikaci ani konkrétní smartphone. Zvukový asistent umělé inteligence bude součástí telefonního hovoru a nabídne služby, jako je živý jazykový překlad, každému, kdo se rozhodne zapojit.

Magenta AI Call Assistant oznámili na Mobile World Congress 2026 v Barceloně spoluzakladatel ElevenLabs Mati Staniszewski a Abdu Mudesir, člen výkonné rady pro produkty a technologie společnosti Deutsche Telekom. Asistent Magenta funguje, když jedna osoba během hovoru použije slova pro probuzení „Hey Magenta“. Poté může být asistent požádán, aby naživo přeložil jazyky, použil informace v kalendáři uživatele, aby zjistil dostupnost, nebo použil mapovou službu k nalezení míst v okolí.

ElevenLabs je společnost s umělou inteligencí známá svým hlasovým klonováním hostitelů podcastů i amerických prezidentů. Staniszewski zveřejnil příspěvek o službě Magenta na LinkedIn a zdůraznil snahu zpřístupnit tuto funkci bez nutnosti stahovat aplikaci.

Na obrázku může být Lidé Osoba Elektronika Telefon Mobilní telefon Doplňky pro dospělé Brýle Obličej a hlava

Abdu Mudesir, člen výkonné rady pro produkty a technologie společnosti Deutsche Telekom, na MWC 2026 představuje Magenta AI Call Assistant.

S laskavým svolením Norbert Ittermann/Deutsche Telkom

„Při telefonickém hovoru se asistent aktivuje budicím slovem „Hey Magenta“,“ napsal zástupce společnosti Deutsche Telekom v e-mailové odpovědi pro WIRED. „Poslouchá pouze otázku, kterou položíte. Pokud se později v konverzaci chcete zeptat na něco jiného, ​​musíte to znovu aktivovat.“

Služby umělé inteligence pro překlad jazyků již existují, ale většinou byly exkluzivní pro konkrétní zařízení. Apple nabízí funkci Živého překladu na mnoha svých zařízeních, stejně jako Samsung. Google má na svých zařízeních Pixel 10 k dispozici Voice Translate, který dokonce využívá AI k napodobování zvuku vašeho hlasu. Obě společnosti doufají, že přitažlivost Magenty spočívá v tom, že tato funkce je hardwarová a softwarová agnostika a že se cítí spíše jako přirozené prodloužení telefonního hovoru.

Tato snadnost použití otevírá nesčetné množství obav o soukromí, jako je zavedení asistentů AI do nešifrovaných telefonních hovorů a to, jak otevírá uživatelům všechny druhy sběru dat.

Avijit Ghosh, technický výzkumník zásad AI na komunitní platformě AI Hugging Face, má obavy z používání asistentů AI v nešifrované komunikační službě. Je také skeptický k tomu, jak užitečný asistent ve skutečnosti bude, protože jeho používání vyžaduje, aby mu uživatel zavolal uprostřed telefonního hovoru.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Datová centra dorazila na okraj polárního kruhu https://web-tech.cz/datova-centra-dorazila-na-okraj-polarniho-kruhu/ Mon, 02 Mar 2026 10:00:00 +0000 https://web-tech.cz/datova-centra-dorazila-na-okraj-polarniho-kruhu/






Na břehu řeky, která protéká švédským městem Borlänge, probíhá výstavba rozlehlého nového datového centra. V místě dříve sídlila papírna. Když se vývojář, společnost EcoDataCenter, v září prosadil, jeho generální ředitel Peter Michelson prohlásil: „Továrna kdysi vyráběla papír, surovinu novinového informačního věku. Nyní bude Borlänge vyrábět surovinu pro AI a další informační věk.“

Zařízení v Borlänge je jedním z více než 50, které se v současné době staví nebo bude brzy rozvíjet v celé severské oblasti – v regionu tvořeném Norskem, Švédskem, Finskem, Dánskem a Islandem – protože poptávka po datových centrech vhodných pro školení a provozování modelů umělé inteligence eskaluje. Nikde jinde v Evropě neroste kapacita datových center rychleji, vyplývá z výzkumu poradenské společnosti CBRE.

Minulý rok OpenAI oznámila, že nasadí 100 000 GPU v malém norském fjordovém městečku za polárním kruhem. Poté následoval Microsoft. Jen v posledních několika týdnech francouzská laboratoř AI Mistral uvedla, že si pronajme infrastrukturu v Borlänge za 1,4 miliardy dolarů; provozovatel datového centra atNorth oznámil plány na vybudování obrovského zařízení jinde ve Švédsku; a další vývojář nastínil projekt, který by v případě dokončení více než zdvojnásobil současnou kapacitu datového centra Finska.

Stavební šílenství je zčásti podněcováno akutním nedostatkem míst v Evropě, která jsou dostatečně velká a vybavená dostatečným zdrojem energie pro podporu pracovních zátěží AI.

„Existuje mimořádná poptávka, ale obsluhovat tuto poptávku je v celé Evropě stále větším problémem,“ říká Kevin Restivo, ředitel výzkumu datových center ve společnosti CBRE. „Síla je stále vzácnější komoditou a je jí nedostatek.“ V této souvislosti říká: „Norsko konkrétně naprosto explodovalo jako ohnisko datového centra.“

Dříve se datová centra v Evropě shlukovala kolem metropolitních a finančních center – zejména Frankfurtu, Londýna, Amsterdamu, Paříže a Dublinu. Pro podporu použití, jako je algoritmické obchodování, kde se počítají nanosekundy, potřebovaly cloudové společnosti způsob, jak přenášet data s co nejmenší latencí (nebo zpožděním). Oproti těmto kritériím byly severské země méně atraktivní.

Obraz se začal měnit v létě 2023, šest měsíců po úspěchu ChatGPT. Severské vládní agentury začaly volat do terénu od nedočkavých vývojářů datových center. „Došlo k jasné změně,“ říká Jouni Salonen, specialista na datová centra z Business Finland, finské vládní agentury, která má za úkol přilákat do země obchod a investice. „Nyní je hlavním kritériem výkon – a rychlý přístup k napájení. Hledají místa, kde by mohli rychle získat přístup na trh.“

Růst v odvětví severských datových center se časově shodoval se vznikem neocloudů, typu specializované cloudové společnosti, která prodává přístup k obrovským flotilám GPU. Protože slouží pouze pracovní zátěži AI, která není tak závislá na latenci, mohou neocloudy zakládat datová centra v odlehlých koutech regionu – dokonce až na severu za polární kruh. Neocloudy představují většinu růstu kapacity datových center v severských zemích, zjistila společnost CBRE.

Pro tento nový typ developerů představují severské země jedinečnou nabídku. K dispozici je dostatek půdy i energie a energie v regionu patří k nejlevnějším v Evropě. Mezitím přebytek obnovitelné vodní a větrné energie a chladné klima – které snižuje množství energie potřebné k chlazení hardwaru – pomáhá provozovatelům datových center splnit přísné emisní cíle EU.

„Tím, že se tam umístíte, toho moc nezobchodujete, ale získáte ohromné ​​množství: hojnou zelenou souvislou energii s malou konkurenční průmyslovou poptávkou po této energii,“ říká Phillipe Sachs, obchodní ředitel neocloudové firmy Nscale, která provozuje norskou stránku, kde si OpenAI a Microsoft pronajímají prostor. „Když přemýšlíte o tom, že byste se pokusili vybudovat velmi, velmi velké výpočetní clustery ve stylu gigatovárny, je to zdaleka nejlepší místo, jak to udělat v Evropě, ne-li na celém světě.“





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Antropické hity zpět poté, co americká armáda označila za „riziko dodavatelského řetězce“ https://web-tech.cz/antropicke-hity-zpet-pote-co-americka-armada-oznacila-za-riziko-dodavatelskeho-retezce/ Sat, 28 Feb 2026 03:30:41 +0000 https://web-tech.cz/antropicke-hity-zpet-pote-co-americka-armada-oznacila-za-riziko-dodavatelskeho-retezce/






Ministr obrany Spojených států Pete Hegseth v pátek nařídil Pentagonu, aby označil Anthropic za „riziko dodavatelského řetězce“, což vyvolalo otřesy Silicon Valley a nechalo mnoho společností, aby pochopily, zda mohou nadále používat jeden z nejpopulárnějších modelů umělé inteligence v tomto odvětví.

„S okamžitou platností žádný dodavatel, dodavatel nebo partner, který obchoduje s armádou Spojených států, nesmí provádět žádnou komerční činnost s Anthropic,“ napsal Hegseth v příspěvku na sociálních sítích.

Označení přichází po týdnech napjatých vyjednávání mezi Pentagonem a Anthropic o tom, jak by americká armáda mohla využívat modely AI startupu. V blogovém příspěvku tento týden společnost Anthropic tvrdila, že její smlouvy s Pentagonem by neměly umožňovat použití její technologie pro masové domácí sledování Američanů nebo plně autonomní zbraně. Pentagon požádal, aby společnost Anthropic souhlasila s tím, aby americká armáda použila svou AI na „všechna zákonná použití“ bez konkrétních výjimek.

Označení rizika dodavatelského řetězce umožňuje Pentagonu omezit nebo vyloučit určité dodavatele z kontraktů na obranu, pokud se má za to, že představují bezpečnostní zranitelnost, jako jsou rizika související se zahraničním vlastnictvím, kontrolou nebo vlivem. Má chránit citlivé vojenské systémy a data před potenciálním ohrožením.

Antropic reagoval v pátek večer v dalším blogovém příspěvku a uvedl, že by „u soudu napadl jakékoli označení rizik dodavatelského řetězce“ a že takové označení by „vytvořilo nebezpečný precedens pro jakoukoli americkou společnost, která vyjednává s vládou“.

Společnost Anthropic dodala, že neobdržela žádnou přímou komunikaci od ministerstva obrany ani Bílého domu ohledně vyjednávání o použití jejích modelů AI.

„Sekretář Hegseth naznačil, že toto označení by omezovalo kohokoli, kdo obchoduje s armádou, v obchodování s Anthropic. Ministr nemá zákonnou pravomoc toto prohlášení podepřít,“ napsala společnost.

Pentagon to odmítl komentovat.

„Je to ta nejšokující, nejškodlivější a nejrozsáhlejší věc, jakou jsem kdy viděl vládu Spojených států udělat,“ říká Dean Ball, vedoucí pracovník Nadace pro americkou inovaci a bývalý hlavní politický poradce pro AI v Bílém domě. „V podstatě jsme právě uvalili sankce na americkou společnost. Pokud jste Američan, měli byste přemýšlet o tom, zda zde za 10 let byste měli žít, nebo ne.“

Lidé z celého Silicon Valley se přihlásili na sociálních sítích a vyjadřovali podobný šok a zděšení. „Lidé, kteří řídí tuto správu, jsou impulzivní a pomstychtiví. Věřím, že to stačí k vysvětlení jejich chování,“ řekl Paul Graham, zakladatel startupového akcelerátoru Y Combinator.

Boaz Barak, výzkumník OpenAI, ve svém příspěvku uvedl, že „pod koleny jedné z našich předních společností s umělou inteligencí má pravdu o nejhorším vlastním cíli, který můžeme udělat. Pevně ​​doufám, že převládnou chladnější hlavy a toto oznámení bude obráceno.“

Mezitím generální ředitel OpenAI Sam Altman v pátek večer oznámil, že společnost dosáhla dohody s ministerstvem obrany o nasazení svých modelů umělé inteligence v utajených prostředích, zdánlivě s omezenými možnostmi. „Dvěma z našich nejdůležitějších bezpečnostních zásad jsou zákazy domácího hromadného sledování a lidská odpovědnost za použití síly, včetně autonomních zbraňových systémů,“ řekl Altman. „DoW souhlasí s těmito zásadami, odráží je v zákonech a zásadách a my je vkládáme do naší dohody.“

Zmatení zákazníci

Ve svém pátečním příspěvku na blogu společnost Anthropic uvedla, že označení rizik dodavatelského řetězce pod autoritou 10 USC 3252 se vztahuje pouze na smlouvy ministerstva obrany přímo s dodavateli a nezahrnuje, jak dodavatelé používají jeho software Claude AI k obsluze jiných zákazníků.

Tři experti na federální smlouvy tvrdí, že v tuto chvíli je nemožné určit, kteří zákazníci společnosti Anthropic, pokud vůbec nějací, musí nyní přerušit vztahy se společností. Hegsethovo prohlášení „není utopeno v žádném zákoně, který bychom právě teď mohli uvěřit,“ říká Alex Major, partner advokátní kanceláře McCarter & English, která spolupracuje s technologickými společnostmi.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Trump chce zakázat antropickou činnost americké vládě https://web-tech.cz/trump-chce-zakazat-antropickou-cinnost-americke-vlade/ Fri, 27 Feb 2026 21:36:31 +0000 https://web-tech.cz/trump-chce-zakazat-antropickou-cinnost-americke-vlade/






Americký prezident Donald Trump v pátek oznámil, že dává pokyn každé federální agentuře, aby s okamžitou platností zastavila používání nástrojů umělé inteligence společnosti Anthropic. Tento krok přichází poté, co se Anthropic a nejvyšší představitelé několik týdnů střetli kvůli vojenským aplikacím umělé inteligence.

„Ti levičáci ve společnosti Anthropic udělali katastrofální CHYBU, když se snažili POSÍLIT VYzbrojení ministerstva války,“ uvedl Trump v příspěvku na Truth Social.

Pentagon a Anthropic okamžitě nereagovaly na žádosti o komentář.

Ministerstvo obrany se snažilo změnit podmínky dohody uzavřené se společností Anthropic a dalšími společnostmi s umělou inteligencí loni v červenci, aby odstranilo omezení, jak lze umělou inteligenci nasadit, a místo toho povolilo „veškeré zákonné použití“ technologie. Společnost Anthropic se proti změně ohradila a tvrdila, že by mohla umožnit použití umělé inteligence k plné kontrole smrtících autonomních zbraní nebo k hromadnému sledování občanů USA.

Pentagon v současné době nepoužívá AI těmito způsoby a uvedl, že to nemá v plánu. Nejvyšší představitelé Trumpovy administrativy však vyjádřili nesouhlas s myšlenkou civilní technologické společnosti diktující vojenské použití tak důležité technologie.

Společnost Antropic byla první velkou laboratoří umělé inteligence, která spolupracovala s americkou armádou, a to prostřednictvím loni podepsané smlouvy s Pentagonem v hodnotě 200 milionů dolarů. Vytvořila několik vlastních modelů známých jako Claude Gov, které mají méně omezení než ty běžné. Google, OpenAI a xAI podepsaly podobné dohody přibližně ve stejnou dobu, ale Anthropic je jedinou společností zabývající se umělou inteligencí, která v současnosti pracuje s klasifikovanými systémy.

Model Anthropic je dostupný prostřednictvím platforem poskytovaných Palantirem a cloudovou platformou Amazonu pro utajovanou vojenskou práci. Claude Gov se v současné době z velké části používá pro běžné úkoly, jako je psaní zpráv a shrnutí dokumentů, ale používá se také pro zpravodajskou analýzu a vojenské plánování, podle jednoho zdroje obeznámeného se situací, který mluvil s WIRED, který mluvil pod podmínkou anonymity, protože není oprávněn o této záležitosti diskutovat.

V posledních letech Silicon Valley přešlo od velkého vyhýbání se obranným pracím ke stále většímu přijímání a stává se plnohodnotnými vojenskými dodavateli. Boj mezi Antropicem a Pentagonem testuje meze tohoto posunu. Tento týden podepsalo několik stovek pracovníků z OpenAI a Google otevřený dopis podporující Anthropic a kritizující rozhodnutí jejich vlastních společností odstranit omezení vojenského použití AI.

Toto je rozvíjející se příběh. Zkontrolujte prosím aktualizace.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
OpenAI propouští zaměstnance pro zasvěcené obchodování s predikcí trhu https://web-tech.cz/openai-propousti-zamestnance-pro-zasvecene-obchodovani-s-predikci-trhu/ Fri, 27 Feb 2026 19:07:28 +0000 https://web-tech.cz/openai-propousti-zamestnance-pro-zasvecene-obchodovani-s-predikci-trhu/






OpenAI se spustilo zaměstnanec po prošetření jejich činnosti na platformách prediktivního trhu včetně Polymarketu, zjistil WIRED.

Fidji Simo, CEO OpenAI pro aplikace, oznámil ukončení v interní zprávě zaměstnancům na začátku tohoto roku. Zaměstnanec, řekla, „použil důvěrné informace OpenAI ve spojení s externími prediktivními trhy (např. Polymarket).

„Naše zásady zakazují zaměstnancům používat důvěrné informace OpenAI pro osobní zisk, a to i na predikčních trzích,“ říká mluvčí Kayla Wood. OpenAI neprozradila jméno zaměstnance ani specifika jejich živností.

Důkazy naznačují, že se nejednalo o ojedinělou událost. Polymarket běží na blockchainové síti Polygon, takže jeho obchodní kniha je pseudonymní, ale dohledatelná. Podle analýzy finanční datové platformy Unusual Whales došlo od března 2023 ke shlukům aktivit, které služba označila za podezřelé, kolem událostí s tematikou OpenAI.

Společnost Unusual Whales označila 77 pozic v 60 adresách peněženek jako podezřelé ze zasvěcených obchodů, přičemž kromě jiných faktorů sledovala stáří účtu, historii obchodování a význam investic. Podezřelé obchody závisely na datech vydání produktů jako Sora, GPT-5 a ChatGPT Browser, stejně jako na zaměstnaneckém stavu generálního ředitele Sama Altmana. V listopadu 2023, dva dny poté, co byl Altman dramaticky vyloučen ze společnosti, vsadila nová peněženka významnou sázku na to, že se vrátí, a zisky přesahovaly 16 000 dolarů. Účet nikdy neuzavřel další sázku.

Chování zapadá do vzorců typických pro zasvěcené obchody. „Důkazem je shlukování. Během 40 hodin před spuštěním prohlížeče OpenAI se na webu poprvé objevilo 13 zbrusu nových peněženek s nulovou historií obchodování, které společně vsadily 309 486 dolarů na správný výsledek,“ říká generální ředitel společnosti Unusual Whales Matt Saincome. „Když vidíte, že mnoho nových peněženek dělá stejnou sázku ve stejnou dobu, vyvolává to skutečnou otázku, zda se tajemství dostává ven.“

Predikční trhy v posledních letech explodovaly v popularitě. Tyto platformy umožňují zákazníkům nakupovat „kontrakty na události“ na základě výsledků budoucích událostí, od vítěze Super Bowlu přes denní cenu bitcoinu až po to, zda Spojené státy půjdou do války s Íránem. Existuje široká škála trhů spojených s událostmi v technologickém sektoru; můžete obchodovat s tím, jaké budou čtvrtletní příjmy Nvidie, nebo kdy Tesla uvede na trh nové auto, nebo které společnosti s umělou inteligencí zahájí IPO v roce 2026.

S růstem platforem rostou i obavy, že umožňují obchodníkům profitovat ze zasvěcených znalostí. „Ve srovnání s tímto světem predikčních trhů vypadá Divoký západ krotce,“ říká Jeff Edelstein, hlavní analytik webu InGame sázkových novinek. „Pokud existuje trh, kde je známa odpověď, někdo na něm bude obchodovat.“

Začátkem tohoto týdne společnost Kalshi oznámila, že nahlásila několik podezřelých případů obchodování zasvěcených osob Komisi pro obchodování s komoditními futures, vládní agentuře dohlížející na tyto trhy. V jednom případě byl zaměstnanec populárního youtubera Mr. Beast suspendován na dva roky a dostal pokutu 20 000 dolarů za obchodování související s aktivitami streamera; v jiném byl krajně pravicový politický kandidát Kyle Langford vyloučen z platformy za obchodování na vlastní kampani. Společnost také oznámila řadu iniciativ, které mají zabránit obchodování zasvěcených osob a manipulaci s trhem.

Zatímco Kalshi silně prosazoval svůj zásah proti obchodování zasvěcených osob, Polymarket o této záležitosti mlčel. Společnost nevrátila žádosti o vyjádření.

V minulosti velké obchody na trzích s technologickou tematikou vyvolaly spekulace, že existují zaměstnanci Big Tech, kteří profitují z využívání svých zasvěcených znalostí k získání výhody. Jedním notoricky známým příkladem je takzvaná „Google velryba“, pseudonymní účet na Polymarketu, který vydělal více než 1 milion dolarů obchodováním na událostech souvisejících s Googlem, včetně trhu o tom, kdo bude nejhledanější osobou roku v roce 2025. (Byl to zpěvák D4vd, který je nejlépe známý svým spojením s probíhajícím vyšetřováním vraždy poté, co byly nalezeny ostatky mladého fanouška ve vozidle registrovaném na něj.)





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Wall Street má AI psychózu https://web-tech.cz/wall-street-ma-ai-psychozu/ Fri, 27 Feb 2026 16:00:00 +0000 https://web-tech.cz/wall-street-ma-ai-psychozu/






Před minulým týdnem jméno Alap Shah mnoha lidem nezvonilo. Tento 45letý finanční analytik a technologický podnikatel strávil poslední dvě desetiletí prací v relativní neznámosti. Minulý víkend pak byl spoluautorem blogu s výzkumnou firmou Citrini s názvem „Globální krize inteligence 2028“. Bylo to „myšlenkové cvičení“ o dopadech umělé inteligence a předpovídalo, že v červnu téhož roku AI zvýší nezaměstnanost nad 10 procent a přinutí Dow dolů, dolů, dolů. Autoři psali sebevědomým, Nostradamovým tónem – jako by se ucházeli o hlavní role v další knize Michaela Lewise – a autoři nakreslili obrázek setrvačníku v opačném směru: agenti umělé inteligence berou práci pracovníkům, lidé utrácejí méně a korporace, které se potýkají s problémy, propouštějí vedle propouštění.

Nebylo toho mnoho, o čem by se dříve neslyšelo nebo o čem se nespekulovalo. Techničtí lídři, jako je generální ředitel společnosti Anthropic Dario Amodei, již odhadli, že polovina pracovních míst v oblasti bílých límečků na základní úrovni bude brzy pryč, a začátkem tohoto roku vydání nových agentních nástrojů společnosti Anthropic podnítilo výprodej na Wall Street. Zpráva nicméně zasáhla sílu vánice, která se prohnala dolním Manhattanem. Když na newyorské burze zazněly závěrečné zvonkohry, Dow klesl o 800 bodů. Jméno Alap Shah nyní zvonilo.

Úspěch je méně působivý, než se zdá. Wall Street, stejně jako my ostatní, je v trvalém stavu úzkosti z umělé inteligence a ke spuštění mini-paniky není potřeba mnoho. Finanční trhy nemusí nutně odpovídat realitě, ale nervozita odráží širší znepokojení. Budoucnost umělé inteligence je v zóně Williama Gibsona – je zde, ale nerovnoměrně rozmístěná – a zprávy od těch, kteří již žijí ve vesmíru plném agentů a AI pro psaní kódů, jsou vzrušující i znepokojivé. Důraz na zneklidnění.

Nikdo – nikdo! – přesně neví, jak umělá inteligence ovlivní ekonomiku, ale zjevně to bude významné. Akcie právě teď prudce rostou, takže se zdá, že má smysl večírek pokračovat. Ale pak přijde nejnovější manifest zkázy nebo papír, který naznačuje, že tradiční obchodní sektor může být ohrožen umělou inteligencí, a finanční manažeři jsou najednou připomenuti, že největší problém naší doby je zcela nevyřešený. Příklad: počátkem tohoto měsíce se malá společnost (ocenění pod 6 milionů dolarů), která dříve prodávala karaoke stroje, zaměřila na přepravní logistiku poháněnou umělou inteligencí a zveřejnila zprávu, že objevila určité výhody při nakládání návěsů nákladních automobilů. To stačilo na vymazání miliard dolarů z cen akcií několika velkých logistických společností, z nichž žádná neměla zkušenosti s karaoke.

Poté, co udělala svou práci na Wall Street, se zpráva Citrini dostala pod značnou palbu. Kritici šplhali jeden přes druhého, aby prohlásili jeho chatrnost. Za prvé, poukázali na to, že umělá inteligence má zatím velmi malý rozpoznatelný dopad na ekonomiku. Jiní uváděli dlouhou historii odolnosti po technologických převratech. Posměšná odpověď respektované obchodní firmy Citadel Securities zněla: „Aby umělá inteligence vyvolala trvalý negativní poptávkový šok, ekonomika musí zaznamenat podstatné zrychlení přijetí, zažít téměř totální substituci práce, žádnou fiskální reakci, zanedbatelnou absorpci investic a neomezené škálování výpočtů.“

Nejničivější kritici zpochybňovali tvrzení zprávy, že velká část ekonomiky zahrnuje neproduktivní „hledání renty“ prostředníky a tvůrci trhu, využívající lenosti obecné populace. Když každý bude mít několik desítek agentů umělé inteligence, kteří pracují jeho jménem, ​​píše Shah, spotřebitelé budou moci bez námahy najít to nejlepší zboží za nejlepší ceny. Aplikace se stanou nepotřebnými – stačí do LLM zadat, co chcete, a armáda agentů vše udělá za vás. „Dítě z plakátu“ pro tento fenomén, říká Shah, je DoorDash. Namísto toho, aby se spotřebitelé omezovali na restaurace v aplikaci, pošlou agenty umělé inteligence, aby našli své ideální možnosti jídla, a uzavřeli smlouvy přímo s restauracemi a doručovateli – žádné aplikace nejsou potřeba. Nulové tření! The DoorDashes of the world jsou avokádový toast!





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Huxe vám poskytne personalizované, denní shrnutí zvuku poháněné umělou inteligencí https://web-tech.cz/huxe-vam-poskytne-personalizovane-denni-shrnuti-zvuku-pohanene-umelou-inteligenci/ Fri, 27 Feb 2026 12:00:00 +0000 https://web-tech.cz/huxe-vam-poskytne-personalizovane-denni-shrnuti-zvuku-pohanene-umelou-inteligenci/






Nová vlna Technologie využívající umělou inteligenci téměř zcela převzaly aplikace a digitální služby, které používáme každý den, od editorů fotografií po fitness trackery. Pro podcasty je k dispozici dokonce i pozoruhodná aplikace AI. Jmenuje se Huxe.

Jádrem Huxe je denní brief, jakýsi podcast osobní produktivity přizpůsobený vašemu vkusu a požadavkům, generovaný ze zdrojů, které si vyberete. Propojte svůj kalendář a e-mailový účet a každé ráno dostanete rychlé zvukové shrnutí, které vás připraví na den. Myšlenka je taková, že 15minutový zvukový podcast může nahradit mnohem delší dobu, kterou byste jinak strávili snahou zjistit, co se děje s vaší doručenou poštou a vaším rozvrhem.

Zvukový důraz Huxe není žádným překvapením, protože tým za aplikací dříve pracoval na Google NotebookLM, výzkumném nástroji, který má vlastní funkci Přehled zvuku ve stylu podcastu. Huxe je na tom podobně, ale informace čerpá z vašich e-mailů a záznamů v kalendáři.

V Huxe je toho také více, včetně zvukových hloubkových ponorů na libovolné téma dle vašeho výběru a také souhrny zpráv. Aplikace je nyní k použití zcela zdarma a můžete se zaregistrovat prostřednictvím aplikací pro Android nebo iOS.

Začínáme

***01-interests.jpg
Registrace zájmů u Huxe.
(David Nield)

Chcete-li začít využívat možnosti personalizované produkce zvuku Huxe, musíte o sobě říct něco málo. Během procesu nastavení, který zahrnuje zadání e-mailové adresy a vašeho jména, budete vyzváni k propojení e-mailových účtů a účtů kalendáře. (Podporovány jsou oba účty Google a Outlook.)

Budete také požádáni, abyste si vybrali několik témat, která vás zajímají, ze seznamu vytvořeného podle toho, co máte ve své doručené poště a podle vašeho plánu – klikněte Upravit provést změny a Přidat přidat zájmy, které Huxe ještě nezachytil. Můžete zadat téměř jakékoli téma, které se vám líbí, a Huxe pochopí, co máte na mysli.

Když se dostanete do vlastní aplikace, seznámíte se s tím, čemu se říká živá vysílání, což jsou rádiové stanice pro hlasový obsah generovaný umělou inteligencí: Pro mě mají tato živá vysílání názvy jako Velké technické shrnutí, Dnes v AIa Produkt Dropscož vám dává určitou představu o tom, co můžete očekávat. Můžete také získat audio shrnutí o konkrétních společnostech, jako je v mém případě Apple a Meta.

***02-deepcast.jpg
DeepCasts lze vytvořit pomocí jediné textové výzvy.
(David Nield)

Pomocí tlačítka nabídky v pravém horním rohu můžete změnit nastavení svého účtu a upravit své zájmy a také změnit hlasy používané pro hostitele vašeho denního briefingu. Prostřednictvím + (plus) v pravém dolním rohu, můžete generovat DeepCast (hluboký ponor) na téma, které si vyberete, stejně jako své vlastní živé stanice.

Pokusil jsem se přimět aplikaci, aby mi poskytla DeepCast o historii kapely REM, a během několika sekund vytvořila relativně bystrý a dokonale přesný (i když trochu obecný) 15minutový klip. Stejně jako u Přehledů zvuku v NotebookLM získáte dvě postavy umělé inteligence, které spolu mluví o daném tématu ve stylu podcastu.

Jako vždy u každé aplikace, která se připojuje k vašemu e-mailu a kalendáři, důvěřujete vývojáři, že bude s vašimi daty nakládat zodpovědně. Úplné zásady ochrany osobních údajů Huxe jsou zde, a přestože je evidentně zaznamenáno mnoho dat – což je důvod, proč denní briefing a další funkce fungují – společnost tvrdí, že nebude používat žádné osobně identifikovatelné e-mailové nebo kalendářní údaje k trénování svých modelů AI. Podle zásad ochrany osobních údajů stále existuje možnost, že některá z vašich dat budou sdílena s partnery LLM a hlasovou syntézou třetích stran – z nichž každý má své zásady ochrany osobních údajů – které pomáhají Huxe vytvářet vaše podcasty. Před předáním oprávnění se tedy důkladně podívejte, jaké druhy citlivých věcí máte ve své e-mailové schránce a kalendáři.

Váš denní přehled

***03-brief.jpg
Denní brief kombinuje e-maily, zprávy a schůzky.
(David Nield)

Můžete počkat, až Huxe každé ráno doručí instruktáž (až bude připravena, dostanete upozornění), nebo si ji můžete vygenerovat ihned klepnutím na tlačítko přehrávání ve středu domovské obrazovky aplikace. Tyto brífinky obvykle obsahují souhrn toho, co máte ve své doručené poště, nejnovější zprávy týkající se vašich zájmů a další události ve vašem kalendáři.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Praktické s Nano Banana 2, nejnovější verzí generátoru obrázků AI od Googlu https://web-tech.cz/prakticke-s-nano-banana-2-nejnovejsi-verzi-generatoru-obrazku-ai-od-googlu/ Fri, 27 Feb 2026 00:01:10 +0000 https://web-tech.cz/prakticke-s-nano-banana-2-nejnovejsi-verzi-generatoru-obrazku-ai-od-googlu/






Google právě představil Nano Banana 2, aktualizovanou verzi svého generátoru obrázků AI. Kombinuje schopnosti předchozí verze Google, Nano Banana Pro – jako je vykreslování textu a vyhledávání na webu – s rychlejším generováním obrázků. Tento nástroj bude novým výchozím nastavením v chatbotu Gemini od Googlu.

První obrázkový model od Googlu pod přezdívkou Nano Banana vypadl loni v srpnu a verze Pro dorazila o tři měsíce později. Nástroj AI byl široce přijat online ke změně fotografií skutečných lidí, od generování vlastních akčních figurek až po nostalgické obrázky lidí objímajících mladší verze sebe sama.

Nano Banana 2 je nejen rychlejší při vytváření obrázků, ale je také výkonnějším editorem fotografií. Navzdory některým drsným okrajům a nepřesvědčivým generacím v mých počátečních praktických zkušenostech s Gemini, nejnovější verze Google znamená pokračující vylepšování fotorealistických nástrojů umělé inteligence, které dokážou manipulovat se stávajícími obrázky, a slouží jako ostrá připomínka, abyste vždy zkoumali neověřené obrázky, které vidíte online.

Začínáme

Pokud chcete vyzkoušet nový model obrázku, nejjednodušší způsob, jak získat přístup k Nano Banana 2, je prostřednictvím aplikace nebo webové stránky Gemini. Můžete buď kliknout na banánové emotikony a vygenerovat obrázky, nebo jen vložit požadavek do výzev chatbotovi. Tento nový model obrazu je také dostupný prostřednictvím vyhledávacích nástrojů Google, AI Studio, Cloudu a dalších služeb.

Google říká, že generátor obrázků Nano Banana 2 stahuje informace v reálném čase z webu, což může být užitečné pro generování infografiky. Abych to otestoval, požádal jsem Gemini o vygenerování vlastní zprávy o počasí pro můj nadcházející víkendový útěk. Zde je moje výzva:

Tento víkend jedu lyžovat do Dodge Ridge s přáteli. Mohli byste vytvořit infografiku, která pokryje povětrnostní podmínky?

Na obrázku může být text Reklamní plakát Osoba v přírodě a sníh

Nano Banana Pro usnadnil generování obrázků s textem – získaným z dat na webu – a díky Nano Banana 2 je generování obrázků rychlejší než kdy dříve.

AI GENEROVANÉ REECE ROGERS

Na první pohled vypadá výsledek slušně. Žádný viklající se text nebo znetvoření lyžaři na pozadí. Předpověď na každý den zahrnuje očekávané teploty a také větrné a sněhové podmínky. Malé prohlášení v dolní části infografiky zní: „Počasí a podmínky se mohou změnit. Zkontrolujte oficiální zdroje.“

Jsem rád, že jsem to udělal! Když jsem si vyhledal předpověď na tento víkend z jiného zdroje, uvědomil jsem si, že Blíženci zpackali data a vytáhli kontext počasí Google z minulého týdne. Když jsem na tuto chybu upozornil robota, použil Nano Banana 2 k nahrazení textu z prvního pokusu správnými údaji o počasí.

Čas vany

Pokud chcete více podrobností o mém útěku, mám namířeno do útulné lyžařské chaty s přáteli, kteří jsou lyžaři. Jsem začátečník a stále se rozhoduji, zda skutečně vyrazit na sjezdovky, nebo se jen proměnit ve vrásčitou švestku sedící celý den ve vířivce. Možná by Nano Banana 2 mohl vytvořit hloupý meme k odeslání do skupinového chatu? Nahrál jsem svou fotku do Gemini s touto výzvou:

Vezmi tento obrázek a dej mě do útulné venkovní jacuzzi obklopené sněhem. Dělá mi kůži komicky vrásčitou, když tam sedím celé hodiny.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
‚Uncanny Valley‘: Pentagon vs. ‚Woke‘ Anthropic, Agentic vs. Mimetic a Trump vs. State of Union https://web-tech.cz/uncanny-valley-pentagon-vs-woke-anthropic-agentic-vs-mimetic-a-trump-vs-state-of-union/ Thu, 26 Feb 2026 23:20:36 +0000 https://web-tech.cz/uncanny-valley-pentagon-vs-woke-anthropic-agentic-vs-mimetic-a-trump-vs-state-of-union/






Chlapi, než půjdeme na přestávku, je tu něco velmi blízkého a drahého mému srdci, o čem WIRED tento týden psali. Je to něco, co miluji ještě víc než biatlon. Jedná se o podmořské internetové kabely.

Leah Feigerová: Miluji, když o tom mluvíš. Myslím, že poprvé, co jsi mi to řekl, byl asi týden po tvém působení ve funkci výkonného redaktora a ty jsi jako: „Leah, víš, co miluji?“ a jsou to podmořské internetové kabely.

Brian Barrett: Jo. Říkal jsem si: „Číslo jedna, podmořské internetové kabely. Číslo dvě, moje děti. Číslo tři…“ to byla tak trochu podstata. Tak se vždy představuji. Chci všechny vrátit do 14. prosince 1988. Nejlepší film v kinech je Dvojčata v hlavních rolích Arnold Schwarzenegger a Danny DeVito.

Zoë Schiffer: O tom jsem legálně nikdy neslyšel.

Leah Feigerová: Počkej, Zoë. Co?

Brian Barrett: Co? Každopádně Arnold je agent a mimetik Dannyho DeVita. Nejlepší píseň –

Zoë Schiffer: Teď to chápu.

Brian Barrett: – nejlepší skladba je „Look Away“ od Chicaga. Teď to také nejsem – na to si vůbec nevzpomínám. A byl spuštěn první podmořský optický kabel spojující Spojené státy, Velkou Británii a Francii. To byl den, kdy se internet stal globálním, což je šílené –

Zoë Schiffer: To je šílené.

Brian Barrett: – že to bylo relativně nedávno. Důvod, proč o tom nyní píšeme, je ten, že ten původní kabel, který se nazývá TAT-8, je vytahován. Je to mimo provoz. Je to staré, zchátralé, takže jsem to identifikoval, a je to vytahováno a vyhazováno na pastvu, protože technologie se zlepšila. Ale v této skvělé funkci, kterou jsme zveřejnili, je to pohled na to, jak to v zásadě změnilo svět a jak to považujeme za samozřejmost – ale důvod, proč jsem tak nadšený příběhy o podmořských kabelech, je ten, že je tak snadné zapomenout, že internet je fyzická věc a že údržba těchto věcí je ve skutečnosti to, co všechno toto připojení dělá. Takže ano, TAT-8. Nějaké další hezké vzpomínky na TAT-8? Nebo ne. Co si myslíte při čtení této funkce?

Zoë Schiffer: No, slavně jsme nebyli naživu v roce 1988.

Leah Feigerová: Jo. Promiň, Briane. Jsi starší než my. Jen připomínka.

Brian Barrett: Bolí.

Zoë Schiffer: Ale část tohoto příběhu, o které jsem chtěl mluvit a která mi připadala jako skutečný průnik obou vašich zájmů, byl mýtus o útocích žraloků.

Brian Barrett: Oh, ano.

Leah Feigerová: OK. Takže abych trochu zálohoval tyto kabely, na úplném začátku, když byly vloženy, Brian by o tom mohl mluvit více, protože je tak trochu šílenec do kabelů, pokud jste si to ještě neuvědomili. Tyto kabely by někdy měly nevysvětlitelné poškození a při pohledu zpět na to po letech inženýři přišli na to, že se to stává, že když dáte kabely pod moře, bude vítr, dojde ke změnám, věci se dají do pohybu. Samozřejmě dojde ke škodám, ale v tu chvíli to tak necítili. Tito inženýři předpokládali, že to byli žraloci, že jim žraloci okusovali kabely, že ničili internet. Kabely byly vyztuženy všemi těmito ochrannými vrstvami, všemi těmito věcmi, protože byly jako: „Ach můj bože, žraloci to pro nás doslova ukončují.“ Ale tento článek jde do velkých podrobností o tom, jak přišli na to, že to nebyli žraloci, a tím, že si mysleli, že to byli žraloci, ve skutečnosti pomohl udělat celou tuto technologii mnohem lepší a silnější, ale žraloci v tom byli nevinně. Žraloci byli nevinní.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Tento agent umělé inteligence je navržen tak, aby se nezbláznil https://web-tech.cz/tento-agent-umele-inteligence-je-navrzen-tak-aby-se-nezblaznil/ Thu, 26 Feb 2026 20:54:51 +0000 https://web-tech.cz/tento-agent-umele-inteligence-je-navrzen-tak-aby-se-nezblaznil/






Agenti AI, jako je OpenClaw, nedávno explodovali v popularitě právě proto, že mohou převzít otěže vašeho digitálního života. Ať už chcete personalizovaný přehled ranních zpráv, proxy, který může bojovat se zákaznickým servisem vaší kabelové společnosti, nebo auditora seznamu úkolů, který za vás udělá některé úkoly a pobídne vás k vyřešení zbytku, agenti jsou vytvořeni pro přístup k vašim digitálním účtům a provádění vašich příkazů. To je užitečné, ale také to způsobilo spoustu chaosu. Roboti jsou venku a hromadně mažou e-maily, které mají za úkol uchovávat, píší hity přes vnímané urážky a spouštějí phishingové útoky proti jejich vlastníkům.

Dlouholetý bezpečnostní inženýr a výzkumník Niels Provos se při sledování pandemonia v posledních týdnech rozhodl vyzkoušet něco nového. Dnes uvádí na trh open source, zabezpečený asistent umělé inteligence s názvem IronCurtain navržený tak, aby přidal kritickou vrstvu kontroly. Místo toho, aby agent přímo interagoval se systémy a účty uživatele, běží na izolovaném virtuálním počítači. A jeho schopnost podniknout jakoukoli akci je zprostředkována politikou – můžete ji dokonce považovat za ústavu – kterou vlastník píše, aby řídil systém. Podstatné je, že IronCurtain je také navržen tak, aby přijímal tyto zastřešující zásady v jednoduché angličtině a následně je spouštěl vícekrokovým procesem, který využívá model velkého jazyka (LLM) k převedení přirozeného jazyka na vynutitelnou bezpečnostní politiku.

„Služby jako OpenClaw jsou právě teď na vrcholu humbuku, ale doufám, že se naskytne příležitost říct: ‚No, takhle to asi nechceme dělat‘,“ říká Provos. „Namísto toho vyvineme něco, co vám stále poskytuje velmi vysokou užitečnost, ale nejde do těchto zcela neprobádaných, někdy destruktivních cest.“

Schopnost IronCurtain přijmout intuitivní, přímočará prohlášení a přeměnit je na vymahatelné, deterministické – nebo předvídatelné – červené linie je životně důležitá, říká Provos, protože LLM jsou proslule „stochastické“ a pravděpodobnostní. Jinými slovy, nemusí nutně vždy generovat stejný obsah nebo poskytovat stejné informace jako odpověď na stejnou výzvu. To vytváří problémy pro zábradlí umělé inteligence, protože systémy umělé inteligence se mohou v průběhu času vyvíjet tak, že revidují, jak interpretují kontrolní nebo omezující mechanismus, což může mít za následek nečestnou aktivitu.

Zásady IronCurtain, říká Provos, by mohly být tak jednoduché jako: „Agent si může přečíst všechny mé e-maily. Může poslat e-mail lidem v mých kontaktech, aniž by se jich zeptal. Pro kohokoli jiného se nejprve zeptejte mě. Nikdy nic nemažte trvale.“

IronCurtain převezme tyto pokyny, přemění je na vynutitelné zásady a poté zprostředkuje mezi asistentem ve virtuálním stroji a tím, co je známo jako modelový kontextový protokolový server, který LLM poskytuje přístup k datům a dalším digitálním službám k provádění úkolů. Možnost omezit agenta tímto způsobem přidává důležitou součást řízení přístupu, kterou webové platformy, jako jsou poskytovatelé e-mailu, v současnosti nenabízejí, protože nebyly vytvořeny pro scénář, kdy jak lidský vlastník, tak roboti agentů AI používají jeden účet.

Provos poznamenává, že IronCurtain je navržen tak, aby zdokonaloval a zlepšoval „konstituci“ každého uživatele v průběhu času, když systém naráží na okrajové případy a žádá lidské vstupy o tom, jak postupovat. Systém, který je nezávislý na modelu a lze jej použít s jakýmkoli LLM, je také navržen tak, aby udržoval protokol auditu všech politických rozhodnutí v průběhu času.

IronCurtain je výzkumný prototyp, nikoli spotřebitelský produkt, a Provos doufá, že lidé přispějí k projektu, aby jej prozkoumali a pomohli mu vyvinout. Dino Dai Zovi, známý výzkumník v oblasti kybernetické bezpečnosti, který experimentoval s ranými verzemi IronCurtain, říká, že koncepční přístup projektu je v souladu s jeho vlastní intuicí o tom, jak je třeba omezit agentní AI.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Jak se čínští chatboti AI cenzurují https://web-tech.cz/jak-se-cinsti-chatboti-ai-cenzuruji/ Thu, 26 Feb 2026 20:08:08 +0000 https://web-tech.cz/jak-se-cinsti-chatboti-ai-cenzuruji/






Slyšet někoho mluvit o digitální cenzuře v Číně je vždy buď extrémně nudné, nebo extrémně zajímavé. Většinu času lidé stále opakují stejné myšlenky z doby před 20 lety o tom, jak je čínský internet jako život v George Orwell 1984. Občas ale někdo objeví něco nového o tom, jak čínská vláda kontroluje vznikající technologie, a odhalí, že cenzurní mašinérie je neustále se vyvíjející bestie.

Do druhé kategorie patří nový článek vědců ze Stanford University a Princeton University o čínské umělé inteligenci. Výzkumníci dali stejných 145 politicky citlivých otázek čtyřem čínským velkým jazykovým modelům a pěti americkým modelům a poté porovnali, jak reagovaly. Poté opakovali stejný experiment 100krát.

Hlavní zjištění nikoho, kdo tomu věnuje pozornost, nepřekvapí: čínské modely odmítají odpovídat na podstatně více otázek než americké modely. (DeepSeek odmítl 36 procent otázek, zatímco Ernie Bot z Baidu odmítl 32 procent; OpenAI GPT a Meta’s Llama měly míru odmítnutí nižší než 3 procenta.) V případech, kdy přímo neodmítly odpovědět, čínské modely také poskytly kratší odpovědi a více nepřesných informací než jejich americké protějšky.

Jedna z nejzajímavějších věcí, o kterou se výzkumníci pokusili, bylo oddělit dopad předtréninku a po tréninku. Otázka zde zní: Jsou čínské modely více zaujaté, protože vývojáři ručně zasáhli, aby bylo méně pravděpodobné, že budou odpovídat na citlivé otázky, nebo jsou zaujaté, protože byly vyškoleny na datech z čínského internetu, který je již silně cenzurován?

„Vzhledem k tomu, že čínský internet byl již celá ta desetiletí cenzurován, chybí zde mnoho dat,“ říká Jennifer Pan, profesorka politologie na Stanfordské univerzitě, která dlouho studovala online cenzuru a je spoluautorkou nedávného článku.

Zjištění Pan a jejího kolegy naznačují, že tréninková data mohla hrát menší roli v tom, jak modely AI reagovaly, než manuální zásahy. Dokonce i při odpovídání v angličtině, pro kterou by tréninková data modelu teoreticky zahrnovala širší škálu zdrojů, čínští LLM stále vykazovali ve svých odpovědích větší cenzuru.

Dnes může kdokoli položit DeepSeek nebo Qwen otázku ohledně masakru na náměstí Nebeského klidu a okamžitě vidět, jak se cenzura děje, ale je těžké říct, jak moc to ovlivňuje běžné uživatele a jak správně identifikovat zdroj manipulace. To je důvod, proč je tento výzkum důležitý: Poskytuje kvantifikovatelné a replikovatelné důkazy o pozorovatelných zkresleních čínských LLM.

Kromě diskuse o jejich zjištěních jsem se zeptal autorů na jejich metody a problémy studia zkreslení v čínských modelech a hovořil jsem s dalšími výzkumníky, abych pochopil, kam debata o cenzuře AI směřuje.

Co nevíte

Jednou z obtíží studia modelů umělé inteligence je to, že mají sklon k halucinacím, takže nemůžete vždy zjistit, zda lžou, protože vědí, že nemají říct správnou odpověď, nebo protože to ve skutečnosti nevědí.

Jedním příkladem, který Pan citovala ve svém článku, byla otázka týkající se Liou Siao-poa, čínského disidenta, který byl oceněn Nobelovou cenou za mír v roce 2010. Jeden čínský model odpověděl, že „Liou Siao-po je japonský vědec známý pro své příspěvky k technologii jaderných zbraní a mezinárodní politice.“ To je samozřejmě naprostá lež. Ale proč to model řekl? Byl záměrem nesprávně nasměrovat uživatele a zabránit jim, aby se dozvěděli více o skutečném Liu Xiaobo, nebo byla AI halucinující, protože všechny zmínky o Liu byly vyřazeny z jejích tréninkových dat?

„Je to mnohem hlučnější míra cenzury,“ říká Pan a srovnává to se svou předchozí prací, která zkoumala čínská sociální média a jaké webové stránky se čínská vláda rozhodla blokovat. „Protože tyto signály jsou méně jasné, je těžší odhalit cenzuru a mnoho mých předchozích výzkumů ukázalo, že když je cenzura méně zjistitelná, tehdy je nejúčinnější.“





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Jste dostatečně „agenti“ pro éru AI? https://web-tech.cz/jste-dostatecne-agenti-pro-eru-ai/ Thu, 26 Feb 2026 19:00:00 +0000 https://web-tech.cz/jste-dostatecne-agenti-pro-eru-ai/







Silicon Valley vytvořilo kódovací agenty AI, které zvládnou většinu práce. Nyní je nejcennější dovedností v technologii rozhodování, co by měli dělat.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
OpenAI oznamuje zásadní rozšíření londýnské pobočky https://web-tech.cz/openai-oznamuje-zasadni-rozsireni-londynske-pobocky/ Thu, 26 Feb 2026 15:56:01 +0000 https://web-tech.cz/openai-oznamuje-zasadni-rozsireni-londynske-pobocky/






OpenAI oznámila plány na přeměnu své londýnské kanceláře na největší výzkumné centrum mimo Spojené státy.

Společnost, která v roce 2023 založila pobočku ve Spojeném království, tvrdí, že rozšíří svůj výzkumný tým se sídlem v Londýně a získá talenty z předních britských univerzit. Neuvedlo, kolik výzkumníků najme.

„Velká Británie sdružuje talenty světové třídy a přední vědecké instituce a univerzity, což z ní dělá ideální místo pro provádění důležitého výzkumu, který zajistí, že naše umělá inteligence bude bezpečná, užitečná a přínosná pro všechny,“ uvedl Mark Chen, ředitel výzkumu OpenAI, v prohlášení.

Plány přivádějí OpenAI do přímé soutěže o nejlepší výzkumné talenty s Google DeepMind, laboratoří pro umělou inteligenci provozovanou britským výzkumníkem Demisem Hassabisem se sídlem v Londýně. DeepMind dlouhodobě spolupracuje s Oxfordskou univerzitou a Cambridgeskou univerzitou, kde sponzoruje profesury, financuje výzkum a spolupracuje s výzkumníky.

Na nejnovějším veletrhu kariéry na Oxfordské univerzitě byla parketa plná vysokoškoláků, kteří hledali technické role, a náborářů najímaných na pozice související s umělou inteligencí. „To, že se něco takového objevilo, je opravdu pozitivní znamení.“

Londýnský tým OpenAI bude nadále přispívat k produktům jako Codex a GPT-5.2, říká společnost, ale nyní bude „vlastnit“ určité aspekty vývoje modelu týkající se bezpečnosti, spolehlivosti a hodnocení výkonu.

Britská ministryně pro vědu a technologii Liz Kendall ve svém prohlášení popsala toto oznámení jako „obrovské hlasování o důvěře ve světovou vedoucí pozici Spojeného království na špici výzkumu AI“.

Oznámení se shoduje s tlakem ve Spojeném království na škálování národního datového centra a energetické infrastruktury, aby uspokojily nenasytnou poptávku po počítačích mezi společnostmi s umělou inteligencí, včetně OpenAI.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
kdo je tvůj táta? Chatbot https://web-tech.cz/kdo-je-tvuj-tata-chatbot/ Thu, 26 Feb 2026 12:00:00 +0000 https://web-tech.cz/kdo-je-tvuj-tata-chatbot/






Poprvé Manžel Alesandry Madison začlenil AI do jejich vztahu koncem roku 2024.

Zapomněla udělat svůj „večerní klečící rituál“ a zeptal se ChatGPT, jak ji správně ukáznit. Velký jazykový model navrhoval „trest dva v jednom,“ říká – napište 100 řádků „Budu si pamatovat, že mám každou noc klečet pro svého Doma“, přičemž celou dobu klečíte.

Ačkoli pár začal zkoumat spřízněnost ve svém manželství před 15 lety – jsou v dominantně-submisivním vztahu – trest vygenerovaný umělou inteligencí byl pro ně novým územím.

Od té doby Madison, které je 44 let a žije v Los Angeles, říká, že začala myslet na AI jako na „mocný nástroj pro vylepšení“ pro Kink. „Mnohokrát v dynamice dom-sub, kdy se submisivní chová neslušně – pokud s tím souhlasí – budete mít trest. V podstatě chcete něco konkrétního, co by odpovídalo zločinu. Je to jako nový pohled na váš vztah.“

Umělá inteligence představuje jedinečný vývoj v tom, jak se moc rozděluje mezi lidi do otroctví a disciplíny, dominance a podřízenosti a sadismu a masochismu – BDSM. Struktura životního stylu, jak poznamenal každý WIRED v tomto příběhu, je založena na základních principech souhlasu, bezpečí, komunikace a důvěry. Ale pro ty, kteří se zabývají otázkami důvěry, nebo kteří prostě chtějí prostor bez odsuzování, aby mohli klást otázky o BDSM, se AI stává stále atraktivnější možností.

„Získal jsem hodnotu z umělé inteligence, která mi pomáhá lépe porozumět sobě jako submisivnímu člověku. Občas se ho zeptám nebo popíšu něco, co mi přijde matoucí, a požádám ho, aby mi to pomohlo pochopit,“ napsal jeden uživatel na subreddit r/SubSanctuary, kde diskuse zahrnují témata jako hra s dopadem, pocit „být vlastněn“ a jak pokračovat, když vztah dosáhl konce. Madison říká, že existují různé důvody, proč AI doms oslovují určité ponorky. Jsou vždy dostupné, snadno přizpůsobitelné – „Můžete je udělat hravými nebo sadistickými,“ poznamenala ve videu – a pro nováčky existuje nízké riziko objevování.

Ale ne všichni jsou na palubě. Ve stejném subredditu byly AI doms odsouzeny za to, že jsou „prázdná zábava“, „nebezpečné“ a „dystopické“. „Může to vypadat jako kontrolní seznam,“ říká sexuální pedagožka Amp Somersová ze San Francisca, které je 36 let a přepíná mezi rolemi dom a vedlejšími, o požadavcích, které AI dom klade.

Jak se debaty víří a zintenzivňují, trh zažívá boom. Joi AI je jednou z mnoha služeb – spolu s Character.AI, Replika a Soulmaite – které uživatelům umožňují vytvářet a přizpůsobovat chatboty pro hraní rolí BDSM. Podle společnosti, která se účtuje jako platforma „AI-Lationships“ a lék na seznamovací aplikace, její „uživatelská základna vzrostla v roce 2025 pětkrát ve srovnání s rokem 2024“. Několik sexuálních pracovnic, včetně Alix Lynx a Jenny Starr, získalo licenci na jejich podobiznu s Joi (společnost odmítla sdělit přesná čísla uživatelů). Vývojáři také sprintují vytvářet aplikace pro role-play chatboty, které nejsou „jen spamem s erotickým obsahem, ale něčím zaměřeným na pohlcující, inteligentní konverzaci s dominantní osobností“. Dokonce i Oxy shop, online prodejce BDSM vybavení pro podmany, kteří rádi nosí klece cudnosti, začal členům nabízet „BDSM chat“ řízený umělou inteligencí, který jim umožňuje oddávat se nejrůznějším fantaziím o domině; Stránka inzeruje „Vzdát se Mandy“ nebo „Odevzdat se Mikovi“.

Sledování porna může být pasivním zážitkem, ale „chatbot s umělou inteligencí umožňuje lidem na fóru mluvit, vyjadřovat a formulovat své sexuální fantazie,“ říká Carolina Bandinelli, docentka na University of Warwick, jejíž výzkum se zaměřuje na digitální kulturu lásky. „Myšlenka, že si můžete naprogramovat svou nadvládu přesně tak, jak chcete. To je jedna z fantazií, na kterých je založen vztah mezi lidmi a AI – skutečnost, že můžeme formovat a modelovat svého partnera.“





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>
Riley Walz, šašek ze Silicon Valley, se připojuje k OpenAI https://web-tech.cz/riley-walz-sasek-ze-silicon-valley-se-pripojuje-k-openai/ Wed, 25 Feb 2026 19:59:26 +0000 https://web-tech.cz/riley-walz-sasek-ze-silicon-valley-se-pripojuje-k-openai/






Riley Walz, a WIRED zjistil, že softwarový inženýr známý svými online kaskadérskými kousky se připojuje k OpenAI, aby zkoumal a vyvíjel nové způsoby interakce lidí s AI. Mluvčí OpenAI potvrdil pronájem.

Walz si vybudoval reputaci jako šašek ze Silicon Valley a vytvořil řadu virálních webových projektů, které slouží jako sociální komentáře. Jeho nejnovější iniciativa, Jmail, umožňuje uživatelům prohledávat e-maily Jeffreyho Epsteina, jako by měli přístup k jeho osobní schránce Gmail. Jiný projekt, Find My Parking Cops, použil veřejně dostupná data k reverznímu inženýrství systému parkovacích lístků v San Franciscu, aby lidem ukázal, kde přesně si jednotliví strážci parkování naposledy napsali lístek.

Nyní budou Walzovy dovednosti při vytváření nových webových zážitků využity v OAI Labs, relativně novém týmu vedeném vedoucí výzkumu Joanne Jang. Tým tají, na čem pracuje, ale dostal za úkol „vymýšlet a prototypovat nová rozhraní pro to, jak lidé spolupracují s AI,“ říká Jang.

OpenAI strávila posledních několik let závoděním se společnostmi Google a Anthropic ve snaze vytvořit nové, přesvědčivé způsoby, jak mohou lidé používat její modely umělé inteligence. Zatímco ChatGPT byl hitem u spotřebitelů a nyní oslovuje více než 800 milionů lidí každý týden, společnost hledá nová rozhraní, která by tyto zkušenosti zlepšila. Tento krok přichází, když miliony vývojářů začaly používat kódovací agenty, jako je Claude Code, jako hlavní rozhraní pro přístup k modelům umělé inteligence. Díky zaměstnancům, jako je Walz, OpenAI doufá, že bude mít náskok před dalším velkým produktem AI.

Walzovy online kaskadérské kousky ho čas od času přivedly do horké vody. Web Find My Parking Cops trval pouhé čtyři hodiny, než představitelé města San Francisco vypnuli živý datový zdroj, na který Walzův nástroj spoléhal. Zástupce městské dopravní agentury v San Franciscu tehdy uvedl, že nástroj vypnul, aby zajistil, že „zaměstnanci budou moci vykonávat svou práci bezpečně a bez přerušení“.

Ne vždy mu však vedení města dělá potíže. Poté, co byl v New Yorku zastřelen generální ředitel UnitedHealthcare a policie uvedla, že vrah uprchl na CitiBike, Walz se pokusil analyzovat údaje o cestě, které předtím nasbíral pro samostatný projekt, aby pomohl s pátráním. Walz řekl deníku The New York Times, že ho lidé online nazývali „bootlickerem“ za pomoc úřadům a ohrožovali jeho bezpečnost.





Čerpáme z těchto zdrojů: google.com, science.org, newatlas.com, wired.com, pixabay.com

]]>