Indonésie blokuje přístup Muskovu chatbotovi s umělou inteligencí Grok kvůli deepfake obrázkům ↗
Indonésie dočasně zablokovala Grok poté, co byl použit k vytváření deepfaků sexuálního charakteru bez souhlasu – včetně obrázků zaměřených na ženy a děti. Vláda to označila za problém s lidskými právy a veřejnou bezpečností, nikoli za drobnou technologickou nepříjemnost.
Problém je jasný: pokud nástroj dokáže na povel „svléknout“ skutečné lidi, důkazní břemeno se obrací. Platformy musí prokázat, že tomu mohou zabránit, ne jen slíbit, že o tom uvažují.
Elon Musk říká, že Spojené království chce potlačit svobodu projevu, protože X čelí možnému zákazu ↗
Britští ministři otevřeně uvalili pokuty – a dokonce zablokovali X – poté, co byl Grok použit k vytváření sexuálně explicitních obrázků bez souhlasu. Musk se bránil známým rámováním svobody projevu… ale právní situace ve Spojeném království se posouvá z „debatního klubu“ směrem k „lhůtě pro dodržování předpisů“
Ofcom je nucen jednat rychle a zákonodárci poukazují na stejný pochmurný vzorec: jakmile se snímky rozšíří, škoda nečeká trpělivě na aktualizaci politiky.
🧑💻 OpenAI údajně žádá dodavatele, aby nahrávali skutečnou práci z minulých zakázek ↗
OpenAI spolu s partnerem pro školicí data údajně žádá smluvní partnery, aby nahrávali skutečné pracovní artefakty z minulých (a současných) zakázek – například dokumenty, tabulky, balíčky, repozitáře. Uvedeným cílem je vyhodnotit a vylepšit agenty umělé inteligence při kancelářských úkolech.
Ta nepříjemná stránka věci je zřejmá a až trochu surrealistická: dodavatelé jsou vyzýváni, aby si citlivé informace sami vymazali. To je velká důvěra v rychle se rozvíjející proces – jako byste někoho požádali, aby s láskou zneškodnil bombu pomocí kuchyňských rukavic.
🗂️ OpenAI žádá dodavatele, aby nahrávali práci z minulých zakázek, aby vyhodnotili výkon agentů umělé inteligence ↗
Samostatná zpráva se zabývá stejnou situací a důvody, proč znepokojuje právníky specializující se na ochranu soukromí a duševní vlastnictví. I když všichni jednají v dobré víře, „odstraňte důvěrné informace“ je při práci se skutečnými firemními dokumenty nevýrazný pokyn.
Naznačuje to také širší strategii: Agenti s umělou inteligencí už nejsou jen upovídaní kopiloti – jsou trénováni k napodobování složité, mnohosouborové reality skutečné práce. Praktické, ano. Taky trochu… fuj.
🏦 Allianz a Anthropic Forge uzavírají globální partnerství s cílem rozvíjet odpovědnou umělou inteligenci v pojišťovnictví ↗
Společnosti Allianz a Anthropic oznámily globální partnerství zaměřené na tři oblasti: produktivitu zaměstnanců, provozní automatizaci prostřednictvím agentní umělé inteligence a compliance by design. Pojištění je papírování se zuby, takže „agentní“ zde v podstatě znamená automatizaci složitých pracovních postupů bez ztráty auditních stop.
Atmosféra je taková: udělejte si tu skvělou automatizaci, ale uschovejte si účtenky. V regulovaných odvětvích je to jediný způsob, jak se to škálovat, aniž by se to stalo piñatou o odpovědnosti.
🕵️♂️ Prohlášení v reakci na Grok AI na X ↗
Britský regulátor ochrany osobních údajů uvedl, že kontaktoval společnosti X a xAI s žádostí o objasnění ohledně toho, jak nakládají s osobními údaji a chrání práva lidí, a to vzhledem k obavám ohledně obsahu generovaného službou Grok. Nejde jen o „moderování obsahu“ – jde také o to, zda jsou data lidí zpracovávána zákonně a zda jsou jejich práva chráněna.
Tohle je ten druh regulačního kroku, který zní zdvořile, ale pak se tiše stane extrémně vážným, pokud se odpovědi vrátí nejasné... nebo vyhýbavé, případně obojí.
Často kladené otázky
Proč Indonésie zablokovala přístup k Grok AI?
Indonésie dočasně zablokovala Grok poté, co byl údajně použit k vytváření nedobrovolných sexuálních deepfaků, včetně obrázků zaměřených na ženy a děti. Úředníci tento krok označili za problém lidských práv a veřejné bezpečnosti, nikoli za drobný technologický spor. Základním sdělením je, že heslo „napravíme to později“ selhává, pokud nástroje mohou způsobit okamžitou a nevratnou škodu.
Co zvažuje Spojené království poté, co se na X objevily deepfaky generované Grokem?
Britští ministři veřejně diskutovali o pokutách a dokonce i o možnosti zablokování platformy X poté, co byl Grok použit k vytváření sexuálně explicitních obrázků bez souhlasu. Politický a regulační tón se posouvá směrem k vymahatelnému dodržování předpisů, nikoli k otevřené debatě. Zákonodárci se neustále vracejí k načasování: jakmile se obrázky rozšíří, obětem hrozí újma dlouho předtím, než platformy zveřejní aktualizované zásady.
Co to znamená, když regulační orgány „převrátí důkazní břemeno“ u nástrojů pro tvorbu obrazu s umělou inteligencí?
Myšlenka „převrácení důkazního břemene“ spočívá v tom, že platformy možná budou muset prokázat, že dokáží zabránit konkrétním škodám – jako je generování nesouhlasných „svlékacích“ obrázků – spíše než aby pouze slibovaly ochranná opatření. V praxi to tlačí společnosti k prokazatelným kontrolám, měřitelnému vymáhání práva a jasnému řešení selhání. Signalizuje to také, že „záměr“ je méně důležitý než hmatatelné výsledky a opakovatelná prevence.
Jak mohou platformy snížit riziko deepfaků generovaných umělou inteligencí bez souhlasu?
Běžným přístupem je vícevrstvá prevence: omezení výzev a výstupů vázaných na skutečné osoby, blokování požadavků na styl „svlékání“ a detekce a zastavení pokusů o generování sexualizovaných obrázků bez souhlasu. Mnoho systémů přidává limity rychlosti, silnější monitorování identity a zneužívání a rychlé pracovní postupy pro odstranění obsahu, jakmile se rozšíří. Cílem není jen formulace zásad, ale nástroje, které obstojí i při nepřátelském použití.
Proč nahrávání skutečných pracovních dokumentů dodavateli ze strany OpenAI vyvolává poplach?
Zprávy uvádějí, že OpenAI (s partnerem pro školicí data) žádá smluvní partnery, aby nahrávali skutečné pracovní artefakty – dokumenty, tabulky, balíčky a repozitáře – za účelem vyhodnocení a vylepšení agentů umělé inteligence pro kancelářské úkoly. Obava spočívá v tom, že smluvní partnerům je řečeno, aby si sami vymazali citlivé údaje, což může být náchylné k chybám. Právníci v oblasti ochrany osobních údajů a duševního vlastnictví se obávají, že tento pokyn „odstranit důvěrné informace“ je pro skutečné firemní materiály příliš nejednoznačný.
Jaký je význam partnerství Allianz s Anthropic na „agentní umělé inteligenci“ v pojišťovnictví?
Společnosti Allianz a Anthropic popsaly globální partnerství zaměřené na produktivitu zaměstnanců, provozní automatizaci s využitím agentní umělé inteligence a dodržování předpisů již od návrhu. Pracovní postupy v pojišťovnictví jsou složité a silně regulované, takže „agentní“ často znamená automatizaci vícestupňových procesů bez ztráty odpovědnosti. Důraz na auditní záznamy a „uchovávání dokladů“ odráží praktickou realitu: automatizace se v regulovaných odvětvích škáluje pouze tehdy, když je i nadále kontrolovatelná a obhajitelná.