🕵️ Británie bude spolupracovat s Microsoftem na vybudování systému pro detekci deepfakeů ↗
Británie uvádí, že spolupracuje s Microsoftem, akademiky a dalšími odborníky na vybudování systému, který dokáže odhalit deepfakes online – a také vhodného způsobu, jak otestovat , zda detekční nástroje obstojí v reálných podmínkách.
Důraz je kladen na ty nejhorší škody: vydávání se za jinou osobu, podvod a sexuální obsah bez souhlasu. Není to okouzlující, ale právě tam se škody soustřeďují.
🧠 Anthropic vydává upgrade pro umělou inteligenci, zatímco trh trestá softwarové akcie ↗
Společnost Anthropic představila vylepšený model Claude (Opus 4.6), který se vyznačuje lepším výkonem v kódování a financích a navíc schopností spotřebovat až 1 milion tokenů najednou. To je hodně kontextu – jako kdybyste modelu předali celou průkazku do knihovny.
Také se přiklánějí k „agentům“ prostřednictvím Claude Code, kde lze úkoly rozdělit mezi autonomní pomocníky. To je praktické, víc, než byste čekali – a také přesně ten druh posunu, který investory do softwaru staré školy trochu znervózňuje.
🧑💼 OpenAI představuje službu AI agentů v rámci snahy přilákat firmy ↗
Společnost OpenAI oznámila „Frontier“, podnikovou službu pro vytváření a správu agentů umělé inteligence – botů, kteří vykonávají specifické úkoly, jako je ladění softwaru, zpracování pracovních postupů a podobně.
Zvrat je v tom, že se má zapojit do stávající firemní infrastruktury a dokonce podporovat agenty třetích stran, což zní jako snaha OpenAI stát se řídicí místností – nejen poskytovatelem modelu. Ambiciózní… nebo mírně majetnické, záleží na tom, jak se na to díváte.
🪖 USA a Čína se odhlásily ze společného prohlášení o využití umělé inteligence ve vojenské oblasti ↗
Řada zemí podepsala nezávaznou deklaraci, která stanoví zásady pro používání umělé inteligence ve válčení – například lidskou odpovědnost, jasné struktury velení a seriózní testování a hodnocení rizik.
Ale USA a Čína nepodepsaly. Což je celý příběh v jednom trapném okamžiku – pravidla existují a největší hráči… nemají v rukou.
🎭 Newyorská legislativa vyžaduje zveřejňování informací o účinkujících generovaných umělou inteligencí v reklamě a posiluje práva na publicitu po smrti ↗
New York podepsal zákony, které vyžadují, aby reklamy využívající „syntetické umělce“ generované umělou inteligencí tuto skutečnost jasně sdělovaly publiku ve státě – i když inzerent sídlí jinde. V podstatě jde o to: nepouštíte mezi lidi falešného člověka a nenazýváte to marketingem.
Stát samostatně zpřísnil pravidla pro komerční využití podobizen zesnulých osob, včetně digitálních replik. Upřímně řečeno, je to trochu ponuré, ale zároveň velmi „vítejte v době, kdy identita potřebuje bezpečnostní pás“
Často kladené otázky
Co Británie buduje s Microsoftem pro odhalování deepfakes online?
Británie uvádí, že bude spolupracovat s Microsoftem, akademiky a dalšími odborníky na vybudování systému, který dokáže odhalit deepfakes online. Plán také zahrnuje vytvoření spolehlivého způsobu, jak otestovat, zda detekční nástroje obstojí i mimo laboratoř. Důraz se i nadále soustředí na nejzávažnější škody: vydávání se za jinou osobu, podvody a sexuální obsah bez souhlasu.
Jak se bude „divoké“ testování detektorů deepfake lišit od dem?
Kromě samotného detektoru Británie klade důraz na způsob testování nástrojů pro detekci deepfake v realistických podmínkách. V mnoha pipelinech se modely jeví jako silné na kurátorovaných datových sadách, ale slábnou, když se změní formáty obsahu, komprese nebo taktiky útoků. Strukturovaný přístup k hodnocení pomáhá konzistentně porovnávat nástroje a odhaluje, kde detekce selhává v živém online prostředí.
Co změnila Anthropic ve verzi Claude Opus 4.6 a proč je důležitý limit tokenů?
Anthropic uvádí, že Claude Opus 4.6 zlepšuje výkon v oblastech, jako je kódování a finance, a dokáže zpracovat až 1 milion tokenů kontextu. Toto větší kontextové okno může usnadnit práci s dlouhými dokumenty nebo složitými kódovými bázemi bez neustálého načítání informací. Zdůraznili také „agenty“ prostřednictvím Claude Code, kde lze úkoly rozdělit mezi autonomní pomocníky.
Co je OpenAI „Frontier“ a jak zapadá do podnikových pracovních postupů?
Společnost OpenAI oznámila „Frontier“ jako podnikovou službu pro vytváření a správu agentů umělé inteligence, kteří vykonávají specifické úkoly, jako je ladění softwaru nebo zpracování pracovních postupů. Je navržena tak, aby se zapojila do stávající firemní infrastruktury, spíše než aby sloužila jako samostatný koncový bod modelu. OpenAI také uvedla, že může podporovat agenty třetích stran, což naznačuje řídicí vrstvu pro koordinaci různých systémů agentů.
Co říká vojenská deklarace o umělé inteligenci a co to znamená pro řízení umělé inteligence?
Deklarace je popisována jako nezávazná a stanoví zásady pro používání umělé inteligence ve válčení, včetně lidské odpovědnosti, jasných velitelských struktur a seriózního testování a hodnocení rizik. Agentura Reuters uvedla, že ji podepsalo mnoho zemí, ale USA a Čína nikoli. Pro správu umělé inteligence je toto vyloučení důležité, protože ponechává největší hráče mimo sdílený soubor stanovených norem.
Co vyžadují nová pravidla státu New York pro uměle generované umělé inteligence v reklamách?
New York podepsal zákony, které vyžadují, aby reklama využívající „syntetické umělce“ generované umělou inteligencí jasně informovala publikum ve státě o této skutečnosti, a to i v případě, že inzerent sídlí jinde. Samostatně stát posílil práva na posmrtnou publicitu týkající se komerčního využití podobizen zesnulých osob, včetně digitálních replik. V praxi to posouvá řízení umělé inteligence směrem k jasnějšímu označování a přísnější kontrole používání identity.