⚖️ Anthropic žaluje Pentagon, aby zablokoval zařazení na černou listinu kvůli omezením používání umělé inteligence ↗
Společnost Anthropic se soudně obrátila na Pentagon poté, co byla označena za riziko pro dodavatelský řetězec. Společnost tvrdí, že tento krok byl nezákonnou odvetou za odmítnutí uvolnit ochranná opatření týkající se autonomních zbraní a domácího dohledu – což řadí tento spor mezi nejpalčivější témata v politice umělé inteligence v současnosti. ( Reuters )
Vláda požaduje flexibilitu pro „jakékoli zákonné použití“, zatímco Anthropic tvrdí, že soukromé laboratoře by měly mít i nadále možnost stanovit si pevné bezpečnostní hranice. Toto se stalo jedním z dosud nejjasnějších testů, zda společnost zabývající se umělou inteligencí může říct „ne“ vojenským podmínkám, aniž by za to byla nucena. ( Reuters )
🧑💻 Zaměstnanci společností OpenAI a Google podporují žalobu společnosti Anthropic proti Pentagonu ↗
Tato žaloba si rychle získala podporu i zevnitř konkurenčních laboratoří. Téměř 40 zaměstnanců společností OpenAI a Google podpořilo Anthropic v podání amicus curiae s argumentem, že odveta proti firmám kvůli bezpečnostním limitům v oblasti umělé inteligence je v rozporu s veřejným zájmem. ( The Verge )
Takže ano, konkurenti se náhle ocitli na stejné straně – alespoň v tomto bodě. Zadání se zaměřuje na hromadný dohled a nespolehlivé autonomní zbraně, díky čemuž celá záležitost působí méně jako standardní odstřelování ze Silicon Valley a spíše jako skutečná průmyslová čára v písku... nebo možná v bahně. ( The Verge )
🛡️ OpenAI získává Promptfoo, aby zabezpečila své AI agenty ↗
Společnost OpenAI oznámila, že kupuje Promptfoo, startup zaměřený na ochranu rozsáhlých jazykových modelů před útoky nepřátel. Plánem je integrovat její technologii do OpenAI Frontier, podnikové platformy společnosti pro agenty umělé inteligence. ( TechCrunch )
Je to výmluvný krok. Každý chce, aby agentní umělá inteligence dělala více, rychleji a všude – ale bezpečnostní stránka zaostává, ať už o trochu, nebo o hodně. Tato dohoda naznačuje, že OpenAI si myslí, že další velký závod nevede jen o chytřejší agenty, ale i o ty bezpečnější. ( TechCrunch )
🧪 Anthropic spouští nástroj pro kontrolu kódu, který kontroluje záplavu kódu generovaného umělou inteligencí ↗
Společnost Anthropic spustila Code Review v rámci Claude Code, zaměřený na týmy zahlcené pull requesty vytvořenými nástroji pro kódování s umělou inteligencí. Využívá více agentů paralelně ke skenování kódu, označování logických chyb, hodnocení závažnosti a zanechávání komentářů přímo na GitHubu. ( TechCrunch )
Návrh je poměrně jednoduchý – umělá inteligence generuje kód rychleji, než si ho lidé dokážou rozumně prohlédnout, takže teď musí umělá inteligence prověřit tu druhou. Je to sice trochu chaotické řešení, ale praktické. Anthropic tvrdí, že je zaměřeno na podnikové uživatele, kteří již nyní vidí masivní produkci kódu od Claude Code. ( TechCrunch )
💰 Hodnota Nscale podporované společností Nvidia v novém kole financování dosáhla 14,6 miliardy dolarů ↗
Britská společnost Nscale, která se zabývá infrastrukturou umělé inteligence, získala v kole financování série C 2 miliardy dolarů, čímž dosáhla ocenění 14,6 miliardy dolarů. Mezi podporovatele patřily společnosti Aker, 8090 Industries, Nvidia, Citadel, Dell a Jane Street – což představuje poměrně silný projev důvěry. ( Reuters )
Tohle je důležité, protože se nejedná o další uvedení modelu na trh ani o vylepšení chatbota. Jde o tu část boomu, kde se pracuje s krumpáči a lopatami – výpočetní technika, infrastruktura, kapacita, všechny ty těžké stroje za oponou. Možná to není nic okouzlujícího, ale právě tam se teď točí velká část peněz. ( Reuters )
🧠 Yann LeCun a jeho AMI Labs získali 1,03 miliardy dolarů na stavbu modelů světa ↗
Yann LeCunův nový podnik, AMI Labs, získal 1,03 miliardy dolarů při předběžném ocenění 3,5 miliardy dolarů. Společnost se snaží o „světové modely“ – systémy umělé inteligence, které se mají učit ze samotné reality, a ne primárně z jazyka. ( TechCrunch )
To je přímý filozofický útok na současný konsenzus založený na LLM, a to i pozoruhodně neomalený. LeCun už léta tvrdí, že dnešní jazykové modely nás nedovedou až k lidské úrovni inteligence, takže toto nastolení argumentu proměňuje tento argument ve velmi drahý experiment. ( TechCrunch )
🇨🇳 Čínské technologické huby propagují agenta umělé inteligence OpenClaw navzdory bezpečnostním varováním ↗
Několik čínských místních samospráv podporuje OpenClaw, agenta umělé inteligence, který se rychle šíří navzdory bezpečnostním obavám spojeným s jeho přístupem k osobním údajům. Oficiální nálada se tedy zdá být: ano, rizika existují – a ano, pojďme to stejně škálovat. ( Reuters )
Toto rozdělení je klíčové. Místní uzly chtějí ekonomický růst a dynamiku ekosystému, zatímco regulátoři varují před únikem dat. Je to už známý vzorec umělé inteligence – nejdřív sprint, pak uklidit zábradlí, nebo se to tak alespoň zdá. ( Reuters )
Často kladené otázky
Proč Anthropic žaluje Pentagon kvůli omezením používání umělé inteligence?
Společnost Anthropic uvádí, že Pentagon označil žalobu za riziko pro dodavatelský řetězec poté, co společnost odmítla širší podmínky, které by se mohly vztahovat na autonomní zbraně a domácí dohled. Žaloba se tak týká více než jen statusu dodavatele. Testuje se, zda laboratoř umělé inteligence dokáže dodržet pevné bezpečnostní limity a zároveň konkurovat vládním zakázkám, aniž by byla penalizována.
Proč zaměstnanci OpenAI a Googlu podporují Anthropic v tomto sporu o bezpečnost umělé inteligence?
Zpráva amicus curiae naznačuje, že mnoho lidí v konkurenčních laboratořích to považuje za precedentní problém s bezpečností umělé inteligence, nikoli pouze za boj mezi jednou společností a jednou agenturou. Obávají se, že potrestání dodavatele za dodržování limitů by mohlo vyvinout tlak na širší trh k oslabení ochranných opatření. V praxi by to mohlo ovlivnit způsob, jakým budou vyjednávány budoucí smlouvy na umělou inteligenci v oblasti obrany a veřejného sektoru.
Co by mohl případ Anthropic-Pentagon změnit v oblasti politiky umělé inteligence a obranných zakázek?
Pokud Anthropic vyhraje, společnosti zabývající se umělou inteligencí by mohly mít silnější postavení při definování nepřijatelného použití i při prodeji do citlivých vládních prostředí. Pokud prohraje, agentury by mohly získat vliv na to, aby od dodavatelů požadovaly širší podmínky „zákonného použití“. V každém případě tento spor pravděpodobně ovlivní formulaci zadávání veřejných zakázek, hodnocení rizik a způsob, jakým jsou bezpečnostní zábrany zahrnuty do obranných smluv.
Proč OpenAI koupila Promptfoo pro AI agenty?
Společnost Promptfoo je známá testováním rozsáhlých jazykových modelů proti útokům a dalším bezpečnostním slabinám. Začlenění tohoto druhu nástrojů do platformy podnikových agentů OpenAI naznačuje, že společnost vnímá bezpečnější nasazení spíše jako konkurenční výhodu než jako vedlejší úkol. Vzhledem k tomu, že agenti umělé inteligence přebírají stále více práce, je mnohem těžší ignorovat testování odolnosti a zneužití.
Jak mohou týmy bezpečněji zvládat záplavu kódu generovaného umělou inteligencí?
Nová funkce Anthropic Code Review v Claude Code je určena pro týmy zahlcené pull requesty generovanými nástroji pro kódování s umělou inteligencí. Využívá více agentů paralelně k odhalování logických problémů, hodnocení jejich závažnosti a zanechávání komentářů na GitHubu. Nástroje jako tento obvykle pomáhají třídit objem, ale lidští recenzenti jsou stále důležití pro architekturu, kontext a konečné schválení.
Proč se do infrastruktury umělé inteligence právě teď tolik investuje?
Nejnovější kolo financování společnosti Nscale ukazuje, že odvětví umělé inteligence stále investuje obrovské prostředky do výpočetní techniky, infrastruktury a kapacity. Tyto výdaje mohou být méně viditelné než okázalé uvedení modelu na trh, ale jsou základem všeho ostatního. Když poptávka po školení a nasazení neustále roste, společnosti prodávající krumpáče a lopaty se často stávají jedni z největších vítězů.
Co jsou to světové modely a proč na ně Yann LeCun sází?
Modely světa jsou systémy umělé inteligence navržené tak, aby se učily z chování světa, spíše než aby se spoléhaly primárně na jazyková data. To je důležité, protože Yann LeCun již dlouho tvrdí, že jazykové modely samy o sobě pravděpodobně nedosáhnou inteligence lidské úrovně. AMI Labs proměňuje tento názor ve významnou komerční sázku na jinou cestu pokročilého výzkumu umělé inteligence.
Proč čínské technologické centry podporují OpenClaw navzdory bezpečnostním varováním?
Příběh OpenClaw ukazuje známý rozkol uvnitř rychle se rozvíjejících technologických trhů: místní samosprávy chtějí růst, dotace a dynamiku ekosystému, zatímco regulátoři se obávají o vystavení dat a jejich bezpečnost. Podpora agenta navzdory varováním naznačuje, že na některých místech převládají ekonomické pobídky. Pro pozorovatele je to další připomínka toho, že přijetí často probíhá rychleji než dohled.