Novinky o umělé inteligenci 15. února 2026

Shrnutí novinek o umělé inteligenci: 15. února 2026

🦞 Zakladatel OpenClawu Steinberger se připojuje k OpenAI, open-source bot se stává nadací

Peter Steinberger míří do OpenAI, aby prosazoval „osobní agenty“, zatímco samotný OpenClaw je zaparkován v nějaké nadaci, takže zůstává open source (a podporovaný). Toto rozdělení je… docela chytré – najmout si tvůrce, projekt zůstat veřejný.

OpenClawův návrh je osvěžujícím způsobem praktický: třídění e-mailů, papírování pojištění, odbavení letů, otravné administrativní úkony. Jeho popularita se také rozšířila na GitHub a tato popularita s sebou přinesla obavy o bezpečnost, zejména pokud jej lidé používají nedbale.

🪖 Pentagon má „dost“ odporu společnosti Anthropic k používání modelu umělé inteligence Claude armádou a možná přeruší spolupráci, uvádí zpráva

Hlavní bod sporu: Pentagon chce široký přístup „pro všechny zákonné účely“ a Anthropic se stále snaží udržet přísná omezení ohledně plně autonomních zbraní a hromadného sledování. To je ten druh nesouhlasu, který zní filozoficky, dokud někdo neřekne: „Možná vás nahradíme.“

Jeden podceňovaný nedostatek – úředníci nechtějí, aby model náhle zablokoval pracovní postupy uprostřed procesu, a nechtějí donekonečna vyjednávat o hraničních případech (což je fér… ale taky fuj). Je tu skutečné napětí typu „kdo drží klíče“ a není to nenápadné.

🧠 Startup buduje model pro predikci lidského chování

Společnost Simile získala investici ve výši 100 milionů dolarů na vytvoření modelu „omezeného učení“, jehož cílem je předvídat, co by lidé mohli dělat – včetně, konkrétně, předvídání pravděpodobných otázek v oblastech, jako jsou konferenční hovory o hospodářských výsledcích. Úzký cíl, velké ambice, trochu tajemná kombinace.

Tento přístup se opírá o rozhovory se skutečnými lidmi a data z behaviorálního výzkumu a následně provádí simulace s využitím umělé inteligence, které odrážejí skutečné preference. Je to jako vytvářet model počasí pro lidská rozhodování… což zní až do chvíle, kdy se ukáže, že to tak není.

🧑⚖️ Novinky: Bílý dům tlačí na zákonodárce z Utahu, aby zamítl zákon o transparentnosti umělé inteligence

Iniciativa k transparentnosti v oblasti umělé inteligence na úrovni jednotlivých států v Utahu se setkává s přímou kritikou Bílého domu a úředníci naléhají na navrhovatele návrhu zákona, aby s ním neprojednával návrh. Návrh zákona je koncipován především o transparentnosti a bezpečnosti dětí – s čímž se jen z čistého hlediska nedá polemizovat.

Ale větší boj se týká jurisdikce: kdo bude stanovovat pravidla, státy nebo federální vláda. A ano, je to vrčení – jako by se dva lidé chytili stejného volantu a trvali na tom, že oni jsou ten klidný.

🎬 ByteDance se po hrozbě od Disney zavazuje zabránit neoprávněnému použití IP adres v nástroji pro video s umělou inteligencí

Společnost Disney vydala zákaz ohledně generátoru videa s umělou inteligencí od společnosti ByteDance a společnost ByteDance tvrdí, že posiluje ochranná opatření, aby zabránila neoprávněnému použití duševního vlastnictví a podoby. Stížnost údajně spočívá v tom, že nástroj dokáže zobrazit známé postavy z franšízy, jako by to byly jen… veřejně dostupné samolepky.

Je to srážka, kterou všichni předvídali: virální nástroje pro tvorbu videí s umělou inteligencí se rychle vyvíjejí, studia se pouštějí do soudních sporů a „přidáme ochranná opatření“ se stává výchozím jazykem omluvy. Technologie ale vypadá jako kouzlo – a právní stránka vypadá jako gravitace.

Často kladené otázky

Co to znamená, že zakladatel OpenClaw se připojil k OpenAI, zatímco OpenClaw přešel k nadaci?

Signalizuje to rozkol mezi osobou, která vytváří „osobní agenty“, a projektem, který zůstává veřejně řízen. Steinbergerův vstup do OpenAI naznačuje, že se tam zaměří na rozvoj produktů ve stylu agentů. Umístění OpenClaw do nadace má za cíl udržet jej jako open source a udržitelně podporovaný. V praxi si tento krok klade za cíl zachovat důvěru komunity, zatímco tvůrce jde tam, kde jsou zdroje.

Proč se agenti umělé inteligence ve stylu OpenClaw zaměřují na domácí práce, jako je e-mail a papírování?

Protože práce „v rámci životního stylu a administrativy“ je opakující se, založená na pravidlech a časově náročná, dělá z ní praktický cíl pro automatizaci. Uvedené příklady – třídění e-mailů, papírování pojištění a odbavení letů – jsou úzce zaměřené úkoly s jasnými kritérii úspěchu. Toto zaměření může agentům dát pocit, že jsou cenní, dříve než asistentům s otevřeným přístupem. Zdůrazňuje také, proč je důležitá pečlivá kontrola přístupu, když agenti dotýkají osobních účtů.

Jak můžete nasadit open-source agenta umělé inteligence, jako je OpenClaw, bez vzniku bezpečnostních problémů?

Zacházejte s ním jako se softwarem, který vidí citlivá data, ne jako s hračkovým skriptem. Běžným přístupem je uzamčení přihlašovacích údajů, omezení oprávnění na požadované minimum a uchovávání protokolů a auditních stop. Spouštějte jej v omezeném prostředí a oddělte jej od systémů s vysokou hodnotou. Mnoho bezpečnostních obav pramení z neopatrného nasazení, zejména když lidé zpřístupňují koncové body nebo tokeny bez silných ochranných opatření.

Proč Pentagon nespokojen s omezeními Anthropicu ohledně vojenského použití Claude?

Spor se točí kolem rozsahu a kontroly: Pentagon chce široký přístup „pro všechny zákonné účely“, zatímco Anthropic je popisován jako systém, který si udržuje přísná omezení ohledně plně autonomních zbraní a hromadného sledování. Úředníci také nechtějí, aby modely blokovaly pracovní postupy uprostřed nebo vyžadovaly nekonečná vyjednávání o hraničních případech. Toto napětí je méně abstraktní, než se zdá – jde o to, kdo rozhoduje o tom, co model dokáže v reálných operacích.

Jak se startupy snaží předpovídat lidské chování pomocí umělé inteligence a proč se to jeví jako kontroverzní?

Zde uvedený příklad, Simile, sleduje model „omezeného učení“, jehož cílem je předvídat, co by lidé mohli dělat, včetně předvídání pravděpodobných otázek v kontextech, jako jsou konferenční hovory o výsledcích hospodaření. Popsaný přístup kombinuje rozhovory s daty z behaviorálního výzkumu a simulacemi s využitím agentů umělé inteligence, kteří mají zrcadlit skutečné preference. Působí to zvláštně, protože přesouvá umělou inteligenci od reakcí na lidi k jejich předpovídání. Úkolem je udržet tvrzení omezená a vyhnout se přehnané sebedůvěře.

Co se stane, když nástroje pro tvorbu videa s využitím umělé inteligence generují postavy chráněné autorskými právy, jako v případě střetu ByteDance a Disney?

Uváděný vzorec je známý: studio vydá příkaz k zastavení činnosti a platforma reaguje posílením ochranných opatření, aby se zabránilo neoprávněnému použití duševního vlastnictví nebo podobizny. V mnoha nástrojích ochranná opatření znamenají přísnější filtry obsahu, lepší detekci rozpoznatelných postav a jasnější vymáhání uživatelských zásad. Základním konfliktem je rychlost versus odpovědnost – generování virů se pohybuje rychle a vymáhání práv funguje jako gravitace. S rozmachem generátorů videí očekávejte další takové kolize.

Včerejší zprávy o umělé inteligenci: 13. února 2026

Najděte nejnovější AI v oficiálním obchodě s AI asistenty

O nás

Zpět na blog