🏛️ Trump nařizuje americkým agenturám, aby se zbavily umělé inteligence od Anthropic, Pentagon označuje startup za riziko pro dodávky ↗
Americký prezident nařídil federálním agenturám, aby přestaly používat technologii Anthropic, a nařídil jim postupné vyřazování technologií, které z rozdělení dodavatelů dělá moment pro plnohodnotnou politickou změnu. Pentagon označil Anthropic za „riziko dodavatelského řetězce“ – což je nápadná nálepka pro významnou americkou laboratoř umělé inteligence. ( Reuters )
Anthropic signalizoval, že bude proti tomuto kroku bojovat, a epizoda vrhá jasné světlo na větší přetahovanou: bezpečnostní pravidla pro firmy versus vládní požadavky na maximální flexibilitu. Pokud jste podnikový kupující a sledujete situaci z pohledu zákazníka, jádro problému je jednoduché – když je zákazníkem stát, podmínky státu mají tendenci udávat počasí. ( Reuters )
⚖️ Pentagon prohlásil antropogenní látku za hrozbu pro národní bezpečnost ↗
Tato verze dodává více textury přístupu ve stylu černé listiny a tomu, co to znamená pro dodavatele – nejen agentury – které se dotýkají federálního ekosystému. Je to druh pravidla, které se rychle šíří ven, jako inkoust ve vodě, až na to, že inkoust je v zadávacích dokumentech. ( The Washington Post )
Dochází také k přímému střetu názorů na to, zda mohou zásady užívání poskytovatele modelu omezovat vojenské aplikace, zejména v citlivých případech použití. Reakce odvětví zněla napjatě; precedent je to, co znepokojuje lidi, nejen tu jednu společnost, která je vyčleněna. ( The Washington Post )
☁️ OpenAI a Amazon oznámily strategické partnerství ↗
Společnost OpenAI oznámila strategické partnerství se společností Amazon, které přináší platformu Frontier od OpenAI na AWS a rozšiřuje tak možnosti, jak zákazníci mohou provozovat a spravovat systémy na úrovni OpenAI. Pokud jste v oblasti umělé inteligence sledovali, „kdo co hostuje“, je to jako posun v oblasti moci, kdy se snižuje hlas a zároveň se stěhuje velké množství nábytku. ( OpenAI )
Také se objevuje jako reakce na tlak poptávky – více možností infrastruktury, více distribučních tras, méně dálnic s jedním pruhem. Zda to usnadňuje nasazení, nebo jen dává všem více možností k nesprávné konfiguraci, se teprve uvidí. ( OpenAI )
🧠 OpenAI spouští stavovou umělou inteligenci na AWS, což signalizuje posun v řízení ↗
Názor Computerworldu: „Stavová umělá inteligence“ na AWS je víc než jen o hostování – jde o to, kde se nachází řídicí rovina a kdo má právo řídit identitu, paměť a pracovní postup napříč relacemi. Stavové systémy se mohou zdát mnohem více „agentské“, a to jak pro lepší, tak pro no-ne-co-to-právě-udělalo. ( Computerworld )
Podtextem je konkurenční geometrie: cloudy chtějí vlastnit vrstvu platformy, laboratoře umělé inteligence chtějí vlastnit povrch produktu a zákazníci chtějí, aby se nerozbil ve 2 hodiny ráno. Každý chce volant – i když předstírá, že ho nemá. ( Computerworld )
🔐 „Tichá“ změna klíče Google API odhalila data o umělé inteligenci Gemini - CSO ↗
Kolem klíčů Google Cloud API a Gemini se šíří bezpečnostní varování – zprávy ukazují, že změny ve fungování (nebo zacházení s klíči) mohou proměnit předpoklady „bezpečnosti pro vkládání“ ve velké, plíživé riziko. Znepokojivé je, jak snadno můžete dělat všechno „jako vždycky“ a stále skončit mimo zábradlí. ( CSO Online )
Výzkumníci poukázali na rozšířené odhalení klíčů napříč organizacemi, což není ani tak ojedinělá chyba, jako spíše připomínka toho, že integrace umělé inteligence rozšiřuje dosah nudné správy starých tajemství. Nejčastěji kouše ta neatraktivní věc. ( SC Media )
📱🎶 Gemini Drops: Nové aktualizace aplikace Gemini, únor ... ↗
Aktualizace aplikace Gemini od Googlu přináší vylepšení Gemini 3.1 a režim uvažování „Deep Think“ určený pro řešení náročných vědeckých a technických problémů, spolu s hradlováním na úrovni předplatitelů. Chytřejší režim, vyšší plot, klasická kombinace. ( blog.google )
Také: Lyria 3 je v beta verzi zmíněna jako hudební model, který dokáže generovat krátké skladby z textu nebo obrázků. Je okouzlující, že stejný ekosystém, který nabízí hardcorové uvažování, nabízí také rychlé, na míru šité soundtracky – dva rychlostní stupně, jeden převodový stupeň. ( blog.google )
Často kladené otázky
Co se změní tím, že americké federální agentury zastaví používání antropické technologie?
Přeměňuje výběr dodavatele na pravidlo pro zadávání veřejných zakázek s definovaným časovým rámcem pro postupné vyřazování namísto ad hoc rozhodnutí pro jednotlivé týmy. Rámec Pentagonu pro „riziko dodavatelského řetězce“ zvyšuje sázky a signalizuje, že způsobilost může být formována spíše politikou než předností produktu. Pro kupující to zdůrazňuje, jak požadavky veřejného sektoru mohou převážit nad preferovaným provozním modelem poskytovatele.
Jak by mohla nálepka Pentagonu o „riziku dodavatelského řetězce“ ovlivnit dodavatele a následné dodavatele?
Zprávy naznačují, že dopad se neomezuje pouze na agentury; může se kaskádovitě rozšířit i na dodavatele, kteří se prolínají s federálním ekosystémem. I když si model nikdy přímo nekoupíte, váš stack může zdědit omezení prostřednictvím hlavních smluv, klauzulí o postupném schvalování a kontrol shody. Proto se otázka „kdo co používá“ rychle stává problémem s administrativou, nikoli jen debatou o architektuře.
Co by měli podnikoví kupující dělat, pokud se na klíčového poskytovatele umělé inteligence vztahuje federální zákaz zadávání veřejných zakázek v oblasti umělé inteligence?
Začněte mapováním toho, kde se poskytovatel objevuje: přímé použití API, vestavěné funkce a závislosti na dodavatelích. Vytvořte plán výměny, který zahrnuje koncové body modelu, šablony výzev, základní hodnoty hodnocení a schvalování správy a řízení, aby se postupné vyřazování nestalo výpadkem. V mnoha kanálech zmenšují nastavení dvou poskytovatelů a přenositelné abstrakce dosah šíření, když se zásady změní přes noc.
Mohou být zásady užívání poskytovatele umělé inteligence v rozporu s vládními nebo vojenskými požadavky?
Ano – tato situace zdůrazňuje přímý střet v otázce, zda pravidla používání poskytovatele modelu mohou omezovat citlivé aplikace. Vlády často prosazují maximální flexibilitu, zatímco laboratoře mohou u určitých případů použití vynucovat přísnější omezení. Pokud obsluhujete zákazníky z veřejného sektoru, naplánujte si smluvní podmínky, které upřednostňují požadavky mise a mohou vyžadovat různé kontroly nebo záruky.
Co znamená partnerství OpenAI a Amazonu pro oblasti, kde můžete provozovat systémy OpenAI?
Rozšiřuje možnosti zákazníků provozovat a spravovat systémy na úrovni OpenAI tím, že platformu Frontier od OpenAI přináší do AWS. V praxi to může znamenat více možností infrastruktury a méně jednoproudých cest nasazení. Může to také přesunout odpovědnosti: více knoflíků pro ladění identity, přístupu a provozu, což může podpořit odolnost, ale také zvyšuje konfigurační riziko.
Co je „stavová umělá inteligence“ na AWS a proč je řídicí rovina důležitá?
„Stavová“ umělá inteligence znamená systémy, které dokáží přenášet kontext napříč relacemi, což se v reálných pracovních postupech může jevit jako u agentů. Otázka řídicí roviny se zaměřuje na to, kdo řídí identitu, paměť a pracovní postup relace: váš cloud, laboratoř umělé inteligence nebo vaše vlastní vrstva platformy. To je důležité pro řízení, ladění a reakci na incidenty, když se ve 2 hodiny ráno něco pokazí.
Jak může „tichá“ změna klíče Google API vést k riziku úniku dat z Gemini?
Pokud se změní chování klíčů nebo očekávání ohledně manipulace s klíči, mohou se postupy, které se kdysi zdály bezpečné – jako například vkládání klíčů – stát nebezpečnými, aniž by si toho týmy všimly. Zprávy to definují jako problém se správou tajných informací, který je zesílen integrací umělé inteligence, nikoli jako ojedinělou chybu. Běžným přístupem je zacházet se všemi klíči jako s vysoce rizikovými, často je střídat a uchovávat je na straně serveru za přísnými kontrolami přístupu.
Co je nového v aktualizaci aplikace Gemini z února 2026 a kdo ji získá?
Google zdůrazňuje vylepšení Gemini 3.1 a režim uvažování „Deep Think“, který je určen pro náročnější vědecké a technické problémy. Aktualizace také klade důraz na synchronizaci na úrovni předplatitele, což znamená, že možnosti a přístup se mohou lišit v závislosti na tarifu. Samostatně je Lyria 3 zmiňována jako hudební model, který dokáže v beta verzi generovat krátké skladby z textu nebo obrázků, čímž rozšiřuje kreativní nástroje aplikace.
Často kladené otázky
Co se změní tím, že americké federální agentury zastaví používání antropické technologie?
Přeměňuje výběr dodavatele na pravidlo pro zadávání veřejných zakázek s definovaným časovým rámcem pro postupné vyřazování namísto ad hoc rozhodnutí pro jednotlivé týmy. Rámec Pentagonu pro „riziko dodavatelského řetězce“ zvyšuje sázky a signalizuje, že způsobilost může být formována spíše politikou než předností produktu. Pro kupující to zdůrazňuje, jak požadavky veřejného sektoru mohou převážit nad preferovaným provozním modelem poskytovatele.
Jak by mohla nálepka Pentagonu o „riziku dodavatelského řetězce“ ovlivnit dodavatele a následné dodavatele?
Zprávy naznačují, že dopad se neomezuje pouze na agentury; může se kaskádovitě rozšířit i na dodavatele, kteří se prolínají s federálním ekosystémem. I když si model nikdy přímo nekoupíte, váš stack může zdědit omezení prostřednictvím hlavních smluv, klauzulí o postupném schvalování a kontrol shody. Proto se otázka „kdo co používá“ rychle stává problémem s administrativou, nikoli jen debatou o architektuře.
Co by měli podnikoví kupující dělat, pokud se na klíčového poskytovatele umělé inteligence vztahuje federální zákaz zadávání veřejných zakázek v oblasti umělé inteligence?
Začněte mapováním toho, kde se poskytovatel objevuje: přímé použití API, vestavěné funkce a závislosti na dodavatelích. Vytvořte plán výměny, který zahrnuje koncové body modelu, šablony výzev, základní hodnoty hodnocení a schvalování správy a řízení, aby se postupné vyřazování nestalo výpadkem. V mnoha kanálech zmenšují nastavení dvou poskytovatelů a přenositelné abstrakce dosah šíření, když se zásady změní přes noc.
Mohou být zásady užívání poskytovatele umělé inteligence v rozporu s vládními nebo vojenskými požadavky?
Ano – tato situace zdůrazňuje přímý střet v otázce, zda pravidla používání poskytovatele modelu mohou omezovat citlivé aplikace. Vlády často prosazují maximální flexibilitu, zatímco laboratoře mohou u určitých případů použití vynucovat přísnější omezení. Pokud obsluhujete zákazníky z veřejného sektoru, naplánujte si smluvní podmínky, které upřednostňují požadavky mise a mohou vyžadovat různé kontroly nebo záruky.
Co znamená partnerství OpenAI a Amazonu pro oblasti, kde můžete provozovat systémy OpenAI?
Rozšiřuje možnosti zákazníků provozovat a spravovat systémy na úrovni OpenAI tím, že platformu Frontier od OpenAI přináší do AWS. V praxi to může znamenat více možností infrastruktury a méně jednoproudých cest nasazení. Může to také přesunout odpovědnosti: více knoflíků pro ladění identity, přístupu a provozu, což může podpořit odolnost, ale také zvyšuje konfigurační riziko.
Co je „stavová umělá inteligence“ na AWS a proč je řídicí rovina důležitá?
„Stavová“ umělá inteligence znamená systémy, které dokáží přenášet kontext napříč relacemi, což se v reálných pracovních postupech může jevit jako u agentů. Otázka řídicí roviny se zaměřuje na to, kdo řídí identitu, paměť a pracovní postup relace: váš cloud, laboratoř umělé inteligence nebo vaše vlastní vrstva platformy. To je důležité pro řízení, ladění a reakci na incidenty, když se ve 2 hodiny ráno něco pokazí.
Jak může „tichá“ změna klíče Google API vést k riziku úniku dat z Gemini?
Pokud se změní chování klíčů nebo očekávání ohledně manipulace s klíči, mohou se postupy, které se kdysi zdály bezpečné – jako například vkládání klíčů – stát nebezpečnými, aniž by si toho týmy všimly. Zprávy to definují jako problém se správou tajných informací, který je zesílen integrací umělé inteligence, nikoli jako ojedinělou chybu. Běžným přístupem je zacházet se všemi klíči jako s vysoce rizikovými, často je střídat a uchovávat je na straně serveru za přísnými kontrolami přístupu.
Co je nového v aktualizaci aplikace Gemini z února 2026 a kdo ji získá?
Google zdůrazňuje vylepšení Gemini 3.1 a režim uvažování „Deep Think“, který je určen pro náročnější vědecké a technické problémy. Aktualizace také klade důraz na synchronizaci na úrovni předplatitele, což znamená, že možnosti a přístup se mohou lišit v závislosti na tarifu. Samostatně je Lyria 3 zmiňována jako hudební model, který dokáže v beta verzi generovat krátké skladby z textu nebo obrázků, čímž rozšiřuje kreativní nástroje aplikace.