Novinky o umělé inteligenci 26. ledna 2026

Shrnutí novinek o umělé inteligenci: 26. ledna 2026

🧱 Nvidia investuje 2 miliardy dolarů do CoreWeave, aby urychlila výstavbu datových center v USA

Nvidia investovala 2 miliardy dolarů do CoreWeave, čímž upevnila již tak úzké partnerství v oblasti infrastruktury – a ano, trh udělal předvídatelnou věc „óóó, více kapacity umělé inteligence“.

CoreWeave to prezentoval jako palivo pro expanzi datových center (pozemky, energie, výstavba), nikoli jen jako zadní vrátka pro přesun více čipů. Nicméně, když největší prodejce lopat financuje nejrychlejšího uživatele lopaty, podtext se píše sám.

🧠 Microsoft představuje Maia 200, nový čip pro inferenční analýzu s umělou inteligencí

Microsoft představil Maia 200 jako svůj další akcelerátor umělé inteligence, zaměřený na inferenční úlohy – část „spouštění modelu ve velkém měřítku“, která stojí skutečné peníze a tiše nastavuje omezení pro všechno ostatní.

Prezentují ho jako účelově navržený pro nasazení Azure a moderní modelové obsluhování, se známými tvrzeními o propustnosti a efektivitě. Vypadá to, jako by se Microsoft více přikláněl k myšlence „nebudeme se navždy spoléhat na křemík všech ostatních“... nebo alespoň tlačil tímto směrem.

🎭 Společnost Synthesia po kole financování téměř zdvojnásobila svou hodnotu na 4 miliardy dolarů

Společnost Synthesia získala velké množství investic a zvýšila svou hodnotu na 4 miliardy dolarů, což je divoké, pokud si stále myslíte, že avatary s umělou inteligencí jsou jen trik. Ukazuje se, že rozpočty na firemní školení jsou v podstatě nekonečná polévka.

Tuto dynamiku chápou jako poptávku podniků po rychlejším a levnějším video obsahu – a také po interaktivnějším školení ve stylu „hraní rolí“. Ne každý má rád atmosféru syntetických kolegů, ale jejich zavádění stále pokračuje.

🚨 EU zahajuje vyšetřování X kvůli Grokovým sexualizovaným snímkům po negativní reakci

Regulační orgány EU zahájily vyšetřování platformy X kvůli obavám ohledně platformy Grok a sexualizovaných obrazů kolujících na ní. Základní napětí je naprosto jednoduché: regulační orgány chtějí vědět, zda společnost X vyhodnotila a snížila předvídatelné škody, nebo zda nejprve provedla expedici a až poté se zabývala následky.

Pohled na zákon o digitálních službách je důležitý, protože se netýká jen jednotlivých příspěvků – jde o systémové řízení rizik. X poukázal na omezení a změny, ale regulátoři se zřejmě zaměřují na to, zda byla ochranná opatření v praxi dostatečná.

🏛️ Britská vláda podporuje superpočítače v Cambridge pro AI Research Resource

Britská vláda oznámila další financování na rozšíření výpočetní kapacity AI Research Resource v Cambridge. Cílem je „větší přístup k seriózním výpočtům pro výzkum“, což – upřímně řečeno – bylo po dlouhou dobu úzkým hrdlem.

Zapadá to také do širší sady britských iniciativ týkajících se využívání dat a veřejných služeb. Můžete to chápat jako praktickou investici nebo jako snahu Spojeného království udržet si krok v závodě umělé inteligence, zatímco všichni ostatní vysávají grafické procesory.

📝 Ministerstvo dopravy plánuje využít Google Gemini k tvorbě dopravních předpisů

Server ProPublica informoval, že americké ministerstvo dopravy zkoumá využití nástroje Gemini od Googlu k tvorbě návrhů předpisů, přičemž výstupy budou kontrolovat lidé. Na papíře to zní efektivně, dokud se halucinace nestane poznámkou pod čarou a nenaznačí skutečný výsledek.

Odpor v reportingu se týká odpovědnosti a rizik – tvorba pravidel není jen o blogovém příspěvku. Teoreticky by umělá inteligence mohla pomoci strukturovat návrhy a odhalovat nesrovnalosti, ale pouze pokud je dohled intenzivní a proces transparentní – a to je právě ta část, která má tendenci být nedůkladná.

Často kladené otázky

Co znamená investice Nvidie 2 miliard dolarů do CoreWeave pro infrastrukturu umělé inteligence v USA?

Signalizuje to užší vztah mezi významným dodavatelem čipů a rychle se rozvíjejícím poskytovatelem cloudových grafických procesorů. CoreWeave popisuje tyto peníze jako financování rozšíření datového centra, včetně pozemků, energie a výstavby. V praxi se to může promítnout do větší krátkodobé kapacity pro školení a provozování modelů. Vyvolává to také otázky, do jaké míry se nabídka a poptávka po infrastruktuře umělé inteligence vertikálně sladí.

Co je Maia 200 od Microsoftu a proč je zaměřena na inferenci?

Maia 200 je další akcelerátor umělé inteligence od Microsoftu zaměřený na inferenci – spouštění modelů ve velkém měřítku v produkčním prostředí. Právě v inferenci se mohou náklady rychle hromadit, protože je vázána na reálný uživatelský provoz a neustále dostupné služby. Microsoft ji prezentuje jako platformu určenou pro nasazení v Azure a moderní obsluhu modelů. Širším poselstvím je snížení dlouhodobé závislosti na externím křemíku budováním většího počtu interních řešení.

Proč jsou společnosti zabývající se avatary s umělou inteligencí, jako je Synthesia, oceňovány tak vysoko?

Prezentace je přímočará: podniky chtějí rychlejší a levnější tvorbu videí pro školení a interní komunikaci. Synthesia se opírá o poptávku po firemním obsahu a interaktivnějších formátech školení ve stylu „hraní rolí“. Tento komerční případ využití může být nevýhodný, protože je součástí opakujících se rozpočtů na školení. Zároveň některé organizace zůstávají opatrné ohledně pocitu „syntetického kolegy“ a jeho kulturního dopadu.

Co vyšetřuje EU ohledně sexualizovaných snímků X a Groka podle zákona o digitálních službách?

Důraz se neklade pouze na jednotlivé pozice, ale na to, zda X posoudil a snížil předvídatelná systémová rizika. Regulační orgány se zřejmě ptají, zda byla ochranná opatření navržena a vymáhána způsobem, který zabránil škodlivým výsledkům ve velkém měřítku. X poukázal na omezení a změny, ale vyšetřování se zaměřuje na adekvátnost řízení rizik v praxi. Jde o test toho, jak se DSA vztahuje na rychle se rozvíjející generativní funkce.

Co je britský výzkumný zdroj umělé inteligence v Cambridge a proč je důležité více výpočetní techniky?

Projekt AI Research Resource je navržen tak, aby rozšířil přístup k seriózním výpočetním technologiím pro výzkum, což je dlouhodobá překážka. Větší kapacita může univerzitám a výzkumníkům pomoci provádět větší experimenty a rychleji provádět iterace. Toto oznámení také zapadá do širšího úsilí Spojeného království v oblasti využívání dat a veřejných služeb. V podstatě se jedná o snahu udržet konkurenceschopný domácí výzkum s rostoucí globální poptávkou po grafických procesorech (GPU).

Může americké ministerstvo dopravy bezpečně používat Google Gemini k tvorbě předpisů?

Může pomoci se strukturováním návrhů, shrnutím vstupů a odhalováním nesrovnalostí, ale pouze s intenzivním lidským dohledem. Hlavním rizikem je, že by se do tvorby pravidel mohl dostat pomyslný nebo zavádějící text, kde by detaily měly skutečné důsledky. Běžným přístupem je považovat výstup umělé inteligence za výchozí návrh a poté vyžadovat důsledné ověřování, jasnou odpovědnost a transparentní dokumentaci. Bez toho se „efektivita“ může stát překážkou pro správu a řízení.

Včerejší zprávy o umělé inteligenci: 25. ledna 2026

Najděte nejnovější AI v oficiálním obchodě s AI asistenty

O nás

Zpět na blog