Novinky o umělé inteligenci, 3. února 2026

Shrnutí novinek o umělé inteligenci: 3. února 2026

🧠 Nvidia zváží investici do IPO OpenAI, řekl Huang CNBC

Jensen Huang ze společnosti Nvidia veřejně naznačil, že společnost je stále otevřena podpoře dalšího velkého fundraisingu pro OpenAI – a dokonce i případné IPO. Nese to energii „jsme v pořádku, všechno je v pořádku“... ale to je také součástí sdělení.

Mluví se tu o rozsahu: stále se mluví o masivním kole obchodování (a masivním ocenění), zatímco zprávy naznačují, že OpenAI zvažuje alternativy k některým z nejnovějších čipů Nvidie. Nikdo nahlas neříká „rozchod“, ale v kuchyni je cítit slabý závan kouře.

🏭 Generální ředitel Intelu říká, že společnost bude vyrábět grafické procesory (GPU), které zpopularizovala Nvidia

Generální ředitel Intelu Lip-Bu Tan říká, že Intel se vrhá na grafické procesory – ty nejdůležitější nástroje moderní umělé inteligence z doby zlaté horečky. A ano, tím vstupuje na půdu Nvidie v tísni.

Intel také přivedl do vedení úsilí v oblasti GPU se zaměřením na datová centra, kde vedl seniorního architekta (dříve z Qualcommu). Podtext je jasný: pokud se chcete vrátit do diskuse o výpočetní technologii umělé inteligence, potřebujete seriózní příběh o GPU, ne jen prezentaci.

🕵️♀️ ICO oznámilo vyšetřování společnosti Grok

Britský úřad pro ochranu osobních údajů formálně vyšetřuje nakládání s osobními údaji souvisejícími s platformou Grok a také potenciál systému generovat škodlivé sexualizované snímky. Tato druhá část je varovným signálem, který můžete slyšet z ulice.

Vyšetřování pojmenovává jak subjekt X, který spravuje data v kontextu EU/EHP, tak i samotnou xAI – v podstatě: „kdo ji vytvořil, kdo ji provozoval, kdo ji nechal volně fungovat?“ Je to jeden z těch momentů, kdy se „rychlý postup“ setkává s „kousací papírováním“

💻 OpenAI se s vydáním Codex Desktop posouvá k modelu autonomních týmů

Společnost OpenAI údajně spustila desktopovou aplikaci pro macOS s názvem Codex, která ji prezentuje spíše jako správu malých kódovacích agentů, kteří paralelně spouštějí úlohy, a méně jako automatické dokončování. To je buď budoucnost softwaru, nebo velmi drahý způsob, jak vynalézat nové třídy chyb.

Cílem je „dlouhodobé úkoly“ plus dohled, s prvky jako sandboxing a nástroje pro workflow, které zabrání agentům v pošlapávání vašeho repozitáře. Jde o změnu postoje: nepíšete, ale režírujete – jako na filmovém place, kde herci občas přepisují scénář.

🧯 „Šíření deepfaků a další společníci umělé inteligence“: Sedm poznatků z nejnovější zprávy o bezpečnosti umělé inteligence

Objevila se velká mezinárodní zpráva o bezpečnosti umělé inteligence, která v podstatě uvádí, že schopnosti sice rostou, ale ovládání je stále nejisté. Zpráva poukazuje na „nestálý“ výkon (v jedné vteřině brilantní, v další sebevědomě špatný), což je… bolestně povědomé.

Také poukazuje na zrychlující se deepfaky, rostoucí popularitu společníků s umělou inteligencí (s mimořádné emocionální vazby) a nepříjemný problém dvojího užití v biochemických znalostech. Atmosféra je taková: motor se zrychlil, volant ne.

Často kladené otázky

Co Nvidia řekla o investování do IPO OpenAI a proč na tom záleží?

Generální ředitel společnosti Nvidia Jensen Huang uvedl, že společnost zváží investici, pokud se OpenAI nakonec stane veřejně obchodovanou společností, což je signálem, že partnerství zůstává strategicky významné. V tomto cyklu zpráv o technologiích umělé inteligence je podtextem rozsah: větší kola financování se obvykle promítají do větší poptávky po výpočetní technologii. Zároveň to působí jako tiché ujištění trhů, že velká partnerství v oblasti umělé inteligence si udrží stabilitu i pod konkurenčním tlakem.

Hledá OpenAI alternativy k nejnovějším čipům od Nvidie?

Zprávy naznačují, že OpenAI hledá alternativy k některým nejnovějším čipům od Nvidie, což může poukazovat na několik praktických motivací. V mnoha vývojových procesech týmy vyhodnocují více dodavatelů, aby snížily náklady, vyhnuly se úzkým hrdlům v dodávkách nebo vyladily výkon pro specifické úlohy. To automaticky neznamená rozdělení – častěji to odráží pákový efekt, redundanci a neustálou optimalizaci v rychle se měnícím hardwarovém prostředí.

Proč Intel najednou klade důraz na GPU pro úlohy s umělou inteligencí?

Generální ředitel společnosti Intel, Lip-Bu Tan, uvedl, že Intel bude vyrábět grafické procesory (GPU) s počátečním zaměřením na datová centra – což je explicitní krok do klíčové oblasti Nvidie. GPU jsou „krumpáči“ pro moderní trénování a inferenci umělé inteligence, takže důvěryhodný plán pro GPU je přímou cestou zpět do výpočetní konverzace. Tato novinka o technologiích umělé inteligence také naznačuje, že Intel chce konkurovat v hloubce platformy, nejen v CPU.

Co vyšetřuje britská ICO ohledně Groku a xAI?

Úřad britského komisaře pro informace (ICO) oznámil zahájení formálního vyšetřování nakládání s osobními údaji souvisejícími s Grok a potenciálu systému generovat škodlivé sexuální snímky. Vyšetřování jmenuje jak subjekt X, který spravuje data v kontextu EU/EHP, tak i xAI, se zaměřením na to, kdo je za co zodpovědný. Mezi běžné výsledky v takových případech patří žádosti o informace, požadované změny procesů a potenciální donucovací opatření.

Co je Codex Desktop a jak „kódovací agenti“ mění každodenní práci?

Codex Desktop je popisován jako aplikace pro macOS, která není pozicionována ani tak jako automatické dokončování, jako spíše jako způsob dohledu nad paralelními, dlouhodobými kódovacími úlohami. Běžným přístupem je zacházet s agenty jako s juniorními spolupracovníky: přiřazovat práci s úzce vymezeným rozsahem, vyžadovat kontrolní body a před sloučením kontrolovat výstupy. Nástroje jako sandbox a ochranná lišta pro pracovní postupy jsou důležité, protože agentní systémy se mohou rychle vyvíjet – a mohou také zavádět nové, překvapivé režimy selhání.

Jaké jsou nejdůležitější poznatky z nejnovější zprávy o bezpečnosti umělé inteligence (deepfakes, doprovodné materiály, dvojí užití)?

Zpráva zdůrazňuje, že schopnosti umělé inteligence se zrychlují, zatímco kontrola zůstává nerovnoměrná, včetně „nestálého“ výkonu, který se může měnit od vynikajícího k sebejistě špatnému. Zpráva také upozorňuje na zrychlující se deepfakey, rostoucí používání AI partnerů s riziky emocionální vazby a obavy z dvojího využití v biochemických znalostech. V reakci na to organizace obvykle investují do monitorování, red-teamingu, politických zábran a jasných eskalačních cest, když se modely chovají neočekávaně.

Včerejší zprávy o umělé inteligenci: 2. února 2026

Najděte nejnovější AI v oficiálním obchodě s AI asistenty

O nás

Zpět na blog