Novinky o umělé inteligenci 22. února 2026

Shrnutí novinek o umělé inteligenci: 22. února 2026

🏫 V některých školách chatboti vyslýchají studenty ohledně jejich práce. Revoluce umělé inteligence ale učitele znepokojuje

Některé australské školy zkoušejí ostřejší variantu „ukaž svou práci“ – studenti dokončí úkol a poté je chatbot s umělou inteligencí opakovaně zpovídá, aby zkontroloval, zda rozumí odevzdanému textu. V podstatě se jedná o ústní výslech, ale stroj se ptá: „Co tím myslíš?“, dokud se nezačnete vrtět.

Větším problémem je nerovnoměrné zavádění: jeden oborový dokument varuje, že rychle se přijímající země by mohly rychle ubírat vpřed, zatímco jiné by mohly zaostávat, čímž by vznikl dvourychlostní vzdělávací systém. Učitelé také neustále upozorňují na známé – a stále závažné – obavy: soukromí, blahobyt a jak zabránit tomu, aby se „pomoc umělé inteligence“ stala „udělala to umělá inteligence“.

👮 Metropolitní policie používá nástroje umělé inteligence od společnosti Palantir k signalizaci pochybení policistů

Londýnská Metropolitní policie využívá umělou inteligenci od společnosti Palantir k analýze interních vzorců pracovní síly – nemoci, absence, přesčasů – a hledá signály, které by mohly korelovat s problémy s profesními standardy. Projekt je prezentován jako časově omezený pilotní projekt a, co je klíčové, Metropolitní policie uvádí, že samotná rozhodnutí stále činí lidé... ale že to „stále“ odvádí hodně práce.

Policejní federace z toho není nadšená, nazývá to „automatizovaným podezříváním“ a varuje před neprůhlednými nástroji, které mylně interpretují stres a pracovní zátěž jako provinění. Je to jeden z těch momentů, kdy technika zní úhledně na snímku, pak si představíte, jak se cítí v praxi, a ta se prudce zvrtne.

🛡️ Britský úřad pro ochranu soukromí ve společném prohlášení varuje před obrázky generovanými umělou inteligencí

Britská ICO se připojila k dalším regulačním orgánům ve společném varování před obrázky generovanými umělou inteligencí, které zobrazují identifikovatelné osoby bez jejich souhlasu – v zásadě: nepovažujte „je to syntetické“ za kouzelnou výmluvu. Poselstvím je včas vybudovat ochranná opatření a zapojit regulační orgány namísto klasického technologického kroku, kdy se nejprve odešle a až poté se omlouvá.

Zdůrazňují také zvýšená rizika pro děti, což dává smysl, protože jakmile se tato věc rozšíří, je to jako snažit se nabrat třpytky zpět do sklenice. Hlavní myšlenkou je, že soukromí a důstojnost mají přežít módní cyklus, nebo se to tak alespoň zdá.

🪖 Americký ministr obrany Hegseth si předvolal generálního ředitele společnosti Anthropic k náročným jednáním o vojenském využití systému Claude, informuje Axios

Agentura Reuters uvádí, že se americký ministr obrany chystá setkat s generálním ředitelem společnosti Anthropic k diskusi, která je popsána jako konfrontační aspekt vojenského využití modelu Claude. Pentagon údajně chce, aby hlavní poskytovatelé umělé inteligence zpřístupnili modely v utajovaných sítích s menším počtem omezení – a Anthropic se jakémukoli uvolnění ochranných opatření brání.

Podtext zní jako klasické dilema „rychlý krok, ale… s raketami v ruce“. Pokud se strany nedokážou dohodnout na zárukách, vztah by se mohl napnout nebo dokonce přetrhnout – Anthropic však zároveň signalizuje, že rozhovory s vládou zůstávají konstruktivní, takže se jedná o napjaté, ale (zatím) ne o úplné rozchody.

🧠 ChatGPT – Poznámky k vydání

Poznámky k vydání OpenAI poukazují na rozšířené kontextové okno pro režim „Myšlení“ – což znamená, že můžete modelu poskytnout více textu a udržet delší vlákna souvislá, aniž by došlo ke ztrátě dřívějších detailů. Pokud jste někdy sledovali, jak model „zapomněl“ něco, co jste doslova právě řekli (bolest), pak je to přesně ten cíl.

Je to velmi nerdovské vylepšení, které nenápadně mění to, co je praktické: delší dokumenty, složitější projekty, rozsáhlejší výzkumné sezení. Není to nic okouzlujícího, ale je to ten druh změny instalatérství, díky které se celý dům najednou zdá větší.

Často kladené otázky

Co to znamená, když školy používají chatboty k „výslechu“ studentů ohledně úkolů?

V některých australských školách studenti vypracují úkol a poté absolvují výměnu názorů s chatbotem s umělou inteligencí, který zkoumá jejich uvažování. Funguje to jako ústní vystoupení, kdy studenty nutí vysvětlit, co napsali a proč. Účelem je ověřit porozumění, nejen výstup. Může to také odhalit mezery, pokud student nedokáže obhájit klíčová tvrzení.

Jak by mohli chatboti s umělou inteligencí ve školách vytvořit „dvourychlostní“ vzdělávací systém?

Studie z oboru varuje, že školy s rychlým zaváděním technologií by mohly dosáhnout pokroku, zatímco pomaleji se rozvíjející školy by mohly dále klesnout. Pokud některé školy nasadí nástroje umělé inteligence k posouzení porozumění, podpoře učení nebo odrazení od zneužívání, mohou dosáhnout lepších výsledků dříve. Jiným může chybět rozpočet, personální kapacita nebo jasná politika k zavedení srovnatelných systémů. Toto nerovnoměrné zavádění může prohloubit stávající rozdíly ve zdrojích a dosažených výsledcích.

Jak se učitelé snaží zabránit tomu, aby se z „pomoci umělé inteligence“ stalo „umělá inteligence to udělala“?

Běžným přístupem je posunout hodnocení směrem k procesu a vysvětlování, nikoli pouze k hotovému produktu. Dotazy ve stylu chatbota, koncepty, reflexe nebo ústní kontroly mohou ztížit odevzdání práce, které nerozumíte. Učitelé mohou také stanovit přísnější hranice pro přijatelnou pomoc, jako je brainstorming oproti úplnému přepracování. Důraz zůstává na prokázání porozumění, nikoli na kontrole každého nástroje.

Jaké problémy s ochranou soukromí a pohodou se objevují při používání umělé inteligence ve třídách?

Učitelé neustále vznášejí obavy ohledně toho, jaké údaje o studentech se shromažďují, kde se ukládají a kdo k nim má přístup. Obavy o jejich blaho existují i ​​v případě, že se studenti cítí neustále sledováni nebo pod tlakem ze strany strojově řízených otázek. Děti představují zvláštní rizikovou skupinu, protože citlivé informace se mohou v systémech šířit nebo přetrvávat neočekávaným způsobem. Mnoho škol se snaží zavést ochranná opatření včas, spíše než se je snažit později dovybavit.

Jak Metropolitní policie využívá umělou inteligenci dodávanou společností Palantir k odhalování potenciálního pochybení policistů?

Londýnská Metropolitní policie využívá umělou inteligenci dodanou společností Palantir k analýze vzorců chování zaměstnanců, jako je nemoc, absence a přesčasy. Cílem je odhalit signály, které by mohly korelovat s problémy s profesními standardy. Projekt je popisován jako časově omezený pilotní projekt a Metropolitní policie uvádí, že rozhodnutí stále provádějí lidé. Kritici tvrdí, že nástroj se může jevit jako „automatizované podezření“, pokud stres vnímá jako provinění.

Proč se policejní odbory obávají „automatizovaného podezřívání“ z nástrojů dohledu s využitím umělé inteligence?

Policejní federace se obává, že neprůhledné modely mohou odvodit pochybení z vzorců, které mají neškodná vysvětlení. Nárůsty pracovní zátěže, zdravotní problémy a stres mohou ovlivnit docházku nebo přesčasy, aniž by to naznačovalo pochybení. Pokud logika nástroje není transparentní, je pro policisty obtížnější zpochybňovat příznaky nebo pro manažery kalibrovat spravedlivé prahové hodnoty. I při lidských rozhodnutích mohou automatizované signály stále ovlivňovat výsledky.

Před čím varuje britská ICO v souvislosti s obrázky identifikovatelných osob generovanými umělou inteligencí?

Britský úřad pro ochranu soukromí se připojil k dalším regulačním orgánům a varoval, že „syntetický“ neznamená bez následků. Pokud obrázek generovaný umělou inteligencí zobrazuje identifikovatelnou osobu bez jejího souhlasu, stále existují rizika pro soukromí a důstojnost. Regulační orgány zdůrazňují včasnou tvorbu ochranných opatření a zapojení dozoru, spíše než jejich prvotní šíření. Upozorňují také na zvýšená rizika pro děti, kde se škody mohou rychle rozšířit, jakmile se obsah rozšíří.

Co se skrývá za údajným tlakem Pentagonu na Anthropic ohledně vojenského využití Clauda?

Agentura Reuters informuje, že se americký ministr obrany chystá setkat s generálním ředitelem společnosti Anthropic, aby s ním vedl náročnější jednání o vojenském využití systému Claude. Pentagon údajně chce, aby hlavní poskytovatelé umělé inteligence zpřístupnili modely v utajovaných sítích s menším počtem omezení. Anthropic se brání uvolněnějším ochranným opatřením a poukazuje na střet ohledně ochranných opatření. Vztah se zdá být napjatý, ačkoli obě strany signalizují, že jednání zůstávají konstruktivní.

Co se změnilo v poznámkách k vydání ChatGPT ohledně délky kontextu v režimu „Myšlení“?

Poznámky k vydání OpenAI poukazují na rozšířené kontextové okno pro režim „Myšlení“, které umožňuje umístit více textu do jednoho vlákna. V praxi to může pomoci s dlouhými dokumenty, složitými projekty a vícestupňovým výzkumem, kde záleží na dřívějších detailech. Jde spíše o upgrade ve stylu instalatérství než o okázalou funkci. Hlavní výhodou je méně ztracených detailů během delších relací.

Včerejší zprávy o umělé inteligenci: 21. února 2026

Najděte nejnovější AI v oficiálním obchodě s AI asistenty

O nás

Zpět na blog