🧯 OpenAI najímá nového vedoucího oddělení připravenosti, který se pokusí předvídat a zmírňovat škody způsobené umělou inteligencí ↗
OpenAI zveřejnila roli „vedoucího oddělení připravenosti“ – v podstatě osoby, která má za úkol představit si nejhorší možné využití hraničních modelů a poté vybudovat zábrany, které odolají tlaku (nejen vibracím a PDF dokumentům s pravidly).
Seznam se silně zaměřuje na modelování hrozeb, jejich vyhodnocování a zmírňování jakožto skutečný provozní proces. Je to bezpečnostní práce koncipovaná jako dodávka softwaru – na jeden dech uklidňující, na druhý trochu mrazivý, protože naznačuje, že rizika jsou nyní produktově definovaná.
🧑⚖️ Čína vydává návrh pravidel pro regulaci umělé inteligence s interakcí podobnou lidské ↗
Čínský kybernetický regulátor zveřejnil návrh pravidel zaměřených na služby umělé inteligence, které simulují lidské osobnosti a emocionálně zapojují uživatele – upovídané společníky, flirtující asistenty, celou tu zónu „jste doopravdy?“.
Jedna pozoruhodná věc: poskytovatelé by museli varovat před nadužíváním a zasáhnout, pokud uživatelé vykazují známky závislosti. Je to neobvykle explicitní, co se týče psychologického rizika – jako by se někdo podíval na trend „přítele s umělou inteligencí“ a rozhodl se, že ne bez bezpečnostních pásů.
🧩 Sbohem, GPT-5. Ahoj, Qwen ↗
Wired si myslí, že si Qwen nezískává srdce fanoušků tím, že je špičkovým benchmarkovým monstrem, ale tím, že má otevřenou hmotnost a snadno se s ním manipuluje – což je v praxi to, co si stavitelé stále vybírají. Je to „nástroj, který můžete skutečně držet v ruce“, ne ten za sametovým lanem.
Článek to chápe jako širší posun: otevřené modely, které se úhledně začlení do produktů (a doladí se interně), mohou znamenat více než nepatrné zisky v žebříčku. Mírně pikantní, možná trochu nepříjemné vůči uzavřeným laboratořím… ale atmosféra je perfektní.
🎁 Dvojité limity využití AI pro OpenAI a Anthropic v rámci vánočního boostu pro vývojáře: Vše, co potřebujete vědět ↗
OpenAI a Anthropic dočasně zvýšily limity používání svých nástrojů zaměřených na kódování, což jednotlivým předplatitelům poskytlo více prostoru pro provádění náročnějších pracovních postupů, aniž by museli okamžitě omezit limity.
Mint poznamenává, že zvýšení je zaměřeno na náročné uživatele, po skončení propagační akce se věci vrátí zpět. Je to příjemný moment „tady je další šťávy“ – a také tichá připomínka toho, že kapacita je stále konečným, hmatatelným omezením.
💻 Spoluzakladatel Google DeepMind Shane Legg stanoví „pravidlo notebooku“, aby zjistil, zda umělá inteligence dokáže nahradit vaši práci ↗
Shane Legg navrhl přímočarou heuristiku: pokud lze práci vykonat výhradně pomocí notebooku (obrazovka, klávesnice, mikrofon, kamera atd.), je to druh kognitivní práce, v rámci které může pokročilá umělá inteligence stále častěji fungovat.
Také trochu zaváhal – poznamenal, že některá „plně online“ práce se stále opírá o lidské spojení a osobnost. Takže ano, pravidlo je striktní… ale není to gilotina, spíše varování před bouří.