💰 Sequoia tiše skáče do mega-kola Anthropic ↗
Společnost Sequoia, která již spolupracuje s několika významnými laboratořemi umělé inteligence, se údajně připojuje k obrovské akci Anthropic Race. Je to krok, který posouvá celou tu debatu o „konfliktech, nekonfliktech“ na vyšší úroveň, ať už si to někdo přizná, nebo ne.
Říká se, že kolo bude zahrnovat i další těžké kontroly, které Anthropic posouvají dále do té nejvyšší úrovně s mega oceněním. Přetrvává atmosféra bublin. I tohle by mohla být nová norma, což je nepříjemné.
📢 ChatGPT začíná flirtovat s reklamami – tentokrát doopravdy ↗
OpenAI údajně testuje reklamy pro některé americké uživatele na levnějších úrovních, zatímco dražší úrovně zůstanou bez reklam. Slibuje se, že reklamy neovlivní odpovědi – teoreticky uklidňující, i když reflex důvěry způsobí malé škubnutí.
Větší podtext je jednoduchý: odvozování je drahé a samotné předplatné nemusí pokrýt všechno navždy… nebo se to tak alespoň zdá. Přesto, když poprvé uvidíte slovo „sponzorováno“ kdekoli poblíž chatbota, něco se ve vaší hlavě změní. Atmosféra se změní.
📚 Vydavatelé se snaží nahromadit žalobu Googlu ohledně školení umělé inteligence ↗
Skupina vydavatelů se snaží zapojit do soudního sporu, který obviňuje Google z používání autorsky chráněných děl k trénování jeho systémů umělé inteligence. Tento právní spor se neustále rozšiřuje, jako trhlina v ledu, kterou stále slyšíte, ale nemůžete ji přesně najít.
Pokud jim soud to povolí, případ by se mohl vyostřit ohledně toho, co by měly znamenat pojmy „povolení“ a „platba“ pro tréninková data. Každý chce precedent – nejlépe takový, který je samozřejmě v jeho prospěch.
🕳️ Trik s „rychlou injekcí“ údajně narušuje systém Gemini prostřednictvím dat ze schůzek ↗
Výzkumníci popsali útok ve stylu „nepřímé promptní injekce“, kdy se škodlivé instrukce skryjí uvnitř normálně vypadajícího obsahu a poté se je zobrazí asistent, když se uživatel zeptá na něco nevinného. Žádný malware, žádná magie – jen text zneužitý jako zbraň, až znepokojivě elegantní a také poněkud nechutný.
Je to připomínka toho, že „LLM čte nedůvěryhodný text“ není zrovna roztomilá funkce – je to celá škála hrozeb. Jako byste nechali cizí lidi celý den strkat si do kapes poznámky a pak se tvářili překvapeně, když je jedna z nich past.
🎮 Generální ředitel Razeru říká, že hráči „už mají rádi umělou inteligenci“ – jen tuhle nálepku nenávidí ↗
Razer se na veletrhu CES zaměřil na umělou inteligenci jako praktický nástroj pro herní vývojáře – QA, iterace a podobné věci – plus některé koncepty, které působí napůl užitečně a napůl jako sci-fi rekvizita.
V podstatě také přiznávají problém se značkou: hráči nechtějí „AI odpad“, ale chtějí chytřejší nástroje a plynulejší herní zážitky. Říkejte tomu „asistence“ a lidé přikyvují. Říkejte tomu „AI“ a lidé někdy sáhnou po vidlích.
⚖️ Soud stanoví pravidla pro právníky používající generativní umělou inteligenci ↗
Soud zveřejnil pokyny, které se v podstatě redukují na: jistě, používejte genAI – ale práci stále vlastníte. Nemůžete zadávat svůj profesionální úsudek generátoru textu a pak se tvářit šokovaně, když si sebevědomě něco vymyslí.
Je zajímavé, že zveřejnění informací není vyžadováno, pokud o to soudce nepožádá – ale skutečnou páteří je poselství o odpovědnosti. Umělá inteligence dokáže navrhovat a upravovat… a také halucinovat jako přehnaně sebevědomý stážista se smyslem pro fikci.
Často kladené otázky
Co znamená vstup společnosti Sequoia do mega kola investic Anthropic pro investice do umělé inteligence a konflikty?
Naznačuje to, že velcí investoři by mohli i nadále podporovat více špičkových laboratoří umělé inteligence najednou, což předvídatelně oživuje debatu o „konfliktech, žádných konfliktech“. Když je stejný fond propojen s několika laboratořemi, lidé začnou zkoumat pobídky, přístup a konkurenční výhody. Uváděné mega kolo investic také podtrhuje trend směrem k obrovským šekům a vysokým oceněním, a to i přesto, že ve vzduchu stále visí „vibrace bubliny“.
Zobrazuje ChatGPT reklamy na bezplatných nebo levnějších úrovních a ovlivní to odpovědi?
Zpráva uvádí, že OpenAI testuje reklamy pro některé americké uživatele na levnějších úrovních, zatímco u dražších úrovní reklamy zůstávají. Také se v ní tvrdí, že reklamy neovlivní odpovědi, což na papíře zní uklidňujícím způsobem, ale stále může změnit to, jak lidé vnímají důvěru. Podtext je ekonomický: inference je drahá a předplatné nemusí pokrývat vše navždy.
Proč se vydavatelé snaží připojit k žalobě společnosti Google ohledně školení umělé inteligence?
Skupina vydavatelů se snaží připojit k žalobě, která tvrdí, že Google použil díla chráněná autorským právem k trénování systémů umělé inteligence. Pokud jim soud to povolí, případ by se mohl vyostřit ohledně toho, jak by mělo vypadat „povolení“ a „platba“ za trénovací data. Více stran často znamená větší tlak na jasný precedent – zejména ohledně toho, kdo je odměněn a za jakých podmínek.
Co je útok „nepřímým promptním vstřikováním“ a proč je v novinkách o umělé inteligenci tak populární?
Jde o útok, při kterém jsou škodlivé instrukce skryty uvnitř normálně vypadajícího obsahu a asistent je následuje později, když uživatel zadá nevinný požadavek. Hlavním problémem je, že model čte nedůvěryhodný text a proměňuje běžné dokumenty a zprávy v potenciální hrozbu. Je to přesvědčivé, protože to může fungovat bez tradičního malwaru – pouze s jazykem vloženým do obsahu, který je zbraní.
Proč hráči nemají rádi označení „AI“, ale přesto chtějí nástroje s umělou inteligencí?
Generální ředitel společnosti Razer tvrdí, že hráči si již užívají praktické výhody – rychlejší QA, plynulejší iterace a pomocníky v pracovním postupu – ale negativně reagují na branding. Problémem je často „nedbalost umělé inteligence“ nebo obsah, který působí nenáročně a neautenticky. Pokud se to přeformuluje na „asistenci“ nebo užitečnou funkci, může to působit jako nástroj, který zlepšuje zážitek, spíše než aby nahrazoval kreativitu.
Co znamenají soudní pravidla pro právníky používající generativní umělou inteligenci a musí to zveřejnit?
Popsané pokyny jsou jednoduché: právníci mohou používat generativní umělou inteligenci, ale zůstávají zodpovědní za práci a nemohou zadávat profesionální úsudek externímu generátoru textů. Rizikem jsou halucinace – sebevědomě vymyšlená fakta nebo citace – takže ověřování a odpovědnost zůstávají ústředním bodem. Zveřejnění údajně není vyžadováno, pokud o to soudce nepožádá, ale sdělení stále zní: výsledek nesete sami.