Zašla umělá inteligence příliš daleko?

Zašla umělá inteligence příliš daleko?

Stručná odpověď: Umělá inteligence zašla příliš daleko, když je nasazována v důležitých rozhodnutích, sledování nebo přesvědčování bez pevných omezení, informovaného souhlasu a skutečného práva na odvolání. Hranice opět překračuje, když deepfake a škálovatelné podvody vzbuzují dojem, že důvěra je riskantní. Pokud lidé nerozumí tomu, že umělá inteligence sehrála roli, nedokážou pochopit, proč rozhodnutí dopadlo tak, jak dopadlo, nebo se nemohou odhlásit, už je to příliš daleko.

Klíčové poznatky:

Hranice: Definují, co systém nemůže dělat, zejména při vysoké nejistotě.

Odpovědnost: Zajistit, aby lidé mohli ovlivnit výsledky bez sankcí nebo časového tlaku.

Transparentnost: Sdělte lidem, kdy je do toho zapojena umělá inteligence a proč dospěla k takovým rozhodnutím.

Napaditelnost: Poskytněte rychlé a funkční způsoby odvolání a jasné způsoby, jak opravit chybná data.

Odolnost proti zneužití: Přidejte původ, limity sazeb a kontroly pro omezení podvodů a zneužívání.

„Zašla umělá inteligence příliš daleko?“

Zvláštní na tom je, že překročení hranice není vždy zřejmé. Někdy je to hlasité a okázalé, jako deepfake podvod. ( FTC , FBI ) ​​Jindy je to tiché – automatizované rozhodnutí, které vám bez jakéhokoli vysvětlení naruší život, a vy si ani neuvědomíte, že jste byli „hodnoceni“. ( UK ICO , GDPR čl. 22 )

Takže… Zašla umělá inteligence příliš daleko? V některých místech ano. Jinde nedošla dostatečně daleko – protože se používá bez neatraktivních, ale nezbytných bezpečnostních lišt, díky nimž se nástroje chovají jako nástroje místo rulet s přátelským uživatelským rozhraním. 🎰🙂 ( NIST AI RMF 1.0 , EU AI Act )

Články, které byste si mohli po tomto přečíst:

🔗 Proč může být umělá inteligence škodlivá pro společnost
Klíčová sociální rizika: předsudky, pracovní místa, soukromí a koncentrace moci.

🔗 Je umělá inteligence škodlivá pro životní prostředí? Skryté dopady
Jak školení, datová centra a spotřeba energie zvyšují emise.

🔗 Je umělá inteligence dobrá, nebo špatná? Klady a zápory
Vyvážený přehled výhod, rizik a reálných kompromisů.

🔗 Proč je umělá inteligence považována za špatnou: temná stránka
Zkoumá zneužívání, manipulaci, bezpečnostní hrozby a etické obavy.


Co lidé myslí, když říkají „Zašla umělá inteligence příliš daleko?“ 😬

Většina lidí se neptá, zda je umělá inteligence „vnímající“ nebo „přebírá kontrolu“. Poukazují na jedno z těchto:

  • Umělá inteligence se používá tam, kde by se používat neměla. (Zejména u rozhodnutí s vysokými sázkami.) ( Příloha III zákona EU o umělé inteligenci , článek 22 GDPR )

  • Umělá inteligence je používána bez vašeho souhlasu. (Vaše data, váš hlas, vaše tvář… překvapení.) ( UK ICO , GDPR čl. 5 )

  • Umělá inteligence se stává až příliš dobrou v manipulaci s pozorností. (Kanály + personalizace + automatizace = nestálé.) ( Zásady OECD pro umělou inteligenci )

  • Umělá inteligence dělá z pravdy něco, co je volitelné. (Deepfakes, falešné recenze, syntetickí „experti“.) ( Evropská komise , FTC , C2PA )

  • Umělá inteligence soustřeďuje moc. (Několik systémů formuje to, co každý vidí a může dělat.) ( UK CMA )

To je jádro otázky „Zašla umělá inteligence příliš daleko?“ Nejde o jeden jediný okamžik. Je to hromada pobídek, zkratek a myšlení typu „napravíme to později“ – což, buďme upřímní, má tendenci se promítat do „napravíme to, až se někdo zraní.“ 😑

Zašla umělá inteligence příliš daleko? (infografika)

Ne tak tajná pravda: Umělá inteligence je multiplikátor, nikoli morální činitel 🔧✨

Umělá inteligence se neprobudí a nerozhodne se být škodlivá. Lidé a organizace ji cílí. Ale znásobuje vše, co jí dáte do krmení:

  • Užitečný záměr se stává nesmírně užitečným (překlad, přístupnost, shrnutí, rozpoznávání lékařských vzorců).

  • Nedbalý záměr se stává masivně nedbalý (zkreslení ve velkém měřítku, automatizace chyb).

  • Zlý úmysl se stává extrémně špatným (podvod, obtěžování, propaganda, vydávání se za jinou osobu).

Je to jako dát batoleti megafon. Někdy batole zpívá… někdy batole křičí přímo do vaší duše. Není to dokonalá metafora – trochu hloupé – ale pointa se trefuje 😅📢.


Co dělá dobrou verzi umělé inteligence v každodenním prostředí? ✅🤝

„Dobrá verze“ umělé inteligence není definována tím, jak je chytrá. Je definována tím, jak dobře se chová pod tlakem, nejistotou a pokušením (a lidé jsou velmi lákáni levnou automatizací). ( NIST AI RMF 1.0 , OECD )

Tady je to, co hledám, když někdo tvrdí, že je jeho používání umělé inteligence zodpovědné:

1) Jasné hranice

  • Co je systému dovoleno dělat?

  • Co je výslovně zakázáno dělat?

  • Co se stane, když si člověk není jistý?

2) Lidská odpovědnost, která je skutečná, nikoli dekorativní

Lidské „kontrolování“ výsledků má význam pouze tehdy, pokud:

  • chápou, co hodnotí, a

  • Mohou to potlačit, aniž by byli potrestáni za zpomalení věcí.

3) Vysvětlitelnost na správné úrovni

Ne každý potřebuje matematiku. Lidé potřebují:

  • hlavní důvody rozhodnutí,

  • jaké údaje byly použity,

  • jak se odvolat, opravit nebo odhlásit. ( UK ICO )

4) Měřitelný výkon – včetně poruchových režimů

Nejen „přesnost“, ale:

  • na kom to selže,

  • jak často tiše selhává,

  • Co se stane, když se svět změní. ( NIST AI RMF 1.0 )

5) Soukromí a souhlas, které nejsou „skryty v nastavení“

Pokud souhlas vyžaduje honbu za pokladem v menu… není to souhlas. Je to mezera v legislativě s dalšími kroky 😐🧾. ( GDPR čl. 5 , UK ICO )


Srovnávací tabulka: praktické způsoby, jak zabránit umělé inteligenci v tom, aby zašla příliš daleko 🧰📊

Níže jsou uvedeny „nejlepší možnosti“ v tom smyslu, že se jedná o běžné zábrany nebo operační nástroje, které mění výsledky (nejen vibrace).

Nástroj / možnost Publikum Cena Proč to funguje
Kontrola lidského zapojení ( zákon EU o umělé inteligenci ) Týmy sázejí na velmi riskantní rozhodnutí ££ (časové náklady) Zpomaluje špatnou automatizaci. Lidé si také mohou všimnout zvláštních okrajových případů, někdy…
Proces odvolání proti rozhodnutí ( článek 22 GDPR ) Uživatelé ovlivněni rozhodnutími umělé inteligence Volný/á Přidává řádný proces. Lidé mohou opravit chybná data – zní to elementárně, protože to elementárně je
Auditní protokoly + sledovatelnost ( NIST SP 800-53 ) Dodržování předpisů, provoz, bezpečnost £-££ Umožňuje vám po neúspěchu odpovědět na otázku „co se stalo?“, místo pokrčení ramen
Vyhodnocení modelu + testování zkreslení ( NIST AI RMF 1.0 ) Produktové a rizikové týmy hodně se liší Včas odhalí předvídatelné poškození. Není to dokonalé, ale lepší než hádat
Testování červeným týmem ( profil NIST GenAI ) Bezpečnost + bezpečnostní pracovníci £££ Simuluje zneužití dříve než skuteční útočníci. Nepříjemné, ale stojí to za to 😬
Minimalizace dat ( UK ICO ) Všichni, upřímně řečeno £ Méně dat = méně nepořádku. Také méně úniků dat, méně trapných rozhovorů
Signály původu obsahu ( C2PA ) Platformy, média, uživatelé £-££ Pomáhá ověřit, zda „tohle udělal člověk?“ – není to sice spolehlivé, ale snižuje chaos
Omezení rychlosti + řízení přístupu ( OWASP ) Poskytovatelé umělé inteligence + podniky £ Okamžitě zastaví zneužívání. Jako práh pro ty, co se dopouštějí nekalých akcí

Jo, stůl je trochu nerovný. Takový je život. 🙂


Umělá inteligence v důležitých rozhodnutích: kdy to zajde příliš daleko 🏥🏦⚖️

Tady se věci rychle zkomplikují.

Umělá inteligence ve zdravotnictví , financích , bydlení , zaměstnanosti , vzdělávání , imigraci , trestním soudnictví – jedná se o systémy, kde: ( příloha III zákona EU o umělé inteligenci , FDA )

  • Chyba může někoho stát peníze, svobodu, důstojnost nebo bezpečnost,

  • a postižená osoba má často omezené možnosti se bránit.

Velkým rizikem není „AI dělá chyby“. Velkým rizikem je, že se chyby AI stanou politikou . ( NIST AI RMF 1.0 )

Jak vypadá „příliš daleko“ zde

  • Automatická rozhodnutí bez vysvětlení: „počítač říká ne.“ ( UK ICO )

  • „Skóre rizika“ bylo bráno jako fakta, nikoli jako odhady.

  • Lidé, kteří nemohou ovlivnit výsledky, protože management chce rychlost.

  • Data, která jsou neupravená, zkreslená, zastaralá nebo prostě naprosto chybná.

Co by mělo být neobchodovatelné

  • Právo na odvolání (rychlé, srozumitelné, ne bludiště). ( GDPR čl. 22 , UK ICO )

  • Právo vědět , že se na tom podílela umělá inteligence. ( Evropská komise )

  • Lidské posouzení pro zjištění následných výsledků. ( NIST AI RMF 1.0 )

  • Kontrola kvality dat – protože „smetí dovnitř, smetí ven“ je stále bolestně pravdivá pravda.

Pokud se snažíte stanovit jasnou hranici, zde je jedna z nich:
Pokud systém umělé inteligence může podstatně změnit něčí život, potřebuje stejnou vážnost, jakou očekáváme od jiných forem autority. Žádné „beta testování“ na lidech, kteří se nezaregistrovali. 🚫


Deepfakes, podvody a pomalá smrt „věřím svým očím“ 👀🧨

Tohle je ta část, která dělá každodenní život… kluzkým.

Když umělá inteligence dokáže generovat:

  • hlasová zpráva, která zní jako zpráva od vašeho rodinného příslušníka ( FTC , FBI )

  • video veřejné osoby, která něco „říká“,

  • záplava falešných recenzí, které vypadají dostatečně autenticky ( FTC )

  • falešný profil na LinkedInu s falešnou pracovní historií a falešnými přáteli…

...nejenže to umožňuje podvody. Oslabuje to sociální pojivo, které umožňuje koordinaci cizích lidí. A společnost funguje na koordinaci cizích lidí. 😵💫

„Příliš daleko“ není jen falešný obsah

Je to asymetrie :

  • Je levné generovat lži.

  • Ověřování pravdy je drahé a pomalé.

  • A většina lidí je zaneprázdněná, unavená a scrolluje.

Co pomáhá (trochu)

  • Značky původu médií. ( C2PA )

  • Tření o viralitu – zpomalení okamžitého masového sdílení.

  • Lepší ověřování identity tam, kde je to důležité (finance, vládní služby).

  • Základní návyky „ověřování mimo pásmo“ pro jednotlivce (zpětné zavolání, použití kódového slova, potvrzení přes jiný kanál). ( FTC )

Nic okouzlujícího. Ale ani bezpečnostní pásy nejsou, a k těm jsem osobně docela připoutaná. 🚗


Plíživý dohled: když umělá inteligence tiše promění všechno v senzor 📷🫥

Tohle nevybuchne jako deepfake. Prostě se to šíří.

Umělá inteligence usnadňuje:

A i když je nepřesná, může být stále škodlivá, protože může ospravedlnit zásah. Špatná předpověď může stále vyvolat skutečné následky.

Ta nepříjemná část

Dohled s využitím umělé inteligence je často doprovázen bezpečnostním příběhem:

  • „Je to pro prevenci podvodů.“

  • „Je to kvůli bezpečnosti.“

  • „Je to pro uživatelskou zkušenost.“

Někdy je to pravda. Někdy je to také pohodlná výmluva pro budování systémů, které se později velmi těžko demontují. Jako třeba instalace jednocestných dveří ve vlastním domě, protože se v dané chvíli zdály efektivní. Opět, není to dokonalá metafora - trochu směšná - ale cítíte to. 🚪😅

Jak zde vypadá „dobré“

  • Přísná omezení uchovávání a sdílení.

  • Zrušte odhlášení.

  • Úzké případy použití.

  • Nezávislý dohled.

  • Žádná „detekce emocí“ používaná k trestání nebo k udržení kontroly. Prosím. 🙃 ( Zákon EU o umělé inteligenci )


Práce, kreativita a problém tichého odvykání kvalifikace 🧑💻🎨

Tady se debata stává osobní, protože se dotýká identity.

Umělá inteligence může lidi zvýšit produktivitu. Může jim také dát pocit, že jsou nahraditelní. Obojí může platit současně, v jednom týdnu. ( OECD , WEF )

Kde je to skutečně užitečné

  • Psaní rutinních textů, aby se lidé mohli soustředit na myšlení.

  • Pomoc s kódováním opakujících se vzorů.

  • Nástroje pro usnadnění přístupu (titulky, shrnutí, překlad).

  • Brainstorming, když se zaseknete.

Kde to zachází příliš daleko

  • Nahrazení rolí bez plánů přechodu.

  • Využití umělé inteligence ke snížení produkce a zároveň ke zploštění mezd.

  • Zacházet s kreativní prací jako s nekonečnými bezplatnými tréninkovými daty a pak pokrčit rameny. ( Úřad pro autorská práva USA , GOV.UK Spojeného království )

  • Zbavit se juniorních rolí – což zní efektivně, dokud si neuvědomíte, že jste právě spálili žebříček, který budoucí experti potřebují vyšplhat.

Odstraňování kvalifikace je nenápadné. Nevšímáte si toho ze dne na den. Pak si jednoho dne uvědomíte, že si nikdo v týmu nepamatuje, jak daná věc funguje bez asistenta. A pokud se asistent mýlí, mýlíte se prostě všichni společně... což je taková noční můra. 😬


Koncentrace moci: kdo může stanovovat výchozí hodnoty? 🏢⚡

I když je umělá inteligence „neutrální“ (což není), kdokoli ji ovládá, může ovlivňovat:

  • jaké informace jsou snadno dostupné,

  • co se propaguje nebo pohřbívá,

  • jaký jazyk je povolen,

  • jaké chování je podporováno.

A protože systémy umělé inteligence mohou být drahé na výstavbu a provoz, moc má tendenci se koncentrovat. To není konspirace. To je ekonomie s kapucí z technické linie. ( UK CMA )

Moment „příliš daleko“

Když se z neplnění povinností stane neviditelný zákon:

  • nevíš, co se filtruje,

  • nemůžeš prozkoumat logiku,

  • a realisticky se nemůžete odhlásit, aniž byste ztratili přístup k práci, komunitě nebo základním službám.

Zdravý ekosystém potřebuje konkurenci, transparentnost a skutečnou uživatelskou volbu. Jinak si v podstatě pronajímáte realitu. 😵♂️


Praktický kontrolní seznam: jak poznat, zda umělá inteligence ve vašem světě zachází příliš daleko 🧾🔍

Zde je seznam, který používám (a ano, je nedokonalý):

Pokud jste jednotlivec

  • Poznám, kdy interaguji s umělou inteligencí. ( Evropská komise )

  • Tento systém mě nutí k přehnanému sdílení.

  • Nevadilo by mi se s výstupem vypořádat věrohodným způsobem, pokud je špatný.

  • Pokud bych se nechal s tímto podvést, platforma by mi pomohla… nebo by jen pokrčila rameny.

Pokud jste firma nebo tým

  • Používáme umělou inteligenci, protože je cenná, nebo proto, že je trendy a management je neklidný.

  • Víme, jakých dat systém zpracovává.

  • Dotčený uživatel se může proti výsledkům odvolat. ( UK ICO )

  • Lidé mají pravomoc tento model přepsat.

  • Máme plány reakce na incidenty v případě selhání umělé inteligence.

  • Monitorujeme drift, zneužití a neobvyklé okrajové případy.

Pokud jste na spoustu z nich odpověděli „ne“, neznamená to, že jste zlí. Znamená to, že jste v normálním lidském stavu „odeslali jsme to a doufali jsme“. Ale doufání bohužel není strategie. 😅


Závěrečné poznámky 🧠✅

Takže… Zašla umělá inteligence příliš daleko?
Zašla příliš daleko v tom, že je nasazována bez odpovědnosti , zejména v důležitých rozhodnutích, masovém přesvědčování a sledování. Zašla také příliš daleko v tom, že narušuje důvěru – protože jakmile se důvěra naruší, všechno se stává dražším a ze společenského hlediska nepřátelštějším. ( NIST AI RMF 1.0 , EU AI Act )

Ale umělá inteligence není ze své podstaty odsouzena k zániku ani ze své podstaty dokonalá. Je to silný multiplikátor. Otázkou je, zda budujeme zábradlí stejně agresivně, jako budujeme samotné schopnosti.

Rychlé shrnutí:

  • Umělá inteligence je jako nástroj v pořádku.

  • Je to nebezpečné jako nezodpovědná autorita.

  • Pokud se někdo nemůže odvolat, nerozumí tomu nebo se nemůže odhlásit – tam začíná „příliš daleko“. 🚦 ( GDPR čl. 22 , UK ICO )


Často kladené otázky

Zašla umělá inteligence v každodenním životě příliš daleko?

Na mnoha místech zašla umělá inteligence příliš daleko, protože se začala prodírat do rozhodování a interakcí bez jasných hranic nebo odpovědnosti. Problém jen zřídkakdy spočívá v „existenci umělé inteligence“; jde o to, že je umělá inteligence tiše vměšována do náboru, zdravotnictví, zákaznických služeb a informačních kanálů s malým dohledem. Když lidé nepoznají, že se jedná o umělou inteligenci, nemohou napadnout výsledky nebo se nemohou odhlásit, přestává se vnímat jako nástroj a začíná se vnímat jako systém.

Jak vypadá „přílišná AI“ v důležitých rozhodnutích?

Zdá se, že umělá inteligence se používá ve zdravotnictví, financích, bydlení, zaměstnanosti, vzdělávání, imigraci nebo trestním soudnictví bez silných zábran. Ústředním problémem není to, že modely dělají chyby; jde o to, že se tyto chyby zatvrdí v politice a je těžké je zpochybnit. Rozhodnutí typu „počítač říká ne“ s chabým vysvětlením a bez smysluplného odvolání jsou místem, kde se škody rychle šíří.

Jak poznám, zda se mě týká automatizované rozhodování, a co s tím mohu dělat?

Běžným příznakem je náhlý výsledek, který si nedokážete vysvětlit: odmítnutí, omezení nebo „skóre rizika“ bez jasného důvodu. Mnoho systémů by mělo zveřejnit, kdy umělá inteligence sehrála podstatnou roli, a měli byste být schopni požádat o hlavní důvody rozhodnutí a kroky k jeho odvolání. V praxi požádejte o lidské posouzení, opravte jakékoli chybné údaje a prosazujte přímočarou cestu k odhlášení.

Zašla umělá inteligence příliš daleko, co se týče soukromí, souhlasu a používání dat?

Často se tak stává, když se souhlas stane honbou za pokladem a sběr dat se rozšíří „pro jistotu“. Hlavní myšlenkou článku je, že soukromí a souhlas nemají velkou váhu, pokud jsou pohřbeny v prostředí nebo vynuceny vágními pojmy. Zdravějším přístupem je minimalizace dat: shromažďovat méně, uchovávat méně a učinit rozhodnutí nezaměnitelnými, aby lidé později nebyli překvapeni.

Jak deepfake a podvody s umělou inteligencí mění význam „důvěry“ online?

Díky nim se pravda jeví jako volitelná tím, že snižují náklady na vytváření přesvědčivých falešných hlasů, videí, recenzí a identit. Problémem je asymetrie: generování lží je levné, zatímco ověřování pravdy je pomalé a únavné. Mezi praktická opatření obrany patří signály o původu pro média, zpomalení virálního sdílení, silnější kontroly identity tam, kde je to důležité, a návyky „ověřování mimo pásmo“, jako je zpětné volání nebo používání sdíleného kódového slova.

Jaké jsou nejpraktičtější zábrany, které zabrání umělé inteligenci zajít příliš daleko?

Mezi ochranné prvky, které mění výsledky, patří skutečná kontrola s lidskou přítomností v případě kritických situací, jasné procesy odvolání a auditní protokoly, které po selháních dokáží odpovědět na otázku „co se stalo?“. Vyhodnocování modelů a testování zkreslení dokáže odhalit předvídatelné škody dříve, zatímco testování „červeného týmu“ simuluje zneužití dříve, než to udělají útočníci. Limity rychlosti a řízení přístupu pomáhají zabránit okamžitému rozšíření zneužití a minimalizace dat snižuje riziko napříč všemi oblastmi.

Kdy dohled založený na umělé inteligenci překročí hranici?

Překračuje se hranice, když se vše automaticky promění v senzor: rozpoznávání obličejů v davech, sledování pohybových vzorců nebo sebevědomá „detekce emocí“ používaná k trestání nebo kontrole přístupu. I nepřesné systémy mohou způsobit vážnou újmu, pokud ospravedlňují intervence nebo odmítnutí služeb. Dobré postupy se projevují jako úzké případy užití, přísné limity pro uchovávání údajů, smysluplné výjimky, nezávislý dohled a pevné „ne“ nejistým úsudkům založeným na emocích.

Zvyšuje umělá inteligence produktivitu lidí, nebo jim tiše snižuje kvalifikaci?

Obojí může platit zároveň a právě v tomto napětí je pointa. Umělá inteligence může pomoci s rutinním kreslením, opakujícími se vzorci kódování a přístupností, což lidem umožňuje soustředit se na myšlení na vyšší úrovni. Zachází to příliš daleko, když nahrazuje role bez plánů přechodu, snižuje mzdy, zachází s kreativní prací jako s bezplatnými školicími daty nebo ruší juniorní role, které budují budoucí odborné znalosti. Dekvalifikace zůstává nenápadná, dokud týmy nebudou schopny fungovat bez asistenta.

Reference

  1. Národní institut pro standardy a technologie (NIST) - Rámec pro řízení rizik umělé inteligence (AI RMF 1.0) - nist.gov

  2. Evropská unie - Zákon EU o umělé inteligenci (nařízení (EU) 2024/1689) - Úřední věstník (anglicky) - europa.eu

  3. Evropská komise - Regulační rámec pro umělou inteligenci (stránka s politikou zákona EU o umělé inteligenci) - europa.eu

  4. Servisní linka k zákonu EU o umělé inteligencipříloha III (Vysoce rizikové systémy umělé inteligence)europa.eu

  5. Evropská unie - Pravidla pro důvěryhodnou umělou inteligenci v EU (shrnutí zákona EU o umělé inteligenci) - europa.eu

  6. Úřad britského komisaře pro informace (ICO) - Co je automatizované individuální rozhodování a profilování? - ico.org.uk

  7. Úřad britského komisaře pro informace (ICO) - Co říká britské nařízení GDPR o automatizovaném rozhodování a profilování? - ico.org.uk

  8. Úřad britského komisaře pro informace (ICO) - Automatizované rozhodování a profilování (centrum poradenství) - ico.org.uk

  9. Úřad komisaře pro informace Spojeného království (ICO) - Minimalizace dat (zásady GDPR ve Spojeném království) - ico.org.uk

  10. GDPR-info.eu - Článek 22 GDPR - gdpr-info.eu

  11. GDPR-info.eu - Článek 5 GDPR - gdpr-info.eu

  12. Federální obchodní komise USA (FTC) - Podvodníci využívají umělou inteligenci k vylepšení svých rodinných nouzových programů - ftc.gov

  13. Federální obchodní komise USA (FTC) - Podvodníci používají falešné nouzové situace k krádeži vašich peněz - ftc.gov

  14. Federální obchodní komise USA (FTC) - Konečné pravidlo zakazující falešné recenze a doporučení (tisková zpráva) - ftc.gov

  15. Federální úřad pro vyšetřování (FBI) - FBI varuje před rostoucí hrozbou kyberzločinců využívajících umělou inteligenci - fbi.gov

  16. Organizace pro hospodářskou spolupráci a rozvoj (OECD) - Zásady OECD pro umělou inteligenci - oecd.ai

  17. OECD - Doporučení Rady o umělé inteligenci (OECD/LEGAL/0449) - oecd.org

  18. Evropská komise - Pokyny a kodex postupů pro transparentní systémy umělé inteligence (FAQ) - europa.eu

  19. Koalice pro původ a autenticitu obsahu (C2PA)Specifikace v2.3c2pa.org

  20. Britský úřad pro hospodářskou soutěž a trhy (CMA) - Základní modely umělé inteligence: úvodní zpráva - gov.uk

  21. Americký Úřad pro kontrolu potravin a léčiv (FDA) - Zdravotnické prostředky s využitím umělé inteligence - fda.gov

  22. NIST - Bezpečnostní a soukromoprávní opatření pro informační systémy a organizace (SP 800-53 Rev. 5) - nist.gov

  23. NIST - Generativní profil umělé inteligence (NIST.AI.600-1, ipd) - nist.gov

  24. Open Worldwide Application Security Project (OWASP)Neomezená spotřeba zdrojů (API Security Top 10, 2023)owasp.org

  25. NIST - Demografické údaje o testu dodavatelů rozpoznávání obličejů (FRVT) - nist.gov

  26. Barrett a kol. (2019) - Článek (PMC) - nih.gov

  27. OECD - Využívání umělé inteligence na pracovišti (PDF) - oecd.org

  28. Světové ekonomické fórum (WEF) - Zpráva o budoucnosti pracovních míst 2025 - Souhrn - weforum.org

  29. Úřad pro autorská práva USA - Autorské právo a umělá inteligence, část 3: Zpráva o školení v oblasti generativní umělé inteligence (předběžná verze) (PDF) - copyright.gov

  30. Vláda Spojeného království (GOV.UK) - Autorská práva a umělá inteligence (konzultace) - gov.uk

Najděte nejnovější AI v oficiálním obchodě s AI asistenty

O nás

Zpět na blog