Stručná odpověď: Umělá inteligence nenahradí kybernetickou bezpečnost kompletně, ale převezme značnou část opakujících se prací v oblasti SOC a bezpečnostního inženýrství. Pokud se používá jako redukce šumu a shrnovač – s lidským přepsáním – urychluje třídění a stanovování priorit; pokud je vnímána jako věštec, může zavést riskantní falešnou jistotu.
Klíčové poznatky:
Rozsah : Umělá inteligence nahrazuje úkoly a pracovní postupy, nikoli samotnou profesi ani odpovědnost.
Snížení námahy : Využijte umělou inteligenci pro shlukování výstrah, stručné shrnutí a třídění podle protokolů.
Odpovědnost za rozhodování : Zachovejte lidské zdroje pro ochota k riziku, řízení incidentů a náročné kompromisy.
Odolnost proti zneužití : Návrh pro rychlou injekci, otravu a pokusy o únik ze strany protivníka.
Řízení : Vynucování hranic dat, auditovatelnosti a napadnutelných lidských přepsání v nástrojích.

Články, které byste si mohli po tomto přečíst:
🔗 Jak se generativní umělá inteligence využívá v kybernetické bezpečnosti
Praktické způsoby, jak umělá inteligence posiluje detekci, reakci a prevenci hrozeb.
🔗 Nástroje pro penetrační testování s využitím umělé inteligence pro kybernetickou bezpečnost
Špičková řešení založená na umělé inteligenci pro automatizaci testování a vyhledávání zranitelností.
🔗 Je umělá inteligence nebezpečná? Rizika a realita
Jasný pohled na hrozby, mýty a zodpovědná ochranná opatření v oblasti umělé inteligence.
🔗 Průvodce nejlepšími nástroji pro zabezpečení umělé inteligence
Nejlepší bezpečnostní nástroje využívající umělou inteligenci k ochraně systémů a dat.
„Nahrazení“ rámování je past 😅
Když lidé říkají „Může umělá inteligence nahradit kybernetickou bezpečnost?“ , obvykle tím myslí jednu ze tří věcí:
-
Vyměňte analytiky (nejsou potřeba lidé)
-
Nahraďte nástroje (jedna platforma s umělou inteligencí dělá vše)
-
Nahrazování výsledků (méně narušení, menší riziko)
Umělá inteligence je nejsilnější v nahrazování opakujícího se úsilí a zkracování doby rozhodování. Nejslabší je v nahrazování odpovědnosti, kontextu a úsudku. Bezpečnost není jen detekce – jsou to složité kompromisy, obchodní omezení, politika (ugh) a lidské chování.
Víte, jak to chodí – narušení bezpečnosti nebylo způsobeno „nedostatkem upozornění“. Bylo to kvůli tomu, že nikdo nevěřil, že na upozornění záleží. 🙃
Kde umělá inteligence již „nahrazuje“ práci v oblasti kybernetické bezpečnosti (v praxi) ⚙️
Umělá inteligence již přebírá určité kategorie práce, i když organizační schéma stále vypadá stejně.
1) Triáž a shlukování pohotovostí
-
Seskupování podobných upozornění do jednoho incidentu
-
Deduplikace šumových signálů
-
Pořadí podle pravděpodobného dopadu
Na tom záleží, protože při třídění lidé ztrácejí vůli k životu. Pokud umělá inteligence byť jen trochu ztlumí hluk, je to jako ztlumit požární alarm, který křičí už týdny 🔥🔕
2) Analýza protokolů a detekce anomálií
-
Odhalování podezřelých vzorů při rychlosti stroje
-
Označení „toto je neobvyklé ve srovnání s výchozím stavem“
Není to dokonalé, ale může to být cenné. Umělá inteligence je jako detektor kovů na pláži – hodně pípá a někdy je to víčko od lahve, ale občas je to prsten 💍… nebo kompromitovaný administrátorský token.
3) Klasifikace malwaru a phishingu
-
Klasifikace příloh, URL adres a domén
-
Detekce podobných značek a vzorců falešných reklam
-
Automatizace souhrnů verdiktů v sandboxu
4) Stanovení priorit v řízení zranitelností
Ne „které CVE existují“ – všichni víme, že jich je příliš mnoho. Umělá inteligence pomáhá odpovědět na:
-
Které jsou zde pravděpodobně zneužitelné. EPSS (PRVNÍ)
-
Které jsou vystaveny zvenčí
-
Které se vztahují k cenným aktivům. Katalog CISA KEV
-
Který by měl být opraven jako první, aniž by došlo k poškození organizace. NIST SP 800-40 Rev. 4 (Enterprise Patch Management)
A ano, i lidé by to dokázali – kdyby byl čas nekonečný a nikdo si nikdy nebral dovolenou.
Co dělá dobrou verzi umělé inteligence v kybernetické bezpečnosti 🧠
Tuto část lidé přeskakují a pak viní „umělou inteligenci“, jako by šlo o jeden produkt s emocemi.
Dobrá verze umělé inteligence v kybernetické bezpečnosti mívá tyto vlastnosti:
-
Vysoká disciplína signálu od šumu
-
Musí to snižovat šum, ne ho přidávat k němu složitým frázováním.
-
-
Vysvětlitelnost, která pomáhá v praxi
-
Ne román. Žádné vibrace. Skutečné indicie: co viděl, proč mu na tom záleží, co se změnilo.
-
-
Těsná integrace s vaším prostředím
-
IAM, telemetrie koncových bodů, správa cloudu, ticketing, inventarizace aktiv… ty nenápadné věci.
-
-
Vestavěné lidské přepsání
-
Analytici to musí opravovat, ladit a někdy ignorovat. Jako juniorní analytik, který nikdy nespí, ale občas panikaří.
-
-
Bezpečné zpracování dat
-
Jasné hranice pro to, co se ukládá, trénuje nebo uchovává. NIST AI RMF 1.0
-
-
Odolnost vůči manipulaci
-
Útočníci se budou snažit o rychlou injekci, otravu a klamání. Vždycky to dělají. OWASP LLM01: Prompt Injection UK AI Cyber Security Code of Practice
-
Buďme upřímní – spousta „bezpečnostních opatření založených na umělé inteligenci“ selhává, protože je trénována tak, aby zněla jistě, ne aby byla správná. Sebejistota není kontrola. 😵💫
Části, které umělá inteligence jen těžko nahrazuje – a na tom záleží víc, než se zdá 🧩
A tady je nepříjemná pravda: kybernetická bezpečnost není jen technická. Je sociotechnická. Jsou to lidé, systémy a pobídky.
Umělá inteligence se potýká s:
1) Obchodní kontext a chuť k riziku
Bezpečnostní rozhodnutí se zřídkakdy dělají na téma „je to špatné“. Spíše se jedná o:
-
Zda je to dostatečně závažné, aby to zastavilo příjmy
-
Zda se vyplatí přerušit proces nasazení
-
Zda bude vedení akceptovat prostoje kvůli tomu
Umělá inteligence může pomoci, ale nemůže se k tomu přihlásit. Někdo pod rozhodnutí podepíše svůj podpis. Někdo dostane hovor ve 2 ráno 📞
2) Velení incidentu a koordinace mezi týmy
Během skutečných incidentů je „práce“:
-
Dostat do místnosti ty správné lidi
-
Shoda na faktech bez paniky
-
Správa komunikace, důkazů, právních záležitostí a komunikace se zákazníky NIST SP 800-61 (Průvodce řešením incidentů)
Umělá inteligence sice dokáže vytvořit časovou osu nebo shrnout protokoly, to je jisté. Nahradit vedení pod tlakem je… optimistické. Je to jako požádat kalkulačku, aby provedla požární cvičení.
3) Modelování a architektura hrozeb
Modelování hrozeb je zčásti logika, zčásti kreativita a zčásti paranoia (většinou zdravá paranoia).
-
Výčet toho, co by se mohlo pokazit
-
Předvídání, co útočník udělá
-
Výběr nejlevnějšího ovládání, které mění útočníkovy matematické postupy
Umělá inteligence může navrhovat vzorce, ale skutečná hodnota pramení ze znalosti vašich systémů, vašich lidí, vašich zkratek a vašich specifických závislostí.
4) Lidské faktory a kultura
Phishing, opětovné použití přihlašovacích údajů, stínové IT, nedbalé kontroly přístupu – to jsou lidské problémy v technických kostýmech 🎭.
Umělá inteligence je dokáže odhalit, ale nedokáže opravit, proč se organizace chová tak, jak se chová.
Útočníci také používají umělou inteligenci - takže se hrací pole naklání do strany 😈🤖
Jakákoli diskuse o nahrazení kybernetické bezpečnosti musí zahrnovat zřejmé: útočníci se nestaví na místě.
Umělá inteligence pomáhá útočníkům:
-
Pište přesvědčivější phishingové zprávy (méně gramaticky poškozené, více kontextu). Varování FBI před phishingem s využitím umělé inteligence. Informace IC3 PSA o generativních podvodech/phishingu s využitím umělé inteligence.
-
Rychlejší generování polymorfních variant malwaru. Zprávy o hrozbách OpenAI (příklady zneužití).
-
Automatizace průzkumu a sociálního inženýrství Europol „ChatGPT report“ (přehled zneužití)
-
Levné škálování pokusů
Takže zavádění umělé inteligence obránci není z dlouhodobého hlediska volitelné. Je to spíš jako… že si berete baterku, protože druhá strana právě dostala brýle s nočním viděním. Nešikovná metafora. Pořád do jisté míry pravdivá.
Útočníci se také zaměří na samotné systémy umělé inteligence:
-
Okamžitá injekce do bezpečnostních kopilotů OWASP LLM01: Okamžitá injekce
-
Otrava dat zkreslující modely Kodex postupů pro kybernetickou bezpečnost s využitím umělé inteligence ve Spojeném království
-
Příklady kontradiktorních postupů pro vyhnutí se odhalení MITRE ATLAS
-
o extrakci modelu v některých nastaveních MITRE ATLAS
Bezpečnost byla vždycky hra na kočku a myš. Umělá inteligence jen dělá kočky rychlejšími a myši vynalézavějšími 🐭
Skutečná odpověď: Umělá inteligence nahrazuje úkoly, ne odpovědnost ✅
Toto je „trapný střed“, do kterého se většina týmů dostane:
-
Umělá inteligence zvládá škálování
-
Lidé manipulují s kolíky
-
Společně zvládají rychlost a úsudek
V mém vlastním testování napříč bezpečnostními pracovními postupy je umělá inteligence nejlepší, když se s ní zachází takto:
-
Asistent třídění
-
Shrnovače
-
Korelační engine
-
Pomocník s politikou
-
Přítel pro kontrolu kódu v případě rizikových vzorů
Umělá inteligence je nejhorší, když se s ní zachází takto:
-
Věštec
-
Jediný bod pravdy
-
Obranný systém „nastav a zapomeň“
-
Důvod pro podhodnocení týmu (tohle se projeví později... tvrdě)
Je to jako najmout si hlídacího psa, který zároveň píše e-maily. Skvělé. Ale někdy štěká na vysavač a mine toho chlapa, co skáče přes plot. 🐶🧹
Srovnávací tabulka (nejlepší možnosti, které týmy používají denně) 📊
Níže je uvedena praktická srovnávací tabulka - není dokonalá, trochu nerovnoměrná, jako v reálném životě.
| Nástroj / Platforma | Nejlepší pro (publikum) | Cenová atmosféra | Proč to funguje (a jaké jsou zvláštnosti) |
|---|---|---|---|
| Microsoft Sentinel Microsoft Learn | Týmy SOC žijící v ekosystémech Microsoftu | $$ - $$$ | Silné cloudově nativní SIEM vzory; spousta konektorů, může být zašuměný, pokud není naladěn… |
| Splunk Splunk Enterprise Security | Větší organizace s velkým množstvím protokolování a vlastními potřebami | $$$ (upřímně řečeno, často $$$$) | Výkonné vyhledávání + dashboardy; úžasné, když je vše správně spravováno, ale otravné, když nikdo nekontroluje hygienu dat |
| Bezpečnostní operace Google Google Cloud | Týmy, které chtějí spravovanou telemetrii | $$ - $$$ | Vhodné pro velké objemy dat; stejně jako mnoho jiných věcí závisí na vyspělosti integrace |
| CrowdStrike Falcon CrowdStrike | Organizace zaměřené na koncové body a IR týmy | $$$ | Výborná viditelnost koncových bodů; skvělá hloubka detekce, ale stále potřebujete lidi, kteří budou řídit reakci |
| Microsoft Defender pro koncové body Microsoft Learn | Organizace zaměřené na M365 | $$ - $$$ | Úzká integrace s Microsoftem; může být skvělá, ale při špatné konfiguraci může být „700 upozornění ve frontě“ |
| Palo Alto Cortex XSOAR Palo Alto Networks | SOC zaměřené na automatizaci | $$$ | Herní knihy snižují námahu; vyžadují péči, jinak automatizujete poruchu (ano, i to je možné) |
| Platforma Wiz | Týmy cloudové bezpečnosti | $$$ | Silný přehled o cloudu; pomáhá rychle prioritizovat rizika, stále však vyžaduje správu a řízení |
| Platforma Snyk | Organizace zaměřené na vývoj, AppSec | $$ - $$$ | Pracovní postupy přátelské k vývojářům; úspěch závisí na přijetí vývojáři, nejen na skenování |
Malá poznámka: žádný nástroj sám o sobě „nevyhraje“. Nejlepší nástroj je ten, který váš tým používá denně, aniž by se na něj zlobil. To není věda, to je přežití 😅
Realistický operační model: jak týmy vyhrávají s umělou inteligencí 🤝
Pokud chcete, aby umělá inteligence smysluplně zlepšila bezpečnost, postup je obvykle následující:
Krok 1: Použijte umělou inteligenci ke snížení námahy
-
Souhrny obohacení upozornění
-
Vypracování lístků
-
Kontrolní seznamy pro shromažďování důkazů
-
Návrhy dotazů protokolu
-
Rozdíly v konfiguracích v sekci „Co se změnilo“
Krok 2: Využijte lidi k ověření a rozhodnutí
-
Potvrdit dopad a rozsah
-
Vyberte opatření pro omezení
-
Koordinace oprav mezi týmy
Krok 3: Automatizujte bezpečné věci
Dobré cíle automatizace:
-
Umístění známých škodlivých souborů do karantény s vysokou spolehlivostí
-
Resetování přihlašovacích údajů po ověřeném kompromitování
-
Blokování zjevně škodlivých domén
-
Vynucování korekce odchylek od politiky (pečlivé)
Rizikové cíle automatizace:
-
Automatická izolace produkčních serverů bez ochranných opatření
-
Mazání zdrojů na základě nejistých signálů
-
Blokování velkých rozsahů IP adres, protože „model to tak chtěl“ 😬
Krok 4: Zpětné propojení poznatků s kontrolními mechanismy
-
Ladění po incidentu
-
Vylepšené detekce
-
Lepší inventarizace aktiv (věčná bolest)
-
Užší oprávnění
A právě zde umělá inteligence hodně pomáhá: shrnutí výsledků analýzy, mapování mezer v detekci, přeměna poruch v opakovatelná vylepšení.
Skrytá rizika zabezpečení řízeného umělou inteligencí (ano, existuje jich několik) ⚠️
Pokud se intenzivně chystáte zavést umělou inteligenci, musíte si uvědomit následující úskalí:
-
Vynalezená jistota
-
Bezpečnostní týmy potřebují důkazy, ne vyprávění příběhů. Umělá inteligence má ráda vyprávění příběhů. NIST AI RMF 1.0
-
-
Únik dat
-
Výzvy mohou omylem obsahovat citlivé údaje. Pokud se podíváte pozorně, protokoly jsou plné tajemství. OWASP Top 10 pro aplikace LLM
-
-
Přílišná závislost
-
Lidé se přestávají učit základy, protože kopilot „vždycky ví“... dokud je nepřestane vědět.
-
-
Drift modelu
-
Prostředí se mění. Vzorce útoků se mění. Detekce tiše hnijí. NIST AI RMF 1.0
-
-
Zneužívání ze strany protivníků
-
Útočníci se budou snažit řídit, zmást nebo zneužívat pracovní postupy založené na umělé inteligenci. Pokyny pro vývoj bezpečných systémů s umělou inteligencí (NSA/CISA/NCSC-UK)
-
Je to jako postavit velmi chytrý zámek a pak nechat klíč pod rohožkou. Zámek není jediný problém.
Takže… Může umělá inteligence nahradit kybernetickou bezpečnost: jasná odpověď 🧼
Může umělá inteligence nahradit kybernetickou bezpečnost?
Může nahradit spoustu opakující se práce v rámci kybernetické bezpečnosti. Může urychlit detekci, třídění, analýzu a dokonce i části reakce. Nemůže však plně nahradit celou disciplínu, protože kybernetická bezpečnost není jediný úkol – je to řízení, architektura, lidské chování, vedení incidentů a neustálá adaptace.
Pokud chcete co nejupřímnější záběr (trochu přímočarý, omlouvám se):
-
Umělá inteligence nahrazuje zaneprázdněnost
-
Umělá inteligence vylepšuje dobré týmy
-
Umělá inteligence odhaluje špatné procesy
-
Lidé zůstávají zodpovědní za riziko a realitu
A ano, některé role se posunou. Úkoly na základní úrovni se budou měnit nejrychleji. Objeví se ale i nové úkoly: pracovní postupy bezpečné pro výzvy, validace modelů, inženýrství automatizace zabezpečení, detekční inženýrství s nástroji s podporou umělé inteligence… práce nezmizí, ale mutuje 🧬
Závěrečné poznámky a rychlé shrnutí 🧾✨
Pokud se rozhodujete, co dělat s umělou inteligencí v oblasti bezpečnosti, zde je praktické ponaučení:
-
Využijte umělou inteligenci ke zkrácení času – rychlejší třídění, rychlejší shrnutí, rychlejší korelace.
-
Ponechte si lidi pro úsudek – kontext, kompromisy, vedení, odpovědnost.
-
Předpokládejme, že útočníci také používají umělou inteligenci – navrhuj pro klamání a manipulaci. MITRE ATLAS pro vývoj bezpečných systémů umělé inteligence (NSA/CISA/NCSC-UK)
-
Nekupujte „magie“ – kupujte si pracovní postupy, které měřitelně snižují riziko a namáhavost.
Takže ano, umělá inteligence může nahradit části práce a často to dělá způsoby, které se zpočátku zdají nenápadné. Vítězným tahem je učinit z umělé inteligence svůj pákový efekt, ne svou náhradu.
A pokud se obáváte o svou kariéru – zaměřte se na ty části, se kterými má umělá inteligence potíže: systémové myšlení, vedení incidentů, architektura a to, že budete člověkem, který dokáže rozlišit mezi „zajímavým upozorněním“ a „budeme mít velmi špatný den“. 😄🔐
Často kladené otázky
Může umělá inteligence zcela nahradit týmy kybernetické bezpečnosti?
Umělá inteligence může převzít značnou část práce v oblasti kybernetické bezpečnosti, ale ne celý obor od začátku do konce. Vyniká v opakujících se úkolech s vysokou propustností, jako je shlukování upozornění, detekce anomálií a vytváření shrnutí v prvním kroku. Nenahrazuje však odpovědnost, obchodní kontext a úsudek, když je v sázce hodně. V praxi se týmy usadí v „nepříjemném středu“, kde umělá inteligence zajišťuje rozsah a rychlost, zatímco lidé si ponechávají odpovědnost za následná rozhodnutí.
Kde již umělá inteligence nahrazuje každodenní práci v oblasti systémů zabezpečení (SOC)?
V mnoha SOC (centrálních operačních centrech) již umělá inteligence přebírá časově náročnou práci, jako je třídění, deduplikace a hodnocení upozornění podle pravděpodobného dopadu. Může také urychlit analýzu protokolů tím, že označuje vzorce, které se odchylují od základního chování. Výsledkem není méně incidentů jako mávnutím kouzelného proutku – je to méně hodin strávených broděním se šumem, takže se analytici mohou soustředit na vyšetřování, která jsou důležitá.
Jak nástroje umělé inteligence pomáhají se správou zranitelností a prioritizací oprav?
Umělá inteligence pomáhá posunout správu zranitelností od „příliš mnoho CVE“ k „co bychom měli nejdříve opravit“. Běžný přístup kombinuje signály pravděpodobnosti zneužití (jako je EPSS), seznamy známých zneužití (jako je katalog KEV od CISA) a kontext vašeho prostředí (internetová expozice a kritičnost aktiv). Pokud se to provede dobře, snižuje se tím počet dohadů a podporuje se opravování bez narušení provozu.
Co dělá z umělé inteligence v kybernetické bezpečnosti „dobrou“ umělou inteligenci oproti hlučné umělé inteligenci?
Dobrá umělá inteligence v kybernetické bezpečnosti snižuje šum, spíše než aby produkovala sebevědomě znějící zmatek. Nabízí praktické vysvětlení – konkrétní vodítka, jako je to, co se změnilo, co bylo pozorováno a proč je to důležité – namísto dlouhých, vágních popisů. Integruje se také s klíčovými systémy (IAM, koncové body, cloud, ticketing) a podporuje lidské přepsání, takže analytici mohou v případě potřeby provést opravu, doladění nebo ignorování.
Které části kybernetické bezpečnosti má umělá inteligence problém nahradit?
Umělá inteligence se nejvíce potýká se sociotechnickou prací: ochotou riskovat, řízením incidentů a koordinací mezi týmy. Během incidentů se práce často stává komunikací, nakládáním s důkazy, právními záležitostmi a rozhodováním v nejistotě – tedy oblastmi, kde vedení převyšuje porovnávání vzorů. Umělá inteligence může pomoci se shrnutím protokolů nebo návrhem časových harmonogramů, ale spolehlivě nenahradí odpovědnost pod tlakem.
Jak útočníci využívají umělou inteligenci a mění to práci obránce?
Útočníci využívají umělou inteligenci k rozšíření phishingu, generování přesvědčivějšího sociálního inženýrství a rychlejšímu iteraci variant malwaru. To mění pravidla hry: obránci, kteří přijímají umělou inteligenci, se časem stávají méně volitelnými. Zároveň to přidává nová rizika, protože útočníci se mohou zaměřit na pracovní postupy umělé inteligence prostřednictvím okamžité injekce, pokusů o otravu nebo vyhýbání se útokům – to znamená, že i systémy umělé inteligence potřebují bezpečnostní kontroly, nikoli slepou důvěru.
Jaká jsou největší rizika spoléhání se na umělou inteligenci pro bezpečnostní rozhodnutí?
Velkým rizikem je vymyšlená jistota: UI může znít sebejistě, i když se mýlí, a jistota není kontrolní mechanismus. Únik dat je dalším častým úskalím – bezpečnostní výzvy mohou neúmyslně obsahovat citlivé detaily a protokoly často obsahují tajné informace. Přílišné spoléhání se může také narušit základy, zatímco drift modelu nenápadně snižuje detekci, jakmile se mění prostředí a chování útočníka.
Jaký je realistický operační model pro využití umělé inteligence v kybernetické bezpečnosti?
Praktický model vypadá takto: použití umělé inteligence ke snížení námahy, zachování lidského potenciálu pro ověřování a rozhodování a automatizace pouze bezpečných věcí. Umělá inteligence je silná pro shrnutí obohacení, tvorbu tiketů, kontrolní seznamy důkazů a porovnávání „co se změnilo“. Automatizace se nejlépe hodí pro vysoce spolehlivé akce, jako je blokování známých škodlivých domén nebo resetování přihlašovacích údajů po ověřeném kompromitování, s ochrannými opatřeními, která zabraňují překročení limitu.
Nahradí umělá inteligence základní role v kybernetické bezpečnosti a jaké dovednosti se stanou cennějšími?
Nejrychleji se pravděpodobně mění objem úkolů na základní úrovni, protože umělá inteligence dokáže absorbovat opakující se třídění, sumarizaci a klasifikaci. Objevují se však i nové úkoly, jako je vytváření pracovních postupů bezpečných pro promptní zpracování, ověřování výstupů modelů a automatizace inženýrských bezpečnostních prvků. Kariérní odolnost obvykle pramení z dovedností, se kterými má umělá inteligence potíže: systémové myšlení, architektura, vedení incidentů a převod technických signálů do obchodních rozhodnutí.
Reference
-
PRVNÍ - EPSS (PRVNÍ) - first.org
-
Agentura pro kybernetickou bezpečnost a bezpečnost infrastruktury (CISA) - Katalog známých zneužitých zranitelností - cisa.gov
-
Národní institut pro standardy a technologie (NIST) - SP 800-40 Rev. 4 (Správa podnikových oprav) - csrc.nist.gov
-
Národní institut pro standardy a technologie (NIST) - AI RMF 1.0 - nvlpubs.nist.gov
-
OWASP - LLM01: Prompt Injection - genai.owasp.org
-
Vláda Spojeného království - Kodex postupů pro kybernetickou bezpečnost umělé inteligence - gov.uk
-
Národní institut pro standardy a technologie (NIST) - SP 800-61 (Průvodce řešením incidentů) - csrc.nist.gov
-
Federální úřad pro vyšetřování (FBI) - FBI varuje před rostoucí hrozbou kyberzločinců využívajících umělou inteligenci - fbi.gov
-
Centrum pro stížnosti FBI na internetovou kriminalitu (IC3) - IC3 PSA o generativních podvodech/phishingu s využitím umělé inteligence - ic3.gov
-
OpenAI - Zprávy o hrozbách OpenAI (příklady zneužití) - openai.com
-
Europol - „Zpráva o ChatGPT“ Europolu (přehled zneužití) - europol.europa.eu
-
MITRE - ATLAS MITRE - mitre.org
-
OWASP - OWASP Top 10 pro přihlášky do LLM - owasp.org
-
Národní bezpečnostní agentura (NSA) – Pokyny pro zabezpečení vývoje systémů umělé inteligence (NSA/CISA/NCSC-UK a partneři) – nsa.gov
-
Microsoft Learn – Přehled Microsoft Sentinel – learn.microsoft.com
-
Splunk - Splunk Enterprise Security - splunk.com
-
Google Cloud – Bezpečnostní operace Google – cloud.google.com
-
CrowdStrike - platforma CrowdStrike Falcon - crowdstrike.com
-
Microsoft Learn – Microsoft Defender pro koncové body – learn.microsoft.com
-
Palo Alto Networks - Cortex XSOAR - paloaltonetworks.com
-
Wiz - Platforma Wiz - wiz.io
-
Snyk - Platforma Snyk - snyk.io