Генеративті AI құралдарын пайдаланып қауіптерді талдайтын киберқауіпсіздік сарапшысы.

Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін?

Кіріспе

Генеративті AI – жаңа мазмұнды немесе болжамдарды жасауға қабілетті жасанды интеллект жүйелері – киберқауіпсіздікті өзгертуші күш ретінде пайда болуда. OpenAI GPT-4 сияқты құралдар күрделі деректерді талдау және адамға ұқсас мәтін жасау мүмкіндігін көрсетті, бұл киберқауіптерден қорғаудың жаңа тәсілдеріне мүмкіндік берді. Киберқауіпсіздік мамандары мен барлық салалардағы бизнес-шешім қабылдаушылар генеративті AI дамып келе жатқан шабуылдарға қарсы қорғанысты қалай нығайта алатынын зерттеп жатыр. Қаржы мен денсаулық сақтаудан бастап бөлшек сауда мен үкіметке дейін әр сектордағы ұйымдар күрделі фишинг әрекеттеріне, зиянды бағдарламаларға және генеративті AI қарсы тұруға көмектесетін басқа қауіптерге тап болады. Бұл ақ қағазда біз генеративті AI-ны киберқауіпсіздікте қалай қолдануға болатынын , бұл нақты әлемдегі қолданбаларды, болашақ мүмкіндіктерді және қабылдауға қатысты маңызды ойларды көрсетеді.

Генеративті AI дәстүрлі аналитикалық AI-дан тек үлгілерді анықтап қана қоймай, сонымен қатар жасау - қорғанысты жаттықтыру үшін шабуылдарды имитациялау немесе күрделі қауіпсіздік деректері үшін табиғи тілде түсініктемелер жасау. Бұл қос қабілет оны екі жүзді қылышқа айналдырады: ол қуатты жаңа қорғаныс құралдарын ұсынады, бірақ қауіп-қатер субъектілері де оны пайдалана алады. Келесі бөлімдер фишингті анықтауды автоматтандырудан инциденттерге жауап беруді жақсартуға дейін киберқауіпсіздікте генеративті AI үшін пайдалану жағдайларының кең ауқымын зерттейді. Біз сондай-ақ ұйымдар басқаруы тиіс тәуекелдермен (мысалы, AI «галлюцинациялары» немесе қарсыластардың теріс пайдалануы) осы AI инновациялары уәде ететін артықшылықтарды талқылаймыз. Соңында, біз бизнеске генеративті AI-ны киберқауіпсіздік стратегияларына бағалауға және жауапкершілікпен біріктіруге көмектесетін практикалық ұсыныстар береміз.

Киберқауіпсіздіктегі генеративті AI: шолу

Киберқауіпсіздіктегі генеративті AI қауіпсіздік тапсырмаларына көмектесу үшін түсініктерді, ұсыныстарды, кодты немесе тіпті синтетикалық деректерді жасай алатын AI үлгілеріне жатады - көбінесе үлкен тіл үлгілері немесе басқа нейрондық желілер. Таза болжамды үлгілерден айырмашылығы, генеративті AI сценарийлерді имитациялай алады және оқу деректері негізінде адам оқи алатын нәтижелерді (мысалы, есептер, ескертулер немесе тіпті зиянды код үлгілері) жасай алады. болжау, анықтау және оларға жауап беру үшін бұрынғыдан анағұрлым динамикалық жолдармен қолданылуда Киберқауіпсіздікте генеративті AI дегеніміз не? - Palo Alto Networks ). Мысалы, генеративті модельдер ауқымды журналдарды немесе қауіп барлау репозиторийлерін талдай алады және қауіпсіздік топтарындағы AI «көмекшісі» іспетті іс жүзінде жұмыс істейтін қысқаша қорытындыны немесе ұсынылған әрекетті жасай алады.

Киберқорғаныс үшін генеративті AI-ны ертерек енгізу уәде берді. 2023 жылы Microsoft корпорациясы бұзушылықтарды анықтауға және Microsoft күнделікті өңдейтін 65 триллион сигналды електен өткізуге көмектесу үшін қауіпсіздік сарапшыларына арналған GPT-4 арқылы жұмыс істейтін Security Copilot Microsoft Security Copilot — киберқауіпсіздікке арналған жаңа GPT-4 AI көмекшісі | The Verge ). Сарапшылар бұл жүйені табиғи тілде шақыра алады (мысалы, «Соңғы 24 сағаттағы барлық қауіпсіздік оқиғаларын қорытындылау» ) және екінші ұшқыш пайдалы баяндау қорытындысын шығарады. Сол сияқты, Google-дың Threat Intelligence AI жүйесі Google-дың ауқымды қауіп-қатер деректер базасы арқылы сөйлесу арқылы іздеуді қосу үшін Gemini деп аталатын генеративті модельді пайдаланады Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Бұл мысалдар әлеуетті көрсетеді: генеративті AI күрделі, ауқымды киберқауіпсіздік деректерін қорыта алады және түсініктерді қол жетімді пішінде ұсына алады, бұл шешім қабылдауды жылдамдатады.

Сонымен қатар, генеративті AI жоғары шынайы жалған мазмұнды жасай алады, бұл модельдеу және оқыту үшін (және, өкінішке орай, әлеуметтік инженериямен айналысатын шабуылдаушылар үшін) пайдалы. синтездеу және талдау қабілеті оның көптеген киберқауіпсіздік қолданбаларына негізделетінін көреміз . Төменде біз фишингтің алдын алудан бастап қауіпсіз бағдарламалық жасақтаманы әзірлеуге дейін, олардың әрқайсысының салаларда қалай қолданылып жатқанын мысалдармен қамтитын негізгі пайдалану жағдайларына тоқталамыз.

Киберқауіпсіздіктегі генеративті AI негізгі қолданбалары

Сурет: Киберқауіпсіздікте генеративті AI үшін негізгі пайдалану жағдайлары қауіпсіздік топтарына арналған AI қосалқы пилоттары, код осалдығын талдау, бейімді қауіпті анықтау, нөлдік күндік шабуылды модельдеу, жақсартылған биометриялық қауіпсіздік және фишингті анықтауды қамтиды ( Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ).

Фишингті анықтау және алдын алу

Фишинг ең кең таралған киберқауіптердің бірі болып қала береді, ол пайдаланушыларды зиянды сілтемелерді басуға немесе тіркелгі деректерін жария етуге алдайды. фишинг әрекеттерін анықтау үшін қолданылады . Қорғаныс жағынан, AI үлгілері ережеге негізделген сүзгілер жіберіп алуы мүмкін фишингтің нәзік белгілерін анықтау үшін электрондық пошта мазмұнын және жіберушінің әрекетін талдай алады. Заңды және жалған электрондық пошталардың үлкен деректер жиынынан үйрене отырып, генеративті модель алаяқтықты көрсететін тон, сөз немесе контексттегі ауытқуларды белгілей алады, тіпті грамматика мен емле оны енді бермесе де. Шын мәнінде, Palo Alto Networks зерттеушілері генеративті AI «анықталмай қалуы мүмкін фишингтік электрондық пошталардың нәзік белгілерін» анықтай алатынын атап өтті, бұл ұйымдарға алаяқтардан бір қадам алда тұруға көмектеседі ( Киберқауіпсіздікте генеративті AI дегеніміз не? - Palo Alto Networks ).

фишингтік шабуылдарды модельдеу үшін генеративті AI пайдаланады . Мысалы, Ironscales ұйым қызметкерлеріне бейімделген жалған фишингтік электрондық пошталарды автоматты түрде жасайтын GPT негізіндегі фишингтік модельдеу құралын ұсынды ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Бұл AI әзірлеген электрондық пошталар шабуылдаушының соңғы тактикасын көрсетеді, бұл қызметкерлерге фишингтік мазмұнды анықтауда шынайы тәжірибе береді. Мұндай жекелендірілген жаттығулар өте маңызды, өйткені шабуылдаушылардың өздері сенімдірек алғышарттар жасау үшін AI қабылдайды. Айта кету керек, генеративті AI өте жылтыратылған фишингтік хабарламаларды шығара алатын болса да (оңай анықталатын ағылшын тілінің күндері өтті), қорғаушылар AI жеңілмейтінін анықтады. 2024 жылы IBM Security зерттеушілері адам жазған фишингтік электрондық пошталарды AI жасаған электрондық пошталармен салыстыратын эксперимент жүргізді және «бір таңқаларлығы, AI арқылы жасалған электрондық пошталар олардың дұрыс грамматикасына қарамастан әлі де оңай табылды» ( Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ). Бұл AI көмегімен анықтаумен біріктірілген адамның интуициясы әлі де AI жазылған алаяқтықтағы нәзік сәйкессіздіктерді немесе метадеректер сигналдарын тани алатынын көрсетеді.

Генеративті AI фишингтен қорғауға басқа жолдармен де көмектеседі. автоматты жауаптарды немесе күдікті электрондық хаттарды тексеретін жасау үшін пайдалануға болады Мысалы, AI жүйесі жіберушінің заңдылығын тексеру үшін белгілі бір сұраулары бар электрондық поштаға жауап бере алады немесе құмсалғыштағы электрондық поштаның сілтемелері мен тіркемелерін талдау үшін LLM пайдалана алады, содан кейін кез келген зиянды ниетті қорытындылай алады. Morpheus қауіпсіздік платформасы осы аренада AI күшін көрсетеді – ол электрондық хаттарды жылдам талдау және жіктеу үшін генеративті NLP үлгілерін пайдаланады және дәстүрлі қауіпсіздік құралдарымен салыстырғанда 21% Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ). Morpheus тіпті әдеттен тыс әрекетті анықтау үшін (мысалы, пайдаланушы кенеттен көптеген сыртқы мекенжайларға электрондық пошта жіберу) пайдаланушының байланыс үлгілерін профильдейді, бұл фишингтік электрондық пошталарды жіберетін бұзылған тіркелгіні көрсетуі мүмкін.

Іс жүзінде барлық салалардағы компаниялар әлеуметтік инженерлік шабуылдар үшін электрондық поштаны және веб-трафикті сүзу үшін AI-ға сене бастады. Қаржылық фирмалар, мысалы, сым алаяқтыққа әкелуі мүмкін еліктеу әрекеттеріне байланысты сканерлеу үшін генеративті AI пайдаланады, ал денсаулық сақтау провайдерлері емделуші деректерін фишингке қатысты бұзушылықтардан қорғау үшін AI қолданады. Шынайы фишинг сценарийлерін жасау және зиянды хабарлардың белгілерін анықтау арқылы генеративті AI фишингтің алдын алу стратегияларына қуатты қабат қосады. Алып кету: тезірек және дәлірек анықтауға және қарусыздандыруға көмектеседі

Зиянды бағдарламаны анықтау және қауіпті талдау

Заманауи зиянды бағдарлама үнемі дамып келеді – шабуылдаушылар жаңа нұсқаларды жасайды немесе антивирустық қолтаңбаларды айналып өту үшін кодты жасырады. Генеративті AI зиянды бағдарламаны анықтауға және оның әрекетін түсінуге арналған жаңа әдістерді ұсынады. Бір тәсіл зиянды бағдарламаның «зұлым егіздерін» жасау : қауіпсіздік зерттеушілері зиянды бағдарламаның көптеген мутацияланған нұсқаларын жасау үшін белгілі зиянды бағдарлама үлгісін генеративті үлгіге бере алады. Осылайша, олар шабуылдаушы жасай алатын түзетулерді тиімді болжайды. Бұл AI-генерацияланған нұсқаларды одан кейін вирусқа қарсы және шабуылды анықтау жүйелерін үйрету үшін пайдалануға болады, осылайша тіпті зиянды бағдарламаның модификацияланған нұсқалары табиғатта танылады ( Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ). Бұл проактивті стратегия циклды бұзуға көмектеседі, онда хакерлер анықтаудан жалтару үшін зиянды бағдарламаларын аздап өзгертеді және қорғаушылар әр жолы жаңа қолтаңбалар жазуға тырысуы керек. Бір салалық подкастта атап өтілгендей, қауіпсіздік сарапшылары қазір «желілік трафикті модельдеу және күрделі шабуылдарға ұқсайтын зиянды пайдалы жүктемелерді жасау» үшін генеративті AI пайдаланады, бұл олардың қорғанысын бір данаға емес, бүкіл қауіп тобына қарсы стресс-тестілеу. Бұл бейімделген қауіпті анықтау қауіпсіздік құралдары әйтпесе өтіп кететін полиморфты зиянды бағдарламаға төзімдірек болады дегенді білдіреді.

зиянды бағдарламаларды талдауға және кері инженерияға көмектеседі , бұл әдетте қауіп-қатер талдаушылары үшін көп еңбекті қажет ететін тапсырмалар. Үлкен тілдік үлгілерге күдікті кодты немесе сценарийлерді тексеру және кодтың не істеуге арналғанын қарапайым тілде түсіндіру тапсырылуы мүмкін. Нақты әлемдегі мысал VirusTotal Code Insight , бұл Google компаниясының VirusTotal мүмкіндігі, ол ықтимал зиянды кодтың табиғи тілдегі қорытындыларын жасау үшін генеративті AI моделін (Google Sec-PaLM) пайдаланады ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Бұл негізінен «қауіпсіздікті кодтауға арналған ChatGPT түрі», ол адам талдаушыларына қауіптерді түсінуге көмектесу үшін тәулік бойы жұмыс істейтін AI зиянды бағдарламалық құралының талдаушысы ретінде әрекет етеді ( Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ). Қауіпсіздік тобының мүшесі бейтаныс сценарийді немесе екілік кодты тексерудің орнына AI-дан дереу түсініктеме ала алады - мысалы, «Бұл сценарий XYZ серверінен файлды жүктеп алуға тырысады, содан кейін зиянды бағдарлама әрекетін көрсететін жүйе параметрлерін өзгертуге тырысады». Бұл оқиғаға жауап беруді айтарлықтай жылдамдатады, өйткені сарапшылар жаңа зиянды бағдарламаны бұрыннан да тезірек тексеріп, түсіне алады.

жаппай деректер жиынындағы зиянды бағдарламаларды анықтау үшін қолданылады . Дәстүрлі антивирус қозғалтқыштары файлдарды белгілі қолтаңбалар үшін сканерлейді, бірақ генеративті үлгі файлдың сипаттамаларын бағалай алады және тіпті үйренген үлгілер негізінде оның зиянды екенін болжайды. Миллиардтаған файлдардың (зиянды және зиянсыз) атрибуттарын талдау арқылы AI айқын қолтаңба жоқ жерде зиянды ниетті ұстай алады. Мысалы, генеративті үлгі орындалатын файлды күдікті деп белгілей алады, себебі оның мінез-құлық профилі екілік жаңа болса да, жаттығу кезінде көрген төлемдік бағдарламалық құралдың шамалы өзгеруіне ұқсайды . Бұл мінез-құлыққа негізделген анықтау жаңа немесе нөлдік күндік зиянды бағдарламаға қарсы тұруға көмектеседі. Google компаниясының Threat Intelligence AI (Chronicle/Mandiant бөлігі) ықтимал зиянды кодты талдау және «қауіпсіздік мамандарына зиянды бағдарламалармен және басқа қауіп түрлерімен күресуде тиімдірек және тиімдірек көмек көрсету» үшін өзінің генеративті моделін пайдаланады деп хабарланған. ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалдары ).

Екінші жағынан, біз шабуылдаушылар өздігінен бейімделетін зиянды бағдарламаны автоматты түрде жасау үшін генеративті AI-ны пайдалана алатынын мойындауымыз керек. Шын мәнінде, қауіпсіздік сарапшылары анықтау қиынырақ зиянды бағдарламаларды жасауға көмектесетінін Киберқауіпсіздікте генеративті AI дегеніміз не? - Palo Alto Networks ). AI моделіне барлық белгілі антивирустық тексерулерден жалтармайынша, зиянды бағдарлама бөлігін қайта-қайта өзгертуге нұсқау беруге болады (оның файл құрылымын, шифрлау әдістерін және т.б. өзгерту). Бұл қарама-қайшылықты пайдалану өсіп келе жатқан алаңдаушылық тудырады (кейде «AI-мен жұмыс істейтін зиянды бағдарлама» немесе қызмет ретінде полиморфты зиянды бағдарлама деп аталады). Біз мұндай тәуекелдерді кейінірек талқылайтын боламыз, бірақ ол генеративті AI бұл мысық пен тышқан ойынындағы қорғаушылар да, шабуылдаушылар да пайдаланатын құрал екенін баса көрсетеді.

шабуылдаушы сияқты ойлауға мүмкіндік беру арқылы зиянды бағдарламаның қорғанысын жақсартады - жаңа қауіптер мен шешімдерді өз ішінде генерациялайды. Анықтау жылдамдығын жақсарту үшін синтетикалық зиянды бағдарламаларды шығару немесе желілерде табылған нақты зиянды бағдарламаны түсіндіру және қамту үшін AI пайдалану болсын, бұл әдістер барлық салаларда қолданылады. Банк электрондық кестедегі күдікті макросты жылдам талдау үшін AI басқаратын зиянды бағдарлама талдауын пайдалана алады, ал өндіруші фирма өнеркәсіптік басқару жүйелеріне бағытталған зиянды бағдарламаны анықтау үшін AI-ға сенуі мүмкін. Генеративті AI көмегімен дәстүрлі зиянды бағдарламаларды талдауды кеңейту арқылы ұйымдар зиянды бағдарлама науқандарына бұрынғыға қарағанда тезірек және белсенді түрде жауап бере алады.

Қауіпті барлау және автоматтандыру талдауы

Күн сайын ұйымдар қауіп-қатер барлау деректерімен бомбаланады – жаңадан ашылған ымыраға келу көрсеткіштерінің арналарынан (IOCs) жаңадан пайда болған хакерлер тактикасы туралы талдаушылардың есептеріне дейін. Қауіпсіздік топтарына қойылатын міндет – ақпараттың осы тасқынын сүзіп алу және іске асырылатын түсініктерді алу. қауіп барлауын талдау мен тұтынуды автоматтандыруда баға жетпес құндылығын дәлелдейді . Ондаған есептерді немесе дерекқор жазбаларын қолмен оқудың орнына, сарапшылар компьютер жылдамдығында қауіпті Intel мәліметтерін қорытындылау және контексттеу үшін AI қолдана алады.

Нақты мысалдардың бірі - Google компаниясының Threat Intelligence жиынтығы, ол генеративті AI (Gemini моделі) мен Google компаниясының Mandiant және VirusTotal қауіп деректерімен біріктіреді. Бұл AI пайдаланушыларға қауіптер туралы табиғи сұрақтар қоюға және нақты жауаптар алуға мүмкіндік беретін «Google-дың қауіп-қатер барлауының кең репозиторийінде сұхбаттық іздеуді» Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Мысалы, талдаушы: «Біз X Threat Group-қа қатысты біздің салаға бағытталған зиянды бағдарламаны көрдік пе?» Деп және AI тиісті интеллектті тартады, мүмкін «Иә, X қауіп тобы өткен айда Y зиянды бағдарламалық құралын пайдаланып фишингтік науқанмен байланысты болды» , сонымен бірге зиянды бағдарлама әрекетінің қысқаша мазмұны. Бұл бірнеше құралдарды сұрауды немесе ұзақ есептерді оқуды қажет ететін түсініктерді жинау уақытын күрт қысқартады.

қауіп тенденцияларын корреляциялау және қорытындылай алады . Ол мыңдаған қауіпсіздік блогының жазбаларын, бұзылған жаңалықтарды және қараңғы интернеттегі әңгімелерді қарап шығуы мүмкін, содан кейін CISO брифингіне арналған «осы аптадағы басты киберқауіптердің» қысқаша мазмұнын жасауы мүмкін. Дәстүр бойынша, талдау мен есеп берудің бұл деңгейі адамның айтарлықтай күш-жігерін талап етті; енді жақсы бапталған модель оны секундтарда жасай алады, адамдар тек нәтижені нақтылайды. зиянды мазмұнды және фишингтік деректерді қоса алғанда , «үлкен деректер жиынтығы бойынша интеллект талдауын және қорытындылауын жеделдету» үшін арнайы әзірленген генеративті AI құралын FoxGPT әзірледі Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Мәліметтерді оқуды және айқас сілтеме жасауды автоматтандыру арқылы AI қауіп төндіретін Intel топтарына шешім қабылдауға және жауап беруге назар аударуға мүмкіндік береді.

Тағы бір қолдану жағдайы - әңгімелесу арқылы қауіп төндіретін аңшылық . Қауіпсіздік талдаушысы AI көмекшісімен өзара әрекеттесетінін елестетіп көріңіз: «Маған соңғы 48 сағатта деректер эксфильтрациясының белгілерін көрсетіңіз» немесе «Осы аптада шабуылдаушылар қандай жаңа осалдықтарды пайдаланады?» AI сұрауды түсіндіре алады, ішкі журналдарды немесе сыртқы Intel көздерін іздей алады және нақты жауаппен немесе тіпті тиісті оқиғалардың тізімін бере алады. Бұл алыс емес – қазіргі заманғы қауіпсіздік ақпараты және оқиғаларды басқару (SIEM) жүйелері табиғи тілдегі сұрауларды қоса бастады. Мысалы, IBM компаниясының QRadar қауіпсіздік жинағы 2024 жылы генеративті AI мүмкіндіктерін қосады . Ол сондай-ақ «қауіптердің маңызды ақпаратын интерпретациялай және қорытындылай алады» ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Негізінде, генеративті AI сұраныс бойынша техникалық деректердің тауларын чат өлшеміндегі түсініктерге айналдырады.

Барлық салаларда мұның үлкен салдары бар. Медициналық провайдер аналитикті толық уақытты зерттеуге арнамай-ақ, ауруханаларға бағытталған соңғы төлемдік бағдарламалық қамтамасыз ету топтары туралы хабардар болу үшін AI пайдалана алады. Бөлшек сауда компаниясының SOC компаниясы дүкеннің АТ қызметкерлеріне брифинг бергенде жаңа POS зиянды бағдарламаларының тактикасын жылдам қорытындылай алады. Әртүрлі агенттіктердің қауіп деректері синтезделуі керек үкіметте AI негізгі ескертулерді көрсететін бірыңғай есептерді шығара алады. Қауіп туралы ақпаратты жинауды және түсіндіруді автоматтандыру арқылы генеративті AI ұйымдарға пайда болатын қауіптерге жылдам әрекет етуге көмектеседі және шудың ішінде жасырылған маңызды ескертулерді жіберіп алу қаупін азайтады.

Қауіпсіздік операциялары орталығын (SOC) оңтайландыру

Қауіпсіздік операциялары орталықтары ескертулердің шаршауымен және деректердің ұсақтау көлемімен танымал. Әдеттегі SOC талдаушысы ықтимал оқиғаларды зерттей отырып, күн сайын мыңдаған ескертулер мен оқиғалардан өтуі мүмкін. Генеративті AI күнделікті жұмысты автоматтандыру, ақылды қорытындыларды беру және тіпті кейбір жауаптарды ұйымдастыру арқылы SOC-те күш көбейткіші ретінде әрекет етеді. Мақсат - адам талдаушылары ең маңызды мәселелерге назар аудара алатындай етіп SOC жұмыс процестерін оңтайландыру, ал қалғандарын AI екінші пилоты басқарады.

Негізгі қолданбалардың бірі генеративті AI-ны «Аналитиктің қосалқы ұшқышы» . Бұған мысал ретінде Microsoft корпорациясының Қауіпсіздік Копилотының жоғарыда атап өтілгені келтірілген: ол «оны ауыстыруға емес, қауіпсіздік талдаушысының жұмысына көмектесуге арналған» және оқиғаларды зерттеуге және есеп беруге көмектеседі ( Microsoft Security Copilot — киберқауіпсіздікке арналған жаңа GPT-4 AI көмекшісі | The Verge ). Іс жүзінде бұл аналитиктің бастапқы деректерді – брандмауэр журналдарын, оқиғаның хронологиясын немесе оқиғаның сипаттамасын – енгізіп, AI-дан оны талдауын немесе қорытындылауын сұрай алатынын білдіреді. Қосалқы ұшқыш : «Сағат 2:35-те IP X серверінен күдікті логин Y серверінде сәтті болған сияқты, содан кейін бұл сервердің ықтимал бұзылуын көрсететін әдеттен тыс деректер тасымалдаулары орын алған сияқты» сияқты баяндауы мүмкін. Мұндай жедел контекстуализация уақыт маңызды болған кезде баға жетпес.

AI қосалқы ұшқыштары сонымен қатар 1-деңгейдегі триаж жүктемесін азайтуға көмектеседі. Салалық деректерге сәйкес, қауіпсіздік тобы аптасына 15 сағатты 22 000-ға жуық ескертулер мен жалған позитивтерді сұрыптауға жұмсай алады ( Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ). Генеративті AI көмегімен бұл ескертулердің көпшілігін автоматты түрде триаждауға болады – AI анық жақсы (дәлелдемелер берілген) ескертулерді жоққа шығара алады және шынымен назар аударуды қажет ететіндерді ерекшелей алады, кейде тіпті басымдылықты ұсынады. Шын мәнінде, генеративті AI-ның контекстті түсінудегі күші оның оқшауланғанда зиянсыз болып көрінуі мүмкін, бірақ бірге көп сатылы шабуылды көрсететін ескертулерді өзара байланыстыра алатындығын білдіреді. Бұл «ескертудің шаршауына» байланысты шабуылды өткізіп алу мүмкіндігін азайтады.

SOC сарапшылары аң аулау мен тергеуді жылдамдату үшін AI-мен табиғи тілді де пайдаланады. SentinelOne компаниясының Purple AI платформасы LLM негізіндегі интерфейсті нақты уақыттағы қауіпсіздік деректерімен біріктіреді, бұл талдаушыларға «қарапайым ағылшын тілінде қауіп-қатерге қарсы күрделі сұрақтар қоюға және жылдам, дәл жауаптар алуға» ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Сарапшы: «Соңғы айда badguy123[.]com доменімен соңғы нүктелер байланысқан ба?» , және Күлгін AI жауап беру үшін журналдар арқылы іздейді. Бұл талдаушыны дерекқор сұрауларын немесе сценарийлерін жазудан сақтайды - AI оны қақпақтың астында жасайды. Бұл сонымен қатар кіші сарапшылар бұрын сұрау тілдерін меңгерген тәжірибелі инженерді талап ететін тапсырмаларды орындай алады, бұл AI көмегімен команданы тиімді түрде жоғарылатады . Шынында да, сарапшылар генеративті AI нұсқауы «олардың дағдылары мен біліктілігін арттырады» , өйткені кіші қызметкерлер енді AI-дан сұраныс бойынша кодтау бойынша қолдау немесе талдау бойынша кеңестер ала алады, бұл әрқашан аға топ мүшелерінен көмек сұрауға тәуелділікті азайтады ( Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайлары [+ Мысалдар] ).

Басқа SOC оңтайландыру - автоматтандырылған оқиғаларды қорытындылау және құжаттау . Оқиғаны шешкеннен кейін біреу есеп жазуы керек – бұл тапсырма көбіне жалықтырады. Генеративті AI сот-медициналық деректерді (жүйе журналдары, зиянды бағдарламаларды талдау, әрекеттердің хронологиясы) қабылдай алады және оқиғаның бірінші жобасын жасай алады. «бір рет басу» әртүрлі мүдделі тараптар (басшылар, АТ топтары және т.б.) үшін оқиғаның қысқаша мазмұнын жасау үшін құруда Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Бұл уақытты үнемдеп қана қоймайды, сонымен қатар есепте ешнәрсенің назардан тыс қалмауын қамтамасыз етеді, өйткені AI барлық тиісті мәліметтерді дәйекті түрде қамтуы мүмкін. Сол сияқты, сәйкестік пен аудит үшін AI оқиға деректеріне негізделген пішіндерді немесе дәлелдер кестелерін толтыра алады.

Нақты әлемдегі нәтижелер таң қалдырады. Swimlane компаниясының AI негізіндегі SOAR (қауіпсіздікті ұйымдастыру, автоматтандыру және жауап беру) жүйесін ерте қолданушылар өнімділіктің орасан артқанын хабарлайды – мысалы, Global Data Systems SecOps тобының істерді әлдеқайда үлкен жүктемені басқаратынын көрді; «бүгін 7 сарапшымен істейтін жұмысым 20 қызметкерді АИ-мен жұмыс істейтін автоматтандырусыз деді Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін ). Басқаша айтқанда, SOC-тегі AI сыйымдылықты көбейте алады . Бұлтты қауіпсіздік ескертулерімен айналысатын технологиялық компания болсын немесе OT жүйелерін бақылайтын өндірістік зауыт болсын, барлық салаларда SOC командалары генеративті AI көмекшілерін қолдану арқылы жылдамырақ анықтау мен жауап беруге, жіберіп алған оқиғаларды азайтуға және тиімдірек операцияларға қол жеткізеді. Бұл ақылдырақ жұмыс істеу туралы – машиналарға қайталанатын және деректерді қажет ететін тапсырмаларды орындауға мүмкіндік береді, осылайша адамдар өздерінің түйсігі мен тәжірибесін маңызды жерде қолдана алады.

Осалдықты басқару және қауіпті модельдеу

Зиянкестер пайдалана алатын бағдарламалық жасақтамадағы немесе жүйелердегі әлсіздіктерді анықтау және басқару киберқауіпсіздіктің негізгі функциясы болып табылады. Генеративті AI ашуды жеделдету, патчқа басымдық беруге көмектесу және тіпті дайындықты жақсарту үшін осы осалдықтарға шабуылдарды модельдеу арқылы осалдықты басқаруды жақсартады. Негізінде, AI ұйымдарға қару-жарақтарындағы саңылауларды тезірек табуға және жөндеуге және нақты шабуылдаушылар жасамас бұрын қорғанысты белсенді түрде

кодты автоматтандырылған тексеру және осалдықты анықтау үшін генеративті AI пайдалану болып табылады . Үлкен кодтық базалар (әсіресе бұрынғы жүйелер) жиі байқалмайтын қауіпсіздік кемшіліктерін сақтайды. Генеративті AI үлгілерін қауіпсіз кодтау тәжірибелері мен жалпы қате үлгілері бойынша үйретуге болады, содан кейін ықтимал осалдықтарды табу үшін бастапқы кодта немесе құрастырылған екілік файлдарда шығарылады. Мысалы, NVIDIA зерттеушілері бұрынғы бағдарламалық жасақтама контейнерлерін талдайтын және осалдықтарды «жоғары дәлдікпен — адам мамандарына қарағанда 4 есе жылдамырақ» анықтай алатын генеративті AI құбырын әзірледі. ( Киберқауіпсіздіктегі генеративті AI үшін 6 пайдалану жағдайлары [+ Мысалдар] ). AI негізінен қауіпті кодтың қандай екенін білді және қауіпті функциялар мен кітапханаларды белгілеу үшін ондаған жылдар бойы қолданылған бағдарламалық жасақтаманы сканерлей алды, бұл қолмен кодты тексерудің әдетте баяу процесін айтарлықтай жылдамдатады. Бұл құрал үлкен, ескі кодтық базаларға сүйенетін қаржы немесе үкімет сияқты салалар үшін ойын өзгерте алады – AI қызметкерлерге табу үшін айлар немесе жылдар қажет болуы мүмкін мәселелерді зерттеу арқылы қауіпсіздікті жаңғыртуға көмектеседі (егер болса).

Генеративті AI сонымен қатар осалдықты басқарудың жұмыс процестеріне . ExposureAI сияқты құралдар талдаушыларға осалдық деректерін қарапайым тілде сұрауға және жылдам жауап алуға мүмкіндік беру үшін генеративті AI пайдаланады ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). ExposureAI «баяндамадағы шабуылдың толық жолын қорытындылай алады» , шабуылдаушы жүйені бұзу үшін оны басқа әлсіз жақтармен қалай тізбектей алатынын түсіндіре алады. Ол тіпті түзету үшін әрекеттерді ұсынады және тәуекел туралы кейінгі сұрақтарға жауап береді. Бұл жаңа сыни CVE (Жалпы осалдықтар мен әсерлер) жарияланған кезде, талдаушы AI-дан: «Біздің серверлеріміздің кез келгені осы CVE әсерінен зардап шегеді ме және түзету жасамасақ, ең нашар жағдай қандай болады?» Деген және ұйымның жеке сканерлеу деректерінен алынған нақты бағалауды алыңыз. Осалдықтарды контекстке келтіру арқылы (мысалы, бұл интернетте және жоғары құнды серверде, сондықтан бұл бірінші кезектегі міндет), генеративті AI командаларға шектеулі ресурстармен ақылды түрде түзетуге көмектеседі.

Белгілі осалдықтарды табу және басқарумен қатар, генеративті AI енуді тестілеуге және шабуылдарды модельдеуге - негізінен белгісіз осалдықтарды анықтайды немесе қауіпсіздікті басқаруды сынау. Жасырын шабуыл үлгілерін қамтуы мүмкін нақты желілік трафикті немесе пайдаланушы әрекетін имитациялайтын синтетикалық деректерді жасау үшін генеративті AI түрі болып табылатын генеративті қарсылас желілер (GANs) пайдаланылды. 2023 жылғы зерттеу шабуылдарды анықтау жүйелерін үйрету үшін нақты нөл күндік шабуыл трафигін жасау үшін GAN пайдалануды ұсынды ( Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ). IDS-ті AI әзірлеген шабуыл сценарийлерімен (өндірістік желілерде нақты зиянды бағдарламаны пайдалану қаупі жоқ) қамтамасыз ету арқылы ұйымдар шын мәнінде олардың соққысын күтпестен, жаңа қауіптерді тануға өздерінің қорғаныстарын үйрете алады. Сол сияқты, AI шабуылдаушыны жүйені зерттеп имитациялай алады - мысалы, сәтті болғанын көру үшін қауіпсіз ортада әртүрлі эксплуатациялық әдістерді автоматты түрде қолданып көру. АҚШ-тың қорғаныс саласындағы жетілдірілген зерттеу жобалары агенттігі (DARPA) бұл жерде уәде береді: оның 2023 AI Cyber ​​Challenge байқауының бөлігі ретінде «ашық бастапқы бағдарламалық жасақтамадағы осалдықтарды автоматты түрде табу және түзету» DARPA AI қолданбаларын дамытуды мақсат етеді, АҚШ қорғаныс министрлігі > Қорғаныс министрлігі > Қорғаныс министрлігі > Қорғаныс министрлігі Жаңалықтар ). Бұл бастама AI тек белгілі тесіктерді жөндеуге көмектеспейтінін көрсетеді; ол жаңаларын белсенді түрде ашады және түзетулер ұсынады, бұл тапсырма әдетте білікті (және қымбат) қауіпсіздік зерттеушілерімен шектеледі.

қорғаныс үшін интеллектуалды бал құмыралары мен сандық егіздерді жасай алады Стартаптар нақты серверлерді немесе құрылғыларды сенімді түрде эмуляциялайтын AI басқаратын алдау жүйелерін жасауда. Бір бас директор түсіндіргендей, генеративті AI «нақтыға еліктеп, хакерлерді тарту үшін цифрлық жүйелерді клондай алады» ( Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ). Бұл AI-генерацияланған бал ұялары нақты орта сияқты әрекет етеді (мысалы, қалыпты телеметрияны жіберетін жалған IoT құрылғысы), бірақ тек шабуылдаушыларды тарту үшін бар. Шабуылдаушы алдауды нысанаға алған кезде, AI оларды өз әдістерін ашу үшін алдады, содан кейін қорғаушылар нақты жүйелерді нығайту үшін зерттеп, қолдана алады. шабуылдаушыларға кестелерді бұрудың перспективалық жолын ұсынады .

Барлық салаларда осалдықты жылдамырақ және ақылды түрде басқару азырақ бұзушылықтарды білдіреді. Денсаулық сақтау саласында, мысалы, АТ медициналық құрылғыдағы осал ескірген кітапхананы тез байқап, кез келген шабуылдаушы оны пайдаланбас бұрын микробағдарламаны түзетуді сұрай алады. Банктік қызметте AI клиент деректерінің барлық сценарийлерде қауіпсіз болып қалуын қамтамасыз ету үшін жаңа қолданбаға инсайдерлік шабуылды модельдей алады. Осылайша, генеративті AI ұйымдардың қауіпсіздік ұстанымы үшін микроскоп және стресс-тестер рөлін атқарады: ол жасырын кемшіліктерді жарықтандырады және тұрақтылықты қамтамасыз ету үшін қиялды әдістермен жүйелерге қысым жасайды.

Қауіпсіз кодты жасау және бағдарламалық қамтамасыз етуді әзірлеу

Генеративті AI таланттары шабуылдарды анықтаумен ғана шектелмейді, сонымен қатар олар басынан бастап қауіпсіз жүйелерді жасауға . Бағдарламалық жасақтаманы әзірлеуде AI код генераторлары (мысалы, GitHub Copilot, OpenAI Codex және т. Киберқауіпсіздік бұрышы бұл AI ұсынған код бөліктерінің қауіпсіз болуын және кодтау тәжірибесін жақсарту үшін AI пайдалануын қамтамасыз етеді.

Бір жағынан, генеративті AI қауіпсіздіктің ең жақсы тәжірибелерін енгізетін кодтау көмекшісі . «Python-да құпия сөзді қалпына келтіру функциясын жасау» AI құралын сұрай алады және функционалды ғана емес, сонымен қатар қауіпсіз нұсқауларды орындайтын кодты қайтара алады (мысалы, дұрыс енгізуді тексеру, журналға жазу, ақпаратты сыртқа шығармай қателерді өңдеу және т.б.). Қауіпсіз код мысалдары бойынша оқытылған мұндай көмекші осалдықтарға әкелетін адам қателерін азайтуға көмектеседі. Мысалы, егер әзірлеуші ​​​​пайдаланушы енгізуін тазартуды ұмытып кетсе (SQL инъекциясының есігін ашу немесе ұқсас мәселелер), AI әдепкі бойынша оны қамтуы немесе ескертуі мүмкін. Кейбір AI кодтау құралдары дәл осы мақсатқа қызмет ету үшін қауіпсіздікке бағытталған деректермен дәл реттелуде - негізінен, қауіпсіздік санасымен AI жұптық бағдарламалау .

Дегенмен, екінші жағы бар: генеративті AI дұрыс басқарылмаса, осалдықтарды оңай енгізе алады. Sophos қауіпсіздік сарапшысы Бен Вершарен атап өткендей, кодтау үшін генеративті AI пайдалану өндіріс жүйелеріне біріктірілген кезде қауіпті» Тәуекел мынада: AI логикалық тұрғыдан дұрыс кодты шығаруы мүмкін, оны сарапшы емес адамдар байқамауы мүмкін. Сонымен қатар, зиянды актерлар AI қауіпті кодты ұсыну үшін осал код үлгілерімен (деректерді улану нысаны) себу арқылы қоғамдық AI үлгілеріне әдейі әсер етуі мүмкін. Көптеген әзірлеушілер қауіпсіздік мамандары емес , сондықтан егер AI ыңғайлы шешім ұсынса, олар оның кемшілігі бар екенін түсінбестен, оны соқыр қолдануы мүмкін ( Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ). Бұл алаңдаушылық шындық – шын мәнінде, қазір LLM (үлкен тіл үлгілері) үшін кодтау үшін AI пайдаланудағы осындай жалпы тәуекелдерді сипаттайтын OWASP Top 10 тізімі бар.

Бұл мәселелерге қарсы тұру үшін сарапшылар кодтау саласында «генеративті АИ-мен генеративті AI-мен күресуді» Іс жүзінде бұл басқа AI (немесе адамдар) жазған кодты қарап шығу және сынау Жасанды интеллект адам кодын қарап шығушыға қарағанда жаңа кодты орындау арқылы жылдам сканерлей алады және ықтимал осалдықтарды немесе логикалық мәселелерді белгілей алады. Біз қазірдің өзінде бағдарламалық жасақтаманы әзірлеудің өмірлік цикліне біріктірілетін құралдарды көріп отырмыз: код жазылады (мүмкін AI көмегімен), содан кейін қауіпсіз код принциптеріне үйретілген генеративті модель оны қарап шығады және кез келген алаңдаушылық туралы есепті жасайды (мысалы, ескірген функцияларды пайдалану, аутентификация тексерулерінің болмауы және т.б.). Жоғарыда айтылған NVIDIA компаниясының кодтағы осалдықты анықтауға 4 есе жылдамырақ қол жеткізген зерттеулері кодты қауіпсіз талдау үшін AI пайдаланудың мысалы болып табылады ( Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ).

қауіпсіз конфигурациялар мен сценарийлерді жасауға көмектесе алады . Мысалы, егер компанияға қауіпсіз бұлттық инфрақұрылымды орналастыру қажет болса, инженер AI-дан қауіпсіздікті басқару элементтерімен (желілерді дұрыс сегменттеу, ең аз артықшылықты IAM рөлдері сияқты) конфигурация сценарийлерін (код ретінде инфрақұрылым) жасауды сұрауы мүмкін. АИ мыңдаған осындай конфигурациялар бойынша оқытылып, содан кейін құрастырушыны баптай алатын бастапқы сызықты жасай алады. Бұл жүйелерді қауіпсіз орнатуды жылдамдатады және қате конфигурациялау қателерін азайтады – бұлттық қауіпсіздік оқиғаларының жалпы көзі.

Кейбір ұйымдар қауіпсіз кодтау үлгілері туралы білім базасын қолдау үшін генеративті AI-ны пайдаланады. Әзірлеуші ​​белгілі бір мүмкіндікті қалай қауіпсіз енгізу керектігін білмесе, олар компанияның бұрынғы жобалары мен қауіпсіздік нұсқауларынан үйренген ішкі AI-ға сұрау жасай алады. AI функционалдық талаптарға және компанияның қауіпсіздік стандарттарына сәйкес келетін ұсынылған тәсілді немесе тіпті код үзіндісін қайтаруы мүмкін. Secureframe's Questionnaire Automation сияқты құралдарда қолданылған , ол дәйекті және дәл жауаптарды қамтамасыз ету үшін (негізі қауіпсіз құжаттаманы жасайды) компанияның саясаттары мен бұрынғы шешімдерінен жауаптар алады ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Тұжырымдама кодтауға аударылады: бұрын бір нәрсені қалай қауіпсіз орындағаныңызды «еске түсіретін» және оны қайтадан осылай жасауға бағыттайтын AI.

Қорытындылай келе, генеративті AI қауіпсіз кодтау көмегін қолжетімді ету . Технология, қаржы, қорғаныс және т.б. көптеген пайдаланушы бағдарламалық жасақтамасын әзірлейтін салалар кодтауды тездетіп қана қоймайды, сонымен қатар қауіпсіздікті сараптайтын шолушы ретінде әрекет ететін AI қосалқы ұшқыштарының болуының пайдасын көреді. Тиісті түрде басқарылған кезде, бұл AI құралдары жаңа осалдықтарды енгізуді азайтады және команданың әр қадамда қауіпсіздік сарапшысы болмаса да, әзірлеу топтарына үздік тәжірибелерді сақтауға көмектеседі. Нәтиже - бірінші күннен бастап шабуылдарға қарсы берік бағдарламалық жасақтама.

Оқиғаға әрекет етуді қолдау

Киберқауіпсіздік оқиғасы болған кезде – зиянды бағдарламаның өршуі, деректердің бұзылуы немесе шабуылдан жүйенің үзілуі – уақыт өте маңызды. инциденттерді тезірек және қосымша ақпаратпен қамту және жою үшін инциденттерге жауап беру (IR) топтарына қолдау көрсету үшін көбірек қолданылады Идея мынада: AI оқиға кезінде кейбір тергеу және құжаттама ауыртпалығын көтере алады, тіпті кейбір жауап әрекеттерін ұсына алады немесе автоматтандырады.

IR-дағы AI-ның негізгі рөлінің бірі - нақты уақыттағы оқиғаларды талдау және қорытындылау . Оқиғаның ортасында жауап берушілерге «Шабуылдаушы қалай кірді?» , «Қандай жүйелер әсер етеді?» , және «Қандай деректер бүлінуі мүмкін?» . Генеративті AI зардап шеккен жүйелерден журналдарды, ескертулерді және криминалистикалық деректерді талдап, жылдам түсінік бере алады. Мысалы, Microsoft Security Copilot оқиғаға жауап берушіге әртүрлі дәлелдемелерді (файлдар, URL мекенжайлары, оқиғалар журналдары) беруге және уақыт шкаласын немесе қорытындыны сұрауға мүмкіндік береді ( Microsoft Security Copilot — киберқауіпсіздікке арналған жаңа GPT-4 AI көмекшісі | The Verge ). Жасанды интеллект келесідей жауап беруі мүмкін: «Бұзушылық GMT сағат 10:53-те JohnDoe пайдаланушысына X зиянды бағдарламасы бар фишингтік электрондық поштадан басталуы мүмкін. Орындалған соң, зиянды бағдарлама екі күннен кейін деректерді жинайтын қаржы серверіне көлденең жылжыту үшін пайдаланылған бэкдорды жасады». Бұл үйлесімді суретті сағаттарда емес, бірнеше минут ішінде алу командаға негізделген шешімдерді (мысалы, қандай жүйелерді оқшаулау керек) тезірек қабылдауға мүмкіндік береді.

Генеративті AI сонымен қатар шектеу және қалпына келтіру әрекеттерін ұсына . Мысалы, егер соңғы нүкте төлемдік бағдарламамен жұқтырылған болса, AI құралы осы құрылғыны оқшаулау, белгілі бір тіркелгілерді өшіру және желіаралық қалқандағы белгілі зиянды IP мекенжайларын блоктау үшін сценарийді немесе нұсқаулар жинағын жасай алады, бұл негізінен ойын кітабының орындалуы. «оқиғаның сипатына негізделген сәйкес әрекеттерді немесе сценарийлерді жасауға» , жауап берудің бастапқы қадамдарын автоматтандыруға қабілетті екенін атап өтеді Киберқауіпсіздікте генеративті AI дегеніміз не? - Palo Alto Networks ). Қауіпсіздік тобы толып кеткен сценарийде (айталық, жүздеген құрылғыларға кең тараған шабуыл), AI бұл әрекеттердің кейбірін алдын ала бекітілген шарттарда тікелей орындауы мүмкін, ол тынымсыз жұмыс істейтін кіші жауап беруші сияқты әрекет етеді. Мысалы, AI агенті бұзылған деп есептейтін тіркелгі деректерін автоматты түрде қалпына келтіре алады немесе оқиға профиліне сәйкес зиянды әрекетті көрсететін хосттарды карантинге жібере алады.

Оқиғаға ден қою кезінде топ ішінде де, мүдделі тараптармен де байланыс өте маңызды. оқиғаны жаңарту есептерін немесе қысқаша шолуларды жасау арқылы көмектесе алады . Электрондық пошта жаңартуын жазу үшін ақауларды жоюды тоқтатқан инженердің орнына олар AI-дан: «Басшыларға хабарлау үшін осы оқиғада не болғанын қорытындылаңыз» деп сұрауы мүмкін. Оқиға деректерін қабылдаған AI қысқаша қорытынды жасай алады: "Сағат 15.00-дегі жағдай бойынша шабуылдаушылар 2 пайдаланушы тіркелгісіне және 5 серверге кірді. Зақымданған деректер X дерекқорындағы клиент жазбаларын қамтиды. Қауіпсіздік шаралары: бұзылған тіркелгілер үшін VPN қатынасы жойылды және серверлер оқшауланды. Келесі қадамдар: кез келген тұрақтылық механизмдерін сканерлеу." Жауап беруші оны жылдам тексере алады немесе өзгерте алады және оны жібере алады, бұл мүдделі тараптардың дәл, соңғы ақпаратпен циклде болуын қамтамасыз етеді.

Шаң басылғаннан кейін әдетте оқиға туралы егжей-тегжейлі есеп дайындалады және жинақталатын сабақтар болады. Бұл AI қолдау көрсететін тағы бір сала. Ол барлық оқиға деректерін қарап шығып, негізгі себеп, хронология, әсер және ұсыныстарды қамтитын оқиғадан кейінгі есепті жасай IBM, мысалы, бір түймені басу арқылы «қауіпсіздік жағдайлары мен мүдделі тараптармен бөлісуге болатын оқиғалардың қарапайым қорытындыларын» Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Әрекеттен кейінгі есеп беруді оңтайландыру арқылы ұйымдар жақсартуларды тезірек енгізе алады және сәйкестік мақсаттары үшін жақсырақ құжаттамаға ие болады.

Инновациялық болашақты қолданудың бірі - AI басқаратын оқиғаларды модельдеу . Өрт сөндіру жаттығуларын қалай жүргізуге болатынына ұқсас, кейбір компаниялар «егер не болады» оқиғасының сценарийлерін орындау үшін генеративті AI пайдаланады. Жасанды интеллект желі орналасуын ескере отырып, төлемдік бағдарламаның қалай таралатынын немесе инсайдер деректерді қалай эксфильтрациялай алатынын модельдей алады, содан кейін ағымдағы жауап беру жоспарларының тиімділігін бағалай алады. Бұл командаларға нақты оқиға орын алмас бұрын ойын кітаптарын дайындауға және нақтылауға көмектеседі. Бұл сіздің дайындығыңызды үнемі сынайтын үнемі жақсарып отыратын оқиғаларға жауап беру кеңесшісіне ие болу сияқты.

Оқиғалар салдарынан тоқтап қалу немесе деректердің жоғалуы әсіресе қымбатқа түсетін қаржы немесе денсаулық сақтау сияқты жоғары тәуекелді салаларда бұл AI басқаратын IR мүмкіндіктері өте тартымды. Кибероқиғаны бастан өткерген аурухана жүйенің ұзаққа созылған үзілістерін көтере алмайды – тез арада оқшаулауға көмектесетін AI өмірді сақтап қалуы мүмкін. Сол сияқты, қаржы институты таңғы сағат 3-те күдікті алаяқтық шабуылының бастапқы триажын өңдеу үшін AI-ды пайдалана алады, осылайша шақыртудағы адамдар желіде болған кезде көптеген негіз жұмысы (зардап шеккен тіркелгілерден шығу, транзакцияларды блоктау және т.б.) қазірдің өзінде аяқталды. Инциденттерге қарсы әрекет ету топтарын генеративті AI көмегімен ұлғайту арқылы ұйымдар жауап беру уақытын айтарлықтай қысқарта алады және оларды өңдеудің мұқияттылығын жақсарта алады, сайып келгенде, кибер инциденттерден келетін зиянды азайтады.

Мінез-құлық талдауы және аномалияны анықтау

Көптеген кибершабуылдарды бірдеңе «қалыпты» мінез-құлықтан ауытқыған кезде байқауға болады – бұл әдеттен тыс деректер көлемін жүктеп алатын пайдаланушы тіркелгісі болсын немесе бейтаныс хостпен кенеттен байланысқан желілік құрылғы болсын. мінез-құлықты талдау мен аномалияларды анықтаудың , пайдаланушылар мен жүйелердің қалыпты үлгілерін үйренудің, содан кейін бірдеңе көрінген кезде белгі қоюдың озық әдістерін ұсынады

Дәстүрлі аномалияны анықтау жиі статистикалық шектерді немесе белгілі бір өлшемдер бойынша қарапайым машиналық оқытуды пайдаланады (CPU пайдалану жиілігі, тақ сағаттарда кіру және т.б.). Генеративті AI мінез-құлықтың неғұрлым нюансты профильдерін жасау арқылы мұны әрі қарай жалғастыра алады. Мысалы, AI моделі уақыт өте келе қызметкердің логиндерін, файлдарға қол жеткізу үлгілерін және электрондық пошта әдеттерін қабылдай алады және сол пайдаланушының «қалыпты» туралы көп өлшемді түсінігін қалыптастырады. Егер бұл тіркелгі кейінірек өз нормасынан мүлдем тыс әрекет жасаса (мысалы, жаңа елден жүйеге кіру және түн ортасында HR файлдарына қол жеткізу), AI тек бір метрика бойынша ғана емес, сонымен қатар пайдаланушы профиліне сәйкес келмейтін жалпы мінез-құлық үлгісі ретінде ауытқуды анықтайды. Техникалық тұрғыдан алғанда, генеративті модельдер (мысалы, автокодерлер немесе реттілік үлгілері) «қалыпты» қалай көрінетінін модельдей алады, содан кейін күтілетін әрекет ауқымын жасай алады. Шындық осы ауқымнан тыс қалғанда, ол аномалия ретінде белгіленеді ( Киберқауіпсіздіктегі генеративті AI дегеніміз не? - Palo Alto Networks ).

желілік трафикті бақылау болып табылады . 2024 жылы жүргізілген сауалнамаға сәйкес, АҚШ ұйымдарының 54%-ы желілік трафикті бақылауды киберқауіпсіздікте AI үшін ең жақсы қолдану жағдайы ретінде атады ( Солтүстік Америка: 2024 ж. Генеративті AI кәсіпорын желісінің қалыпты байланыс үлгілерін біле алады – қай серверлер әдетте бір-бірімен сөйлеседі, жұмыс уақытында және түнде қандай деректер көлемі қозғалады, т.б.. Егер шабуылдаушы анықталмас үшін серверден деректерді эксфильтрациялай бастаса, AI негізіндегі жүйе «Сервер А ешқашан 500 МБ деректерді сыртқы IP-серверге жібермейтінін» және 2:00-де жоғарылататынын байқауы мүмкін. Жасанды интеллект статикалық ережелерді ғана емес, желі әрекетінің дамып келе жатқан үлгісін пайдаланатындықтан, ол статикалық ережелерді («деректер > X МБ болса дабыл» сияқты) жіберіп алуы немесе қате белгілеуі мүмкін нәзік аномалияларды ұстай алады. Бұл бейімделгіш табиғат AI басқаратын аномалияны анықтауды банктік транзакция желілері, бұлттық инфрақұрылым немесе IoT құрылғыларының паркі сияқты орталарда күшті етеді, мұнда қалыпты және қалыпты емес үшін бекітілген ережелерді анықтау өте күрделі.

инсайдерлік қауіптерді немесе бұзылған тіркелгілерді анықтаудың кілті болып табылатын пайдаланушы мінез-құлық талдауына (UBA) көмектеседі Әрбір пайдаланушының немесе нысанның негізін жасау арқылы AI тіркелгі деректерін теріс пайдалану сияқты нәрселерді анықтай алады. Мысалы, бухгалтерлік есеп бойынша Боб кенеттен тұтынушы дерекқорын сұрай бастаса (ол бұрын ешқашан жасамаған нәрсе), Бобтың әрекетіне арналған AI үлгісі мұны әдеттен тыс деп белгілейді. Бұл зиянды бағдарлама болмауы мүмкін – бұл шабуылдаушы Бобтың тіркелгі деректерін ұрлап, пайдаланған немесе Боб ол істемейтін жерлерді тексерген жағдай болуы мүмкін. Қалай болғанда да, қауіпсіздік тобы тергеуге жетекшілік етеді. Мұндай AI басқаратын UBA жүйелері әртүрлі қауіпсіздік өнімдерінде бар және генеративті модельдеу әдістері контекстті ескере отырып, олардың дәлдігін жоғарылатады және жалған дабылдарды азайтады (мүмкін, Боб арнайы жобада болуы мүмкін және т.

Сәйкестендіру және қол жеткізуді басқару саласында терең фейкті анықтау өсіп келе жатқан қажеттілік болып табылады – генеративті AI биометриялық қауіпсіздікті алдайтын синтетикалық дауыстар мен бейнелерді жасай алады. Бір қызығы, генеративті AI адамдарға байқау қиын аудио немесе бейнедегі нәзік артефакттарды талдау арқылы осы терең фейктерді анықтауға көмектеседі. Біз сансыз мимика мен жағдайларды имитациялау үшін генеративті AI қолданатын Accenture үлгісін көрдік, олардың биометриялық жүйелерін нақты қолданушыларды AI арқылы жасалған терең фейктерден ажыратуға үйрету Бес жыл ішінде бұл тәсіл Accenture жүйесіне 90% жүйелерінің құпия сөздерін жоюға (биометрикаға және басқа факторларға көшу) және шабуылдарды 60%-ға азайтуға көмектесті ( Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ). Негізінде, олар биометриялық аутентификацияны күшейту үшін генеративті AI-ны қолданды, бұл оны генеративті шабуылдарға төзімді етеді (AI-мен күресетін AI-ның тамаша көрінісі). Мінез-құлықты модельдеудің бұл түрі – бұл жағдайда адамның тірі тұлғасы мен AI синтезделген бетінің арасындағы айырмашылықты тану – өте маңызды, өйткені біз аутентификацияда AI-ға көбірек сүйенеміз.

Генеративті AI арқылы жұмыс істейтін аномалияны анықтау барлық салаларда қолданылады: денсаулық сақтауда, медициналық құрылғының әрекетін бұзу белгілеріне бақылауда; қаржы саласында алаяқтықты немесе алгоритмдік манипуляцияны көрсетуі мүмкін тұрақты емес үлгілердің сауда жүйелерін бақылау; энергетикада/коммуналдық қызметтерде, басып кіру белгілерін бақылау жүйесінің сигналдарын бақылайды. кеңдік (мінез-құлықтың барлық аспектілерін қарастыру) және тереңдіктің (күрделі үлгілерді түсіну) үйлесімі оны кибер инциденттердің шөптің индикаторларын анықтаудың күшті құралына айналдырады. Қауіптер әдеттегі операциялардың арасында жасырынып, жасырын бола бастағанда, бұл «қалыпты» нақты сипаттау және бірдеңе ауытқыған кезде айқайлау қабілеті маңызды болады. Осылайша, генеративті AI қажымайтын күзетші ретінде қызмет етеді, әрқашан қоршаған ортадағы өзгерістерге ілесу үшін қалыптылық анықтамасын үйренеді және жаңартады және қауіпсіздік топтарын мұқият тексеруді қажет ететін ауытқулар туралы ескертеді.

Киберқауіпсіздіктегі генеративті AI мүмкіндіктері мен артықшылықтары

осы құралдарды қолдануға дайын ұйымдар үшін көптеген мүмкіндіктер мен артықшылықтар Төменде біз генеративті AI-ны киберқауіпсіздік бағдарламаларына тартымды қосымша ететін негізгі артықшылықтарды қорытындылаймыз:

  • Қауіпті тезірек анықтау және әрекет ету: Генеративті AI жүйелері нақты уақытта деректердің үлкен көлемін талдай алады және адамның қолмен талдауына қарағанда қауіптерді тезірек тани алады. Бұл жылдамдық артықшылығы шабуылдарды ертерек анықтауды және оқиғаны тезірек тоқтатуды білдіреді. Іс жүзінде, AI басқаратын қауіпсіздік мониторингі адамдарға өзара әрекеттесу үшін әлдеқайда көп уақыт алатын қауіптерді ұстай алады. Инциденттерге жедел әрекет ету (немесе тіпті бастапқы жауаптарды автономды түрде орындау) арқылы ұйымдар зиянкестердің өз желілерінде болу уақытын күрт қысқартып, зақымдануды азайта алады.

  • Жақсартылған дәлдік және қауіптерді қамту: олар үнемі жаңа деректерден үйренетіндіктен, генеративті үлгілер дамып келе жатқан қауіптерге бейімделіп, зиянды әрекеттің нәзік белгілерін ұстай алады. Бұл статикалық ережелермен салыстырғанда анықтау дәлдігін жақсартуға әкеледі (жалған негативтер мен жалған позитивтер азырақ). Мысалы, фишингтік электрондық поштаның немесе зиянды бағдарлама әрекетінің белгілерін білген AI бұрын ешқашан көрмеген нұсқаларды анықтай алады. Нәтиже – жалпы қауіпсіздік ұстанымын күшейтетін жаңа шабуылдарды қоса алғанда, қауіп түрлерін кеңірек қамту. Қауіпсіздік топтары сонымен қатар AI талдауынан егжей-тегжейлі түсінік алады (мысалы, зиянды бағдарлама әрекетінің түсіндірмесі), дәлірек және мақсатты қорғанысты қамтамасыз етеді ( Киберқауіпсіздікте генеративті AI дегеніміз не? - Palo Alto Networks ).

  • Қайталанатын тапсырмаларды автоматтандыру: генеративті AI күнделікті, көп еңбекті қажет ететін қауіпсіздік тапсырмаларын автоматтандыруда - журналдарды тексеруден және есептерді құрастырудан бастап оқиғаға жауап беру сценарийлерін жазуға дейін жақсы. Бұл автоматтандыру адам аналитиктеріне түсетін жүктемені азайтып , оларды жоғары деңгейдегі стратегияға және күрделі шешімдер қабылдауға назар аударудан босатады ( Киберқауіпсіздікте генеративті AI дегеніміз не? - Palo Alto Networks ). Осалдықты сканерлеу, конфигурация аудиті, пайдаланушы әрекетін талдау және сәйкестік туралы есеп беру сияқты қарапайым, бірақ маңызды жұмыстарды AI өңдеуі мүмкін (немесе ең болмағанда бірінші рет құрастырылған). Бұл тапсырмаларды машина жылдамдығымен орындай отырып, AI тиімділікті арттырып қана қоймайды, сонымен қатар адам қателігін азайтады (бұзушылықтардың маңызды факторы).

  • Проактивті қорғаныс және модельдеу: Генеративті AI ұйымдарға реактивті қауіпсіздіктен проактивті қауіпсіздікке ауысуға мүмкіндік береді. Шабуылдарды модельдеу, синтетикалық деректерді генерациялау және сценарийге негізделген оқыту сияқты әдістер арқылы қорғаушылар қауіптерді нақты әлемде пайда болғанға дейін Қауіпсіздік топтары жауаптарын сынау және кез келген әлсіздіктерді жою үшін қауіпсіз орталарда кибершабуылдарды (фишингтік науқандар, зиянды бағдарламалардың шығуы, DDoS және т.б.) имитациялай алады. Бұл үздіксіз жаттығу, көбінесе адамның күш-жігерімен мұқият орындау мүмкін емес, қорғанысты өткір және жаңартады. Бұл кибер «өрт сөндіру жаттығуларына» ұқсайды - AI қорғанысыңызға көптеген гипотетикалық қауіп-қатерлерді жібере алады, осылайша сіз жаттығу және жақсартуға болады.

  • Адамның тәжірибесін арттыру (күш көбейткіші ретіндегі AI): Генеративті AI бірін-бірі біріктіретін қажымайтын кіші талдаушы, кеңесші және көмекші ретінде әрекет етеді. Ол тәжірибесі аз топ мүшелеріне әдетте тәжірибелі сарапшылардан күтілетін нұсқаулар мен ұсыныстарды бере алады, бұл команда бойынша тәжірибені тиімді түрде демократияландырады Киберқауіпсіздікте генеративті AI үшін 6 пайдалану жағдайы [+ Мысалдар] ). Бұл әсіресе киберқауіпсіздік саласындағы таланттардың тапшылығын ескере отырып өте маңызды – AI кішігірім командаларға азырақ жұмыс істеуге көмектеседі. Тәжірибелі аналитиктер, керісінше, AI-мен ауыр жұмыстарды өңдеудің және айқын емес түсініктерді ашудың пайдасын көреді, содан кейін олар тексеріп, әрекет ете алады. Жалпы нәтиже - бұл әлдеқайда өнімді және қабілетті қауіпсіздік тобы, AI әрбір адам мүшесінің әсерін күшейтеді ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін ).

  • Жетілдірілген шешімдерді қолдау және есеп беру: техникалық деректерді табиғи тілдегі түсініктерге аудару арқылы генеративті AI коммуникация мен шешім қабылдауды жақсартады. Қауіпсіздік көшбасшылары AI жасаған қорытындылар арқылы мәселелердің анық көрінісіне ие болады және бастапқы деректерді талдауды қажет етпей, негізделген стратегиялық шешімдер қабылдай алады. Сол сияқты, АИ қауіпсіздік жағдайы мен оқиғалары туралы түсінікті есептерді дайындаған кезде (басшыларға, сәйкестік қызметкерлеріне және т.б.) өзара функционалды байланыс жақсарады ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Бұл көшбасшылық деңгейіндегі қауіпсіздік мәселелері бойынша сенімділік пен сәйкестікті қалыптастырып қана қоймайды, сонымен қатар тәуекелдерді және AI ашқан олқылықтарды нақты көрсету арқылы инвестициялар мен өзгерістерді негіздеуге көмектеседі.

Бірлескен бұл артықшылықтар киберқауіпсіздікте генеративті AI қолданатын ұйымдардың операциялық шығындарды азайта отырып, қауіпсіздікті күшейте алатынын білдіреді. Олар бұрын басым болған қауіптерге жауап бере алады, бақыланбаған олқылықтарды жабады және AI басқаратын кері байланыс циклдері арқылы үздіксіз жетілдіре алады. жылдамдығын, масштабын және күрделілігін бірдей күрделі қорғаныспен сәйкестендіру арқылы қарсыластардан озып кетуге мүмкіндік береді Бір сауалнама көрсеткендей, бизнес пен кибер көшбасшылардың жартысынан көбі генеративті AI ( [PDF] Жаһандық киберқауіпсіздік болжамы 2025 | Дүниежүзілік экономикалық форум ) ( Киберқауіпсіздіктегі генеративті AI: осы технологиялар төңірегінде LLM бойынша кешенді шолу ... ) генеративті AI пайдалану арқылы қауіпті тезірек анықтауды және дәлдікті арттыруды күтеді.

Киберқауіпсіздікте генеративті AI пайдаланудың тәуекелдері мен қиындықтары

тәуекелдер мен қиындықтарға көзбен қарау өте маңызды . Жасанды интеллектке соқыр сену немесе оны теріс пайдалану жаңа осалдықтарды тудыруы мүмкін. Төменде біз әрқайсысы үшін контекстпен бірге негізгі алаңдаушылықтар мен қателерді сипаттаймыз:

  • Киберқылмыскерлердің қарсыластықпен пайдалануы: қорғаушыларға көмектесетін бірдей генеративті мүмкіндіктер шабуылдаушыларды күшейте алады. Қауіпті субъектілер сенімдірек фишингтік электрондық пошталарды жасау, әлеуметтік инженерия үшін жалған тұлғалар мен терең жалған бейнелерді жасау, анықтаудан жалтару үшін үнемі өзгеретін полиморфты зиянды бағдарламаларды жасау және тіпті бұзу аспектілерін автоматтандыру үшін генеративті AI-ны пайдаланып жатыр ( Киберқауіпсіздікте генеративті AI дегеніміз не? - Palo Alto Networks ). Киберқауіпсіздік көшбасшыларының жартысына жуығы (46%) генеративті AI анағұрлым жетілдірілген қарсыластық шабуылдарға әкеледі деп алаңдайды ( General AI Security: Trends, Threats & Mitigation Strategies ). Бұл «AI қарулану жарысы» қорғаушылар AI-ны қабылдаған сайын шабуылдаушылар артта қалмайтынын білдіреді (шын мәнінде, олар реттелмейтін AI құралдарын пайдалана отырып, кейбір салаларда алда болуы мүмкін). Ұйымдар жиірек, күрделірек және қадағалануы қиын AI күшейтілген қауіптерге дайын болуы керек.

  • Жасанды интеллект галлюцинациялары және дәлсіздік: ақылға қонымды, бірақ дұрыс емес немесе жаңылыстыратын нәтижелер бере алады – галлюцинация деп аталатын құбылыс. Қауіпсіздік контекстінде AI оқиғаны талдап, белгілі бір осалдық себеп болды деген қате қорытынды жасауы мүмкін немесе ол шабуылды қамтымайтын ақауларды жою сценарийін жасауы мүмкін. Бұл қателер нақты құны бойынша қабылданса, қауіпті болуы мүмкін. NTT деректері ескертетіндей, «генеративті AI шындыққа сәйкес келмейтін мазмұнды шығаруы мүмкін және бұл құбылыс галлюцинация деп аталады… қазіргі уақытта оларды толығымен жою қиын» ( Генеративті AI және қарсы шаралардың қауіпсіздік тәуекелдері және оның киберқауіпсіздікке әсері | NTT DATA тобы ). Тексерусіз AI-ға шамадан тыс тәуелділік қате бағытталған әрекеттерге немесе жалған қауіпсіздік сезіміне әкелуі мүмкін. Мысалы, AI маңызды жүйені қауіпсіз емес деп қате белгілеуі мүмкін немесе керісінше, ешқашан болмаған бұзушылықты «анықтау» арқылы дүрбелең тудыруы мүмкін. Бұл тәуекелді азайту үшін AI нәтижелерін мұқият тексеру және маңызды шешімдер қабылдау циклінде адамдардың болуы маңызды.

  • Жалған позитивтер мен негативтер: галлюцинацияларға қатысты, егер AI моделі нашар оқытылған немесе конфигурацияланған болса, ол зиянды әрекетті зиянды (жалған позитивтер) немесе одан да жаманы, нақты қауіптерді (жалған негативтер) жіберіп алуы ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін ). Шамадан тыс жалған ескертулер қауіпсіздік топтарын басып алып, ескертудің шаршауына әкелуі мүмкін (AI уәде етілген тиімділікті жояды), ал өткізіп алған анықтаулар ұйымды ашық қалдырады. Дұрыс тепе-теңдік үшін генеративті модельдерді баптау қиын. Әрбір орта бірегей және AI бірден қораптан тыс оңтайлы жұмыс істемеуі мүмкін. Үздіксіз оқу да екі жүзді қылыш болып табылады - егер AI қиғаш кері байланыстан немесе өзгеретін ортадан үйренсе, оның дәлдігі ауытқуы мүмкін. Қауіпсіздік топтары AI өнімділігін бақылап, шекті мәндерді реттеуі немесе үлгілерге түзетуші кері байланысты қамтамасыз етуі керек. Жоғары тәуекелді контексттерде (мысалы, маңызды инфрақұрылым үшін шабуылды анықтау) AI ұсыныстарын белгілі бір кезеңге бар жүйелермен параллель орындау, олардың қайшылық емес, сәйкес келуі және толықтырылуын қамтамасыз ету орынды болуы мүмкін.

  • Деректердің құпиялылығы және ағып кетуі: Генеративті AI жүйелері көбінесе оқыту және пайдалану үшін деректердің үлкен көлемін қажет етеді. Егер бұл модельдер бұлтқа негізделген болса немесе дұрыс оқшауланбаған болса, құпия ақпараттың ағып кету қаупі бар. Пайдаланушылар жеке деректерді немесе жеке деректерді AI қызметіне байқаусызда жіберуі мүмкін (ChatGPT-тен құпия оқиға туралы есепті қорытындылауды сұраңыз) және бұл деректер модель білімінің бөлігі болуы мүмкін. Шынында да, жақында жүргізілген зерттеу генеративті AI құралдарына енгізілген деректердің 55% құпия немесе жеке сәйкестендірілетін ақпаратты қамтығанын , бұл деректердің ағып кетуіне қатысты елеулі алаңдаушылық тудырады ( генеративті AI қауіпсіздігі: трендтер, қауіптер және азайту стратегиялары ). Бұған қоса, егер AI ішкі деректерге үйретілген болса және ол белгілі бір жолдармен сұралса, ол құпия деректердің бөліктерін басқа біреуге шығаруы Ұйымдар деректерді өңдеудің қатаң саясатын (мысалы, құпия материал үшін жергілікті немесе жеке AI даналарын пайдалану) енгізуі және қызметкерлерді жасырын ақпаратты жалпыға қолжетімді AI құралдарына қоймау туралы үйретуі керек. Құпиялылық ережелері (GDPR және т.б.) да күшіне енеді – жеке деректерді тиісті келісімсіз немесе қорғаусыз AI үйрету үшін пайдалану заңдарға қайшы келуі мүмкін.

  • Үлгінің қауіпсіздігі және манипуляциясы: генеративті AI үлгілерінің өзі нысанаға айналуы мүмкін. жасанды интеллект дұрыс емес үлгілерді меңгеруі үшін оқыту немесе қайта даярлау кезеңінде модельді уландыруға әрекеттенуі мүмкін Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін ). Мысалы, шабуылдаушы AI зиянкестің өзінің зиянды бағдарламалық құралын зиянды деп танымауы үшін қауіпті Intel деректерін жасырын түрде улауы мүмкін. Тағы бір тактика - жылдам енгізу немесе шығару манипуляциясы , мұнда шабуылдаушы АИ-ге оның күтпеген тәсілдермен әрекет етуіне әкелетін кірістерді шығару жолын табады - мүмкін оның қауіпсіздік қоршауларын елемеу немесе ол болмауы керек ақпаратты (ішкі кеңестер немесе деректер сияқты) ашу. модельден жалтару қаупі бар : шабуылдаушылар AI-ны алдау үшін арнайы жасалған енгізуді жасайды. Біз мұны қарсылас мысалдардан көреміз - адам қалыпты деп санайтын, бірақ AI қате жіктейтін деректер аздап бұзылған. AI жеткізу тізбегінің қауіпсіз болуын қамтамасыз ету (деректер тұтастығы, үлгіге қол жеткізуді басқару, қарсыластық сенімділігін тестілеу) осы құралдарды қолдану кезінде киберқауіпсіздіктің жаңа, бірақ қажетті бөлігі болып табылады ( Киберқауіпсіздікте генеративті AI дегеніміз не? - Palo Alto Networks ).

  • Шамадан тыс тәуелділік және дағдылардың эрозиясы: ұйымдардың AI-ға шамадан тыс тәуелді болуы және адам дағдыларының атрофиясына жол беру қаупі бар. Егер кіші сарапшылар AI нәтижелеріне соқыр сенетін болса, олар AI қолжетімсіз немесе дұрыс емес кезде қажет сыни ойлау мен түйсігі дамымауы мүмкін. Болдырмау керек сценарий - тамаша құралдары бар қауіпсіздік тобы, бірақ бұл құралдар жұмыс істемей қалса, қалай жұмыс істеу керектігін білмейді (автопилотқа тым көп сенетін ұшқыштар сияқты). Жасанды интеллект көмегінсіз жүйелі жаттығулар жасау және AI қателеспес оракул емес, ассистент деген ойды қалыптастыру адам талдаушыларын өткір ұстау үшін маңызды. Адамдар, әсіресе, жоғары әсер ететін пайымдаулар үшін түпкілікті шешім қабылдаушы болып қалуы керек.

  • Этикалық және сәйкестік мәселелері: киберқауіпсіздікте AI пайдалану этикалық сұрақтарды тудырады және нормативтік сәйкестік мәселелерін тудыруы мүмкін. Мысалы, егер AI жүйесі аномалияға байланысты қызметкерді зиянды инсайдер ретінде қате көрсетсе, ол сол адамның беделіне немесе мансабына негізсіз зиян келтіруі мүмкін. AI қабылдаған шешімдер бұлыңғыр болуы мүмкін («қара жәшік» мәселесі), бұл аудиторларға немесе реттеушілерге белгілі бір әрекеттердің неліктен қабылданғанын түсіндіруді қиындатады. Жасанды интеллектпен жасалған мазмұн кең тараған сайын, ашықтықты қамтамасыз ету және есептілікті сақтау өте маңызды. Реттеушілер AI-ны мұқият зерттей бастады – мысалы, ЕО-ның AI заңы «жоғары қауіпті» AI жүйелеріне талаптар қояды және киберқауіпсіздік AI осы санатқа жатқызылуы мүмкін. Компаниялар осы ережелерді шарлауы және генеративті AI-ны жауапкершілікпен пайдалану үшін NIST AI тәуекелдерді басқару құрылымы сияқты стандарттарды ұстануы керек ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалдары ). Сәйкестік лицензиялауға да таралады: ашық бастапқы немесе үшінші тарап үлгілерін пайдалану белгілі бір пайдалануды шектейтін немесе ортақ жақсартуларды қажет ететін шарттарға ие болуы мүмкін.

Қорытындылай келе, генеративті AI күміс оқ емес - егер мұқият енгізілмесе, ол басқаларды шешсе де, жаңа әлсіздіктерді енгізуі мүмкін. 2024 жылғы Дүниежүзілік экономикалық форумның зерттеуі ұйымдардың ~47% шабуылдаушылардың генеративті AI-дағы жетістіктерін басты мәселе ретінде атап, оны киберқауіпсіздікке «генеративті AI-ның ең маңызды әсері» [PDF] Жаһандық киберқауіпсіздік болжамы 2025 | Дүниежүзілік экономикалық форум ) ( Generative L. Compact. ). Сондықтан ұйымдар теңдестірілген тәсілді қабылдауы керек: басқару, тестілеу және адам бақылауы арқылы осы тәуекелдерді қатаң басқара отырып, AI артықшылықтарын пайдалану. Келесіде біз бұл тепе-теңдікке қалай жетуге болатынын талқылаймыз.

Болашаққа болжам: Генеративті AI-ның киберқауіпсіздіктегі дамып келе жатқан рөлі

Болашаққа қарап, генеративті AI киберқауіпсіздік стратегиясының ажырамас бөлігіне айналуға дайын - және сол сияқты киберқарсыластар пайдалануды жалғастыратын құрал. Мысық пен тышқанның динамикасы қоршаудың екі жағында да AI болған кезде жылдамдатады. Міне, генеративті AI алдағы жылдарда киберқауіпсіздікті қалай қалыптастыратыны туралы болашаққа қатысты кейбір түсініктер:

  • AI-кеңейтілген киберқорғаныс стандартқа айналады: 2025 жылға қарай және одан кейін орта және ірі ұйымдардың көпшілігі өздерінің қауіпсіздік операцияларына AI басқаратын құралдарды қосады деп күтуге болады. Вирусқа қарсы және брандмауэрлер бүгінгі күні стандартты болғандықтан, AI екінші пилоттары мен аномалияларды анықтау жүйелері қауіпсіздік архитектурасының негізгі құрамдастарына айналуы мүмкін. Бұл құралдар анағұрлым мамандандырылған болуы мүмкін - мысалы, бұлттық қауіпсіздік үшін, IoT құрылғысын бақылау үшін, қолданба кодтарының қауіпсіздігі үшін және т.б. үшін дәл реттелген әртүрлі AI үлгілері, барлығы бірге жұмыс істейді. Бір болжамда атап өтілгендей, «2025 жылы генеративті AI киберқауіпсіздіктің ажырамас бөлігі болады, бұл ұйымдарға күрделі және дамып келе жатқан қауіптерден белсенді түрде қорғануға мүмкіндік береді» ( Генеративті AI киберқауіпсіздікте қалай қолданыла алады ). AI нақты уақыттағы қауіпті анықтауды жақсартады, көптеген жауап әрекеттерін автоматтандырады және қауіпсіздік топтарына қолмен жасауға болатын деректерден әлдеқайда үлкен көлемдерді басқаруға көмектеседі.

  • Үздіксіз оқу және бейімделу: кибердегі болашақ генеративті AI жүйелері жылдам үйренуде , олардың білім базасын нақты уақыт режимінде жаңартады. Бұл нағыз бейімделгіш қорғанысқа әкелуі мүмкін – таңертең басқа компанияға соқтығысатын жаңа фишингтік науқан туралы білетін AI елестетіп көріңіз және түстен кейін компанияңыздың электрондық пошта сүзгілерін жауап ретінде реттеп қойған. Бұлтқа негізделген AI қауіпсіздік қызметтері ұжымдық оқытудың мұндай түрін жеңілдетуі мүмкін, мұнда бір ұйымның анонимді түсініктері барлық жазылушыларға пайда әкеледі (Intel ортақ пайдалану қаупіне ұқсас, бірақ автоматтандырылған). Дегенмен, бұл құпия ақпаратты бөліспеу және шабуылдаушылар ортақ үлгілерге нашар деректерді беруді болдырмау үшін мұқият өңдеуді қажет етеді.

  • Жасанды интеллект пен киберқауіпсіздік талантының конвергенциясы: киберқауіпсіздік мамандарының біліктілік жиынтығы AI және деректер ғылымындағы біліктілікті қамту үшін дамиды. Бүгінгі сарапшылар сұрау тілдерін және сценарий жазуды үйренетіні сияқты, ертеңгі сарапшылар AI үлгілерін жүйелі түрде дәл баптай алады немесе AI орындау үшін «ойын кітаптарын» жаза алады. «AI қауіпсіздігі бойынша жаттықтырушы» немесе «Киберқауіпсіздік AI инженері» сияқты жаңа рөлдерді көруіміз мүмкін – AI құралдарын ұйымның қажеттіліктеріне бейімдеуге, олардың өнімділігін тексеруге және олардың қауіпсіз жұмыс істеуін қамтамасыз етуге маманданған адамдар. Екінші жағынан, киберқауіпсіздік туралы ойлар AI дамуына көбірек әсер етеді. Жасанды интеллект жүйелері басынан бастап қауіпсіздік мүмкіндіктерімен (қауіпсіз архитектура, бұрмалауды анықтау, AI шешімдеріне арналған аудит журналдары және т.б.) құрастырылады және сенімді AI (әділ, түсінікті, сенімді және қауіпсіз) оларды қауіпсіздік үшін маңызды контексттерде қолдануды бағыттайды.

  • Күрделі AI-мен жұмыс істейтін шабуылдар: Өкінішке орай, қауіп ландшафттары да AI-мен дамиды. Біз нөлдік күндік осалдықтарды анықтау, жоғары мақсатты фишинг жасау үшін (мысалы, тамаша бейімделген жем жасау үшін әлеуметтік медианы қыратын AI) және биометриялық аутентификацияны айналып өту немесе алаяқтық жасау үшін сенімді терең жалған дауыстарды немесе бейнелерді жасау үшін AI жиірек қолданылады деп күтеміз. Адамның ең аз бақылауымен көп сатылы шабуылдарды (барлау, пайдалану, бүйірлік қозғалыс және т.б.) дербес жүзеге асыра алатын автоматтандырылған хакерлік агенттер пайда болуы мүмкін. Бұл қорғаушыларды AI-ға сенуге мәжбүр етеді – автоматтандыру және автоматтандыру . Кейбір шабуылдар машина жылдамдығында орын алуы мүмкін, мысалы, AI боттары сүзгілерден өтіп кеткенін көру үшін мыңдаған фишингтік электрондық поштаны ауыстыруға тырысады. Киберқорғаныс бірдей жылдамдықпен және икемділікпен жұмыс істеуі керек ( Киберқауіпсіздіктегі генеративті AI дегеніміз не? - Palo Alto Networks ).

  • Қауіпсіздік саласындағы реттеу және этикалық AI: AI киберқауіпсіздік функцияларына терең енген сайын, бұл AI жүйелерін жауапкершілікпен пайдалануды қамтамасыз ету үшін көбірек бақылау және реттеу болады. Біз қауіпсіздікте AI-ға тән шеңберлер мен стандарттарды күте аламыз. Үкіметтер ашықтыққа қатысты нұсқауларды белгілей алады – мысалы, маңызды қауіпсіздік шешімдерін (қызметкердің күдікті зиянды әрекетке қол жеткізуін тоқтату сияқты) адамның тексеруінсіз тек AI ғана қабылдай алмайтынын талап ету. Сондай-ақ, AI қауіпсіздік өнімдері үшін сертификаттар болуы мүмкін, бұл сатып алушыларды AI біржақтылық, беріктік және қауіпсіздік үшін бағаланғанына сендіреді. Сонымен қатар, халықаралық ынтымақтастық AI-мен байланысты киберқауіптер төңірегінде дамуы мүмкін; мысалы, жасанды интеллект арқылы жасалған дезинформациямен немесе кейбір AI басқаратын кибер қаруларға қарсы нормалармен жұмыс істеу туралы келісімдер.

  • Кеңірек AI және IT экожүйелерімен интеграция: киберқауіпсіздіктегі генеративті AI басқа AI жүйелерімен және АТ басқару құралдарымен біріктірілуі мүмкін. Мысалы, желіні оңтайландыруды басқаратын AI өзгерістер саңылауларды ашпау үшін қауіпсіздік AI-мен жұмыс істей алады. AI басқаратын бизнес-аналитика аномалияларды (мысалы, шабуылға байланысты ықтимал веб-сайт мәселесімен сатудың кенеттен төмендеуі) байланыстыру үшін қауіпсіздік АИ-лерімен деректерді бөлісуі мүмкін. Негізінде, AI силоста өмір сүрмейді - бұл ұйымның операцияларының үлкен интеллектуалды құрылымының бөлігі болады. Бұл ұйымдық қауіпсіздік жағдайының 360 градустық көрінісін беру үшін операциялық деректерді, қауіп деректерін және тіпті физикалық қауіпсіздік деректерін AI біріктіретін тәуекелдерді тұтас басқару мүмкіндіктерін ашады.

Ұзақ мерзімді перспективада генеративті AI балансты қорғаушылардың пайдасына бұруға көмектеседі деген үміт бар. Заманауи АТ орталарының ауқымы мен күрделілігін өңдеу арқылы AI киберкеңістікті қорғанымдырақ ете алады. Дегенмен, бұл саяхат, және біз бұл технологияларды жетілдіргенде және оларға дұрыс сенуді үйренген сайын ауырулар болады. AI-ны жауапты қабылдауға инвестиция салатын ұйымдар болашақ қауіп-қатерлерді басқару үшін ең жақсы жағдайға ие болуы мүмкін.

Gartner компаниясының соңғы киберқауіпсіздік тенденциялары туралы есебінде атап өткендей, «AI қолданудың генеративті жағдайларының (және тәуекелдердің) пайда болуы трансформацияға қысым жасауда» ( Cybersecurity Trends: Resilience Through Transformation - Gartner ). Бейімделушілер AI-ны күшті одақтас ретінде пайдаланады; артта қалғандар AI күші бар қарсыластардан озып кетуі мүмкін. Алдағы бірнеше жыл AI киберсоғыс алаңын қалай өзгертетінін анықтауда шешуші уақыт болады.

Киберқауіпсіздікте генеративті AI қабылдауға арналған практикалық ұсыныстар

Киберқауіпсіздік стратегиясында генеративті AI-ны қалай пайдалану керектігін бағалайтын компаниялар үшін жауапты және тиімді қабылдауға көмектесетін практикалық ұсыныстар мен ұсыныстар

  1. Білім беру және оқытудан бастаңыз: Қауіпсіздік тобыңыз (және кеңірек АТ қызметкерлері) генеративті AI не істей алатынын және не істей алмайтынын түсінетініне көз жеткізіңіз. Жасанды интеллектпен басқарылатын қауіпсіздік құралдарының негіздері бойынша оқытуды қамтамасыз етіңіз және AI қолдайтын қауіптерді жабу үшін барлық қызметкерлер үшін қауіпсіздік туралы хабардар болу бағдарламаларын Мысалы, қызметкерлерге AI қалай өте сенімді фишингтік алаяқтықтар мен терең жалған қоңырауларды жасай алатынын үйретіңіз. Бір уақытта қызметкерлерді жұмысында AI құралдарын қауіпсіз және бекітілген пайдалануға үйретіңіз. Жақсы хабардар пайдаланушылардың AI-ны дұрыс қолданбауы немесе AI-мен күшейтілген шабуылдардың құрбаны болу ықтималдығы аз ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты мысал ).

  2. Айқын AI пайдалану саясаттарын анықтаңыз: генеративті AI-ны кез келген қуатты технология сияқты, басқарумен өңдеңіз. Жасанды интеллект құралдарын кім пайдалана алатынын, қандай құралдардың санкцияланатынын және қандай мақсаттарда қолданылатынын көрсететін саясаттарды әзірлеңіз. құпия деректерді өңдеуге қатысты нұсқауларды қосыңыз (мысалы, сыртқы AI қызметтеріне бермеу Мысал ретінде, оқиғаға жауап беру үшін тек қауіпсіздік тобының мүшелеріне ішкі AI көмекшісін пайдалануға рұқсат бере аласыз, ал маркетинг мазмұн үшін тексерілген AI пайдалана алады - қалғандарының барлығына шектеулер қойылған. Қазір көптеген ұйымдар АТ саясаттарында генеративті AI-ға нақты түрде жүгінуде және жетекші стандарттар органдары тікелей тыйым салудан гөрі қауіпсіз пайдалану саясатын қолдайды ( Генеративті AI-ны киберқауіпсіздікте қалай қолдануға болады? 10 нақты әлем мысалдары ). Осы ережелерді және олардың себептерін барлық қызметкерлерге жеткізіңіз.

  3. «Көлеңкелі AI» және мониторды пайдалануды азайту: көлеңкелі АТ сияқты «көлеңкелі AI» қызметкерлер АТ-ны білмей AI құралдарын немесе қызметтерін пайдалана бастағанда пайда болады (мысалы, рұқсат етілмеген AI код көмекшісін пайдаланатын әзірлеуші). Бұл көрінбейтін қауіптерді тудыруы мүмкін. Рұқсат етілмеген AI пайдалануды анықтау және бақылау шараларын жүзеге асыру . Желі мониторингі танымал AI API интерфейстеріне қосылымдарды белгілей алады, ал сауалнамалар немесе құрал аудиттері қызметкерлердің нені пайдаланып жатқанын анықтай алады. Мақұлданған балама нұсқаларды ұсыныңыз, сондықтан жақсы ниетті қызметкерлер алаяқтыққа азғырылмайды (мысалы, адамдар оны пайдалы деп тапса, ресми ChatGPT Enterprise есептік жазбасын беріңіз). AI пайдалануды жарыққа шығару арқылы қауіпсіздік топтары тәуекелді бағалай және басқара алады. Мониторинг сонымен қатар маңызды болып табылады – AI құралының әрекеттері мен нәтижелерін мүмкіндігінше тіркеу, сондықтан AI әсер еткен шешімдердің аудиті бар ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ).

  4. AI-ны қорғаныспен пайдаланыңыз – артта қалмаңыз: шабуылдаушылар AI-ды қолданатынын мойындаңыз, сондықтан сіздің қорғанысыңыз да керек. Генеративті AI қауіпсіздік операцияларына (мүмкін, ескерту триажы немесе автоматтандырылған журналды талдау) дереу көмектесетін және пилоттық жобаларды іске қоса алатын бірнеше жоғары әсер ететін аймақтарды анықтаңыз. Жылдам жүретін қауіптерге қарсы тұру үшін AI жылдамдығы мен масштабымен қорғанысыңызды арттырыңыз Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Зиянды бағдарлама есептерін қорытындылау немесе қауіпті іздеу сұрауларын жасау үшін AI пайдалану сияқты қарапайым интеграциялар да талдаушылардың сағаттарын үнемдей алады. Кішкентайдан бастаңыз, нәтижелерді бағалаңыз және қайталаңыз. Табыстар AI-ны кеңірек қабылдауға жағдай жасайды. Мақсат – AI-ны күш көбейткіші ретінде пайдалану – мысалы, фишингтік шабуылдар сіздің анықтамалық қызметіңізді басып жатса, сол дыбысты белсенді түрде азайту үшін AI электрондық пошта классификаторын қолданыңыз.

  5. Қауіпсіз және этикалық AI тәжірибелеріне инвестициялаңыз: генеративті жасанды интеллект енгізген кезде қауіпсіз әзірлеу және орналастыру тәжірибелерін орындаңыз. Деректерді бақылауды сақтау үшін құпия тапсырмалар үшін жеке немесе өздігінен орналастырылған үлгілерді пайдаланыңыз Үшінші тараптың AI қызметтерін пайдалансаңыз, олардың қауіпсіздік және құпиялылық шараларын (шифрлау, деректерді сақтау саясаты және т.б.) қарап шығыңыз. Жасанды интеллект құралдарындағы қиғаштық, түсініктілік және сенімділік сияқты мәселелерді жүйелі түрде шешу үшін AI тәуекелдерін басқару құрылымдарын (NIST-тің AI тәуекелдерін басқару құрылымы немесе ISO/IEC нұсқаулығы) қосыңыз ( Генеративті AI киберқауіпсіздікте қалай қолданылуы мүмкін? 10 нақты әлем мысалы ). Сондай-ақ техникалық қызмет көрсету бөлігі ретінде үлгі жаңартуларын/патчтарын жоспарлаңыз – AI үлгілерінің де «осалдықтары» болуы мүмкін (мысалы, егер олар дрейфті бастаса немесе модельге қарсы шабуылдың жаңа түрі табылса, олар қайта оқытуды қажет етуі мүмкін). Қауіпсіздік пен этиканы AI пайдалануыңызға қосу арқылы сіз нәтижелерге сенім артасыз және жаңа ережелердің сақталуын қамтамасыз етесіз.

  6. Адамдарды циклде ұстаңыз: киберқауіпсіздіктегі адам пікірін толығымен ауыстырмай, көмектесу үшін AI пайдаланыңыз. Адамның валидациясы қажет болатын шешім нүктелерін анықтаңыз (мысалы, AI оқиға туралы есептің жобасын жасай алады, бірақ талдаушы оны таратпас бұрын қарайды; немесе AI пайдаланушы тіркелгісін бұғаттауды ұсынуы мүмкін, бірақ адам бұл әрекетті мақұлдайды). Бұл AI қателерінің тексерілмеуін болдырмайды, сонымен қатар сіздің командаңызға AI-дан үйренуге көмектеседі және керісінше. Бірлескен жұмыс процесін ынталандырыңыз: сарапшылар AI нәтижелеріне сұрақ қоюда және ақыл-ойды тексеруде өзін ыңғайлы сезінуі керек. Уақыт өте келе бұл диалог AI (кері байланыс арқылы) мен талдаушылардың дағдыларын жақсарта алады. Негізінде, AI және адамның күшті жақтары бірін-бірі толықтыратындай етіп процестеріңізді жобалаңыз – AI көлем мен жылдамдықты басқарады, адамдар екіұштылық пен соңғы шешімдерді қабылдайды.

  7. Өлшеу, бақылау және реттеу: Соңында, генеративті AI құралдарын қауіпсіздік экожүйесінің тірі құрамдастары ретінде қарастырыңыз. үнемі өлшеңіз – олар оқиғаға жауап беру уақытын азайта ма? Қауіптерді ертерек ұстайсыз ба? Жалған оң бағам қалай өзгерді? Топтан кері байланыс сұраңыз: AI ұсынымдары пайдалы ма, әлде шу тудырады ма? Үлгілерді нақтылау, оқу деректерін жаңарту немесе AI біріктіру жолын реттеу үшін осы көрсеткіштерді пайдаланыңыз. Киберқауіптер мен бизнес қажеттіліктері дамып отырады және сіздің AI үлгілері тиімді болу үшін мерзімді түрде жаңартылып немесе қайта оқытылуы керек. Модельдік басқару жоспары болуы керек, соның ішінде оның сақталуына кім жауапты және қаншалықты жиі қаралатыны. Жасанды интеллекттің өмірлік циклін белсенді түрде басқару арқылы сіз оның міндеттеме емес, актив болып қалуына кепілдік бересіз.

Қорытындылай келе, генеративті AI киберқауіпсіздік мүмкіндіктерін айтарлықтай арттыра алады, бірақ сәтті қабылдау мұқият жоспарлауды және тұрақты бақылауды қажет етеді. Өз адамдарын оқытатын, нақты нұсқауларды белгілейтін және AI-ны теңдестірілген, қауіпсіз түрде біріктіретін компаниялар қауіптерді тезірек және ақылдырақ басқарудың пайдасын көреді. Бұл жол картасын ұсынады: адам тәжірибесін AI автоматтандыруымен біріктіріңіз, басқару негіздерін қамтиды және AI технологиясы да, қауіп ландшафттары да сөзсіз дамитындықтан ептілікті сақтаңыз.

«генеративті AI-ны киберқауіпсіздікте қалай пайдалануға болады?» Деген сұраққа сенімді түрде жауап бере алады – тек теорияда ғана емес, күнделікті тәжірибеде – және осылайша біздің цифрлық және AI басқаратын әлемде олардың қорғанысын күшейтеді. ( Киберқауіпсіздікте генеративті AI қалай пайдалануға болады )

Осыдан кейін оқығыңыз келетін ақпарақтар:

🔗 Жасанды интеллект алмастыра алмайтын жұмыстар және AI қандай жұмыстарды алмастырады?
Қай рөлдердің автоматтандырудан қауіпсіз, қайсысы қауіпсіз емес екендігі туралы жаһандық болжамды зерттеңіз.

🔗 AI қор нарығын болжай ала ма?
AI-ның нарықтағы қозғалыстарды болжау қабілетіне қатысты шектеулерге, жетістіктерге және мифтерге жақынырақ қарау.

🔗 Генеративті AI адамның араласуынсыз не істеуге болады?
AI қай жерде тәуелсіз жұмыс істей алатынын және адамның бақылауы әлі де маңызды екенін түсініңіз.

Блогқа оралу