Киберқауіпсіздік жөніндегі сарапшы генеративті жасанды интеллект құралдарын пайдалана отырып, қауіптерді талдайды.

Киберқауіпсіздікте генерациялық жасанды интеллектті қалай пайдалануға болады?

Кіріспе

Жаңа мазмұн немесе болжамдар жасауға қабілетті жасанды интеллект жүйелері – генеративті жасанды интеллект киберқауіпсіздікте трансформациялық күш ретінде пайда болуда. OpenAI GPT-4 сияқты құралдар күрделі деректерді талдау және адамға ұқсас мәтін жасау мүмкіндігін көрсетті, бұл киберқауіптерден қорғанудың жаңа тәсілдерін жасауға мүмкіндік береді. Киберқауіпсіздік мамандары мен салалардағы бизнес шешім қабылдаушылар генеративті жасанды интеллекттің дамып келе жатқан шабуылдардан қорғанысты қалай күшейте алатынын зерттеп жатыр. Қаржы мен денсаулық сақтаудан бастап бөлшек сауда мен үкіметке дейін әрбір сектордағы ұйымдар генеративті жасанды интеллект қарсы тұруға көмектесетін күрделі фишинг әрекеттеріне, зиянды бағдарламаларға және басқа да қауіптерге тап болады. Бұл ақ мақалада біз генеративті жасанды интеллекттің киберқауіпсіздікте қалай пайдаланылуы мүмкін екенін , нақты әлемдегі қолданбаларды, болашақ мүмкіндіктерді және енгізудің маңызды мәселелерін атап өтеміз.

Генеративтік жасанды интеллект дәстүрлі аналитикалық жасанды интеллекттен тек үлгілерді анықтаумен ғана емес, сонымен қатар жасаумен – шабуылдарды қорғанысқа модельдеу немесе күрделі қауіпсіздік деректеріне табиғи тілде түсініктемелер жасау. Бұл қос мүмкіндік оны екі жақты қылышқа айналдырады: ол қуатты жаңа қорғаныс құралдарын ұсынады, бірақ қауіп төндірушілер де оны пайдалана алады. Келесі бөлімдерде киберқауіпсіздікте генеративті жасанды интеллекттің кең ауқымды пайдалану жағдайлары, фишингті анықтауды автоматтандырудан бастап, оқиғаларға жауап беруді жақсартуға дейін қарастырылады. Біз сондай-ақ осы жасанды интеллект инновацияларының уәде ететін артықшылықтарын, сондай-ақ ұйымдар басқаруы керек тәуекелдерді (мысалы, жасанды интеллект «галлюцинациялары» немесе қарсыласушы теріс пайдалану) талқылаймыз. Соңында, біз бизнеске генеративті жасанды интеллектті өздерінің киберқауіпсіздік стратегияларына бағалауға және жауапкершілікпен біріктіруге көмектесетін практикалық қорытындылар ұсынамыз.

Киберқауіпсіздіктегі генеративті жасанды интеллект: шолу

Киберқауіпсіздіктегі генеративті жасанды интеллект қауіпсіздік міндеттеріне көмектесу үшін түсініктерді, ұсыныстарды, кодты немесе тіпті синтетикалық деректерді жасай алатын жасанды интеллект модельдерін - көбінесе үлкен тілдік модельдерді немесе басқа нейрондық желілерді білдіреді. Таза болжамды модельдерден айырмашылығы, генеративті жасанды интеллект сценарийлерді модельдей алады және өзінің оқыту деректеріне негізделген адам оқи алатын нәтижелерді (мысалы, есептер, ескертулер немесе тіпті зиянды код үлгілері) шығара алады. Бұл мүмкіндік бұрынғыдан да динамикалық жолдармен қауіптерді болжау, анықтау және оларға жауап беру Киберқауіпсіздіктегі генеративті жасанды интеллект дегеніміз не? - Palo Alto Networks ). Мысалы, генеративті модельдер үлкен журналдарды немесе қауіп туралы барлау репозиторийлерін талдай алады және қауіпсіздік топтарына жасанды интеллект «көмекшісі» сияқты жұмыс істейтін қысқаша қорытынды немесе ұсынылған әрекет жасай алады.

Киберқорғаныс үшін генеративті жасанды интеллекттің алғашқы енгізілімдері перспективалы болды. 2023 жылы Microsoft қауіпсіздік талдаушыларына арналған GPT-4 көмегімен жұмыс істейтін көмекші Security Copilot Microsoft Security Copilot - киберқауіпсіздік үшін жаңа GPT-4 жасанды интеллект көмекшісі | The Verge ). Сарапшылар бұл жүйені табиғи тілде шақыра алады (мысалы, «Соңғы 24 сағаттағы барлық қауіпсіздік оқиғаларын қорытындылаңыз» ), ал қосалқы пилот пайдалы баяндау қысқаша мазмұнын жасайды. Сол сияқты, Google-дың Threat Intelligence жасанды интеллекті Google-дың кең ауқымды қауіп-қатер туралы интеллект дерекқоры арқылы сөйлесу іздеуін қамтамасыз ету үшін Gemini деп аталатын генеративті модельді пайдаланады Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ). Бұл мысалдар әлеуетті көрсетеді: генеративті жасанды интеллект күрделі, ауқымды киберқауіпсіздік деректерін өңдеп, түсініктерді қолжетімді түрде ұсына алады, шешім қабылдауды жеделдетеді.

Сонымен қатар, генеративті жасанды интеллект өте шынайы жалған мазмұн жасай алады, бұл модельдеу және оқыту үшін (және, өкінішке орай, әлеуметтік инженерияны жасайтын шабуылдаушылар үшін) пайдалы. Нақты пайдалану жағдайларына көшкен кезде, генеративті жасанды интеллекттің синтездеу және талдау оның көптеген киберқауіпсіздік қолданбаларының негізінде жатқанын көреміз. Төменде біз фишингтің алдын алудан бастап қауіпсіз бағдарламалық жасақтаманы әзірлеуге дейінгі барлық нәрсені қамтитын негізгі пайдалану жағдайларын қарастырамыз, олардың әрқайсысының салаларда қалай қолданылатыны туралы мысалдар келтіреміз.

Киберқауіпсіздіктегі генеративті жасанды интеллекттің негізгі қолданылуы

Сурет: Киберқауіпсіздікте генеративті жасанды интеллекттің негізгі пайдалану жағдайларына қауіпсіздік топтарына арналған жасанды интеллекттің қосалқы пилоттары, кодтың осалдық талдауы, бейімделгіш қауіпті анықтау, нөлдік күндік шабуылды модельдеу, биометриялық қауіпсіздікті жақсарту және фишингті анықтау кіреді ( Киберқауіпсіздікте генеративті жасанды интеллекттің 6 пайдалану жағдайы [+ мысалдар] ).

Фишингті анықтау және алдын алу

Фишинг ең кең таралған киберқауіптердің бірі болып қала береді, пайдаланушыларды зиянды сілтемелерді басуға немесе тіркелгі деректерін жариялауға алдайды. Генеративті жасанды интеллект фишинг әрекеттерін анықтау және сәтті шабуылдардың алдын алу үшін пайдаланушыларды оқытуды күшейту үшін қолданылуда. Қорғаныс жағынан, жасанды интеллект модельдері ережеге негізделген сүзгілер жіберіп алуы мүмкін фишингтің нәзік белгілерін анықтау үшін электрондық пошта мазмұны мен жіберушілердің мінез-құлқын талдай алады. Заңды және жалған электрондық пошталардың үлкен деректер жиынтығынан білім алу арқылы генеративті модель алаяқтықты көрсететін тон, сөз немесе контекст бойынша ауытқуларды белгілей алады - тіпті грамматика мен емле енді оны көрсетпесе де. Шын мәнінде, Palo Alto Networks зерттеушілері генеративті жасанды интеллект «басқаша анықталмауы мүмкін фишингтік электрондық пошталардың нәзік белгілерін» анықтай алатынын, бұл ұйымдарға алаяқтардан бір қадам алда болуға көмектесетінін атап өтеді ( Киберқауіпсіздікте генеративті жасанды интеллект дегеніміз не? - Palo Alto Networks ).

фишингтік шабуылдарды модельдеу үшін генеративті жасанды интеллектті де қолданады . Мысалы, Ironscales ұйым қызметкерлеріне бейімделген жалған фишингтік электрондық пошталарды автоматты түрде жасайтын GPT-мен жұмыс істейтін фишингтік модельдеу құралын енгізді ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ). Бұл жасанды интеллектпен жасалған электрондық пошталар шабуылдаушылардың соңғы тактикасын көрсетеді, бұл қызметкерлерге фишингтік мазмұнды анықтауда шынайы тәжірибе береді. Мұндай жекелендірілген оқыту өте маңызды, себебі шабуылдаушылардың өздері жасанды интеллектті сенімдірек тұзақтар жасау үшін қолданады. Атап айтқанда, генеративті жасанды интеллект өте жылтыратылған фишингтік хабарламалар шығара алса (ағылшын тілін оңай байқайтын күндер өтті), қорғаушылар жасанды интеллекттің ең жақсы емес екенін анықтады. 2024 жылы IBM Security зерттеушілері адам жазған фишингтік электрондық пошталарды жасанды интеллектпен жасалған электрондық пошталармен салыстыратын эксперимент жүргізді және «таңқаларлықтай, жасанды интеллектпен жасалған электрондық пошталарды дұрыс грамматикасы болғанына қарамастан анықтау оңай болды» ( Киберқауіпсіздікте генеративті жасанды интеллект үшін 6 пайдалану жағдайы [+ мысалдар] ). Бұл жасанды интеллект көмегімен анықтаумен біріктірілген адамның интуициясы жасанды интеллектпен жазылған алаяқтықтардағы нәзік сәйкессіздіктерді немесе метадеректер сигналдарын әлі де тани алатынын көрсетеді.

автоматтандырылған жауаптар немесе сүзгілер жасау үшін пайдалануға болады . Мысалы, жасанды интеллект жүйесі жіберушінің заңдылығын тексеру үшін белгілі бір сұраулармен электрондық поштаға жауап бере алады немесе электрондық поштаның сілтемелері мен қосымшаларын құм жәшігінде талдау үшін LLM пайдалана алады, содан кейін кез келген зиянды ниетті қорытындылай алады. NVIDIA қауіпсіздік платформасы Morpheus дәстүрлі қауіпсіздік құралдарымен салыстырғанда нашақорлықпен электрондық поштаны анықтауды 21% Киберқауіпсіздікте генеративті жасанды интеллект үшін 6 пайдалану жағдайы [+ мысалдар] ). Morpheus тіпті ерекше мінез-құлықты (мысалы, пайдаланушының кенеттен көптеген сыртқы мекенжайларға электрондық пошта жіберуі) анықтау үшін пайдаланушының байланыс үлгілерін профильдейді, бұл фишингтік электрондық пошталарды жіберетін бұзылған тіркелгіні көрсетуі мүмкін.

Іс жүзінде, салалар бойынша компаниялар әлеуметтік инженерия шабуылдары үшін электрондық пошта мен веб-трафикті сүзгілеу үшін жасанды интеллектке сене бастады. Мысалы, қаржы фирмалары сым арқылы алаяқтыққа әкелуі мүмкін еліктеу әрекеттерін анықтау үшін байланыстарды сканерлеу үшін генеративті жасанды интеллектті пайдаланады, ал денсаулық сақтау қызметтері пациенттердің деректерін фишингке байланысты бұзушылықтардан қорғау үшін жасанды интеллектті пайдаланады. Нақты фишинг сценарийлерін жасау және зиянды хабарламалардың белгілерін анықтау арқылы генеративті жасанды интеллект фишингтің алдын алу стратегияларына күшті қабат қосады. Қорытынды: Жасанды интеллект фишинг шабуылдарын тезірек және дәлірек анықтауға және жоюға көмектеседі , тіпті шабуылдаушылар өз ойындарын жақсарту үшін бірдей технологияны пайдаланса да.

Зиянды бағдарламаларды анықтау және қауіп-қатерді талдау

Қазіргі заманғы зиянды бағдарлама үнемі дамып келеді – шабуылдаушылар антивирустық қолтаңбаларды айналып өту үшін жаңа нұсқаларды жасайды немесе кодты шатастырады. Генеративті жасанды интеллект зиянды бағдарламаны анықтау және оның әрекетін түсіну үшін жаңа әдістерді ұсынады. Бір тәсіл - зиянды бағдарламаның «зұлым егіздерін» жасау : қауіпсіздік зерттеушілері белгілі зиянды бағдарлама үлгісін генеративті модельге енгізіп, сол зиянды бағдарламаның көптеген мутацияланған нұсқаларын жасай алады. Осылайша, олар шабуылдаушының жасай алатын түзетулерін тиімді түрде болжайды. Бұл жасанды интеллект арқылы жасалған нұсқаларды антивирустық және басып кіруді анықтау жүйелерін оқыту үшін пайдалануға болады, сондықтан зиянды бағдарламаның өзгертілген нұсқалары да табиғатта танылады ( Киберқауіпсіздікте генеративті жасанды интеллект үшін 6 пайдалану жағдайы [+ мысалдар] ). Бұл проактивті стратегия хакерлер анықтаудан жалтару үшін зиянды бағдарламаларын аздап өзгертетін және қорғаушылар әр жолы жаңа қолтаңбалар жазуға тырысатын циклды бұзуға көмектеседі. Бір салалық подкастта айтылғандай, қауіпсіздік сарапшылары қазір генеративті жасанды интеллектті «желілік трафикті модельдеу және күрделі шабуылдарды имитациялайтын зиянды жүктемелерді жасау» үшін пайдаланады, бір данадан гөрі қауіптердің тұтас тобына қарсы қорғаныстарын стресс-тестілейді. Бұл бейімделгіш қауіп-қатерді анықтау қауіпсіздік құралдарының басқа жағдайда өтіп кететін полиморфты зиянды бағдарламаларға төзімдірек болатынын білдіреді.

зиянды бағдарламаларды талдауға және кері инженерияға көмектеседі , бұл дәстүрлі түрде қауіп талдаушылары үшін көп еңбекті қажет ететін міндеттер болып табылады. Ірі тілдік модельдерге күдікті кодты немесе сценарийлерді тексеру және кодтың не істеуге арналғанын қарапайым тілде түсіндіру тапсырылуы мүмкін. Нақты әлемдегі мысал - VirusTotal Code Insight функциясы ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады? 10 нақты әлемдегі мысал ). Бұл негізінен «қауіпсіздік кодтауына арналған ChatGPT түрі», адам талдаушыларына қауіптерді түсінуге көмектесу үшін тәулік бойы жұмыс істейтін жасанды интеллект зиянды бағдарламаларды талдаушы ретінде әрекет етеді ( Киберқауіпсіздікте генеративті жасанды интеллект үшін 6 пайдалану жағдайы [+ мысалдар] ). Қауіпсіздік тобының мүшесі таныс емес сценарийді немесе екілік кодты қарастырудың орнына, жасанды интеллекттен дереу түсініктеме ала алады - мысалы, «Бұл скрипт XYZ серверінен файлды жүктеп алуға, содан кейін жүйелік параметрлерді өзгертуге тырысады, бұл зиянды бағдарламалардың әрекетін көрсетеді». Бұл оқиғаларға жауап беруді айтарлықтай жылдамдатады, себебі аналитиктер жаңа зиянды бағдарламаларды бұрынғыдан да жылдамырақ сұрыптап, түсіне алады.

үлкен деректер жиынтықтарындағы зиянды бағдарламаларды анықтау үшін де қолданылады . Дәстүрлі антивирустық қозғалтқыштар файлдарды белгілі қолтаңбалар үшін сканерлейді, бірақ генеративтік модель файлдың сипаттамаларын бағалай алады және тіпті үйренген үлгілерге сүйене отырып, оның зиянды екенін болжай алады. Миллиардтаған файлдардың (зиянды және зиянсыз) атрибуттарын талдау арқылы жасанды интеллект нақты қолтаңба болмаған жағдайда зиянды ниетті анықтай алады. Мысалы, генеративтік модель орындалатын файлды күдікті деп белгілей алады, себебі оның мінез-құлық профилі «ұқсайды» . Бұл мінез-құлыққа негізделген анықтау жаңа немесе нөлдік күндік зиянды бағдарламаларға қарсы тұруға көмектеседі. Google-дың Threat Intelligence жасанды интеллекті (Chronicle/Mandiant құрамына кіреді) өзінің генеративтік моделін ықтимал зиянды кодты талдау және «қауіпсіздік мамандарына зиянды бағдарламалармен және басқа да қауіптермен күресуде тиімдірек және тиімдірек көмектесу» үшін пайдаланатыны туралы хабарланған. ( Киберқауіпсіздікте генеративтік жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ).

Екінші жағынан, шабуылдаушылар мұнда да генеративті жасанды интеллектті пайдалана алатынын мойындауымыз керек - бұл автоматты түрде өзін бейімдейтін зиянды бағдарламаны жасау үшін. Шын мәнінде, қауіпсіздік сарапшылары анықтау қиынырақ зиянды бағдарламаны жасауға көмектесетінін Киберқауіпсіздікте генеративті жасанды интеллект дегеніміз не? - Palo Alto Networks ). Жасанды интеллект моделіне зиянды бағдарламаның бір бөлігін барлық белгілі антивирустық тексерулерден жалтарғанша бірнеше рет өзгертуге (файл құрылымын, шифрлау әдістерін және т.б. өзгертуге) нұсқау берілуі мүмкін. Бұл қарсылас пайдалану өсіп келе жатқан мәселе болып табылады (кейде «Жасанды интеллектпен жұмыс істейтін зиянды бағдарлама» немесе қызмет ретінде полиморфты зиянды бағдарлама деп аталады). Біз мұндай тәуекелдерді кейінірек талқылаймыз, бірақ бұл генеративті жасанды интеллект қорғаушылар да, шабуылдаушылар да қолданатын «мысық пен тышқан» ойынындағы құрал екенін көрсетеді.

шабуылдаушы сияқты ойлауға мүмкіндік беру арқылы зиянды бағдарламалардан қорғауды күшейтеді – бұл жаңа қауіптер мен шешімдерді өз ішінде жасайды. Анықтау жылдамдығын жақсарту үшін синтетикалық зиянды бағдарламаларды жасау немесе желілерде кездесетін нақты зиянды бағдарламаларды түсіндіру және жою үшін жасанды интеллектті пайдалану болсын, бұл әдістер барлық салаларда қолданылады. Банк электрондық кестедегі күдікті макросты тез талдау үшін жасанды интеллектке негізделген зиянды бағдарламаларды талдауды пайдалануы мүмкін, ал өндірістік фирма өнеркәсіптік басқару жүйелеріне бағытталған зиянды бағдарламаларды анықтау үшін жасанды интеллектке сүйенуі мүмкін. Дәстүрлі зиянды бағдарламаларды талдауды генеративті жасанды интеллектпен толықтыру арқылы ұйымдар зиянды бағдарламалар науқандарына бұрынғыдан да жылдам және белсенді түрде жауап бере алады.

Қауіп-қатерді анықтау және автоматтандыру талдауы

Күн сайын ұйымдарға қауіп туралы барлау деректері шабуылға ұшырайды – жаңадан ашылған бұзушылық көрсеткіштерінің (IOC) берілістерінен бастап, жаңадан пайда болған хакерлік тактикалар туралы аналитикалық есептерге дейін. Қауіпсіздік топтары үшін қиындық осы ақпарат ағынын сүзіп алу және іс жүзінде қолдануға болатын түсініктерді алу болып табылады. Генеративтік жасанды интеллект қауіп туралы барлауды талдау мен тұтынуды автоматтандыруда . Аналитиктер ондаған есептерді немесе дерекқор жазбаларын қолмен оқудың орнына, жасанды интеллектті машина жылдамдығында қорытындылау және контекстке келтіру үшін пайдалана алады.

Нақты мысал ретінде Google-дың Threat Intelligence жиынтығын айтуға болады, ол генеративті жасанды интеллектті (Gemini моделін) Google-дың Mandiant және VirusTotal қауіп деректерінің қорымен біріктіреді. Бұл жасанды интеллект «Google-дың қауіп туралы ақпараттың кең қоймасында әңгімелесу іздеуін» , бұл пайдаланушыларға қауіптер туралы табиғи сұрақтар қоюға және нақты жауаптар алуға мүмкіндік береді ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ). Мысалы, талдаушы: «Біздің саламызға бағытталған Threat Group X-ке қатысты зиянды бағдарламаларды көрдік пе?» , ал жасанды интеллект тиісті ақпаратты жинайды, мүмкін «Иә, Threat Group X өткен айда Y зиянды бағдарламасын пайдаланып фишинг науқанына байланысты болды» , сол зиянды бағдарламаның әрекетінің қысқаша мазмұнын көрсетеді. Бұл басқаша бірнеше құралдарға сұрау салуды немесе ұзақ есептерді оқуды қажет ететін түсініктерді жинау уақытын айтарлықтай қысқартады.

қауіп-қатер үрдістерін де өзара байланыстыра және қорытындылай алады . Ол мыңдаған қауіпсіздік блог жазбаларын, бұзу жаңалықтарын және қара веб-әңгімелерді қарап шығып, содан кейін CISO брифингіне «осы аптадағы негізгі киберқауіптердің» қысқаша мазмұнын жасай алады. Дәстүрлі түрде, талдау мен есеп берудің бұл деңгейі айтарлықтай адам күшін қажет етті; қазір жақсы реттелген модель оны бірнеше секунд ішінде жасай алады, ал адамдар тек нәтижені нақтылайды. ZeroFox сияқты компаниялар зиянды мазмұн мен фишинг деректерін қоса алғанда , «үлкен деректер жиынтығындағы интеллектті талдауды және қорытындылауды жеделдету» үшін арнайы жасалған генеративті жасанды интеллект құралы FoxGPT-ны Генеративті жасанды интеллектті киберқауіпсіздікте қалай пайдалануға болады? 10 нақты мысал ). Деректерді оқу мен айқас сілтемелерді алудың ауыр жұмысын автоматтандыру арқылы жасанды интеллект қауіп-қатер барлау топтарына шешім қабылдауға және жауап беруге назар аударуға мүмкіндік береді.

Тағы бір қолдану жағдайы - әңгімелесу арқылы қауіптерді іздеу . Қауіпсіздік талдаушысының жасанды интеллект көмекшісімен өзара әрекеттесетінін елестетіп көріңіз: «Соңғы 48 сағат ішінде деректерді шығарудың кез келген белгілерін көрсетіңіз» немесе «Шабуылдаушылар осы аптада қандай жаңа осалдықтарды пайдаланып жатыр?» Жасанды интеллект сұранысты түсіндіре алады, ішкі журналдарды немесе сыртқы барлау көздерін іздей алады және нақты жауаппен немесе тіпті тиісті оқиғалардың тізімімен жауап бере алады. Бұл шындыққа жанаспайды - заманауи қауіпсіздік туралы ақпарат және оқиғаларды басқару (SIEM) жүйелері табиғи тілде сұрауды енгізе бастады. Мысалы, IBM компаниясының QRadar қауіпсіздік жиынтығы 2024 жылы аналитиктерге оқиғаның «қорытынды шабуыл жолы туралы нақты сұрақтар қоюға» «өте маңызды қауіп туралы барлауды түсіндіре және қорытындылай» ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ). Негізінде, генеративті жасанды интеллект техникалық деректердің тау-тауын сұраныс бойынша чат өлшеміндегі түсініктерге айналдырады.

Әр салада бұл үлкен салдарға әкеледі. Денсаулық сақтау провайдері жасанды интеллектті пайдаланып, ауруханаларға бағытталған соңғы ransomware топтары туралы хабардар бола алады, бірақ аналитикті толық уақытты зерттеуге арнамайды. Бөлшек сауда компаниясының SOC дүкеннің IT қызметкерлеріне нұсқаулық берген кезде жаңа POS зиянды бағдарламаларының тактикасын тез қорытындылай алады. Ал үкіметте әртүрлі агенттіктерден келетін қауіп туралы деректер синтезделуі қажет болған жағдайда, жасанды интеллект негізгі ескертулерді көрсететін бірыңғай есептер шығара алады. Қауіп туралы барлауды жинауды және түсіндіруді автоматтандыру генеративті жасанды интеллект ұйымдарға пайда болатын қауіптерге тезірек жауап беруге көмектеседі және шуылға жасырынған маңызды ескертулерді жіберіп алу қаупін азайтады.

Қауіпсіздік операциялары орталығын (ҚОО) оңтайландыру

Қауіпсіздік операциялары орталықтары дабылдың шаршауы және деректердің көптігімен танымал. Әдеттегі SOC талдаушысы күн сайын мыңдаған дабылдар мен оқиғаларды қарап шығып, ықтимал оқиғаларды тергеуі мүмкін. Генеративтік жасанды интеллект күнделікті жұмысты автоматтандыру, ақылды қорытындылар беру және тіпті кейбір жауаптарды ұйымдастыру арқылы SOC-та күш көбейткіші ретінде әрекет етеді. Мақсат - SOC жұмыс процестерін оңтайландыру, осылайша адами талдаушылар ең маңызды мәселелерге назар аудара алады, ал жасанды интеллекттің екінші пилоты қалғандарын өңдей алады.

«Талдаушының қосалқы ұшқышы» ретінде пайдалану . Жоғарыда айтылғандай, Microsoft компаниясының Security Copilot бағдарламасы мұны мысалға келтіреді: ол «қауіпсіздік талдаушысының жұмысын ауыстырудың орнына көмектесуге арналған», оқиғаларды тергеу және есеп беруге көмектеседі ( Microsoft Security Copilot - киберқауіпсіздікке арналған жаңа GPT-4 жасанды интеллект көмекшісі | The Verge ). Іс жүзінде бұл талдаушы шикі деректерді - брандмауэр журналдарын, оқиға уақыт шкаласын немесе оқиға сипаттамасын - енгізе алатынын және жасанды интеллекттен оны талдауды немесе қорытындылауды сұрай алатынын білдіреді. Қосалқы ұшқыш бағдарлама «Таңғы сағат 2:35-те IP X серверінен күдікті кіру Y серверінде сәтті аяқталған сияқты, содан кейін ерекше деректер берілді, бұл сол сервердің ықтимал бұзылуын көрсетеді» сияқты әңгіме шығаруы мүмкін. Уақыт өте маңызды болған кезде мұндай жедел контекстуализация баға жетпес.

Жасанды интеллекттің қосалқы ұшқыштары 1-деңгейдегі сұрыптау жүктемесін азайтуға да көмектеседі. Салалық деректерге сәйкес, қауіпсіздік тобы аптасына 15 сағатты шамамен 22 000 ескертулер мен жалған оң нәтижелерді сұрыптауға жұмсай алады ( Киберқауіпсіздікте генеративті жасанды интеллекттің 6 қолданылу жағдайы [+ мысалдар] ). Генеративті жасанды интеллектпен бұл ескертулердің көпшілігін автоматты түрде сұрыптауға болады – жасанды интеллект анық зиянсыздарын (себебі келтірілген) жоққа шығарып, шынымен назар аударуды қажет ететіндерін ерекшелей алады, кейде тіпті басымдықты ұсынады. Шын мәнінде, генеративті жасанды интеллекттің контекстті түсінудегі күші оның оқшауланғанда зиянсыз болып көрінуі мүмкін, бірақ бірге көп сатылы шабуылды көрсететін ескертулерді өзара байланыстыра алатынын білдіреді. Бұл «ескертудің шаршауына» байланысты шабуылды өткізіп алу мүмкіндігін азайтады.

SOC аналитиктері іздеу мен тергеуді жеделдету үшін жасанды интеллектпен бірге табиғи тілді де қолданады. Мысалы, Purple AI «қарапайым ағылшын тілінде күрделі қауіп-қатерлерді іздеу сұрақтарын қоюға және жылдам, дәл жауаптар алуға» ( Киберқауіпсіздікте генеративтік жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ). Аналитик: «Соңғы айда badguy123[.]com доменімен байланысқан кез келген соңғы нүктелер болды ма?» , ал Purple AI жауап беру үшін журналдарды іздейді. Бұл аналитикті дерекқор сұрауларын немесе сценарийлерін жазудан құтқарады – жасанды интеллект мұны жасырын түрде жасайды. Бұл сондай-ақ кіші аналитиктер бұрын сұраныс тілдерінде білікті тәжірибелі инженерді қажет ететін тапсырмаларды орындай алатынын, жасанды интеллект көмегімен команданың біліктілігін тиімді түрде арттыра алатынын . Шынында да, аналитиктер генеративті жасанды интеллект бойынша нұсқаулық «олардың дағдылары мен біліктілігін арттыратынын» , себебі кіші қызметкерлер енді жасанды интеллекттен сұраныс бойынша кодтау бойынша қолдау немесе талдау бойынша кеңестер ала алады, бұл әрқашан жоғары лауазымды топ мүшелерінен көмек сұрауға тәуелділікті азайтады ( Киберқауіпсіздіктегі генеративті жасанды интеллект үшін 6 пайдалану жағдайы [+ мысалдар] ).

Тағы бір SOC оңтайландыруы - оқиғаларды автоматтандырылған түрде қорытындылау және құжаттау . Оқиға өңделгеннен кейін біреу есеп жазуы керек - бұл көпшілік үшін жалықтыратын тапсырма. Генеративті жасанды интеллект сот-медициналық деректерді (жүйелік журналдар, зиянды бағдарламаларды талдау, әрекеттердің уақыт кестесі) алып, оқиға туралы алғашқы есепті жасай алады. IBM бұл мүмкіндікті QRadar-ға енгізіп жатыр, осылайша «бір рет басу» әртүрлі мүдделі тараптар (басшылар, IT топтары және т.б.) үшін оқиға туралы қысқаша ақпарат жасауға болады ( Генеративті жасанды интеллектті киберқауіпсіздікте қалай пайдалануға болады? 10 нақты мысал ). Бұл уақытты үнемдеп қана қоймай, сонымен қатар есепте ештеңенің назардан тыс қалмауын қамтамасыз етеді, себебі жасанды интеллект барлық тиісті мәліметтерді үнемі қамти алады. Сол сияқты, сәйкестік және аудит үшін жасанды интеллект оқиға деректеріне негізделген нысандарды немесе дәлелдемелер кестелерін толтыра алады.

Нақты әлемдегі нәтижелер таңқаларлық. Swimlane компаниясының жасанды интеллектке негізделген SOAR (қауіпсіздікті басқару, автоматтандыру және жауап беру) жүйесін алғашқы қолданушылар өнімділіктің айтарлықтай артуын хабарлады – мысалы, Global Data Systems компаниясы SecOps командасының әлдеқайда көп іс жүктемесін басқарғанын көрді; бір директор жасанды интеллектке негізделген автоматизациясыз 20 қызметкерді жұмыспен қамтитын еді» Киберқауіпсіздікте генеративтік жасанды интеллектті қалай пайдалануға болады ). Басқаша айтқанда, SOC-тағы жасанды интеллект қуаттылықты арттыра алады . Бұлтты қауіпсіздік туралы ескертулермен айналысатын технологиялық компания болсын немесе OT жүйелерін бақылайтын өндірістік зауыт болсын, SOC командалары генеративтік жасанды интеллект көмекшілерін пайдалану арқылы жылдам анықтау мен жауап беруге, жіберіп алған оқиғаларды азайтуға және тиімдірек операцияларға қол жеткізуге дайын. Бұл ақылды жұмыс істеу туралы – машиналарға қайталанатын және деректерге көп жүктелетін тапсырмаларды орындауға мүмкіндік беру, осылайша адамдар өздерінің интуициясы мен тәжірибесін ең маңызды жерде қолдана алады.

Осалдықты басқару және қауіп-қатерді модельдеу

Киберқауіпсіздіктің негізгі функциясы - шабуылдаушылар пайдалана алатын бағдарламалық жасақтамадағы немесе жүйелердегі осалдықтарды анықтау және басқару. Генеративтік жасанды интеллект анықтауды жеделдету, патчтардың басымдығын анықтауға көмектесу және тіпті дайындықты жақсарту үшін сол осалдықтарға шабуылдарды модельдеу арқылы осалдықтарды басқаруды жақсартады. Негізінде, жасанды интеллект ұйымдарға сауыттарындағы тесіктерді тезірек табуға және түзетуге көмектеседі және нақты шабуылдаушылардан бұрын қорғанысты белсенді түрде

кодты автоматтандырылған шолу және осалдықтарды анықтау үшін генеративті жасанды интеллектті пайдалану . Үлкен код базаларында (әсіресе ескі жүйелерде) көбінесе байқалмайтын қауіпсіздік кемшіліктері болады. Генеративті жасанды интеллект модельдерін қауіпсіз кодтау тәжірибелері мен жиі кездесетін қате үлгілері бойынша оқытуға болады, содан кейін ықтимал осалдықтарды табу үшін бастапқы кодта немесе компиляцияланған екілік файлдарда іске қосуға болады. Мысалы, NVIDIA зерттеушілері ескі бағдарламалық жасақтама контейнерлерін талдап, осалдықтарды «жоғары дәлдікпен - адам сарапшыларына қарағанда 4 есе жылдамырақ» ( Киберқауіпсіздікте генеративті жасанды интеллект үшін 6 пайдалану жағдайы [+ мысалдар] ). Жасанды интеллект қауіпсіз емес кодтың қандай болатынын білді және ондаған жылдар бұрын қолданылған бағдарламалық жасақтаманы сканерлеп, қауіпті функциялар мен кітапханаларды белгілей алды, бұл әдетте кодты қолмен аудиттеудің баяу процесін айтарлықтай жылдамдатты. Бұл құрал түрі үлкен, ескі код базаларына сүйенетін қаржы немесе үкімет сияқты салалар үшін ойын ережесін өзгерте алады - жасанды интеллект қызметкерлердің табуы бірнеше ай немесе жылдарға созылуы мүмкін мәселелерді (егер бар болса) анықтау арқылы қауіпсіздікті жаңғыртуға көмектеседі.

осалдықтарды сканерлеу нәтижелерін өңдеу және оларға басымдық беру арқылы осалдықтарды басқару жұмыс процестеріне көмектеседі ExposureAI аналитиктерге осалдық деректерін қарапайым тілде сұрауға және лезде жауап алуға мүмкіндік беру үшін генеративті жасанды интеллектті пайдаланады ( Генеративті жасанды интеллектті киберқауіпсіздікте қалай пайдалануға болады? 10 нақты мысал ). ExposureAI «толық шабуыл жолын баяндауда қорытындылай» , шабуылдаушы оны жүйені бұзу үшін басқа әлсіздіктермен қалай байланыстыра алатынын түсіндіреді. Ол тіпті түзету шараларын ұсынады және тәуекел туралы қосымша сұрақтарға жауап береді. Бұл жаңа маңызды CVE (Жалпы осалдық және әсер ету) жарияланған кезде, аналитик жасанды интеллекттен: «Біздің серверлеріміздің кез келгені осы CVE-ден зардап шекті ме және егер біз патч жасамасақ, ең нашар сценарий қандай?» сұрай алады және ұйымның өз сканерлеу деректерінен алынған нақты баға алады дегенді білдіреді. Осалдықтарды контекстке келтіру арқылы (мысалы, бұл интернетке және жоғары құнды серверге ұшырайды, сондықтан ол басты басымдық болып табылады), генеративті жасанды интеллект командаларға шектеулі ресурстармен ақылды патч жасауға көмектеседі.

Белгілі осалдықтарды табу және басқарумен қатар, генеративті жасанды интеллект енуді тексеруге және шабуылды модельдеуге белгісіз анықтау немесе қауіпсіздікті басқаруды тексеру. Генеративті жасанды интеллекттің бір түрі болып табылатын генеративті қарсылас желілер (GAN) нақты желілік трафикті немесе пайдаланушының мінез-құлқын имитациялайтын синтетикалық деректерді жасау үшін пайдаланылды, оған жасырын шабуыл үлгілері кіруі мүмкін. 2023 жылғы зерттеуде енуді анықтау жүйелерін оқыту үшін нақты нөлдік күндік шабуыл трафигін жасау үшін GAN пайдалану ұсынылды ( Киберқауіпсіздіктегі генеративті жасанды интеллект үшін 6 пайдалану жағдайы [+ мысалдар] ). IDS-ке жасанды интеллектпен жасалған шабуыл сценарийлерін беру арқылы (өндірістік желілерде нақты зиянды бағдарламаларды пайдалану қаупін тудырмайды), ұйымдар өздерінің қорғаныс жүйелерін жаңа қауіптердің шын мәнінде соққыға ұшырауын күтпей-ақ тануға үйрете алады. Сол сияқты, жасанды интеллект шабуылдаушының жүйені зерттеп жатқанын модельдей алады – мысалы, кез келгенінің сәтті екенін көру үшін қауіпсіз ортада әртүрлі эксплуатация әдістерін автоматты түрде сынап көру. АҚШ Қорғаныс саласындағы озық зерттеу жобалары агенттігі (DARPA) мұнда үміт күттіретін нәрсе көріп отыр: оның 2023 жылғы жасанды интеллект кибершаллені бәсекелестік аясында «ашық бастапқы кодты бағдарламалық жасақтамадағы осалдықтарды автоматты түрде табу және түзету» DARPA жасанды интеллектті, әскери қызметшілер сене алатын автономиялық қолданбаларды әзірлеуді мақсат етеді > АҚШ Қорғаныс министрлігі > Қорғаныс министрлігінің жаңалықтары ). Бұл бастама жасанды интеллекттің тек белгілі олқылықтарды түзетуге ғана көмектесіп қана қоймай, жаңаларын белсенді түрде ашып, түзетулерді ұсынады, бұл міндет дәстүрлі түрде білікті (және қымбат) қауіпсіздік зерттеушілерімен шектеледі.

ақылды бал қораптары мен сандық егіздерді жасай алады . Стартаптар нақты серверлерді немесе құрылғыларды сенімді түрде имитациялайтын жасанды интеллектпен басқарылатын алдау жүйелерін әзірлеуде. Бір бас директор түсіндіргендей, генеративті жасанды интеллект «нақты серверлерді имитациялау үшін сандық жүйелерді клондай алады және хакерлерді тарта алады» ( Киберқауіпсіздікте генеративті жасанды интеллект үшін 6 пайдалану жағдайы [+ мысалдар] жасанды интеллектпен күшейтілген алдауды пайдаланып, шабуылдаушыларға қарсы тұрудың болашаққа бағытталған жолын ұсынады

Барлық салаларда осалдықтарды жылдам және ақылды басқару бұзушылықтардың азаюын білдіреді. Мысалы, денсаулық сақтау саласындағы IT саласында жасанды интеллект медициналық құрылғыдағы осал ескірген кітапхананы тез анықтап, кез келген шабуылдаушы оны пайдаланбас бұрын микробағдарламаны жөндеуді сұрауы мүмкін. Банк саласында жасанды интеллект барлық сценарийлерде тұтынушы деректерінің қауіпсіздігін қамтамасыз ету үшін жаңа қолданбаға инсайдерлік шабуылды модельдей алады. Осылайша, генеративтік жасанды интеллект ұйымдардың қауіпсіздік жағдайын микроскоп және стресс-тестер ретінде әрекет етеді: ол тұрақтылықты қамтамасыз ету үшін жасырын кемшіліктер мен қысым жүйелерін көркем жолдармен көрсетеді.

Қауіпсіз кодты жасау және бағдарламалық жасақтаманы әзірлеу

Генеративтік жасанды интеллекттің таланттары шабуылдарды анықтаумен шектелмейді - олар басынан бастап қауіпсіз жүйелерді жасауға . Бағдарламалық жасақтаманы әзірлеуде жасанды интеллект код генераторлары (мысалы, GitHub Copilot, OpenAI Codex және т.б.) әзірлеушілерге код үзінділерін немесе тіпті тұтас функцияларды ұсыну арқылы кодты жылдам жазуға көмектесе алады. Киберқауіпсіздік аспектісі - бұл жасанды интеллект ұсынған код бөліктерінің қауіпсіз болуын қамтамасыз ету және кодтау тәжірибелерін жақсарту үшін жасанды интеллектті пайдалану.

Бір жағынан, генеративті жасанды интеллект қауіпсіздіктің ең жақсы тәжірибелерін енгізетін кодтау көмекшісі . Әзірлеушілер жасанды интеллект құралына «Python тілінде құпия сөзді қалпына келтіру функциясын жасау» деп және ең дұрысы тек функционалды ғана емес, сонымен қатар қауіпсіз нұсқауларға сәйкес келетін кодты қайтара алады (мысалы, дұрыс енгізуді тексеру, журнал жүргізу, ақпаратты ағып кетпей қателерді өңдеу және т.б.). Мұндай көмекші, кең ауқымды қауіпсіз код мысалдары бойынша дайындалған, осалдықтарға әкелетін адами қателерді азайтуға көмектеседі. Мысалы, егер әзірлеуші ​​пайдаланушы енгізген деректерді тазартуды ұмытып кетсе (SQL инъекциясына немесе осыған ұқсас мәселелерге жол ашса), жасанды интеллект оны әдепкі бойынша қосуы немесе ескертуі мүмкін. Кейбір жасанды интеллект кодтау құралдары қазір осы мақсатқа қызмет ету үшін қауіпсіздікке бағытталған деректермен жетілдірілуде - негізінен, жасанды интеллект қауіпсіздік санасымен жұптастыру .

Дегенмен, мұның кері жағы да бар: генеративті жасанды интеллект дұрыс басқарылмаса, осалдықтарды оңай тудыруы мүмкін. Sophos қауіпсіздік сарапшысы Бен Вершаерен атап өткендей, кодтау үшін генеративті жасанды интеллектті пайдалану «қысқа, тексерілетін код үшін жақсы, бірақ тексерілмеген код өндірістік жүйелерге біріктірілген кезде қауіпті». Тәуекел - жасанды интеллект сарапшы емес адам байқамайтын жолдармен қауіпсіз емес логикалық тұрғыдан дұрыс кодты шығаруы мүмкін. Сонымен қатар, зиянкестер қоғамдық жасанды интеллект модельдеріне осал код үлгілерін (деректерді уланудың бір түрі) себу арқылы әдейі әсер етуі мүмкін, осылайша жасанды интеллект қауіпсіз емес кодты ұсынады. Көптеген әзірлеушілер қауіпсіздік сарапшылары емес , сондықтан егер жасанды интеллект ыңғайлы шешім ұсынса, олар оны кемшілігі бар екенін түсінбей, соқыр түрде пайдалануы мүмкін ( Киберқауіпсіздікте генеративті жасанды интеллект үшін 6 пайдалану жағдайы [+ мысалдар] ). Бұл алаңдаушылық шындық - шын мәнінде, қазір LLM (үлкен тілді модельдер) үшін кодтау үшін жасанды интеллектті пайдаланудағы осындай жалпы тәуекелдерді сипаттайтын OWASP Top 10 тізімі бар.

Бұл мәселелерді шешу үшін сарапшылар кодтау саласында «генеративті жасанды интеллектпен генеративті жасанды интеллектпен күресуді» кодты қарап шығу және тексеру . Жасанды интеллект адам кодын шолушыға қарағанда жаңа кодты әлдеқайда жылдам сканерлей алады және ықтимал осалдықтарды немесе логикалық мәселелерді белгілей алады. Біз бағдарламалық жасақтаманы әзірлеу өмірлік цикліне интеграцияланатын құралдардың пайда болуын көріп отырмыз: код жазылады (мүмкін, жасанды интеллект көмегімен), содан кейін қауіпсіз код принциптері бойынша оқытылған генеративті модель оны қарап шығады және кез келген мәселелер туралы есеп жасайды (мысалы, ескірген функцияларды пайдалану, аутентификация тексерулерінің болмауы және т.б.). NVIDIA компаниясының бұрын айтылғандай, кодтағы осалдықты 4 есе жылдам анықтауға қол жеткізген зерттеуі қауіпсіз кодты талдау үшін жасанды интеллектті пайдаланудың мысалы болып табылады ( Киберқауіпсіздіктегі генеративті жасанды интеллект үшін 6 пайдалану жағдайы [+ мысалдар] ).

қауіпсіз конфигурациялар мен сценарийлерді жасауға көмектесе алады . Мысалы, егер компанияға қауіпсіз бұлттық инфрақұрылымды орналастыру қажет болса, инженер жасанды интеллекттен қауіпсіздік басқару элементтері (мысалы, тиісті желілік сегменттеу, ең аз артықшылықты IAM рөлдері) бар конфигурация сценарийлерін (код ретіндегі инфрақұрылым) жасауды сұрай алады. Осындай мыңдаған конфигурациялар бойынша оқытылған жасанды интеллект инженер реттейтін базалық сызық жасай алады. Бұл жүйелердің қауіпсіз орнатылуын жеделдетеді және бұлттық қауіпсіздік оқиғаларының кең таралған көзі болып табылатын дұрыс емес конфигурация қателерін азайтады.

Кейбір ұйымдар қауіпсіз кодтау үлгілері туралы білім базасын сақтау үшін генеративті жасанды интеллектті де пайдаланады. Егер әзірлеуші ​​белгілі бір мүмкіндікті қалай қауіпсіз енгізу керектігін білмесе, олар компанияның бұрынғы жобалары мен қауіпсіздік нұсқауларынан үйренген ішкі жасанды интеллектке сұрау сала алады. Жасанды интеллект функционалдық талаптарға да, компанияның қауіпсіздік стандарттарына да сәйкес келетін ұсынылған тәсілді немесе тіпті код үзіндісін қайтаруы мүмкін. Бұл тәсіл Secureframe компаниясының Questionnaire Automation , ол компанияның саясаты мен бұрынғы шешімдерінен жауаптарды алып, бірізді және дәл жауаптарды қамтамасыз етеді (негізінен қауіпсіз құжаттаманы жасайды) ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ). Бұл тұжырымдама кодтауға аударылады: бұрын бір нәрсені қалай қауіпсіз енгізгеніңізді «есінде сақтайтын» және оны қайтадан солай істеуге бағыттайтын жасанды интеллект.

Қорытындылай келе, генеративті жасанды интеллект бағдарламалық жасақтаманы әзірлеуге әсер етіп, қауіпсіз кодтау көмегін қолжетімді етуде . Көптеген арнайы бағдарламалық жасақтаманы әзірлейтін салалар - технология, қаржы, қорғаныс және т.б. - кодтауды жеделдетіп қана қоймай, сонымен қатар үнемі қырағы қауіпсіздік шолушысы ретінде әрекет ететін жасанды интеллекттің қосалқы пилоттарының болуынан пайда көреді. Дұрыс басқарылған кезде, бұл жасанды интеллект құралдары жаңа осалдықтардың пайда болуын азайтып, әзірлеуші ​​топтарға ең жақсы тәжірибелерді ұстануға көмектеседі, тіпті командада әр қадамда қауіпсіздік маманы болмаса да. Нәтижесінде, алғашқы күннен бастап шабуылдарға қарсы сенімдірек бағдарламалық жасақтама пайда болады.

Оқиғаға жауап беруді қолдау

Киберқауіпсіздік оқиғасы орын алған кезде – зиянды бағдарламаның таралуы, деректердің бұзылуы немесе шабуылдан жүйенің істен шығуы – уақыт өте маңызды. Генеративті жасанды интеллект оқиғаларға жауап беру (IR) топтарына оқиғаларды тезірек және көбірек ақпаратпен шектеу және жоюда қолдау көрсету үшін барған сайын қолданылуда. Идея - жасанды интеллект оқиға кезінде тергеу және құжаттамалық ауыртпалықтың бір бөлігін өз мойнына ала алады, тіпті кейбір жауап әрекеттерін ұсына алады немесе автоматтандыра алады.

Интеллектуалды интеллекттегі жасанды интеллекттің негізгі рөлдерінің бірі - нақты уақыт режиміндегі оқиғаларды талдау және қорытындылау . Оқиға кезінде жауап берушілерге «Шабуылдаушы қалай кірді?» , «Қай жүйелерге әсер етті?» және «Қандай деректер бұзылуы мүмкін?» . Генеративтік жасанды интеллект зардап шеккен жүйелерден журналдарды, ескертулерді және сот-медициналық деректерді талдап, тез түсінік бере алады. Мысалы, Microsoft Security Copilot оқиғаға жауап берушіге әртүрлі дәлелдемелерді (файлдар, URL мекенжайлары, оқиға журналдары) енгізуге және уақыт шкаласын немесе қорытындыны сұрауға мүмкіндік береді ( Microsoft Security Copilot - киберқауіпсіздікке арналған жаңа GPT-4 жасанды интеллект көмекшісі | The Verge ). Жасанды интеллект келесідей жауап беруі мүмкін: «Бұзушылық, бәлкім, GMT бойынша сағат 10:53-те пайдаланушы JohnDoe-ге X зиянды бағдарламасы бар фишингтік электрондық поштадан басталды. Орындалғаннан кейін, зиянды бағдарлама екі күннен кейін қаржы серверіне бүйірлік көшу үшін пайдаланылған артқы есік жасады, онда ол деректер жинады». Бұл үйлесімді суретті сағаттардың орнына минуттарда алу командаға хабардар шешімдер қабылдауға (мысалы, қай жүйелерді оқшаулау керек) әлдеқайда жылдам мүмкіндік береді.

Генеративтік жасанды интеллект тежеу ​​және қалпына келтіру әрекеттерін де ұсына . Мысалы, егер соңғы нүкте ransomware арқылы жұқтырылса, жасанды интеллект құралы сол машинаны оқшаулау, белгілі бір тіркелгілерді өшіру және брандмауэрдегі белгілі зиянды IP мекенжайларын бұғаттау үшін скрипт немесе нұсқаулар жиынтығын жасай алады - бұл негізінен ойын кітапшасының орындалуы. Palo Alto Networks генеративті жасанды интеллект «оқиғаның сипатына негізделген тиісті әрекеттерді немесе сценарийлерді жасай» , жауап берудің алғашқы қадамдарын автоматтандыратынын атап өтеді ( Киберқауіпсіздікте генеративті жасанды интеллект дегеніміз не? - Palo Alto Networks ). Қауіпсіздік тобы шамадан тыс жүктелген сценарийде (мысалы, жүздеген құрылғыларда кең таралған шабуыл), жасанды интеллект тіпті алдын ала бекітілген жағдайларда осы әрекеттердің кейбірін тікелей орындай алады, талмай жұмыс істейтін кіші жауап беруші сияқты әрекет етеді. Мысалы, жасанды интеллект агенті бұзылған деп санайтын тіркелгі деректерін автоматты түрде қалпына келтіре алады немесе оқиға профиліне сәйкес келетін зиянды әрекетті көрсететін хосттарды карантинге қоя алады.

Оқиғаға жауап беру кезінде коммуникация өте маңызды – команда ішінде де, мүдделі тараптармен де. Генеративті жасанды интеллект оқиға туралы жаңартулар туралы есептерді немесе қысқаша хабарламаларды жедел түрде жасау . Инженер ақаулықтарды жоюды тоқтатып, электрондық пошта арқылы жаңарту жазудың орнына, олар жасанды интеллекттен: «Басшыларға хабарлау үшін осы оқиғада не болғанын қорытындылаңыз» деп сұрай алады. Жасанды интеллект оқиға деректерін қабылдағаннан кейін қысқаша қорытынды жасай алады: «Сағат 15:00-де шабуылдаушылар 2 пайдаланушы тіркелгісіне және 5 серверге кірді. Зақымдалған деректерге X дерекқорындағы клиенттік жазбалар кіреді. Қорғаныс шаралары: бұзылған тіркелгілер үшін VPN қолжетімділігі жойылды және серверлер оқшауланды. Келесі қадамдар: кез келген тұрақтылық механизмдерін сканерлеу». Содан кейін жауап беруші мұны тез тексеріп немесе өзгертіп, жібере алады, бұл мүдделі тараптардың дәл, заманауи ақпаратпен хабардар болуын қамтамасыз етеді.

Шаң басылғаннан кейін, әдетте, оқиға туралы егжей-тегжейлі есеп дайындау және алынған сабақтарды жинау қажет. Бұл жасанды интеллект қолдауының тағы бір саласы. Ол оқиға туралы барлық деректерді қарап шығып, оқиғадан кейінгі есеп жасай . Мысалы, IBM түймені басу арқылы «мүдделі тараптармен бөлісуге болатын қауіпсіздік жағдайлары мен оқиғаларының қарапайым қорытындыларын» Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ). Іс-әрекеттен кейінгі есеп беруді жеңілдету арқылы ұйымдар жақсартуларды тезірек енгізе алады және сәйкестік мақсаттары үшін жақсы құжаттамаға ие бола алады.

Инновациялық болашаққа бағытталған қолданудың бірі - жасанды интеллектке негізделген оқиғаларды модельдеу . Өрт сөндіру жаттығуларын қалай жүргізуге болатынына ұқсас, кейбір компаниялар «егер не болса» деген оқиға сценарийлерін орындау үшін генеративті жасанды интеллектті пайдаланады. Жасанды интеллект желінің орналасуына байланысты ransomware қалай таралуы мүмкін екенін немесе инсайдер деректерді қалай сүзіп алып, содан кейін ағымдағы жауап беру жоспарларының тиімділігін қалай бағалай алатынын модельдеуі мүмкін. Бұл командаларға нақты оқиға орын алғанға дейін ойын кітапшаларын дайындауға және жетілдіруге көмектеседі. Бұл сіздің дайындығыңызды үнемі тексеретін үнемі жетілдіріліп отыратын оқиғаларға жауап беру бойынша кеңесшінің болуы сияқты.

Қаржы немесе денсаулық сақтау сияқты қауіпті салаларда, әсіресе оқиғалардан туындаған үзілістер немесе деректердің жоғалуы қымбатқа түсетіндіктен, жасанды интеллектке негізделген бұл IR мүмкіндіктері өте тартымды. Кибероқиғаға тап болған аурухана ұзақ уақыт бойы жүйенің істен шығуына төтеп бере алмайды – тез арада оқшаулауға көмектесетін жасанды интеллект өмірді сақтап қалуы мүмкін. Сол сияқты, қаржы мекемесі таңғы сағат 3-те күдікті алаяқтыққа қол сұғуды бастапқы сұрыптау үшін жасанды интеллектті пайдалана алады, сондықтан кезекші адамдар желіге қосылған кезде көптеген негізгі жұмыстар (зардап шеккен тіркелгілерден шығу, транзакцияларды бұғаттау және т.б.) орындалады. Оқиғаларға жауап беру топтарын генеративті жасанды интеллектпен толықтыру ұйымдар жауап беру уақытын айтарлықтай қысқартып, оларды өңдеудің мұқияттылығын жақсарта алады, сайып келгенде, кибероқиғалардан келтірілген залалды азайта алады.

Мінез-құлық аналитикасы және аномалияны анықтау

Көптеген кибершабуылдарды бір нәрсенің «қалыпты» мінез-құлықтан ауытқып кеткенін байқау арқылы анықтауға болады – бұл пайдаланушы тіркелгісінің ерекше мөлшердегі деректерді жүктеп алуы немесе желілік құрылғының таныс емес хостпен кенеттен байланысуы. Генеративтік жасанды интеллект мінез-құлықты талдау және аномалияларды анықтау , пайдаланушылар мен жүйелердің қалыпты үлгілерін үйрену және бір нәрсе дұрыс көрінбеген кезде белгілеу үшін озық әдістерді ұсынады.

Дәстүрлі аномалияны анықтау көбінесе белгілі бір көрсеткіштер бойынша статистикалық шекті мәндерді немесе қарапайым машиналық оқытуды пайдаланады (CPU пайдалануының күрт өсуі, тақ сағаттарда кіру және т.б.). Генеративтік жасанды интеллект мінез-құлықтың неғұрлым нәзік профильдерін жасау арқылы мұны одан әрі дамыта алады. Мысалы, жасанды интеллект моделі уақыт өте келе қызметкердің кіру деректерін, файлдарға кіру үлгілерін және электрондық пошта әдеттерін қабылдай алады және сол пайдаланушының «қалыпты» екенін көп өлшемді түсінуді қалыптастыра алады. Егер сол тіркелгі кейінірек өз нормасынан тыс нәрсе жасаса (мысалы, жаңа елден кіру және түн ортасында HR файлдарына кіру), жасанды интеллект тек бір көрсеткіште ғана емес, сонымен қатар пайдаланушы профиліне сәйкес келмейтін тұтас мінез-құлық үлгісінде ауытқуды анықтайды. Техникалық тұрғыдан алғанда, генеративті модельдер (мысалы, автокодерлер немесе тізбек модельдері) «қалыпты» қалай көрінетінін модельдей алады, содан кейін күтілетін мінез-құлық диапазонын жасай алады. Шындық сол диапазоннан тыс қалғанда, ол аномалия ретінде белгіленеді ( Киберқауіпсіздіктегі генеративті жасанды интеллект дегеніміз не? - Palo Alto Networks ).

Бір практикалық енгізу желілік трафикті бақылауда . 2024 жылғы сауалнамаға сәйкес, АҚШ ұйымдарының 54%-ы желілік трафикті бақылауды киберқауіпсіздікте жасанды интеллект үшін негізгі пайдалану жағдайы ретінде атады ( Солтүстік Америка: бүкіл әлем бойынша киберқауіпсіздікте жасанды интеллектті пайдаланудың ең көп таралған жағдайлары, 2024 ). Генеративтік жасанды интеллект кәсіпорын желісінің қалыпты байланыс үлгілерін – әдетте қандай серверлер бір-бірімен сөйлесетінін, жұмыс уақытында немесе түнде қандай көлемдегі деректер қозғалатынын және т.б. біле алады. Егер шабуылдаушы деректерді серверден баяу шығара бастаса, тіпті анықтаудан аулақ болу үшін, жасанды интеллектке негізделген жүйе «А сервері ешқашан таңғы сағат 2-де сыртқы IP мекенжайына 500 МБ деректерді жібермейді» , ескерту жасауы мүмкін. Жасыл интеллект тек статикалық ережелерді ғана емес, сонымен қатар желілік мінез-құлықтың дамып келе жатқан моделін қолданатындықтан, ол статикалық ережелердің (мысалы, «деректер > X МБ болса, ескерту») жіберіп алуы немесе қате белгілеуі мүмкін нәзік ауытқуларды анықтай алады. Бұл бейімделгіш сипат банк транзакциялары желілері, бұлттық инфрақұрылым немесе IoT құрылғыларының паркі сияқты орталарда жасанды интеллект басқаратын аномалияны анықтауды күшті етеді, мұнда қалыпты және қалыптан тыс үшін бекітілген ережелерді анықтау өте күрделі.

пайдаланушы мінез-құлқын талдауға (UBA) да көмектеседі . Әрбір пайдаланушының немесе нысанның базалық сызбасын жасау арқылы жасанды интеллект тіркелгі деректерін дұрыс пайдаланбау сияқты нәрселерді анықтай алады. Мысалы, егер бухгалтерлік есептегі Боб кенеттен тұтынушы дерекқорына сұрау сала бастаса (бұрын-соңды жасамаған нәрсе), Бобтың мінез-құлқына арналған жасанды интеллект моделі мұны ерекше деп белгілейді. Бұл зиянды бағдарлама болмауы мүмкін - бұл Бобтың тіркелгі деректерінің ұрланып, шабуылдаушымен пайдаланылуы немесе Бобтың пайдаланбауы керек жерде тексеруі болуы мүмкін. Қалай болғанда да, қауіпсіздік тобы тергеу үшін ескерту алады. Мұндай жасанды интеллектке негізделген UBA жүйелері әртүрлі қауіпсіздік өнімдерінде бар, ал генеративтік модельдеу әдістері олардың дәлдігін арттырады және контекстті ескере отырып жалған дабылдарды азайтады (мүмкін Боб арнайы жобада және т.б., оны жасанды интеллект кейде басқа деректерден шығара алады).

Жеке басты куәландыру және кіруді басқару саласында терең жалғанды ​​анықтау қажеттілігі артып келеді – генеративті жасанды интеллект биометриялық қауіпсіздікті алдайтын синтетикалық дауыстар мен бейнелерді жасай алады. Бір қызығы, генеративті жасанды интеллект аудио немесе бейнедегі адамдардың байқауы қиын нәзік артефактілерді талдау арқылы осы терең жалғанды ​​анықтауға да көмектесе алады. Біз Accenture компаниясының мысалын көрдік, ол сансыз бет-әлпет мимикалары мен жағдайларын модельдеу үшін генеративті жасанды интеллектті қолданды, бұл олардың биометриялық жүйелерін нақты пайдаланушыларды жасанды интеллект жасаған терең жалған ақпараттардан ажыратуға үйретті. Бес жыл ішінде бұл тәсіл Accenture компаниясына жүйелерінің 90%-ының құпия сөздерін жоюға (биометрияға және басқа факторларға көшу) және шабуылдарды 60%-ға азайтуға көмектесті ( Киберқауіпсіздікте генеративті жасанды интеллект үшін 6 пайдалану жағдайы [+ мысалдар] ). Негізінен, олар биометриялық аутентификацияны күшейту үшін генеративті жасанды интеллектті қолданды, бұл оны генеративті шабуылдарға төзімді етті (жасанды интеллекттің жасанды интеллектпен күресуінің тамаша мысалы). Мінез-құлықты модельдеудің бұл түрі – бұл жағдайда тірі адам беті мен жасанды интеллект синтезделген беттің арасындағы айырмашылықты тану – өте маңызды, себебі біз аутентификацияда жасанды интеллектке көбірек сүйенеміз.

Генеративтік жасанды интеллект көмегімен аномалияларды анықтау барлық салаларда қолданылады: денсаулық сақтау саласында медициналық құрылғылардың мінез-құлқын бұзу белгілеріне бақылау; қаржы саласында сауда жүйелерінде алаяқтықты немесе алгоритмдік манипуляцияны көрсетуі мүмкін тұрақсыз үлгілерді бақылау; энергетика/коммуналдық қызметтер саласында бұзушылық белгілеріне бақылау жүйесінің сигналдарын бақылау. кеңдік (мінез-құлықтың барлық аспектілерін қарау) мен тереңдіктің (күрделі үлгілерді түсіну) оны кибероқиғаның шөп үйіндісіндегі индикаторларын анықтаудың күшті құралына айналдырады. Қауіптер жасырын бола бастаған сайын, қалыпты операциялар арасында жасырынып, «қалыпты» дәл сипаттау және бірдеңе ауытқыған кезде айқайлау мүмкіндігі өте маңызды болады. Осылайша, генеративтік жасанды интеллект қоршаған ортадағы өзгерістерге ілесу үшін қалыптылықтың анықтамасын үнемі үйреніп, жаңартып отыратын және қауіпсіздік топтарын мұқият тексеруді қажет ететін ауытқулар туралы ескертетін шаршамайтын күзетші ретінде қызмет етеді.

Киберқауіпсіздіктегі генеративті жасанды интеллекттің мүмкіндіктері мен артықшылықтары

Киберқауіпсіздікте генеративті жасанды интеллектті қолдану осы құралдарды пайдалануға дайын ұйымдар үшін көптеген мүмкіндіктер мен артықшылықтар . Төменде генеративті жасанды интеллектті киберқауіпсіздік бағдарламаларына тартымды қосымша ететін негізгі артықшылықтарды қорытындылаймыз:

  • Қауіпті жылдам анықтау және жауап беру: Генеративті жасанды интеллект жүйелері нақты уақыт режимінде үлкен көлемдегі деректерді талдай алады және қолмен адами талдауға қарағанда қауіптерді әлдеқайда жылдам тани алады. Бұл жылдамдық артықшылығы шабуылдарды ертерек анықтауды және оқиғаларды тезірек оқшаулауды білдіреді. Іс жүзінде жасанды интеллектке негізделген қауіпсіздік мониторингі адамдардың өзара әрекеттесуіне әлдеқайда көп уақыт кететін қауіптерді анықтай алады. Оқиғаларға жедел жауап беру (немесе тіпті бастапқы жауаптарды өздігінен орындау) арқылы ұйымдар шабуылдаушылардың өз желілерінде болу уақытын айтарлықтай қысқарта алады, бұл залалды азайтады.

  • Дәлдік пен қауіп-қатерді қамтуды жақсарту: Олар жаңа деректерден үнемі білім алатындықтан, генеративті модельдер дамып келе жатқан қауіптерге бейімделе алады және зиянды әрекеттің нәзік белгілерін анықтай алады. Бұл статикалық ережелермен салыстырғанда анықтау дәлдігінің жақсаруына әкеледі (жалған теріс және жалған оң нәтижелер аз). Мысалы, фишингтік электрондық поштаның немесе зиянды бағдарламаның мінез-құлқының белгілерін үйренген жасанды интеллект бұрын-соңды болмаған нұсқаларды анықтай алады. Нәтижесінде жаңа шабуылдарды қоса алғанда, қауіп түрлерін кеңінен қамту жалпы қауіпсіздік жағдайын нығайтады. Қауіпсіздік топтары сонымен қатар жасанды интеллект талдауынан егжей-тегжейлі түсініктер алады (мысалы, зиянды бағдарламаның мінез-құлқының түсіндірмелері), бұл дәлірек және мақсатты қорғанысты қамтамасыз етеді ( Киберқауіпсіздіктегі генеративті жасанды интеллект дегеніміз не? - Palo Alto Networks ).

  • Қайталанатын тапсырмаларды автоматтандыру: Генеративтік жасанды интеллект күнделікті, көп еңбекті қажет ететін қауіпсіздік тапсырмаларын автоматтандыруда тамаша жұмыс істейді – журналдарды қарап шығудан және есептерді құрастырудан бастап, оқиғаларға жауап беру сценарийлерін жазуға дейін. Бұл автоматтандыру адами талдаушылардың ауыртпалығын азайтады , оларды жоғары деңгейлі стратегияға және күрделі шешім қабылдауға шоғырландыруға мүмкіндік береді ( Киберқауіпсіздікте генеративтік жасанды интеллект дегеніміз не? - Palo Alto Networks ). Осалдықты сканерлеу, конфигурация аудиті, пайдаланушы белсенділігін талдау және сәйкестік туралы есеп беру сияқты қарапайым, бірақ маңызды жұмыстарды жасанды интеллект шеше алады (немесе кем дегенде бірінші рет жасалған). Бұл тапсырмаларды машина жылдамдығында орындау арқылы жасанды интеллект тиімділікті арттырып қана қоймай, сонымен қатар адами қателіктерді де азайтады (бұзушылықтардың маңызды факторы).

  • Проактивті қорғаныс және модельдеу: Генеративтік жасанды интеллект ұйымдарға реактивті қауіпсіздіктен проактивті қауіпсіздікке ауысуға мүмкіндік береді. Шабуылды модельдеу, синтетикалық деректерді генерациялау және сценарийге негізделген оқыту сияқты әдістер арқылы қорғаушылар қауіптерді бұрын . Қауіпсіздік топтары кибершабуылдарды (фишингтік науқандар, зиянды бағдарламалардың таралуы, DDoS және т.б.) қауіпсіз ортада модельдеп, жауаптарын тексере алады және кез келген әлсіз жақтарын жоя алады. Көбінесе тек адам күшімен мұқият орындау мүмкін емес бұл үздіксіз оқыту қорғанысты өткір және жаңартылған күйде ұстайды. Бұл кибер «өрт жаттығуына» ұқсайды – жасанды интеллект сіздің қорғанысыңызға көптеген гипотетикалық қауіптерді жібере алады, сондықтан сіз жаттығып, жетілдіре аласыз.

  • Адами сараптаманы арттыру (күш көбейткіші ретіндегі жасанды интеллект): Генеративтік жасанды интеллект талмайтын жас аналитик, кеңесші және көмекші ретінде әрекет етеді. Ол тәжірибесі аз топ мүшелеріне тәжірибелі сарапшылардан күтілетін басшылық пен ұсыныстар бере алады, команда бойынша сараптаманы тиімді түрде демократияландырады Киберқауіпсіздікте генеративтік жасанды интеллекттің 6 қолданылу жағдайы [+ мысалдар] ). Бұл киберқауіпсіздіктегі таланттардың жетіспеушілігін ескере отырып, әсіресе құнды - жасанды интеллект кішігірім топтарға аз шығынмен көбірек жұмыс істеуге көмектеседі. Екінші жағынан, тәжірибелі аналитиктер жасанды интеллект ауыр жұмыстарды өңдеуден және айқын емес түсініктерді анықтаудан пайда көреді, содан кейін олар оны тексеріп, әрекет ете алады. Жалпы нәтиже - жасанды интеллект әрбір адам мүшесінің әсерін күшейтетін әлдеқайда өнімді және қабілетті қауіпсіздік тобы ( Киберқауіпсіздікте генеративтік жасанды интеллектті қалай пайдалануға болады ).

  • Шешім қабылдауды қолдауды және есеп беруді жақсарту: Техникалық деректерді табиғи тілдегі түсініктерге аудару арқылы генеративті жасанды интеллект коммуникацияны және шешім қабылдауды жақсартады. Қауіпсіздік саласындағы жетекшілер жасанды интеллект арқылы жасалған қысқаша мазмұн арқылы мәселелерді айқынырақ көре алады және шикі деректерді талдаудың қажеті жоқ, ақпараттандырылған стратегиялық шешімдер қабылдай алады. Сол сияқты, жасанды интеллект қауіпсіздік жағдайы мен оқиғалары туралы түсінікті есептерді дайындаған кезде функцияаралық коммуникация (басшыларға, сәйкестік жөніндегі қызметкерлерге және т.б.) жақсарады ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ). Бұл басшылық деңгейіндегі қауіпсіздік мәселелеріне сенімділік пен үйлесімділікті нығайтып қана қоймай, сонымен қатар тәуекелдер мен жасанды интеллект арқылы анықталған олқылықтарды анық көрсету арқылы инвестициялар мен өзгерістерді ақтауға көмектеседі.

Бұл артықшылықтар киберқауіпсіздікте генеративті жасанды интеллектті пайдаланатын ұйымдардың пайдалану шығындарын азайту арқылы күшті қауіпсіздік позициясына қол жеткізе алатынын білдіреді. Олар бұрын басым болған қауіптерге жауап бере алады, бақыланбаған олқылықтарды жоя алады және жасанды интеллект басқаратын кері байланыс циклдары арқылы үздіксіз жетілдіре алады. Түптеп келгенде, генеративті жасанды интеллект жылдамдығын, ауқымын және күрделілігін бірдей күрделі қорғаныс құралдарымен сәйкестендіру арқылы қарсыластардан озып кетуге мүмкіндік береді. Бір сауалнама көрсеткендей, бизнес және киберкөшбасшылардың жартысынан көбі генеративті жасанды интеллектті пайдалану арқылы қауіпті жылдам анықтауды және дәлдіктің артуын күтеді ( [PDF] 2025 жылғы жаһандық киберқауіпсіздік болжамы | Дүниежүзілік экономикалық форум ) ( Киберқауіпсіздіктегі генеративті жасанды интеллект: LLM-ге кешенді шолу ... ) – бұл технологиялардың артықшылықтарына деген оптимизмнің дәлелі.

Киберқауіпсіздікте генеративті жасанды интеллектті пайдаланудың тәуекелдері мен қиындықтары

Мүмкіндіктер айтарлықтай болғанымен, киберқауіпсіздікте генеративті жасанды интеллектке тәуекелдер мен қиындықтарға . Жасанды интеллектке соқыр сенім арту немесе оны дұрыс пайдаланбау жаңа осалдықтарды тудыруы мүмкін. Төменде біз негізгі мәселелер мен қауіптерді, сондай-ақ әрқайсысының контекстін сипаттаймыз:

  • Киберқылмыскерлердің қарсылас пайдалануы: Қорғаушыларға көмектесетін сол генеративтік мүмкіндіктер шабуылдаушыларға мүмкіндік бере алады. Қауіп-қатер субъектілері қазірдің өзінде генеративтік жасанды интеллектті сенімдірек фишингтік электрондық пошталарды жасау, әлеуметтік инженерия үшін жалған персонаждар мен терең жалған бейнелер жасау, анықтаудан жалтару үшін үнемі өзгеріп отыратын полиморфты зиянды бағдарламаларды әзірлеу және тіпті хакерліктің аспектілерін автоматтандыру үшін генеративтік жасанды интеллектті пайдаланып жатыр ( Киберқауіпсіздікте генеративтік жасанды интеллект дегеніміз не? - Palo Alto Networks ). Киберқауіпсіздік саласындағы көшбасшылардың жартысына жуығы (46%) генеративтік жасанды интеллекттің дамыған қарсылас шабуылдарға әкелетініне алаңдайды ( Генеративтік жасанды интеллект қауіпсіздігі: үрдістер, қауіптер және азайту стратегиялары ). Бұл «Жасанды интеллекттің қарулану жарысы» қорғаушылар ЖИ-ді қабылдаған кезде шабуылдаушылар артта қалмайтынын білдіреді (шын мәнінде, олар реттелмеген ЖИ құралдарын пайдаланып, кейбір салаларда алда болуы мүмкін). Ұйымдар жиі кездесетін, күрделі және бақылау қиын ЖИ-мен күшейтілген қауіптерге дайын болуы керек.

  • Жасанды интеллекттің галлюцинациялары және дәлсіздігі: ықтимал, бірақ дұрыс емес немесе адастыратын нәтижелерді шығара алады – бұл галлюцинация деп аталатын құбылыс. Қауіпсіздік контекстінде жасанды интеллект оқиғаны талдап, белгілі бір осалдық себеп болды деген қате қорытынды жасауы мүмкін немесе шабуылды қамтымайтын ақаулы түзету сценарийін тудыруы мүмкін. Бұл қателіктер тікелей бағаланған жағдайда қауіпті болуы мүмкін. NTT Data ескерткендей, «генеративті жасанды интеллект шындыққа жанаспайтын мазмұнды шығаруы мүмкін, және бұл құбылыс галлюцинация деп аталады... қазіргі уақытта оларды толығымен жою қиын» ( Жасанды интеллекттің қауіпсіздік тәуекелдері және қарсы шаралар, және оның киберқауіпсіздікке әсері | NTT DATA Group ). Тексермей жасанды интеллектке шамадан тыс тәуелділік бұрмаланған күш-жігерге немесе жалған қауіпсіздік сезіміне әкелуі мүмкін. Мысалы, жасанды интеллект маңызды жүйені ол қауіпсіз емес кезде жалған түрде белгілеуі немесе керісінше, ешқашан болмаған бұзушылықты «анықтау» арқылы дүрбелең тудыруы мүмкін. Жасанды интеллекттің нәтижелерін қатаң тексеру және маңызды шешімдер қабылдау үшін адамдарды бақылауда ұстау бұл қауіпті азайту үшін өте маңызды.

  • Жалған оң және теріс нәтижелер: Галлюцинацияларға қатысты, егер жасанды интеллект моделі нашар оқытылған немесе конфигурацияланған болса, ол зиянды әрекетті зиянды деп шамадан тыс хабарлауы мүмкін (жалған оң нәтижелер) немесе одан да жаманы, нақты қауіптерді жіберіп алуы мүмкін (жалған теріс нәтижелер) ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады ). Шамадан тыс жалған ескертулер қауіпсіздік топтарын шаршатып, дабылдың шаршауына әкелуі мүмкін (жасанды интеллект уәде еткен тиімділіктің артуын жоққа шығарады), ал анықталмаған жағдайлар ұйымды ашық қалдырады. Генеративті модельдерді дұрыс тепе-теңдікке келтіру қиын. Әрбір орта ерекше, және жасанды интеллект бірден оңтайлы түрде жұмыс істемеуі мүмкін. Үздіксіз оқыту да екі жақты қылыш - егер жасанды интеллект бұрмаланған кері байланыстан немесе өзгеретін ортадан сабақ алса, оның дәлдігі ауытқуы мүмкін. Қауіпсіздік топтары жасанды интеллекттің өнімділігін бақылап, шекті мәндерді реттеуі немесе модельдерге түзетуші кері байланыс беруі керек. Жоғары тәуекелді жағдайларда (мысалы, маңызды инфрақұрылымға кіруді анықтау), жасанды интеллект бойынша ұсыныстарды белгілі бір уақыт ішінде қолданыстағы жүйелермен қатар жүргізу ақылға қонымды болуы мүмкін, бұл олардың қақтығыс емес, сәйкес келетініне және толықтырылатынына көз жеткізу үшін қажет.

  • Деректердің құпиялылығы және ағып кетуі: Генеративтік жасанды интеллект жүйелері оқыту және пайдалану үшін көбінесе көп мөлшерде деректерді қажет етеді. Егер бұл модельдер бұлтқа негізделген немесе дұрыс жасырылмаған болса, құпия ақпараттың ағып кету қаупі бар. Пайдаланушылар байқаусызда меншікті деректерді немесе жеке деректерді жасанды интеллект қызметіне енгізуі мүмкін (ChatGPT-тен құпия оқиға туралы есепті қорытындылауды сұраңыз) және бұл деректер модельдің білімінің бір бөлігіне айналуы мүмкін. Шынында да, жақында жүргізілген зерттеу генеративтік жасанды интеллект құралдарына енгізілген деректердің 55%-ында құпия немесе жеке басын анықтауға болатын ақпарат бар екенін , бұл деректердің ағып кетуіне қатысты елеулі алаңдаушылық тудырады ( Генеративтік жасанды интеллект қауіпсіздігі: үрдістер, қауіптер және азайту стратегиялары ). Сонымен қатар, егер жасанды интеллект ішкі деректер бойынша оқытылған болса және оған белгілі бір жолдармен сұрау салынса, ол шығаруы . Ұйымдар деректерді өңдеудің қатаң саясатын енгізуі керек (мысалы, құпия материалдар үшін жергілікті немесе жеке жасанды интеллект даналарын пайдалану) және қызметкерлерді құпия ақпаратты қоғамдық жасанды интеллект құралдарына қоймау туралы оқытуы керек. Құпиялылық ережелері (GDPR және т.б.) да маңызды рөл атқарады – тиісті келісімсіз немесе қорғаныссыз жасанды интеллектті оқыту үшін жеке деректерді пайдалану заңға қайшы келуі мүмкін.

  • Модель қауіпсіздігі және манипуляция: модельді уландыруға тырысуы мүмкін , оқыту немесе қайта даярлау кезеңінде зиянды немесе жаңылыстыратын деректерді беруі мүмкін, осылайша жасанды интеллект дұрыс емес үлгілерді үйренеді ( Киберқауіпсіздікте генеративтік жасанды интеллектті қалай пайдалануға болады ). Мысалы, шабуылдаушы қауіп туралы интеллект деректерін жасырын түрде уландыруы мүмкін, сондықтан жасанды инъекция шабуылдаушының өзінің зиянды бағдарламасын зиянды деп танымайды. Тағы бір тактика - жедел енгізу немесе шығыс манипуляциясы , мұнда шабуылдаушы жасанды интеллектке кірістерді берудің жолын табады, бұл оның байқаусызда әрекет етуіне әкеледі - мүмкін оның қауіпсіздік қоршауларын елемеуге немесе ол жасамауы керек ақпаратты (мысалы, ішкі шақырулар немесе деректер) ашуға. Сонымен қатар, модельден жалтару : шабуылдаушылар жасанды интеллектті алдау үшін арнайы жасалған кірістерді жасайды. Біз мұны қарсылас мысалдарда көреміз - адам қалыпты деп санайтын, бірақ жасанды интеллект дұрыс жіктемейтін аздап бұзылған деректер. Жасанды интеллект жеткізу тізбегінің қауіпсіздігін қамтамасыз ету (деректер тұтастығы, модельге кіруді бақылау, қарсыластың беріктігі тестілеуі) киберқауіпсіздіктің жаңа, бірақ қажетті бөлігі болып табылады, бұл құралдарды орналастыру кезінде ( Киберқауіпсіздікте генеративті жасанды интеллект дегеніміз не? - Palo Alto Networks ).

  • Шамадан тыс сенім арту және дағдылардың төмендеуі: Ұйымдардың жасанды интеллектке тым тәуелді болып, адами дағдылардың атрофиясына жол беру қаупі аз. Егер жас аналитиктер жасанды интеллект нәтижелеріне соқыр сенім артса, олар жасанды интеллект қолжетімді болмаған немесе дұрыс емес болған кезде қажетті сыни ойлау мен интуицияны дамыта алмауы мүмкін. Қауіпсіздік тобының керемет құралдары бар, бірақ бұл құралдар істен шыққан жағдайда қалай жұмыс істеу керектігін білмейтін жағдайынан аулақ болу керек (ұшқыштардың автопилотқа тым көп сенуіне ұқсайды). Жасанды интеллекттің көмегінсіз үнемі жаттығу жаттығулары және жасанды интеллекттің қатесіз оракул емес, көмекші екеніне деген көзқарасты қалыптастыру адами аналитиктердің өткірлігін сақтау үшін маңызды. Адамдар, әсіресе жоғары әсерлі шешімдер үшін, түпкілікті шешім қабылдаушы болып қалуы керек.

  • Этикалық және сәйкестік мәселелері: Киберқауіпсіздікте жасанды интеллектті пайдалану этикалық сұрақтар туғызады және реттеушілік сәйкестік мәселелерін тудыруы мүмкін. Мысалы, егер жасанды интеллект жүйесі қызметкерді аномалияға байланысты зиянды инсайдер ретінде қате көрсетсе, бұл сол адамның беделіне немесе мансабына әділетсіз зиян келтіруі мүмкін. Жасанды интеллект қабылдаған шешімдер түсініксіз болуы мүмкін («қара жәшік» мәселесі), бұл аудиторларға немесе реттеуші органдарға белгілі бір әрекеттердің неліктен қабылданғанын түсіндіруді қиындатады. Жасанды интеллект арқылы жасалған мазмұн кең таралған сайын, ашықтықты қамтамасыз ету және есеп берушілікті сақтау өте маңызды. Реттеушілер жасанды интеллектті мұқият зерттей бастады – мысалы, ЕО-ның жасанды интеллект туралы заңы «жоғары қауіпті» жасанды интеллект жүйелеріне талаптар қояды, ал киберқауіпсіздік жасанды интеллекті осы санатқа жатуы мүмкін. Компаниялар осы ережелерді шарлауы және генеративті жасанды интеллектті жауапкершілікпен пайдалану үшін NIST жасанды интеллект тәуекелдерін басқару құрылымы сияқты стандарттарды сақтауы керек ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ). Сәйкестік лицензиялауға да қатысты: ашық бастапқы кодты немесе үшінші тарап модельдерін пайдалану белгілі бір пайдалануды шектейтін немесе ортақ пайдалануды жақсартуды талап ететін шарттарға ие болуы мүмкін.

Қорытындылай келе, генеративті жасанды интеллект жеңілдік емес – егер мұқият енгізілмесе, ол басқа кемшіліктерді шешсе де, жаңа кемшіліктерді тудыруы мүмкін. 2024 жылғы Дүниежүзілік экономикалық форумның зерттеуі ұйымдардың шамамен 47%-ы шабуылдаушылардың генеративті жасанды интеллектіндегі жетістіктерін басты мәселе ретінде атайтынын, бұл оны киберқауіпсіздіктегі «генеративті жасанды интеллекттің ең алаңдатарлық әсері» [PDF] 2025 жылғы жаһандық киберқауіпсіздік болжамы | Дүниежүзілік экономикалық форум ) ( Киберқауіпсіздіктегі генеративті жасанды интеллект: LLM-ге кешенді шолу ... ). Сондықтан ұйымдар теңгерімді тәсілді қабылдауы керек: басқару, тестілеу және адамның бақылауы арқылы бұл тәуекелдерді қатаң басқара отырып, жасанды интеллекттің артықшылықтарын пайдалану. Келесіде біз бұл тепе-теңдікке қалай іс жүзінде қол жеткізуге болатынын талқылаймыз.

Болашаққа болжам: Киберқауіпсіздіктегі генеративтік жасанды интеллекттің дамып келе жатқан рөлі

Болашаққа көз жүгіртсек, генеративті жасанды интеллект киберқауіпсіздік стратегиясының ажырамас бөлігіне, сондай-ақ киберқарсыластар пайдалана беретін құралға айналуға дайын. Жасанды «мысық пен тышқан» динамикасы жеделдейді. Алдағы жылдары генеративті жасанды интеллект киберқауіпсіздікті қалай қалыптастыруы мүмкін екендігі туралы кейбір болжамды түсініктер:

  • Жасанды интеллектпен кеңейтілген киберқорғаныс стандартқа айналады: 2025 жылға қарай және одан кейінгі кезеңде орта және ірі ұйымдардың көпшілігі өздерінің қауіпсіздік операцияларына жасанды интеллектпен басқарылатын құралдарды енгізеді деп күтуге болады. Антивирустық және брандмауэрлер бүгінгі таңда стандартты болғандай, жасанды интеллекттің қосалқы пилоттары мен аномалияларды анықтау жүйелері қауіпсіздік архитектураларының негізгі компоненттеріне айналуы мүмкін. Бұл құралдар мамандандырылған болуы мүмкін – мысалы, бұлттық қауіпсіздік, IoT құрылғыларын бақылау, қолданба кодының қауіпсіздігі және тағы басқалар үшін реттелетін жеке жасанды интеллект модельдері, барлығы бірлесіп жұмыс істейді. Бір болжамда айтылғандай, «2025 жылы генеративті жасанды интеллект киберқауіпсіздіктің ажырамас бөлігі болады, бұл ұйымдарға күрделі және дамып келе жатқан қауіптерден алдын ала қорғануға мүмкіндік береді» ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады ). Жасанды интеллект нақты уақыт режимінде қауіпті анықтауды жақсартады, көптеген жауап әрекеттерін автоматтандырады және қауіпсіздік топтарына қолмен жасай алатыннан әлдеқайда үлкен көлемдегі деректерді басқаруға көмектеседі.

  • Үздіксіз оқу және бейімделу: жедел үйренуді жақсартады , білім базасын нақты уақыт режимінде жаңартады. Бұл шынымен бейімделгіш қорғанысқа әкелуі мүмкін – таңертең басқа компанияға шабуыл жасайтын жаңа фишинг науқаны туралы біліп, түстен кейін компанияңыздың электрондық пошта сүзгілерін реттеп қойған жасанды интеллект деп елестетіп көріңіз. Бұлтқа негізделген жасанды интеллект қауіпсіздік қызметтері бір ұйымнан алынған анонимді ақпарат барлық жазылушыларға пайда әкелетін осындай ұжымдық оқуды жеңілдетуі мүмкін (қауіп туралы барлауды бөлісуге ұқсас, бірақ автоматтандырылған). Дегенмен, бұл құпия ақпаратты бөліспеу және шабуылдаушылардың ортақ модельдерге жаман деректерді беруіне жол бермеу үшін мұқият өңдеуді қажет етеді.

  • Жасанды интеллект пен киберқауіпсіздік саласындағы таланттардың конвергенциясы: Киберқауіпсіздік мамандарының дағдылары жасанды интеллект пен деректер ғылымындағы біліктілікті қамтитындай дамиды. Бүгінгі аналитиктер сұраныс тілдері мен сценарийлерді үйренгені сияқты, ертеңгі аналитиктер жасанды интеллект модельдерін үнемі жетілдіріп отыруы немесе жасанды интеллект орындау үшін «ойын кітаптары» жазуы мүмкін. Біз «Жасанды интеллект қауіпсіздігі бойынша жаттықтырушы» немесе «Киберқауіпсіздік жасанды интеллект инженері» – жасанды интеллект құралдарын ұйымның қажеттіліктеріне бейімдеуге, олардың өнімділігін тексеруге және олардың қауіпсіз жұмыс істеуін қамтамасыз етуге маманданған адамдар. Екінші жағынан, киберқауіпсіздік мәселелері жасанды интеллекттің дамуына барған сайын әсер етеді. Жасанды интеллект жүйелері нөлден бастап қауіпсіздік мүмкіндіктерімен (қауіпсіз архитектура, бұзуды анықтау, жасанды интеллект шешімдеріне арналған аудит журналдары және т.б.) жасалады, ал сенімді жасанды интеллект (әділ, түсіндірілетін, сенімді және қауіпсіз) оларды қауіпсіздік тұрғысынан маңызды жағдайларда орналастыруға бағыт береді.

  • Жасанды интеллектпен жұмыс істейтін күрделі шабуылдар: Өкінішке орай, қауіп-қатер ландшафты жасанды интеллектпен бірге дамиды. Біз жасанды интеллектті нөлдік күндік осалдықтарды анықтау, жоғары мақсатты найза фишингін жасау (мысалы, жасанды интеллект әлеуметтік желілерді мінсіз бейімделген жем жасау үшін сканерлеу) және биометриялық аутентификацияны айналып өту немесе алаяқтық жасау үшін сенімді терең жалған дауыстар немесе бейнелер жасау үшін жиірек пайдалануды күтеміз. Адамның минималды бақылауымен көп сатылы шабуылдарды (барлау, пайдалану, бүйірлік қозғалыс және т.б.) өз бетінше жүзеге асыра алатын автоматтандырылған хакерлік агенттер пайда болуы мүмкін. Бұл қорғаушыларды жасанды интеллектке сүйенуге мәжбүр етеді - негізінен автоматтандыру және автоматтандыру . Кейбір шабуылдар машина жылдамдығында болуы мүмкін, мысалы, жасанды интеллект боттары қайсысы сүзгілерден өтетінін көру үшін мыңдаған фишингтік электрондық поштаны ауыстыруды тырысады. Киберқорғаныс жүйелері ілесу үшін ұқсас жылдамдықта және икемділікпен жұмыс істеуі керек ( Киберқауіпсіздікте генеративті жасанды интеллект дегеніміз не? - Palo Alto Networks ).

  • Қауіпсіздік саласындағы реттеу және этикалық жасанды интеллект: Жасанды интеллект киберқауіпсіздік функцияларына терең енген сайын, осы жасанды интеллект жүйелерінің жауапкершілікпен пайдаланылуын қамтамасыз ету үшін мұқият тексеру және реттеу күшейтіледі. Қауіпсіздік саласындағы жасанды интеллектке арналған арнайы құрылымдар мен стандарттарды күтуге болады. Үкіметтер ашықтыққа қатысты нұсқаулар белгілеуі мүмкін – мысалы, маңызды қауіпсіздік шешімдерін (мысалы, қызметкердің күдікті зиянды әрекетке қол жеткізуін тоқтату) жасанды интеллект арқылы адами тексерусіз жалғыз қабылдау мүмкін еместігін талап ету. Сондай-ақ, сатып алушыларға жасанды интеллекттің бейтараптығы, сенімділігі және қауіпсіздігі бағаланғанына көз жеткізу үшін жасанды интеллект қауіпсіздік өнімдеріне сертификаттар болуы мүмкін. Сонымен қатар, жасанды интеллектке қатысты киберқауіптер төңірегінде халықаралық ынтымақтастық дамуы мүмкін; мысалы, жасанды интеллект тудырған дезинформациямен жұмыс істеу туралы келісімдер немесе жасанды интеллект басқаратын белгілі бір киберқаруларға қарсы нормалар.

  • Кеңірек жасанды интеллект және IT экожүйелерімен интеграция: Киберқауіпсіздіктегі генеративтік жасанды интеллект басқа жасанды интеллект жүйелерімен және IT басқару құралдарымен интеграциялануы мүмкін. Мысалы, желіні оңтайландыруды басқаратын жасанды интеллект өзгерістердің кемшіліктерді ашпауын қамтамасыз ету үшін қауіпсіздік жасанды интеллектімен жұмыс істей алады. Жасанды интеллектке негізделген бизнес-аналитика ауытқуларды (мысалы, шабуылға байланысты сатылымның кенеттен төмендеуімен веб-сайттағы ықтимал мәселе) байланыстыру үшін деректерді қауіпсіздік жасанды интеллектімен бөлісуі мүмкін. Негізінде, жасанды интеллект бір жерде тұрмайды - ол ұйымның операцияларының кеңірек интеллектуалды құрылымының бөлігі болады. Бұл ұйымның қауіпсіздік жағдайына 360 градустық көзқарас беру үшін операциялық деректерді, қауіп деректерін және тіпті физикалық қауіпсіздік деректерін жасанды интеллектпен біріктіруге болатын кешенді тәуекелдерді басқару мүмкіндіктерін ашады.

Ұзақ мерзімді перспективада генеративті жасанды интеллект тепе-теңдікті қорғаушылардың пайдасына бұруға көмектеседі деген үміт бар. Қазіргі заманғы IT орталарының ауқымы мен күрделілігін басқару арқылы жасанды интеллект киберкеңістікті қорғанысқа қабілетті ете алады. Дегенмен, бұл ұзақ жол, және біз бұл технологияларды жетілдіріп, оларға тиісті түрде сенуді үйренген сайын қиындықтар арта түседі. жасанды интеллектті жауапкершілікпен енгізуге болашақтағы қауіптерді ең жақсы жеңе алатын ұйымдар болады.

Gartner компаниясының жақында жарияланған киберқауіпсіздік тенденциялары туралы есебінде атап өтілгендей, «генеративті жасанды интеллектті пайдалану жағдайларының (және тәуекелдердің) пайда болуы трансформацияға қысым жасауда» ( Cybersecurity Trends: Resilience Through Transformation - Gartner ). Бейімделетіндер жасанды интеллектті күшті одақтас ретінде пайдаланады; артта қалатындар жасанды интеллектпен күшейтілген қарсыластардан озып кетуі мүмкін. Алдағы бірнеше жыл жасанды интеллекттің кибершайқас алаңын қалай өзгертетінін анықтауда шешуші кезең болады.

Киберқауіпсіздікте генеративті жасанды интеллектті енгізудің практикалық тұжырымдары

Киберқауіпсіздік стратегиясында генеративті жасанды интеллектті қалай пайдалану керектігін бағалайтын бизнес үшін жауапты және тиімді енгізуге бағыт беретін практикалық тұжырымдар мен ұсыныстар

  1. Білім беруден және оқытудан бастаңыз: Қауіпсіздік тобыңызға (және кеңірек IT қызметкерлеріне) генеративті жасанды интеллекттің не істей алатынын және не істей алмайтынын түсіндіріңіз. Жасанды интеллектпен басқарылатын қауіпсіздік құралдарының негіздері бойынша тренингтер өткізіңіз және қауіпсіздік туралы хабардарлық бағдарламаларыңызды . Мысалы, қызметкерлерге жасанды интеллекттің өте сенімді фишингтік алаяқтықтар мен терең жалған қоңырауларды қалай жасай алатынын үйретіңіз. Сонымен қатар, қызметкерлерге жұмысында жасанды интеллект құралдарын қауіпсіз және бекітілген пайдалану бойынша тренингтер өткізіңіз. Жақсы хабардар пайдаланушылардың жасанды интеллектті дұрыс пайдаланбауы немесе жасанды интеллектпен күшейтілген шабуылдардың құрбаны болуы ықтималдығы аз ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ).

  2. Анық жасанды интеллект пайдалану саясатын анықтаңыз: Генеративтік жасанды интеллектке кез келген қуатты технология сияқты – басқарумен қараңыз. Кім жасанды интеллект құралдарын пайдалана алатынын, қандай құралдарға рұқсат етілгенін және қандай мақсаттарда пайдалана алатынын көрсететін саясаттарды әзірлеңіз. Ағып кетудің алдын алу үшін құпия деректерді өңдеу бойынша нұсқаулықтарды қосыңыз (мысалы, құпия деректерді сыртқы жасанды интеллект қызметтеріне бермеу ). Мысал ретінде, сіз тек қауіпсіздік тобының мүшелеріне оқиғаларға жауап беру үшін ішкі жасанды интеллект көмекшісін пайдалануға рұқсат бере аласыз, ал маркетинг мазмұн үшін тексерілген жасанды интеллектті пайдалана алады – қалғандарының барлығына шектеу қойылған. Көптеген ұйымдар қазір өздерінің IT саясатында жасанды интеллектке тікелей назар аударып жатыр, ал жетекші стандарттау органдары тікелей тыйым салудың орнына қауіпсіз пайдалану саясатын қолдайды ( Киберқауіпсіздікте жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ). Осы ережелерді және олардың негіздемесін барлық қызметкерлерге жеткізуді ұмытпаңыз.

  3. «Көлеңкелі жасанды интеллектті» азайту және бақылауды пайдалану: Көлеңкелі АТ-ға ұқсас, «көлеңкелі жасанды интеллект» қызметкерлер АТ-ның хабарынсыз жасанды интеллект құралдарын немесе қызметтерін пайдалана бастағанда пайда болады (мысалы, рұқсат етілмеген жасанды интеллект код көмекшісін пайдаланатын әзірлеуші). Бұл көрінбейтін тәуекелдерді тудыруы мүмкін. Санкцияланбаған жасанды интеллект пайдалануды анықтау және бақылау . Желілік мониторинг танымал жасанды интеллект API-ларына қосылымдарды белгілей алады, ал сауалнамалар немесе құралдарды аудиттеу қызметкерлердің нені пайдаланып жатқанын анықтай алады. Жақсы ниетпен жұмыс істейтін қызметкерлердің алдауға азғырылмауы үшін бекітілген баламаларды ұсыныңыз (мысалы, егер адамдар пайдалы деп тапса, ChatGPT Enterprise ресми тіркелгісін беріңіз). Жасанды интеллектті пайдалануды жарыққа шығару арқылы қауіпсіздік топтары тәуекелді бағалай және басқара алады. Мониторинг те маңызды - жасанды интеллект құралдарының әрекеттері мен нәтижелерін мүмкіндігінше тіркеңіз, сонда жасанды интеллект әсер еткен шешімдер үшін аудит ізі болады ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ).

  4. Қорғаныс тұрғысынан жасанды интеллектті пайдаланыңыз – артта қалмаңыз: Шабуылдаушылар жасанды интеллектті пайдаланатынын мойындаңыз, сондықтан сіздің қорғанысыңыз да солай істеуі керек. Генеративтік жасанды интеллект сіздің қауіпсіздік операцияларыңызға бірден көмектесе алатын бірнеше жоғары әсер ететін салаларды анықтаңыз (мүмкін, дабыл сұрыптауы немесе автоматтандырылған журнал талдауы) және пилоттық жобаларды іске қосыңыз. Жылдам өзгеретін қауіптерге қарсы тұру үшін жасанды интеллект жылдамдығы мен масштабымен қорғанысыңызды арттырыңыз Киберқауіпсіздікте генеративтік жасанды интеллектті қалай пайдалануға болады? 10 нақты мысал ). Зиянды бағдарламалар туралы есептерді қорытындылау немесе қауіптерді іздеу сұрауларын жасау үшін жасанды интеллектті пайдалану сияқты қарапайым интеграциялар да талдаушылардың уақытын үнемдей алады. Кішкентайдан бастаңыз, нәтижелерді бағалаңыз және қайталаңыз. Табыстар жасанды интеллектті кеңінен қолдану үшін негіз болады. Мақсат - жасанды интеллектті күш көбейткіші ретінде пайдалану - мысалы, егер фишинг шабуылдары сіздің анықтама қызметіңізді басып алса, бұл көлемді алдын ала азайту үшін жасанды интеллект электрондық пошта жіктеуішін орналастырыңыз.

  5. Қауіпсіз және этикалық жасанды интеллект тәжірибелеріне инвестиция салыңыз: Генеративтік жасанды интеллектті енгізген кезде қауіпсіз әзірлеу және орналастыру тәжірибелерін ұстаныңыз. жеке немесе өзіндік орналастырылған модельдерді . Үшінші тарап жасанды интеллект қызметтерін пайдалансаңыз, олардың қауіпсіздік және құпиялылық шараларын (шифрлау, деректерді сақтау саясаты және т.б.) қарап шығыңыз. Жасанды интеллект құралдарыңыздағы бейімділік, түсіндірмелілік және сенімділік сияқты мәселелерді жүйелі түрде шешу үшін жасанды интеллект тәуекелдерін басқару құрылымдарын (NIST жасанды интеллект тәуекелдерін басқару құрылымы немесе ISO/IEC нұсқаулығы сияқты) енгізіңіз ( Генеративтік жасанды интеллектті киберқауіпсіздікте қалай пайдалануға болады? 10 нақты мысал ). Сондай-ақ, техникалық қызмет көрсету бөлігі ретінде модель жаңартуларын/патчтарын жоспарлаңыз – жасанды интеллект модельдерінде «осалдық» та болуы мүмкін (мысалы, егер олар дрейф бастаса немесе модельге қарсылас шабуылдың жаңа түрі анықталса, олар қайта даярлауды қажет етуі мүмкін). Жасанды интеллектті пайдалануыңызға қауіпсіздік пен этиканы енгізу арқылы сіз нәтижелерге сенімділік орнатасыз және жаңа ережелердің сақталуын қамтамасыз етесіз.

  6. Адамдарды хабардар етіп отырыңыз: Киберқауіпсіздікте адами пікірді толығымен алмастырмау үшін жасанды интеллектті пайдаланыңыз. Адами тексеру қажет болатын шешім қабылдау нүктелерін анықтаңыз (мысалы, жасанды интеллект оқиға туралы есепті дайындауы мүмкін, бірақ талдаушы оны таратпас бұрын қарап шығуы мүмкін; немесе жасанды интеллект пайдаланушы тіркелгісін бұғаттауды ұсынуы мүмкін, бірақ адам бұл әрекетті мақұлдайды). Бұл жасанды интеллект қателерінің тексерілмеуіне жол беріп қана қоймай, сонымен қатар сіздің командаңызға жасанды интеллекттен үйренуге көмектеседі және керісінше. Бірлескен жұмыс процесін ынталандырыңыз: талдаушылар жасанды интеллект нәтижелеріне күмән келтіруге және ақыл-ойдың дұрыстығын тексеруге өздерін ыңғайлы сезінуі керек. Уақыт өте келе бұл диалог жасанды интеллектті (кері байланыс арқылы) және талдаушылардың дағдыларын жақсарта алады. Негізінде, процестеріңізді жасанды интеллект пен адамның күшті жақтары бір-бірін толықтыратындай етіп жасаңыз – жасанды интеллект көлем мен жылдамдықты, адамдар түсініксіздікті және соңғы шешімдерді өңдейді.

  7. Өлшеу, бақылау және реттеу: Соңында, генеративті жасанды интеллект құралдарын қауіпсіздік экожүйеңіздің тірі компоненттері ретінде қарастырыңыз. Олардың өнімділігін үнемі өлшеп отырыңыз – олар оқиғаларға жауап беру уақытын қысқарта ма? Қауіптерді ертерек анықтай ма? Жалған оң нәтижелер қалай өзгеріп жатыр? Командадан кері байланыс сұраңыз: жасанды интеллект ұсыныстары пайдалы ма, әлде шу шығара ма? Модельдерді жетілдіру, оқыту деректерін жаңарту немесе жасанды интеллекттің интеграциялануын реттеу үшін осы көрсеткіштерді пайдаланыңыз. Киберқауіптер мен бизнес қажеттіліктері дамиды, ал сіздің жасанды интеллект модельдеріңіз тиімді болу үшін мезгіл-мезгіл жаңартылып немесе қайта оқытылып отыруы керек. Модельді басқару жоспарыңыз бар, оның ішінде оны кім күтіп ұстауға жауапты және оның қаншалықты жиі қайта қаралатыны. Жасанды интеллекттің өмірлік циклін белсенді басқару арқылы сіз оның міндеттеме емес, актив болып қалатынына кепілдік бересіз.

Қорытындылай келе, генеративті жасанды интеллект киберқауіпсіздік мүмкіндіктерін айтарлықтай жақсарта алады, бірақ оны сәтті енгізу мұқият жоспарлауды және үздіксіз бақылауды қажет етеді. Қызметкерлерін оқытатын, нақты нұсқаулар беретін және жасанды интеллектті теңгерімді, қауіпсіз түрде біріктіретін бизнестер жылдамырақ және ақылды қауіптерді басқарудың жемісін көреді. Бұл тұжырымдар жол картасын ұсынады: адами тәжірибені жасанды интеллектті автоматтандырумен біріктіру, басқару негіздерін қамту және жасанды интеллект технологиясы мен қауіп ландшафтының сөзсіз дамуы кезінде икемділікті сақтау.

«Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады?» деген сұраққа тек теория жүзінде ғана емес, күнделікті тәжірибеде де сенімді түрде жауап бере алады және осылайша біздің цифрлық және жасанды интеллектке негізделген әлемімізде қорғанысын нығайта алады. ( Киберқауіпсіздікте генеративті жасанды интеллектті қалай пайдалануға болады )

Осыдан кейін оқуға болатын ақ қағаздар:

🔗 Жасанды интеллект алмастыра алмайтын жұмыс орындары және жасанды интеллект қандай жұмыс орындарын алмастырады?
Автоматтандырудан қай лауазымдар қауіпсіз, ал қайсысы қауіпсіз емес екендігі туралы жаһандық көзқарасты зерттеңіз.

🔗 Жасанды интеллект қор нарығын болжай ала ма?
Жасанды интеллекттің нарықтық қозғалыстарды болжау мүмкіндігіне қатысты шектеулерге, жетістіктерге және мифтерге тереңірек шолу.

🔗 Адамның араласуынсыз генеративтік жасанды интеллектке не үшін сенім арта аламыз?
Жасанды интеллект қай жерде тәуелсіз жұмыс істей алатынын және адамның бақылауы әлі де маңызды екенін түсініңіз.

Блогқа оралу