Генеративтік жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігі қандай?

Генеративтік жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігі қандай?

Қысқаша жауап: Генеративті жасанды интеллектті қолданатын әзірлеушілер модельдің нәтижесіне ғана емес, бүкіл жүйеге де жауапты. Жасанды интеллект шешімдерге, кодқа, құпиялылыққа немесе пайдаланушы сеніміне әсер еткенде, олар қауіпсіз қолданбаларды таңдап, нәтижелерді тексеріп, деректерді қорғап, зиянды азайтуы және адамдардың қателерді қарап шығуы, қайта анықтауы және түзетуі мүмкін екеніне көз жеткізуі керек.

Негізгі қорытындылар:

Тексеру : Дереккөздер, сынақтар немесе адам шолуы растағанға дейін өңделген нәтижелерді сенімсіз деп санаңыз.

Деректерді қорғау : Сұрау деректерін азайту, идентификаторларды жою және журналдарды, кіруді басқару элементтерін және жеткізушілерді қорғау.

Әділдік : Стереотиптер мен біркелкі емес сәтсіздік үлгілерін анықтау үшін демографиялық көрсеткіштер мен контексттерді тексеріңіз.

Ашықтық : Жасанды интеллектті пайдалануды анық белгілеңіз, оның шектеулерін түсіндіріңіз және адами шолу немесе апелляция ұсыныңыз.

Есеп беру : Іске қосу алдында орналастыру, оқиғалар, бақылау және кері қайтару үшін нақты иелерін тағайындаңыз.

Генеративтік жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігі қандай? Инфографика

Осыдан кейін оқуға болатын мақалалар:

🔗 Бағдарламалық жасақтама әзірлеушілеріне арналған ең жақсы жасанды интеллект құралдары: жасанды интеллектпен жұмыс істейтін ең жақсы кодтау көмекшілері
Жылдамырақ және таза әзірлеу жұмыс процестері үшін ең жақсы жасанды интеллект кодтау көмекшілерін салыстырыңыз.

🔗 Өнімділікті арттыруға арналған әзірлеушілерге арналған ең үздік 10 жасанды интеллект құралдары
Ақылды кодтау және жылдамдық үшін әзірлеуші ​​​​AI құралдарының рейтингтік тізімі.

🔗 Неліктен жасанды интеллект қоғам мен сенім үшін зиянды болуы мүмкін
Нақты әлемдегі зияндарды түсіндіреді: бейтараптық, жеке өмірге қол сұғушылық, жұмыс орындары және жалған ақпарат тәуекелдері.

🔗 Жасанды интеллект маңызды шешімдер қабылдауда тым шектен шықты ма?
Жасанды интеллект шекарадан асып кеткен кезде анықтайды: бақылау, жалған ақпарат, сендіру, келісімнің болмауы.

Неліктен генеративті жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігі адамдар ойлағаннан да маңыздырақ?

Бағдарламалық жасақтаманың көптеген қателері тітіркендіргіш. Түйме істен шығады. Бет баяу жүктеледі. Бірдеңе істен шығады және барлығы күңіренеді.

Генеративті жасанды интеллект мәселелері әртүрлі болуы мүмкін. Олар нәзік болуы мүмкін.

Модель қателесіп тұрған кезде сенімді болып көрінуі мүмкін. NIST GenAI профилі Ол айқын ескерту белгілерінсіз бейтараптықты қайталай алады. NIST GenAI профилі Егер абайсызда пайдаланылса, құпия деректерді ашуы мүмкін. LLM қолданбалары үшін OWASP үздік 10 ICO-ның генеративті жасанды интеллектке арналған сегіз сұрағы Ол жұмыс істейтін кодты жасай алады - өндірісте қандай да бір ұят жолмен сәтсіздікке ұшырағанға дейін. LLM қолданбалары үшін OWASP үздік 10 Ешқашан ұйықтамайтын және кейде таңқаларлықтай сенімділікпен фактілерді ойлап табатын өте ынталы тағылымдамадан өтушіні жалдау сияқты.

Сондықтан генеративті жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігі қарапайым енгізуден гөрі үлкен. Әзірлеушілер енді тек логикалық жүйелерді құрып қана қоймайды. Олар анық емес жиектері, болжанбайтын нәтижелері және нақты әлеуметтік салдары бар ықтималдық жүйелерді құрып жатыр. NIST AI RMF

Яғни, жауапкершілік мыналарды қамтиды:

Қалай болатынын білесіз - құрал сиқырлы болып көрінгенде, адамдар оған күмәндануды тоқтатады. Әзірлеушілер соншалықты босаңсуға мүмкіндік бере алмайды.

Генеративтік жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігінің жақсы нұсқасын не құрайды? 🛠️

Жауапкершіліктің жақсы нұсқасы өнімділік емес. Бұл тек төменгі жағына ескерту қосып, оны этика деп атау емес. Ол дизайн таңдауында, тестілеу әдеттерінде және өнімнің мінез-құлқында көрінеді.

Генеративтік жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігінің күшті нұсқасы әдетте келесідей көрінеді:

Егер бұл көп болып көрінсе, онда... солай. Бірақ шешімдерге, сенімдерге және мінез-құлыққа кең ауқымды әсер ете алатын технологиялармен жұмыс істеген кезде бұл мәселе туындайды. ЭЫДҰ жасанды интеллект қағидаттары

Салыстыру кестесі - генеративті жасанды интеллектті қолданатын әзірлеушілердің негізгі жауапкершілігі туралы қысқаша 📋

Жауапкершілік аймағы Кімге әсер етеді Күнделікті әзірлеуші ​​​​тәжірибесі Неліктен маңызды
Дәлдік және тексеру пайдаланушылар, топтар, тұтынушылар Нәтижелерді қарап шығыңыз, валидация қабаттарын қосыңыз, шеткі жағдайларды тексеріңіз Жасанды интеллект еркін сөйлей алады, бірақ сонда да қателеседі - бұл NIST GenAI профилінің
Құпиялылықты қорғау пайдаланушылар, клиенттер, ішкі қызметкерлер Құпия деректерді пайдалануды азайтыңыз, сұрауларды жойыңыз, журналдарды басқарыңыз Жеке деректер ағып кеткеннен кейін, тіс пастасы түтіктен шығады 😬 ICO-ның генеративті жасанды интеллектке арналған сегіз сұрағы OWASP LLM қолданбаларына арналған ең үздік 10 сұрақ
Бейтараптық және әділдік аз ұсынылған топтар, барлық пайдаланушылар шынымен де Аудит нәтижелері, әртүрлі кірістерді тексеру, қауіпсіздік шараларын реттеу Зиян әрқашан қатты бола бермейді - кейде ол жүйелі және тыныш болады NIST GenAI профилі ICO жасанды интеллект және деректерді қорғау бойынша нұсқаулық
Қауіпсіздік компания жүйелері, пайдаланушылар Модельге кіруді шектеу, жедел енгізуден, қауіпті әрекеттерден қорғау Бір ғана ақылды әрекет сенімді тез бұзуы мүмкін. LLM қолданбалары бойынша OWASP Top 10 NCSC жасанды интеллект және киберқауіпсіздік бойынша
Ашықтық соңғы пайдаланушылар, реттеушілер, қолдау топтары Жасанды интеллекттің мінез-құлқын анық белгілеңіз, шектеулерді, құжатты пайдалануды түсіндіріңіз Адамдар машинаның жасанды интеллект негізінде жасалған мазмұнды таңбалау және белгілеу бойынша жасанды интеллект қағидаттарының
Есеп беру өнім иелері, заңгерлер, әзірлеушілер топтары Меншік құқығын, оқиғаларды өңдеуді, эскалация жолдарын анықтаңыз «Жасанды интеллект жасады» - ересектердің жауабы емес, ЭЫДҰ-ның Жасанды интеллект қағидаттары
Сенімділік өнімге тигендердің барлығы Сәтсіздіктерді бақылау, сенімділік шегін орнату, резервтік логиканы жасау Модельдер күтпеген жерден сәтсіздікке ұшырайды және кейде NIST AI RMF NCSC қауіпсіздік AI нұсқаулары бойынша
Пайдаланушының әл-ауқаты әсіресе осал пайдаланушылар Манипуляциялық дизайннан аулақ болыңыз, зиянды нәтижелерді шектеңіз, жоғары қауіпті пайдалану жағдайларын қарастырыңыз ЭЫДҰ AI принциптері NIST AI RMF болуы керек дегенді білдірмейді.

Әрине, үстел сәл тегіс емес, бірақ бұл тақырыпқа сай келеді. Нағыз жауапкершілік те тең емес.

Жауапкершілік бірінші сұрақтан бұрын басталады - дұрыс пайдалану жағдайын таңдау 🎯

Әзірлеушілердің ең үлкен міндеттерінің бірі - генеративті жасанды интеллектті пайдалану керек пе, жоқ па деген мәселені . NIST AI RMF

Бұл айқын естіледі, бірақ ол үнемі өткізіп жіберіледі. Командалар модельді көреді, қуанады және оны ережелермен, іздеумен немесе қарапайым бағдарламалық жасақтама логикасымен жақсырақ өңделетін жұмыс процестеріне мәжбүрлей бастайды. Әрбір есеп тілдік модельді қажет етпейді. Кейбір есептерге дерекқор және тыныш түстен кейінгі уақыт қажет.

Құрылысты бастамас бұрын, әзірлеушілерден сұрау керек:

Жауапты әзірлеуші ​​жай ғана «Біз мұны сала аламыз ба?» деп сұрамайды. Олар «Мұны осылай салу керек пе?» деп сұрайды. NIST AI RMF

Бұл сұрақтың өзі көптеген күлкілі әңгімелердің алдын алады.

Дәлдік - бұл жауапкершілік, бонустық мүмкіндік емес ✅

Анық айтайын - генеративті жасанды интеллекттегі ең үлкен тұзақтардың бірі - шешендікті шындықпен шатастыру. Модельдер көбінесе жылтыратылған, құрылымдалған және терең сендіретін жауаптар береді. Бұл керемет, бірақ мазмұны сенімділікке оралғанша. NIST GenAI профилі

Сонымен, генеративті жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігіне тексеру үшін құрылыс салу кіреді.

Бұл дегеніміз:

Бұл келесі салаларда өте маңызды:

  • денсаулық сақтау

  • қаржы

  • құқықтық жұмыс процестері

  • білім беру

  • тұтынушыларды қолдау

  • кәсіпорынды автоматтандыру

  • код генерациясы

Мысалы, жасалған код қауіпсіздік кемшіліктерін немесе логикалық қателерді жасыра отырып, ұқыпты көрінуі мүмкін. Оны соқыр түрде көшіретін әзірлеуші ​​тиімді емес - олар жай ғана тәуекелді әдемі форматта аутсорсингке береді. LLM қолданбалары үшін OWASP Top 10 NCSC жасанды интеллект және киберқауіпсіздік бойынша

Модель көмектесе алады. Әзірлеуші ​​әлі де нәтижеге иелік етеді. ЭЫДҰ жасанды интеллект қағидаттары

Құпиялылық және деректерді басқару талқыланбайды 🔐

Міне, осы жерде жағдай тез күрделене түседі. Генеративті жасанды интеллект жүйелері көбінесе шақыруларға, журналдарға, контекст терезелеріне, жад қабаттарына, аналитикаға және үшінші тарап инфрақұрылымына сүйенеді. Бұл құпия деректердің ағып кетуіне, сақталуына немесе пайдаланушылар күтпеген жолдармен қайта пайдаланылуына көптеген мүмкіндіктер жасайды. Генеративті жасанды интеллектке арналған ICO сегіз сұрағы OWASP LLM қолданбалары үшін ең үздік 10 сұрақ.

Әзірлеушілер мыналарды қорғауға міндетті:

  • жеке ақпарат

  • қаржылық жазбалар

  • медициналық мәліметтер

  • компанияның ішкі деректері

  • коммерциялық құпиялар

  • аутентификация токендері

  • клиенттік коммуникациялар

Жауапкершілікті тәжірибелерге мыналар жатады:

Бұл «біз бұл туралы ойлануды ұмытып кеткенбіз» деген кішігірім қателік емес, сенімді бұзатын сәтсіздік.

Ал сенім бір рет сынған сайын, құлаған әйнек сияқты таралады. Мүмкін, бұл ең тамаша метафора емес шығар, бірақ түсінесіз.

Бейтараптық, әділдік және өкілдік - тыныш міндеттер ⚖️

Генеративті жасанды интеллекттегі бейтараптық сирек жағдайда мультфильмдегі зұлым кейіпкерге айналады. Әдетте ол бұдан да тайғақ болады. Модель айқын дабылдарды қоздырмай, стереотипті лауазымдық сипаттамаларды, біркелкі емес модерациялық шешімдерді, біржақты ұсыныстарды немесе мәдени тұрғыдан тар болжамдарды жасай алады. NIST GenAI профилі

Сондықтан генеративті жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігіне белсенді әділеттілік жұмысы кіреді.

Әзірлеушілер келесі әрекеттерді орындауы керек:

Жүйе жалпы алғанда жақсы жұмыс істейтін сияқты көрінуі мүмкін, бірақ кейбір пайдаланушыларға басқаларына қарағанда нашар қызмет көрсетеді. Бұл тек басқару тақтасында орташа өнімділік жақсы көрінгендіктен қабылданбайды. Жасанды интеллект және деректерді қорғау бойынша ICO нұсқаулығы NIST GenAI профилі

Иә, әділдік таза тексеру тізімінен де қиынырақ. Онда пікір бар. Контекст. Келісімдер. Сондай-ақ қолайсыздықтың өлшемі. Бірақ бұл жауапкершілікті алып тастамайды - оны растайды. Жасанды интеллект және деректерді қорғау бойынша ICO нұсқаулығы

Қауіпсіздік енді бір жағынан жедел жобалау, бір жағынан инженерлік тәртіп 🧱

Генеративті жасанды интеллект қауіпсіздігі өзіндік ерекшелігімен ерекшеленеді. Әрине, дәстүрлі қолданба қауіпсіздігі әлі де маңызды, бірақ жасанды интеллект жүйелері ерекше шабуыл беттерін қосады: жедел енгізу, жанама жедел манипуляция, қауіпсіз емес құралдарды пайдалану, контекст арқылы деректерді шығару және автоматтандырылған жұмыс процестері арқылы модельді дұрыс пайдаланбау. LLM қолданбалары үшін OWASP Top 10 NCSC жасанды интеллект және киберқауіпсіздік бойынша

Әзірлеушілер тек интерфейсті ғана емес, бүкіл жүйені қорғауға жауапты. NCSC қауіпсіздік жасанды интеллект нұсқаулары

Мұндағы негізгі міндеттерге мыналар жатады:

Бір ыңғайсыз шындық - пайдаланушылар мен шабуылдаушылар әзірлеушілер күтпеген нәрселерді міндетті түрде сынап көреді. Кейбіреулері қызығушылықпен, кейбіреулері қастық ниетпен, ал кейбіреулері түнгі сағат 2-де дұрыс емес нәрсені басқандықтан. Бұл болып тұрады.

Генеративті жасанды интеллекттің қауіпсіздігі қабырға тұрғызуға емес, кейде сөз тіркестеріне алданып қалатын өте сөйлейтін қақпашыны басқаруға көбірек ұқсайды.

Ашықтық пен пайдаланушы келісімі көз тартарлық UX-тен маңыздырақ 🗣️

Пайдаланушылар жасанды интеллектпен әрекеттескенде, олар мұны білуі керек. ЭЫДҰ жасанды интеллект принциптерінің жасанды интеллектпен жасалған мазмұнды белгілеу және таңбалау бойынша тәжірибе кодексі

Анық емес. Терминдер бойынша жасырын емес. Әрине.

Генеративтік жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігінің негізгі бөлігі пайдаланушылардың мыналарды түсінуін қамтамасыз ету болып табылады:

Ашықтық пайдаланушыларды қорқыту туралы емес, оларды құрметтеу туралы.

Жақсы ашықтық мыналарды қамтуы мүмкін:

Көптеген өнім топтары шынайылық функцияның сиқырлылығын төмендетеді деп алаңдайды. Мүмкін. Бірақ жалған сенімділік одан да жаман. Тәуекелді жасыратын тегіс интерфейс негізінен жылтыратылған шатасушылық болып табылады.

Әзірлеушілер есеп береді - тіпті модель «шешім қабылдаған» кезде де 👀

Бұл бөлік өте маңызды. Жауапкершілікті модель жеткізушісіне, модель картасына, тапсырма үлгісіне немесе машиналық оқытудың жұмбақ атмосферасына жүктеуге болмайды. ЭЫДҰ AI принциптері NIST AI RMF

Әзірлеушілер әлі де жауапты. ЭЫДҰ жасанды интеллект қағидаттары

Бұл командадағы біреудің иеленуі керек дегенді білдіреді:

сияқты сұрақтарға нақты жауаптар болуы керек:

Меншік болмаса, жауапкершілік тұманға айналады. Әркім басқа біреу оны басқарып жатыр деп ойлайды... сосын ешкім басқармайды.

Шын мәнінде, бұл үлгі жасанды интеллекттен де көне. Жасанды интеллект оны қауіптірек етеді.

Жауапты әзірлеушілер жетілдіру үшін емес, түзету үшін салады 🔄

Міне, осының бәріндегі кішігірім бұрылыс: жауапкершілікпен жасанды интеллект әзірлеу жүйенің мінсіз болатынын көрсету емес. Бұл оның қандай да бір жолмен істен шығатынын болжап, сол шындыққа сәйкес жобалау туралы. NIST AI RMF

Бұл келесідей өнімдерді жасауды білдіреді:

Міне, жетілу осындай болады. Жылтыр демонстрациялар емес. Тыныссыз маркетингтік көшірме емес. Қоршаулары, журналдары, есептілігі және машинаның сиқыршы емес екенін мойындауға жеткілікті кішіпейілділігі бар нақты жүйелер. NCSC қауіпсіз жасанды интеллект нұсқаулары ЭЫДҰ жасанды интеллект қағидаттары

Өйткені олай емес. Бұл құрал. Иә, күшті құрал. Бірақ сонда да құрал.

Генеративтік жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігі туралы қорытынды ой 🌍

генеративті жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігі қандай ?

Бұл мұқият құру. Жүйенің қай жерде көмектесетінін және қай жерде зиян келтіретінін сұрастыру. Құпиялылықты қорғау. Қателіктерді тексеру. Нәтижелерді тексеру. Жұмыс процесін қауіпсіздендіру. Пайдаланушылармен ашық болу. Адамдарды мағыналы бақылауда ұстау. Бірдеңелер дұрыс болмаған кезде жауапкершілікті сақтау. NIST AI RMF OECD AI қағидаттары.

Бұл ауыр болып көрінуі мүмкін - және солай. Бірақ бұл сонымен қатар ойластырылған дамуды абайсыз автоматтандырудан ажырататын нәрсе.

Генеративті жасанды интеллектті қолданатын ең жақсы әзірлеушілер модельді ең көп трюктерді орындайтындар емес. Олар сол трюктердің салдарын түсінетін және соған сәйкес жобалайтындар. Олар жылдамдық маңызды екенін біледі, бірақ сенім - бұл нақты өнім. Ерекше, бұл ескірген идея әлі де өзекті. NIST AI RMF

Түптеп келгенде, жауапкершілік инновацияға кедергі емес. Бұл инновацияның қымбат, турбулентті, жылтыратылған интерфейсі мен сенімділік мәселесі бар кең таралуына жол бермейді 😬✨

Және, мүмкін, бұл оның ең қарапайым нұсқасы.

Батылдықпен салыңыз, әрине - бірақ адамдарға әсер етуі мүмкін сияқты салыңыз, себебі оларға әсер етеді. ЭЫДҰ жасанды интеллект қағидаттары

Жиі қойылатын сұрақтар

Іс жүзінде генеративті жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігі қандай?

Генеративті жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігі мүмкіндіктерді тез жеткізуден әлдеқайда асып түседі. Оған дұрыс пайдалану жағдайын таңдау, нәтижелерді тексеру, құпиялылықты қорғау, зиянды әрекеттерді азайту және жүйені пайдаланушыларға түсінікті ету кіреді. Іс жүзінде әзірлеушілер құралдың қалай жасалғанына, бақыланатынына, түзетілетініне және істен шыққан кезде басқарылатынына жауапты болып қала береді.

Неліктен генеративті жасанды интеллект қалыпты бағдарламалық жасақтамаға қарағанда әзірлеушілердің жауапкершілігін көбірек қажет етеді?

Дәстүрлі қателер көбінесе айқын көрінеді, бірақ генеративті жасанды интеллекттің сәтсіздіктері қате, бейтарап немесе қауіпті болып көрінгенімен, жылтыратылған болып көрінуі мүмкін. Бұл мәселелерді анықтауды қиындатады және пайдаланушыларға қателікпен сенуді жеңілдетеді. Әзірлеушілер ықтималдық жүйелерімен жұмыс істейді, сондықтан жауапкершілікке белгісіздікпен күресу, зиянды шектеу және іске қосу алдында болжанбайтын нәтижелерге дайындалу кіреді.

Әзірлеушілер генеративті жасанды интеллектті қашан қолдануға болмайтынын қалай біледі?

Бастапқыда тапсырма ашық түрде орындала ма, әлде ережелермен, іздеумен немесе стандартты бағдарламалық жасақтама логикасымен жақсырақ орындала ма деген сұрақ қою жиі кездеседі. Әзірлеушілер сонымен қатар қате жауаптың қаншалықты зиян келтіруі мүмкін екенін және адамның нәтижелерді шынайы түрде қарастыра алатынын ескеруі керек. Жауапты пайдалану кейде генеративті жасанды интеллектті мүлдем пайдаланбау туралы шешім қабылдауды білдіреді.

Әзірлеушілер генеративті жасанды интеллект жүйелеріндегі галлюцинациялар мен қате жауаптарды қалай азайта алады?

Дәлдік болжам емес, жобалануы керек. Көптеген құбырларда бұл нәтижелерді сенімді дереккөздерге негіздеу, жасалған мәтінді тексерілген фактілерден бөлу және жоғары қауіпті тапсырмалар үшін шолу жұмыс процестерін пайдалану дегенді білдіреді. Әзірлеушілер сонымен қатар жүйені шатастыруға немесе адастыруға бағытталған нұсқауларды, әсіресе код жазу, қолдау, қаржы, білім беру және денсаулық сақтау сияқты салаларда тексеруі керек.

Құпиялылық пен құпия деректер үшін генеративті жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігі қандай?

Генеративтік жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігіне модельге енгізілетін деректерді азайту және шақыруларды, журналдарды және шығыстарды құпия деп санау кіреді. Әзірлеушілер мүмкіндігінше идентификаторларды алып тастауы, сақтауды шектеуі, кіруді басқаруы және жеткізушінің параметрлерін мұқият қарап шығуы керек. Пайдаланушылар сонымен қатар тәуекелдерді кейінірек анықтаудың орнына, өз деректерінің қалай өңделетінін түсіне алуы керек.

Әзірлеушілер жасанды интеллект нәтижелеріндегі бейтараптық пен әділдікті қалай шешуі керек?

Біржақты жұмыс болжамдарды емес, белсенді бағалауды қажет етеді. Практикалық тәсіл - әртүрлі демографиялық топтар, тілдер және контексттер бойынша сұрауларды тексеру, содан кейін стереотиптерді, алып тастауды немесе біркелкі емес сәтсіздік үлгілерін тексеру. Әзірлеушілер сонымен қатар пайдаланушыларға немесе топтарға зиянды мінез-құлық туралы хабарлау жолдарын жасауы керек, себебі жүйе жалпы алғанда күшті болып көрінуі мүмкін, бірақ белгілі бір топтарды үнемі сәтсіздікке ұшыратады.

Әзірлеушілер генеративті жасанды интеллектпен қандай қауіпсіздік тәуекелдерін ескеруі керек?

Генеративті жасанды инъекция жаңа шабуыл беттерін енгізеді, соның ішінде жедел енгізу, қауіпсіз емес құралдарды пайдалану, контекст арқылы деректердің ағып кетуі және автоматтандырылған әрекеттерді теріс пайдалану. Әзірлеушілер сенімсіз енгізуді тазартуы, құрал рұқсаттарын шектеуі, файлдар мен желіге кіруді шектеуі және дұрыс пайдаланбау үлгілерін бақылауы керек. Қауіпсіздік тек интерфейс туралы ғана емес; ол модельдің айналасындағы барлық жұмыс процесіне қолданылады.

Генеративтік жасанды интеллектпен құрылыс салу кезінде ашықтық неліктен маңызды?

Пайдаланушылар жасанды интеллекттің қашан қатысатынын, оның не істей алатынын және оның шектеулері қайда екенін анық білуі керек. Жақсы ашықтыққа жасанды интеллект арқылы жасалған немесе жасанды интеллект көмегімен жасалған сияқты белгілер, қарапайым түсіндірмелер және адами қолдаудың анық жолдары кіруі мүмкін. Мұндай ашықтық өнімді әлсіретпейді; ол пайдаланушыларға сенімді тексеруге және дұрыс шешім қабылдауға көмектеседі.

Генеративті жасанды интеллект функциясы зиян келтіргенде немесе бірдеңе дұрыс болмағанда кім жауапты?

Әзірлеушілер мен өнім топтары, тіпті модель жауап берген кезде де, нәтижеге иелік етеді. Бұл орналастыруды мақұлдау, оқиғаларды өңдеу, кері қайтару, бақылау және пайдаланушымен байланыс үшін нақты жауапкершілік болуы керек дегенді білдіреді. «Модель шешім қабылдады» жеткіліксіз, себебі жауапкершілік жүйені жасап, іске қосқан адамдарда қалуы керек.

Іске қосылғаннан кейін жауапты генеративті жасанды интеллекттің дамуы қандай болады?

Жауапты әзірлеу шығарылғаннан кейін бақылау, кері байланыс, шолу және түзету арқылы жалғасады. Күшті жүйелер аудиттелетін, үзілетін, қалпына келтірілетін және жасанды интеллект істен шыққан кезде резервтік жолдармен жасалған. Мақсат - жетілдіру емес; бұл нақты әлемдегі мәселелер пайда болған кезде қауіпсіз түрде тексерілетін, жақсартылатын және реттелетін нәрсе жасау.

Сілтемелер

  1. Ұлттық стандарттар және технологиялар институты (NIST) - NIST GenAI профилі - nvlpubs.nist.gov

  2. OWASP - LLM бағдарламалары бойынша OWASP үздік 10 - owasp.org

  3. Ақпарат комиссары кеңсесі (ICO) - ICO-ның генеративті жасанды интеллектке арналған сегіз сұрағы - ico.org.uk

Ресми AI көмекші дүкенінен ең соңғы AI-ді табыңыз

Біз туралы

Блогқа оралу