Қысқаша жауап: Генеративті жасанды интеллектті қолданатын әзірлеушілер модельдің нәтижесіне ғана емес, бүкіл жүйеге де жауапты. Жасанды интеллект шешімдерге, кодқа, құпиялылыққа немесе пайдаланушы сеніміне әсер еткенде, олар қауіпсіз қолданбаларды таңдап, нәтижелерді тексеріп, деректерді қорғап, зиянды азайтуы және адамдардың қателерді қарап шығуы, қайта анықтауы және түзетуі мүмкін екеніне көз жеткізуі керек.
Негізгі қорытындылар:
Тексеру : Дереккөздер, сынақтар немесе адам шолуы растағанға дейін өңделген нәтижелерді сенімсіз деп санаңыз.
Деректерді қорғау : Сұрау деректерін азайту, идентификаторларды жою және журналдарды, кіруді басқару элементтерін және жеткізушілерді қорғау.
Әділдік : Стереотиптер мен біркелкі емес сәтсіздік үлгілерін анықтау үшін демографиялық көрсеткіштер мен контексттерді тексеріңіз.
Ашықтық : Жасанды интеллектті пайдалануды анық белгілеңіз, оның шектеулерін түсіндіріңіз және адами шолу немесе апелляция ұсыныңыз.
Есеп беру : Іске қосу алдында орналастыру, оқиғалар, бақылау және кері қайтару үшін нақты иелерін тағайындаңыз.

Осыдан кейін оқуға болатын мақалалар:
🔗 Бағдарламалық жасақтама әзірлеушілеріне арналған ең жақсы жасанды интеллект құралдары: жасанды интеллектпен жұмыс істейтін ең жақсы кодтау көмекшілері
Жылдамырақ және таза әзірлеу жұмыс процестері үшін ең жақсы жасанды интеллект кодтау көмекшілерін салыстырыңыз.
🔗 Өнімділікті арттыруға арналған әзірлеушілерге арналған ең үздік 10 жасанды интеллект құралдары
Ақылды кодтау және жылдамдық үшін әзірлеуші AI құралдарының рейтингтік тізімі.
🔗 Неліктен жасанды интеллект қоғам мен сенім үшін зиянды болуы мүмкін
Нақты әлемдегі зияндарды түсіндіреді: бейтараптық, жеке өмірге қол сұғушылық, жұмыс орындары және жалған ақпарат тәуекелдері.
🔗 Жасанды интеллект маңызды шешімдер қабылдауда тым шектен шықты ма?
Жасанды интеллект шекарадан асып кеткен кезде анықтайды: бақылау, жалған ақпарат, сендіру, келісімнің болмауы.
Неліктен генеративті жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігі адамдар ойлағаннан да маңыздырақ?
Бағдарламалық жасақтаманың көптеген қателері тітіркендіргіш. Түйме істен шығады. Бет баяу жүктеледі. Бірдеңе істен шығады және барлығы күңіренеді.
Генеративті жасанды интеллект мәселелері әртүрлі болуы мүмкін. Олар нәзік болуы мүмкін.
Модель қателесіп тұрған кезде сенімді болып көрінуі мүмкін. NIST GenAI профилі Ол айқын ескерту белгілерінсіз бейтараптықты қайталай алады. NIST GenAI профилі Егер абайсызда пайдаланылса, құпия деректерді ашуы мүмкін. LLM қолданбалары үшін OWASP үздік 10 ICO-ның генеративті жасанды интеллектке арналған сегіз сұрағы Ол жұмыс істейтін кодты жасай алады - өндірісте қандай да бір ұят жолмен сәтсіздікке ұшырағанға дейін. LLM қолданбалары үшін OWASP үздік 10 Ешқашан ұйықтамайтын және кейде таңқаларлықтай сенімділікпен фактілерді ойлап табатын өте ынталы тағылымдамадан өтушіні жалдау сияқты.
Сондықтан генеративті жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігі қарапайым енгізуден гөрі үлкен. Әзірлеушілер енді тек логикалық жүйелерді құрып қана қоймайды. Олар анық емес жиектері, болжанбайтын нәтижелері және нақты әлеуметтік салдары бар ықтималдық жүйелерді құрып жатыр. NIST AI RMF
Яғни, жауапкершілік мыналарды қамтиды:
-
NIST AI RMF моделінің шектерін түсіну
-
пайдаланушы құпиялылығын қорғау; жасанды интеллект және деректерді қорғау бойынша ICO нұсқаулығы
-
зиянды шығыстарды азайту NIST GenAI профилі
-
сенім берілмес бұрын дәлдікті тексеру NIST GenAI профилі
-
адам рөлін анық көрсету ЭЫДҰ жасанды интеллект қағидаттары
-
Жасанды интеллект сәтсіз болған кезде резервтік жолдарды жобалау ЭЫДҰ Жасанды интеллект қағидаттары NCSC қауіпсіздігі Жасанды интеллект нұсқаулары
Қалай болатынын білесіз - құрал сиқырлы болып көрінгенде, адамдар оған күмәндануды тоқтатады. Әзірлеушілер соншалықты босаңсуға мүмкіндік бере алмайды.
Генеративтік жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігінің жақсы нұсқасын не құрайды? 🛠️
Жауапкершіліктің жақсы нұсқасы өнімділік емес. Бұл тек төменгі жағына ескерту қосып, оны этика деп атау емес. Ол дизайн таңдауында, тестілеу әдеттерінде және өнімнің мінез-құлқында көрінеді.
Генеративтік жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігінің күшті нұсқасы әдетте келесідей көрінеді:
-
NIST AI RMF- ті әдейі пайдалану
-
Жасанды интеллект өнімге сәнге айналғандай әсер етпей, нақты мәселе үшін пайдаланылуда.
-
-
Адами бақылау ЭЫДҰ жасанды интеллект қағидаттары
-
Адамдар нәтижелерді қарап шыға алады, түзете алады, қайта анықтай алады немесе қабылдай алмайды.
-
-
Дизайн бойынша қауіпсіздік NCSC қауіпсіз жасанды интеллект нұсқаулары
-
Тәуекелдерді басқару шаралары ерте кезеңде орнатылады, кейінірек скотчпен жабыстырылмайды.
-
-
ЭЫДҰ ЖИ қағидаттарының ашықтығы Еуропалық комиссияның ЖИ туралы заңына шолу
-
Пайдаланушылар мазмұнның жасанды интеллект арқылы жасалғанын немесе жасанды интеллект көмегімен жасалғанын түсінеді.
-
-
Деректерді сақтау ICO-ның генеративті жасанды интеллектке арналған сегіз сұрағы
-
Құпия ақпарат мұқият өңделеді және оған қол жеткізу шектеулі.
-
-
Әділдік тексеріледі NIST GenAI профилі ICO нұсқаулығы жасанды интеллект және деректерді қорғау бойынша
-
Жүйе ауытқушылыққа, біркелкі емес жұмыс істеуге және зиянды үлгілерге тексерілген.
-
-
NIST AI RMF NCSC қауіпсіздік жасанды интеллект нұсқауларын үздіксіз бақылау
-
Жарыстың басталуы мәре сызығы емес. Ол старт ысқырығына көбірек ұқсайды.
-
Егер бұл көп болып көрінсе, онда... солай. Бірақ шешімдерге, сенімдерге және мінез-құлыққа кең ауқымды әсер ете алатын технологиялармен жұмыс істеген кезде бұл мәселе туындайды. ЭЫДҰ жасанды интеллект қағидаттары
Салыстыру кестесі - генеративті жасанды интеллектті қолданатын әзірлеушілердің негізгі жауапкершілігі туралы қысқаша 📋
| Жауапкершілік аймағы | Кімге әсер етеді | Күнделікті әзірлеуші тәжірибесі | Неліктен маңызды |
|---|---|---|---|
| Дәлдік және тексеру | пайдаланушылар, топтар, тұтынушылар | Нәтижелерді қарап шығыңыз, валидация қабаттарын қосыңыз, шеткі жағдайларды тексеріңіз | Жасанды интеллект еркін сөйлей алады, бірақ сонда да қателеседі - бұл NIST GenAI профилінің |
| Құпиялылықты қорғау | пайдаланушылар, клиенттер, ішкі қызметкерлер | Құпия деректерді пайдалануды азайтыңыз, сұрауларды жойыңыз, журналдарды басқарыңыз | Жеке деректер ағып кеткеннен кейін, тіс пастасы түтіктен шығады 😬 ICO-ның генеративті жасанды интеллектке арналған сегіз сұрағы OWASP LLM қолданбаларына арналған ең үздік 10 сұрақ |
| Бейтараптық және әділдік | аз ұсынылған топтар, барлық пайдаланушылар шынымен де | Аудит нәтижелері, әртүрлі кірістерді тексеру, қауіпсіздік шараларын реттеу | Зиян әрқашан қатты бола бермейді - кейде ол жүйелі және тыныш болады NIST GenAI профилі ICO жасанды интеллект және деректерді қорғау бойынша нұсқаулық |
| Қауіпсіздік | компания жүйелері, пайдаланушылар | Модельге кіруді шектеу, жедел енгізуден, қауіпті әрекеттерден қорғау | Бір ғана ақылды әрекет сенімді тез бұзуы мүмкін. LLM қолданбалары бойынша OWASP Top 10 NCSC жасанды интеллект және киберқауіпсіздік бойынша |
| Ашықтық | соңғы пайдаланушылар, реттеушілер, қолдау топтары | Жасанды интеллекттің мінез-құлқын анық белгілеңіз, шектеулерді, құжатты пайдалануды түсіндіріңіз | Адамдар машинаның жасанды интеллект негізінде жасалған мазмұнды таңбалау және белгілеу бойынша жасанды интеллект қағидаттарының |
| Есеп беру | өнім иелері, заңгерлер, әзірлеушілер топтары | Меншік құқығын, оқиғаларды өңдеуді, эскалация жолдарын анықтаңыз | «Жасанды интеллект жасады» - ересектердің жауабы емес, ЭЫДҰ-ның Жасанды интеллект қағидаттары |
| Сенімділік | өнімге тигендердің барлығы | Сәтсіздіктерді бақылау, сенімділік шегін орнату, резервтік логиканы жасау | Модельдер күтпеген жерден сәтсіздікке ұшырайды және кейде NIST AI RMF NCSC қауіпсіздік AI нұсқаулары бойынша |
| Пайдаланушының әл-ауқаты | әсіресе осал пайдаланушылар | Манипуляциялық дизайннан аулақ болыңыз, зиянды нәтижелерді шектеңіз, жоғары қауіпті пайдалану жағдайларын қарастырыңыз | ЭЫДҰ AI принциптері NIST AI RMF болуы керек дегенді білдірмейді. |
Әрине, үстел сәл тегіс емес, бірақ бұл тақырыпқа сай келеді. Нағыз жауапкершілік те тең емес.
Жауапкершілік бірінші сұрақтан бұрын басталады - дұрыс пайдалану жағдайын таңдау 🎯
Әзірлеушілердің ең үлкен міндеттерінің бірі - генеративті жасанды интеллектті пайдалану керек пе, жоқ па деген мәселені . NIST AI RMF
Бұл айқын естіледі, бірақ ол үнемі өткізіп жіберіледі. Командалар модельді көреді, қуанады және оны ережелермен, іздеумен немесе қарапайым бағдарламалық жасақтама логикасымен жақсырақ өңделетін жұмыс процестеріне мәжбүрлей бастайды. Әрбір есеп тілдік модельді қажет етпейді. Кейбір есептерге дерекқор және тыныш түстен кейінгі уақыт қажет.
Құрылысты бастамас бұрын, әзірлеушілерден сұрау керек:
-
Тапсырма ашық па, әлде детерминистік пе?
-
Дұрыс емес шығыс зиян келтіруі мүмкін бе?
-
Пайдаланушыларға шығармашылық, болжау, қорытындылау, автоматтандыру қажет пе, әлде тек жылдамдық па?
-
Адамдар нәтижеге тым сене ме? NIST GenAI профилі
-
Адам нәтижелерді шынайы түрде бағалай ала ма? ЭЫДҰ жасанды интеллект қағидаттары
-
Модель қате болған кезде не болады? ЭЫДҰ жасанды интеллект қағидаттары
Жауапты әзірлеуші жай ғана «Біз мұны сала аламыз ба?» деп сұрамайды. Олар «Мұны осылай салу керек пе?» деп сұрайды. NIST AI RMF
Бұл сұрақтың өзі көптеген күлкілі әңгімелердің алдын алады.
Дәлдік - бұл жауапкершілік, бонустық мүмкіндік емес ✅
Анық айтайын - генеративті жасанды интеллекттегі ең үлкен тұзақтардың бірі - шешендікті шындықпен шатастыру. Модельдер көбінесе жылтыратылған, құрылымдалған және терең сендіретін жауаптар береді. Бұл керемет, бірақ мазмұны сенімділікке оралғанша. NIST GenAI профилі
Сонымен, генеративті жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігіне тексеру үшін құрылыс салу кіреді.
Бұл дегеніміз:
-
NIST GenAI профилін қалпына келтіру немесе жерге қосуды пайдалану
-
жасалған мазмұнды расталған фактілерден бөлу ЭЫДҰ AI қағидаттары
-
сенімділік шегін мұқият қосу NIST AI RMF
-
жоғары тәуекелді нәтижелерге шолу жұмыс процестерін құру ЭЫДҰ жасанды интеллект қағидаттары
-
NIST GenAI профилінің маңызды жағдайларда модельдің импровизациясына жол бермеу
-
жүйені бұзуға немесе адастыруға тырысатын тестілеу нұсқаулары OWASP LLM қолданбалары бойынша ең үздік 10
Бұл келесі салаларда өте маңызды:
-
денсаулық сақтау
-
қаржы
-
құқықтық жұмыс процестері
-
білім беру
-
тұтынушыларды қолдау
-
кәсіпорынды автоматтандыру
-
код генерациясы
Мысалы, жасалған код қауіпсіздік кемшіліктерін немесе логикалық қателерді жасыра отырып, ұқыпты көрінуі мүмкін. Оны соқыр түрде көшіретін әзірлеуші тиімді емес - олар жай ғана тәуекелді әдемі форматта аутсорсингке береді. LLM қолданбалары үшін OWASP Top 10 NCSC жасанды интеллект және киберқауіпсіздік бойынша
Модель көмектесе алады. Әзірлеуші әлі де нәтижеге иелік етеді. ЭЫДҰ жасанды интеллект қағидаттары
Құпиялылық және деректерді басқару талқыланбайды 🔐
Міне, осы жерде жағдай тез күрделене түседі. Генеративті жасанды интеллект жүйелері көбінесе шақыруларға, журналдарға, контекст терезелеріне, жад қабаттарына, аналитикаға және үшінші тарап инфрақұрылымына сүйенеді. Бұл құпия деректердің ағып кетуіне, сақталуына немесе пайдаланушылар күтпеген жолдармен қайта пайдаланылуына көптеген мүмкіндіктер жасайды. Генеративті жасанды интеллектке арналған ICO сегіз сұрағы OWASP LLM қолданбалары үшін ең үздік 10 сұрақ.
Әзірлеушілер мыналарды қорғауға міндетті:
-
жеке ақпарат
-
қаржылық жазбалар
-
медициналық мәліметтер
-
компанияның ішкі деректері
-
коммерциялық құпиялар
-
аутентификация токендері
-
клиенттік коммуникациялар
Жауапкершілікті тәжірибелерге мыналар жатады:
-
модельге енгізілетін деректерді азайту ICO-ның генеративті жасанды интеллектке арналған сегіз сұрағы
-
NIST GenAI профилінің идентификаторларын жасыру немесе жою
-
журналдарды сақтауды шектеу; жасанды интеллект және деректерді қорғау бойынша ICO нұсқаулығы
-
LLM қолданбалары үшін OWASP Top 10 сұраулары мен шығыстарына кімнің кіре алатынын басқару
-
жеткізушінің параметрлерін мұқият қарап шығу NCSC қауіпсіздік жасанды интеллект нұсқаулары
-
жоғары қауіпті жұмыс процестерін оқшаулау NCSC қауіпсіз жасанды интеллект нұсқаулары
-
пайдаланушыларға құпиялылық мінез-құлқын көрінетін ету ICO-ның генеративті жасанды интеллектке арналған сегіз сұрағы
Бұл «біз бұл туралы ойлануды ұмытып кеткенбіз» деген кішігірім қателік емес, сенімді бұзатын сәтсіздік.
Ал сенім бір рет сынған сайын, құлаған әйнек сияқты таралады. Мүмкін, бұл ең тамаша метафора емес шығар, бірақ түсінесіз.
Бейтараптық, әділдік және өкілдік - тыныш міндеттер ⚖️
Генеративті жасанды интеллекттегі бейтараптық сирек жағдайда мультфильмдегі зұлым кейіпкерге айналады. Әдетте ол бұдан да тайғақ болады. Модель айқын дабылдарды қоздырмай, стереотипті лауазымдық сипаттамаларды, біркелкі емес модерациялық шешімдерді, біржақты ұсыныстарды немесе мәдени тұрғыдан тар болжамдарды жасай алады. NIST GenAI профилі
Сондықтан генеративті жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігіне белсенді әділеттілік жұмысы кіреді.
Әзірлеушілер келесі әрекеттерді орындауы керек:
-
әртүрлі демографиялық топтар мен контексттерден алынған сынақ нұсқалары NIST GenAI профилі
-
NIST GenAI профилінің стереотиптері мен алып тастауларына шолу нәтижелері
-
NIST AI RMF бағалау кезінде әртүрлі көзқарастарды қамтиды
-
NIST GenAI профилінің біркелкі емес істен шығу үлгілерін бақылаңыз
-
бір тілдік стиль немесе мәдени норма барлығына сәйкес келеді деп ойлаудан аулақ болыңыз; жасанды интеллект және деректерді қорғау бойынша ICO нұсқаулығы
-
зиянды шығыс туралы есеп беру арналарын жасау NIST AI RMF
Жүйе жалпы алғанда жақсы жұмыс істейтін сияқты көрінуі мүмкін, бірақ кейбір пайдаланушыларға басқаларына қарағанда нашар қызмет көрсетеді. Бұл тек басқару тақтасында орташа өнімділік жақсы көрінгендіктен қабылданбайды. Жасанды интеллект және деректерді қорғау бойынша ICO нұсқаулығы NIST GenAI профилі
Иә, әділдік таза тексеру тізімінен де қиынырақ. Онда пікір бар. Контекст. Келісімдер. Сондай-ақ қолайсыздықтың өлшемі. Бірақ бұл жауапкершілікті алып тастамайды - оны растайды. Жасанды интеллект және деректерді қорғау бойынша ICO нұсқаулығы
Қауіпсіздік енді бір жағынан жедел жобалау, бір жағынан инженерлік тәртіп 🧱
Генеративті жасанды интеллект қауіпсіздігі өзіндік ерекшелігімен ерекшеленеді. Әрине, дәстүрлі қолданба қауіпсіздігі әлі де маңызды, бірақ жасанды интеллект жүйелері ерекше шабуыл беттерін қосады: жедел енгізу, жанама жедел манипуляция, қауіпсіз емес құралдарды пайдалану, контекст арқылы деректерді шығару және автоматтандырылған жұмыс процестері арқылы модельді дұрыс пайдаланбау. LLM қолданбалары үшін OWASP Top 10 NCSC жасанды интеллект және киберқауіпсіздік бойынша
Әзірлеушілер тек интерфейсті ғана емес, бүкіл жүйені қорғауға жауапты. NCSC қауіпсіздік жасанды интеллект нұсқаулары
Мұндағы негізгі міндеттерге мыналар жатады:
-
сенімсіз кірісті зарарсыздандыру OWASP LLM қолданбалары үшін ең үздік 10
-
модельдің LLM қосымшалары үшін OWASP Top 10
-
файлдар мен желіге кіруді шектеу NCSC қауіпсіз жасанды интеллект нұсқаулары
-
рұқсаттарды анық бөлу NCSC қауіпсіздік жасанды интеллект нұсқаулары
-
теріс пайдалану үлгілерін бақылау NCSC қауіпсіз жасанды интеллект нұсқаулары
-
Қымбат немесе қауіпті әрекеттердің тарифтерін шектейтін OWASP LLM бағдарламалары бойынша ең үздік 10
-
қарсыласушылық сұрақтарын сынау OWASP LLM қосымшалары үшін ең үздік 10
-
ЭЫДҰ жасанды интеллект қағидаттарына қайшы келген кезде қауіпсіз резервтерді құру
Бір ыңғайсыз шындық - пайдаланушылар мен шабуылдаушылар әзірлеушілер күтпеген нәрселерді міндетті түрде сынап көреді. Кейбіреулері қызығушылықпен, кейбіреулері қастық ниетпен, ал кейбіреулері түнгі сағат 2-де дұрыс емес нәрсені басқандықтан. Бұл болып тұрады.
Генеративті жасанды интеллекттің қауіпсіздігі қабырға тұрғызуға емес, кейде сөз тіркестеріне алданып қалатын өте сөйлейтін қақпашыны басқаруға көбірек ұқсайды.
Ашықтық пен пайдаланушы келісімі көз тартарлық UX-тен маңыздырақ 🗣️
Пайдаланушылар жасанды интеллектпен әрекеттескенде, олар мұны білуі керек. ЭЫДҰ жасанды интеллект принциптерінің жасанды интеллектпен жасалған мазмұнды белгілеу және таңбалау бойынша тәжірибе кодексі
Анық емес. Терминдер бойынша жасырын емес. Әрине.
Генеративтік жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігінің негізгі бөлігі пайдаланушылардың мыналарды түсінуін қамтамасыз ету болып табылады:
-
Жасанды интеллект қолданылған кезде ЭЫДҰ Жасанды интеллект қағидаттары
-
Жасанды интеллект не істей алады және не істей алмайды, ЭЫДҰ Жасанды интеллект қағидаттары
-
нәтижелерді адамдар қарастыра ма, ЭЫДҰ жасанды интеллект қағидаттары
-
олардың деректері қалай өңделеді? ICO-ның генеративті жасанды интеллектке арналған сегіз сұрағы.
-
NIST AI RMF-ке қандай сенімділік деңгейіне ие болуы керек
-
Мәселелер туралы қалай хабарлауға немесе шешімдерге қалай шағымдануға болады ЭЫДҰ AI принциптері NIST AI RMF
Ашықтық пайдаланушыларды қорқыту туралы емес, оларды құрметтеу туралы.
Жақсы ашықтық мыналарды қамтуы мүмкін:
-
жасанды интеллект көмегімен жасалған мазмұнды белгілеу және таңбалау бойынша тәжірибе кодексі сияқты белгілер
-
ЭЫДҰ жасанды интеллект қағидаттарының қарапайым тілдегі түсіндірмелері
-
тиісті жерде көрінетін өңдеу тарихтары
-
жасанды интеллект мүмкіндіктерін өшіру опциялары
-
қажет болған кезде адамға дейін көтерілу ЭЫДҰ жасанды интеллект қағидаттары
-
жоғары қауіпті тапсырмаларға арналған қысқаша ескертулер Еуропалық комиссияның жасанды интеллект туралы заңына шолу
Көптеген өнім топтары шынайылық функцияның сиқырлылығын төмендетеді деп алаңдайды. Мүмкін. Бірақ жалған сенімділік одан да жаман. Тәуекелді жасыратын тегіс интерфейс негізінен жылтыратылған шатасушылық болып табылады.
Әзірлеушілер есеп береді - тіпті модель «шешім қабылдаған» кезде де 👀
Бұл бөлік өте маңызды. Жауапкершілікті модель жеткізушісіне, модель картасына, тапсырма үлгісіне немесе машиналық оқытудың жұмбақ атмосферасына жүктеуге болмайды. ЭЫДҰ AI принциптері NIST AI RMF
Әзірлеушілер әлі де жауапты. ЭЫДҰ жасанды интеллект қағидаттары
Бұл командадағы біреудің иеленуі керек дегенді білдіреді:
-
NIST AI RMF моделін таңдау
-
NIST GenAI профилін сынау стандарттары
-
шығару критерийлері NIST GenAI профилі
-
Оқиғаларға жауап беру NCSC қауіпсіз жасанды интеллект нұсқаулары
-
пайдаланушы шағымдарын өңдеу NIST AI RMF
-
қайтару рәсімдері ЭЫДҰ жасанды интеллект қағидаттары
-
өзгерістерді бақылау ЭЫДҰ жасанды интеллект қағидаттары
-
ЭЫДҰ жасанды интеллект қағидаттарын құжаттау
сияқты сұрақтарға нақты жауаптар болуы керек:
-
Орналастыруды кім бекітеді? NIST GenAI профилі
-
Зиянды өндіріс оқиғаларын кім қарастырады? NIST GenAI профилі
-
Функцияны кім өшіре алады? ЭЫДҰ жасанды интеллект қағидаттары
-
Регрессияларды кім бақылайды? NIST AI RMF
-
Бірдеңе істен шыққан кезде пайдаланушылармен кім байланысады? ЭЫДҰ жасанды интеллект қағидаттары
Меншік болмаса, жауапкершілік тұманға айналады. Әркім басқа біреу оны басқарып жатыр деп ойлайды... сосын ешкім басқармайды.
Шын мәнінде, бұл үлгі жасанды интеллекттен де көне. Жасанды интеллект оны қауіптірек етеді.
Жауапты әзірлеушілер жетілдіру үшін емес, түзету үшін салады 🔄
Міне, осының бәріндегі кішігірім бұрылыс: жауапкершілікпен жасанды интеллект әзірлеу жүйенің мінсіз болатынын көрсету емес. Бұл оның қандай да бір жолмен істен шығатынын болжап, сол шындыққа сәйкес жобалау туралы. NIST AI RMF
Бұл келесідей өнімдерді жасауды білдіреді:
-
аудиттелетін ЭЫДҰ жасанды интеллект қағидаттары
-
шешімдер мен нәтижелерді кейінірек қайта қарауға болады
-
-
үзілмейтін ЭЫДҰ жасанды интеллект қағидаттары
-
Адамдар жаман мінез-құлықты тоқтата алады немесе оны жоққа шығара алады
-
-
қалпына келтірілетін ЭЫДҰ жасанды интеллект қағидаттары
-
жасанды интеллект шығысы дұрыс емес болған кезде резервтік мүмкіндік бар
-
-
бақыланатын NCSC қауіпсіз жасанды интеллект нұсқаулары NIST AI RMF
-
топтар апатқа айналмас бұрын үлгілерді анықтай алады
-
-
жақсартылатын NIST GenAI профилі
-
кері байланыс циклдары бар және біреу оларды оқиды
-
Міне, жетілу осындай болады. Жылтыр демонстрациялар емес. Тыныссыз маркетингтік көшірме емес. Қоршаулары, журналдары, есептілігі және машинаның сиқыршы емес екенін мойындауға жеткілікті кішіпейілділігі бар нақты жүйелер. NCSC қауіпсіз жасанды интеллект нұсқаулары ЭЫДҰ жасанды интеллект қағидаттары
Өйткені олай емес. Бұл құрал. Иә, күшті құрал. Бірақ сонда да құрал.
Генеративтік жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігі туралы қорытынды ой 🌍
генеративті жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігі қандай ?
Бұл мұқият құру. Жүйенің қай жерде көмектесетінін және қай жерде зиян келтіретінін сұрастыру. Құпиялылықты қорғау. Қателіктерді тексеру. Нәтижелерді тексеру. Жұмыс процесін қауіпсіздендіру. Пайдаланушылармен ашық болу. Адамдарды мағыналы бақылауда ұстау. Бірдеңелер дұрыс болмаған кезде жауапкершілікті сақтау. NIST AI RMF OECD AI қағидаттары.
Бұл ауыр болып көрінуі мүмкін - және солай. Бірақ бұл сонымен қатар ойластырылған дамуды абайсыз автоматтандырудан ажырататын нәрсе.
Генеративті жасанды интеллектті қолданатын ең жақсы әзірлеушілер модельді ең көп трюктерді орындайтындар емес. Олар сол трюктердің салдарын түсінетін және соған сәйкес жобалайтындар. Олар жылдамдық маңызды екенін біледі, бірақ сенім - бұл нақты өнім. Ерекше, бұл ескірген идея әлі де өзекті. NIST AI RMF
Түптеп келгенде, жауапкершілік инновацияға кедергі емес. Бұл инновацияның қымбат, турбулентті, жылтыратылған интерфейсі мен сенімділік мәселесі бар кең таралуына жол бермейді 😬✨
Және, мүмкін, бұл оның ең қарапайым нұсқасы.
Батылдықпен салыңыз, әрине - бірақ адамдарға әсер етуі мүмкін сияқты салыңыз, себебі оларға әсер етеді. ЭЫДҰ жасанды интеллект қағидаттары
Жиі қойылатын сұрақтар
Іс жүзінде генеративті жасанды интеллектті қолданатын әзірлеушілердің жауапкершілігі қандай?
Генеративті жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігі мүмкіндіктерді тез жеткізуден әлдеқайда асып түседі. Оған дұрыс пайдалану жағдайын таңдау, нәтижелерді тексеру, құпиялылықты қорғау, зиянды әрекеттерді азайту және жүйені пайдаланушыларға түсінікті ету кіреді. Іс жүзінде әзірлеушілер құралдың қалай жасалғанына, бақыланатынына, түзетілетініне және істен шыққан кезде басқарылатынына жауапты болып қала береді.
Неліктен генеративті жасанды интеллект қалыпты бағдарламалық жасақтамаға қарағанда әзірлеушілердің жауапкершілігін көбірек қажет етеді?
Дәстүрлі қателер көбінесе айқын көрінеді, бірақ генеративті жасанды интеллекттің сәтсіздіктері қате, бейтарап немесе қауіпті болып көрінгенімен, жылтыратылған болып көрінуі мүмкін. Бұл мәселелерді анықтауды қиындатады және пайдаланушыларға қателікпен сенуді жеңілдетеді. Әзірлеушілер ықтималдық жүйелерімен жұмыс істейді, сондықтан жауапкершілікке белгісіздікпен күресу, зиянды шектеу және іске қосу алдында болжанбайтын нәтижелерге дайындалу кіреді.
Әзірлеушілер генеративті жасанды интеллектті қашан қолдануға болмайтынын қалай біледі?
Бастапқыда тапсырма ашық түрде орындала ма, әлде ережелермен, іздеумен немесе стандартты бағдарламалық жасақтама логикасымен жақсырақ орындала ма деген сұрақ қою жиі кездеседі. Әзірлеушілер сонымен қатар қате жауаптың қаншалықты зиян келтіруі мүмкін екенін және адамның нәтижелерді шынайы түрде қарастыра алатынын ескеруі керек. Жауапты пайдалану кейде генеративті жасанды интеллектті мүлдем пайдаланбау туралы шешім қабылдауды білдіреді.
Әзірлеушілер генеративті жасанды интеллект жүйелеріндегі галлюцинациялар мен қате жауаптарды қалай азайта алады?
Дәлдік болжам емес, жобалануы керек. Көптеген құбырларда бұл нәтижелерді сенімді дереккөздерге негіздеу, жасалған мәтінді тексерілген фактілерден бөлу және жоғары қауіпті тапсырмалар үшін шолу жұмыс процестерін пайдалану дегенді білдіреді. Әзірлеушілер сонымен қатар жүйені шатастыруға немесе адастыруға бағытталған нұсқауларды, әсіресе код жазу, қолдау, қаржы, білім беру және денсаулық сақтау сияқты салаларда тексеруі керек.
Құпиялылық пен құпия деректер үшін генеративті жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігі қандай?
Генеративтік жасанды интеллектті пайдаланатын әзірлеушілердің жауапкершілігіне модельге енгізілетін деректерді азайту және шақыруларды, журналдарды және шығыстарды құпия деп санау кіреді. Әзірлеушілер мүмкіндігінше идентификаторларды алып тастауы, сақтауды шектеуі, кіруді басқаруы және жеткізушінің параметрлерін мұқият қарап шығуы керек. Пайдаланушылар сонымен қатар тәуекелдерді кейінірек анықтаудың орнына, өз деректерінің қалай өңделетінін түсіне алуы керек.
Әзірлеушілер жасанды интеллект нәтижелеріндегі бейтараптық пен әділдікті қалай шешуі керек?
Біржақты жұмыс болжамдарды емес, белсенді бағалауды қажет етеді. Практикалық тәсіл - әртүрлі демографиялық топтар, тілдер және контексттер бойынша сұрауларды тексеру, содан кейін стереотиптерді, алып тастауды немесе біркелкі емес сәтсіздік үлгілерін тексеру. Әзірлеушілер сонымен қатар пайдаланушыларға немесе топтарға зиянды мінез-құлық туралы хабарлау жолдарын жасауы керек, себебі жүйе жалпы алғанда күшті болып көрінуі мүмкін, бірақ белгілі бір топтарды үнемі сәтсіздікке ұшыратады.
Әзірлеушілер генеративті жасанды интеллектпен қандай қауіпсіздік тәуекелдерін ескеруі керек?
Генеративті жасанды инъекция жаңа шабуыл беттерін енгізеді, соның ішінде жедел енгізу, қауіпсіз емес құралдарды пайдалану, контекст арқылы деректердің ағып кетуі және автоматтандырылған әрекеттерді теріс пайдалану. Әзірлеушілер сенімсіз енгізуді тазартуы, құрал рұқсаттарын шектеуі, файлдар мен желіге кіруді шектеуі және дұрыс пайдаланбау үлгілерін бақылауы керек. Қауіпсіздік тек интерфейс туралы ғана емес; ол модельдің айналасындағы барлық жұмыс процесіне қолданылады.
Генеративтік жасанды интеллектпен құрылыс салу кезінде ашықтық неліктен маңызды?
Пайдаланушылар жасанды интеллекттің қашан қатысатынын, оның не істей алатынын және оның шектеулері қайда екенін анық білуі керек. Жақсы ашықтыққа жасанды интеллект арқылы жасалған немесе жасанды интеллект көмегімен жасалған сияқты белгілер, қарапайым түсіндірмелер және адами қолдаудың анық жолдары кіруі мүмкін. Мұндай ашықтық өнімді әлсіретпейді; ол пайдаланушыларға сенімді тексеруге және дұрыс шешім қабылдауға көмектеседі.
Генеративті жасанды интеллект функциясы зиян келтіргенде немесе бірдеңе дұрыс болмағанда кім жауапты?
Әзірлеушілер мен өнім топтары, тіпті модель жауап берген кезде де, нәтижеге иелік етеді. Бұл орналастыруды мақұлдау, оқиғаларды өңдеу, кері қайтару, бақылау және пайдаланушымен байланыс үшін нақты жауапкершілік болуы керек дегенді білдіреді. «Модель шешім қабылдады» жеткіліксіз, себебі жауапкершілік жүйені жасап, іске қосқан адамдарда қалуы керек.
Іске қосылғаннан кейін жауапты генеративті жасанды интеллекттің дамуы қандай болады?
Жауапты әзірлеу шығарылғаннан кейін бақылау, кері байланыс, шолу және түзету арқылы жалғасады. Күшті жүйелер аудиттелетін, үзілетін, қалпына келтірілетін және жасанды интеллект істен шыққан кезде резервтік жолдармен жасалған. Мақсат - жетілдіру емес; бұл нақты әлемдегі мәселелер пайда болған кезде қауіпсіз түрде тексерілетін, жақсартылатын және реттелетін нәрсе жасау.
Сілтемелер
-
Ұлттық стандарттар және технологиялар институты (NIST) - NIST GenAI профилі - nvlpubs.nist.gov
-
OWASP - LLM бағдарламалары бойынша OWASP үздік 10 - owasp.org
-
Ақпарат комиссары кеңсесі (ICO) - ICO-ның генеративті жасанды интеллектке арналған сегіз сұрағы - ico.org.uk