Жасанды интеллект тым көп мақтана ма?

Жасанды интеллект тым көп мақтана ма?

Қысқа жауап: Жасанды интеллект мінсіз, қолмен басқарылмайтын немесе жұмыс орнын алмастыратын ретінде жарнамаланған кезде артық сатылады; жобалау, кодтауды қолдау, сұрыптау және деректерді зерттеу үшін бақыланатын құрал ретінде пайдаланылған кезде ол артық сатылмайды. Егер сізге шындық қажет болса, оны тексерілген дереккөздерге негіздеп, шолу қосуыңыз керек; тәуекелдер артқан сайын басқару маңызды.

Осыдан кейін оқуға болатын мақалалар:

Негізгі қорытындылар:

Артық айту белгілері : «Толығымен автономды» және «жақын арада өте дәл» деген мәлімдемелерді қауіпті белгілер ретінде қарастырыңыз.

Сенімділік : сенімді қате жауаптарды күту; іздеуді, тексеруді және адами шолуды қажет етеді.

Жақсы пайдалану жағдайлары : Анық табыс көрсеткіштері мен төмен тәуекелдері бар тар, қайталанатын тапсырмаларды таңдаңыз.

Есеп беру : Нәтижелер, шолулар және ол дұрыс болмаған кезде не болатыны үшін адам иесін тағайындаңыз.

Басқару : Ақша, қауіпсіздік немесе құқықтар мәселесі туындаған кезде құрылымдар мен оқиғаларды ашу тәжірибелерін пайдаланыңыз.

🔗 Сізге қай AI сәйкес келеді?
Жалпы жасанды интеллект құралдарын мақсаттары, бюджеті және қарапайымдылығы бойынша салыстырыңыз.

🔗 Жасанды интеллект көпіршігі пайда бола ма?
Хайп белгілері, тәуекелдер және тұрақты өсу қандай болатыны.

🔗 Жасанды интеллект детекторлары нақты өмірде қолдануға сенімді ме?
Дәлдік шектеулері, жалған оң нәтижелер және әділ бағалау бойынша кеңестер.

🔗 Күн сайын телефоныңызда жасанды интеллектті қалай пайдалануға болады
Уақытты үнемдеу үшін мобильді қосымшаларды, дауыстық көмекшілерді және кеңестерді пайдаланыңыз.


Адамдар «Жасанды интеллект тым асыра сілтелген» дегенде нені меңзеп отыр 🤔

Біреу жасанды интеллект тым асыра сілтелген , олар әдетте осы сәйкессіздіктердің біріне (немесе бірнешеуіне) реакция жасайды:

  • Маркетингтік уәделер мен күнделікті шындық.
    Демо сиқырлы көрінеді. Бағдарламаның тұсаукесері скотч пен дұға сияқты сезіледі.

  • Қабілет пен сенімділік.
    Ол өлең жаза алады, келісімшартты аудара алады, кодты жөндей алады... содан кейін сенімді түрде саясат сілтемесін ойлап таба алады. Керемет, керемет.

  • Прогресс пен практикалық
    Модельдер тез жақсарады, бірақ оларды шатастырылған бизнес-процестерге біріктіру баяу, саяси және көптеген кемшіліктерге толы.

  • «Адамдарды ауыстыру» туралы әңгімелер
    Көптеген шынайы жеңістер «бүкіл жұмысты ауыстырудан» гөрі «жағымсыз бөліктерді алып тастауға» көбірек ұқсайды.

Міне, негізгі мәселе осында: жасанды интеллект шынымен де күшті, бірақ ол көбінесе дайын сияқты сатылады. Ол әлі аяқталмаған. Ол... құрылысы аяқталмаған. Керемет терезелері бар және сантехникасы жоқ үй сияқты 🚽

 

Жасанды интеллект тым жоғары бағаланды ма?

Неліктен жасанды интеллект туралы асыра сілтеулер соншалықты оңай орын алады (және бола береді) 🎭

Жасанды интеллекттің магнит сияқты асыра сілтеушілікті тудыратын бірнеше себебі бар:

Демонстрациялар негізінен алдайды (ең жақсы жолмен)

Демонстрациялар сұрыпталған. Сұраныстар реттелген. Деректер таза. Ең жақсы сценарий назарға алынады, ал сәтсіздік жағдайлары сахна артында крекер жеп жатыр.

Аман қалу туралы пікір қатты

«Жасанды интеллект бізге миллион сағат үнемдеді» деген әңгімелер кең тарады. «Жасанды интеллект бізге бәрін екі рет қайта жазуға мәжбүр етті» деген әңгімелер біреудің «3-ші тоқсан эксперименттері» деп аталатын жоба қалтасында жасырынып қалады 🫠

Адамдар еркіндікті шындықпен шатастырады

Қазіргі заманғы жасанды интеллект сенімді, пайдалы және нақты болып естілуі мүмкін - бұл біздің миымызды оның дәлдігіне сенуге мәжбүр етеді.

Бұл сәтсіздік режимін сипаттаудың өте кең таралған тәсілі - конфабуляция : сенімді түрде айтылған, бірақ қате нәтиже (яғни «галлюцинациялар»). NIST мұны генеративті жасанды интеллект жүйелері үшін негізгі қауіп ретінде тікелей атайды. [1]

Ақша мегафонды күшейтеді

Бюджеттер, бағалаулар және мансаптық ынталандырулар туралы сөз болған кезде, әркімнің «бұл бәрін өзгертеді» деп айтуға себебі бар (тіпті ол көбінесе слайдтар жиынтығын өзгертсе де).


«Инфляция → көңілсіздік → тұрақты құн» үлгісі (және неге бұл жасанды интеллект жалған дегенді білдірмейді) 📈😬

Көптеген технологиялар бірдей эмоционалды доғаны ұстанады:

  1. Ең жоғары күтілетін уақыт (сейсенбіге дейін бәрі автоматтандырылады)

  2. Қиын шындық (сәрсенбіде бұзылады)

  3. Тұрақты құн (ол жұмыстың қалай орындалатынының бір бөлігіне айналады)

Иә, жасанды интеллект маңызды бола тұра, артық сатылуы мүмкін . Бұлар қарама-қарсы емес. Олар бөлмелес.


Жасанды интеллект тым көп мақтана алмайтын жерде (ол нәтиже береді) ✅✨

Бұл бөлім ғылыми фантастикаға азырақ және электрондық кестелерге көбірек байланысты болғандықтан, назардан тыс қалады.

Код жазуға көмек - өнімділікті арттырудың нақты жолы

Кейбір тапсырмалар үшін - шаблондық тақтайша, сынақ құрылыстары, қайталанатын үлгілер - кодтық көшірмелер шынымен де практикалық болуы мүмкін.

GitHub-тан кеңінен сілтеме жасалған бақыланатын эксперимент Copilot қолданатын әзірлеушілердің кодтау тапсырмасын тезірек (олардың жазбаларында сол зерттеуде жылдамдықтың 55%-ға өскені

Сиқыр емес, бірақ мағыналы. Мәселе мынада, сіз әлі де оның жазғандарын қарап шығуыңыз керек... себебі «пайдалы» мен «дұрыс» бірдей емес

Жобаны жасау, қорытындылау және алғашқы қадамды ойлау

Жасанды интеллект келесі жағдайларда өте жақсы:

  • Қарапайым ноталарды таза жобаға айналдыру ✍️

  • Ұзақ құжаттарды қорытындылау

  • Опцияларды жасау (тақырыптар, жоспарлар, электрондық пошта нұсқалары)

  • Аударма тоны («мұны онша ащы етпеңіз» 🌶️)

Бұл негізінен кейде өтірік айтатын шаршамайтын кіші көмекші, сондықтан сіз оны басқарасыз. (Қатал. Сондай-ақ дәл.)

Тұтынушыларды қолдау сұрыптауы және ішкі анықтама қызметтері

Жасанды интеллект ең жақсы жұмыс істейтін жерлерде: жіктеу → алу → ұсыну , ойлап табу емес → үміт → орналастыру .

Егер сіз қысқа, қауіпсіз нұсқаны қаласаңыз: бекітілген дереккөздерден ақпарат алу және жауаптар жазу үшін жасанды интеллектті пайдаланыңыз, бірақ адамдарды не жібергені үшін жауапты етіңіз - әсіресе қауіп төнген кезде. «Басқару + тексеру + оқиғаларды ашу» ұстанымы NIST-тің жасанды интеллект тәуекелдерін басқаруды қалай құратынына сәйкес келеді. [1]

Деректерді зерттеу - қоршаулар арқылы

Жасанды интеллект адамдарға деректер жиынтығына сұраныс жасауға, диаграммаларды түсіндіруге және «келесіде не қарау керек» деген идеяларды жасауға көмектесе алады. Жеңіс - талдаушылардың орнын басу емес, талдауды қолжетімді ету.


Жасанды интеллект қай жерде тым көп мақтана алады (және неге ол көңіліңізден шығып қалады) ❌🤷

«Барлығын басқаратын толықтай автономды агенттер»

Агенттер жұмыс процестерін ұқыпты орындай алады. Бірақ сіз қосқаннан кейін:

  • бірнеше қадам

  • ретсіз құралдар

  • рұқсаттар

  • нақты пайдаланушылар

  • нақты салдарлар

...сәтсіздік режимдері қояндар сияқты көбейеді. Алдымен сүйкімді, сосын таң қаласың 🐇

Практикалық ереже: бір нәрсе неғұрлым «қолсыз» болса, соғұрлым ол бұзылғанда не болатынын сұрау керек.

«Жақын арада толық дәл болады»

Дәлдік жақсарады, әрине, бірақ сенімділік төмен - әсіресе модель тексерілетін дереккөздерге негізделмеген

Сондықтан жасанды интеллектпен жұмыс істеудің күрделілігі келесідей болады: іздеу + тексеру + бақылау + адами шолу , «тек қиынырақ сұрау» емес (NIST-тің GenAI профилі мұны сыпайы, тұрақты түрде талап етумен жеткізеді.) [1]

«Барлығын басқаратын бір үлгі»

Іс жүзінде командалар көбінесе араласып кетеді:

  • арзан/көп көлемді тапсырмаларға арналған кішірек модельдер

  • күрделі ойлау үшін үлкенірек модельдер

  • негізделген жауаптарды іздеу

  • сәйкестік шекаралары ережелері

Дегенмен, «бір сиқырлы ми» идеясы жақсы сатылады. Ол ұқыптылыққа толы. Адамдар ұқыптылықты жақсы көреді.

«Бүкіл жұмыс орындарын бір түнде ауыстыру»

Көптеген рөлдер тапсырмалар жиынтығынан тұрады. Жасанды интеллект сол тапсырмалардың бір бөлігін езіп тастап, қалғандарына әрең тиюі мүмкін. Адами бөліктер - пайымдау, жауапкершілік, қарым-қатынас, контекст - қыңырлықпен... адами болып қала береді.

Біз робот әріптестерді қаладық. Оның орнына стероидтарда автоматты түрде толтыру мүмкіндігін алдық.


Жасанды интеллекттің жақсы (және жаман) қолданылуының себебі неде? 🧪🛠️

Бұл адамдар өткізіп жіберіп, кейін өкінетін бөлім.

Жақсы жасанды интеллект қолдану жағдайында әдетте мыналар болады:

  • Табыс критерийлерін анықтаңыз (уақыт үнемделді, қате азайды, жауап беру жылдамдығы жақсарды)

  • Төменнен орташаға дейінгі тәуекелдер (немесе күшті адами шолу)

  • Қайталанатын үлгілер (Жиі қойылатын сұрақтарға жауаптар, жалпы жұмыс процестері, стандартты құжаттар)

  • Жақсы деректерге қол жеткізу (және оны пайдалануға рұқсат)

  • Модель мағынасыз ақпаратты шығарған кездегі резервтік жоспар

  • Алдымен тар шеңбер

Жасанды интеллекттің нашар қолданылу жағдайы әдетте келесідей көрінеді:

  • «Шешім қабылдауды есеп бермей автоматтандырайық» 😬

  • «Біз оны бәріне қосамыз» (жоқ... өтінемін, жоқ)

  • Бастапқы көрсеткіштер жоқ, сондықтан оның көмектескенін ешкім білмейді

  • Оның үлгі машинасы емес, шындық машинасы болуын күту

Егер сіз тек бір нәрсені есте сақтағыңыз келсе: жасанды интеллектке сенім арту оңай, егер ол сіздің жеке тексерілген дереккөздеріңізге негізделген және нақты анықталған жұмыспен шектелген болса. Әйтпесе, бұл вибрацияға негізделген есептеулер.


Ұйымыңыздағы жасанды интеллекттің шындықты тексерудің қарапайым (бірақ өте тиімді) тәсілі 🧾✅

Егер сіз сенімді жауап алғыңыз келсе (қатты жауап емес), осы жылдам тестті орындаңыз:

1) Жасанды интеллектті жалдайтын жұмысыңызды анықтаңыз

Оны жұмыс сипаттамасы сияқты жазыңыз:

  • Кірістер

  • Шығыстар

  • Шектеулер

  • «Аяқталды деген...» дегенді білдіреді

Егер сіз оны анық сипаттай алмасаңыз, жасанды интеллект оны сиқырлы түрде түсіндіре алмайды.

2) Бастапқы деңгейді белгілеңіз

Қазір қанша уақыт кетеді? Қазір қанша қате бар? Қазір «жақсы» қалай көрінеді?

Бастапқы сызықтың болмауы = кейінірек шексіз пікір соғыстары. Шынымен де, адамдар мәңгілікке дауласады, ал сіз тез қартайасыз.

3) Шындықтың қайдан шыққанын анықтаңыз

  • Ішкі білім қоры?

  • Тұтынушы жазбалары?

  • Бекітілген саясаттар?

  • Сұрыпталған құжаттар жиынтығы?

Егер жауап «үлгі біледі» болса, бұл қауіпті жалау 🚩

4) Адамның циклдегі жоспарын орнатыңыз

Шешім:

  • кім шолу жасайды,

  • олар шолу жасаған кезде,

  • және жасанды интеллект дұрыс емес болған кезде не болады.

Бұл «құрал» мен «жауапкершіліктің» айырмашылығы. Әрқашан емес, бірақ жиі.

5) Жарылыс радиусын картаға түсіріңіз

Қателіктер арзан жерден бастаңыз. Дәлелдеріңіз болғаннан кейін ғана кеңейтіңіз.

Осылайша сіз асыра сілтеулерді пайдалылыққа айналдырасыз. Қарапайым... тиімді... әдемі 😌


Сенім, тәуекел және реттеу - маңызды сексуалды емес бөлік 🧯⚖️

Егер жасанды интеллект маңызды нәрсеге (адамдар, ақша, қауіпсіздік, құқықтық нәтижелер) кірісетін болса, басқару міндетті емес.

Бірнеше кеңінен сілтеме жасалған қоршаулар:

  • NIST генеративті жасанды интеллект профилі (ЖИ RMF-ке серік) : практикалық тәуекел санаттары + басқару, тестілеу, шығу тегі және оқиғаларды ашу бойынша ұсынылған әрекеттер. [1]

  • ЭЫДҰ жасанды интеллект қағидаттары : сенімді, адамға бағытталған жасанды интеллект үшін кеңінен қолданылатын халықаралық базалық көрсеткіш. [5]

  • ЕО-ның жасанды интеллект туралы заңы : жасанды интеллекттің қалай пайдаланылуына байланысты міндеттемелерді белгілейтін (және белгілі бір «қабылданбайтын тәуекел» тәжірибелеріне тыйым салатын) тәуекелге негізделген құқықтық база. [4]

Иә, бұл қағазбастылық сияқты сезілуі мүмкін. Бірақ бұл «практикалық құрал» мен «ой, біз сәйкестік туралы кошмарды қолдандық» арасындағы айырмашылық


Мұқият қарау: «автоматты түрде толтырылатын жасанды интеллект» идеясы - бағаланбаған, бірақ шындыққа жанасады 🧩🧠

Міне, сәл жетілмеген метафора (бұл орынды): жасанды интеллекттің көп бөлігі интернетті оқып, содан кейін оны қайдан оқығанын ұмытып кететін өте күрделі автотолтыру сияқты.

Бұл елемеушілік болып естіледі, бірақ оның жұмыс істеуінің себебі де осында:

  • Өрнектерде керемет

  • Тілге шебер

  • «Келесі ықтимал нәрсені» жасауда керемет

Және сондықтан ол сәтсіздікке ұшырайды:

  • Ол табиғи түрде не шындық екенін «білмейді»

  • Ол сіздің ұйымыңыздың не істейтінін әрине білмейді

  • Ол жерге тұйықталмай сенімді мағынасыз сөздерді шығара алады (қараңыз: конфабулация / галлюцинациялар) [1]

Сондықтан, егер сіздің пайдалану жағдайыңыз шындықты қажет етсе, сіз оны іздеу, құралдар, валидация, мониторинг және адами шолу арқылы бекітесіз. Егер сіздің пайдалану жағдайыңыз жобалау мен идеяларды әзірлеуде жылдамдықты қажет етсе, сіз оны сәл еркінірек іске қосасыз. Әртүрлі параметрлер, әртүрлі күтулер. Тұзбен пісіру сияқты - бәрі бірдей мөлшерде қажет емес.


Салыстыру кестесі: жасанды интеллектті асыра сілтеулерге бой алдырмай пайдаланудың практикалық тәсілдері 🧠📋

Құрал / опция Аудитория Баға атмосферасы Неліктен жұмыс істейді
Чат стиліндегі көмекші (жалпы) Жеке тұлғалар, командалар Әдетте тегін деңгей + ақылы Жобалар, ми шабуылы, қорытындылау үшін тамаша... бірақ фактілерді тексеру (әрқашан)
Кодтық екінші ұшқыш Әзірлеушілер Әдетте жазылым Жалпы кодтау тапсырмаларын жылдамдатады, әлі де шолу + тесттер және кофе қажет
Іздеуге негізделген «дереккөздермен жауап» Зерттеушілер, аналитиктер Фримиум тәрізді Таза болжам жасаудан гөрі «табу + жер» жұмыс процестері үшін жақсырақ
Жұмыс процесін автоматтандыру + жасанды интеллект Операциялар, қолдау Көп деңгейлі Қайталанатын қадамдарды жартылай автоматты ағындарға айналдырады (жартылай маңызды)
Ішкі модель / өзіндік хостинг Машина жасау мүмкіндігі бар ұйымдар Инфрақызыл + адамдар Көбірек бақылау + құпиялылық, бірақ сіз техникалық қызмет көрсету және басқа да қиындықтар үшін ақы төлейсіз
Басқару құрылымдары Көшбасшылар, тәуекел, сәйкестік Тегін ресурстар Тәуекел + сенімді басқаруға көмектеседі, сәнді емес, бірақ маңызды
Бенчмаркинг/шындықты тексеру көздері Басшылар, саясат, стратегия Тегін ресурстар Деректер көңіл-күйді көтереді және LinkedIn уағыздарын азайтады
«Барлығын жасайтын агент» Армандаушылар 😅 Шығындар + хаос Кейде әсерлі, көбінесе нәзік - тағамдар мен шыдамдылықпен жалғастырыңыз

Егер сізге жасанды интеллекттің дамуы мен әсер ету деректері бойынша «шындықты тексеру» орталығы қажет болса, Стэнфорд жасанды интеллект индексі бастау үшін сенімді орын болып табылады. [2]


Қорытынды бөлім + қысқаша шолу 🧠✨

Сонымен, біреу сатқан кезде жасанды интеллект тым көп мақтана түседі

  • мінсіз дәлдік,

  • толық автономия,

  • барлық рөлдерді лезде ауыстыру,

  • немесе ұйымыңызды шешетін «қосып ойнайтын ми»..

... онда иә, бұл жылтыр әрлеуі бар сату шеберлігі.

Бірақ егер сіз жасанды интеллектке келесідей қарасаңыз:

  • қуатты көмекші,

  • тар, нақты анықталған тапсырмаларда ең жақсы қолданылады,

  • сенімді дереккөздерге негізделген,

  • адамдар маңызды нәрселерді қарап жатқанда..

...онда жоқ, бұл асыра сілтеу емес. Тек... біркелкі емес. Спортзалға мүшелік сияқты. Дұрыс қолданылса керемет, тек кештерде ғана сөйлессең пайдасыз 😄🏋️

Қысқаша мазмұны: Жасанды интеллект бағалаудың сиқырлы алмастырғышы ретінде тым көп мақтана алады және жобалау, кодтауға көмек, сұрыптау және білім жұмыс процестері үшін практикалық көбейткіш ретінде бағаланбайды.


Жиі қойылатын сұрақтар

Қазір жасанды интеллект тым танымал ма?

Жасанды интеллект мінсіз, қолды басқармай немесе бүкіл жұмысты бір түнде ауыстыруға дайын деп сатылғанда, ол тым жоғары бағаланады. Нақты орналастыруларда сенімділік кемшіліктері тез пайда болады: сенімді қате жауаптар, шеткі жағдайлар және күрделі интеграциялар. Жасанды интеллект жобалау, кодтауды қолдау, сұрыптау және зерттеу сияқты тар міндеттер үшін бақыланатын құрал ретінде қарастырылғанда, ол тым жоғары бағаланбайды. Айырмашылық күтулерге, негіздеуге және шолуға байланысты.

Жасанды интеллект маркетингіндегі ең үлкен қауіп төндіретін белгілер қандай?

«Толығымен автономды» және «жақын арада мінсіз дәл» - ең қатты ескерту белгілерінің екеуі. Демонстрациялар көбінесе реттелген нұсқаулармен және таза деректермен өңделеді, сондықтан олар жиі кездесетін ақаулық режимдерін жасырады. Сондай-ақ, еркін сөйлеуді шындықпен шатастыруға болады, бұл сенімді қателіктерді сенімді етеді. Егер жүйе істен шыққан кезде болатын жағдайды өткіріп жіберсе, тәуекел алынып тасталады деп есептеңіз.

Неліктен жасанды интеллект жүйелері қателессе де сенімді болып көрінеді?

Генеративтік модельдер сенімді, еркін мәтін жасауда тамаша - сондықтан олар негізсіз болған кезде бөлшектерді сенімді түрде ойлап таба алады. Бұл көбінесе конфабулация немесе галлюцинация деп сипатталады: нақты естілетін, бірақ сенімді түрде шындыққа жанаспайтын нәтиже. Сондықтан жоғары сенімді пайдалану жағдайлары әдетте іздеуді, валидацияны, бақылауды және адами шолуды қосады. Мақсат - вибрацияға негізделген сенімділік емес, қорғаныс шаралары бар практикалық құндылық.

Галлюцинациядан күйіп қалмай, жасанды интеллектті қалай пайдалануға болады?

Жасанды интеллектті шындық машинасы емес, жобалау механизмі ретінде қарастырыңыз. Жауаптарды «модель біледі» деп ойлаудың орнына, расталған дереккөздерге - мысалы, бекітілген саясаттарға, ішкі құжаттарға немесе арнайы сілтемелерге негіздеңіз. Тексеру қадамдарын (сілтемелер, дәйексөздер, өзара тексерулер) қосыңыз және қателіктер маңызды болған жерлерде адами тексеруді талап етіңіз. Кішкентайдан бастаңыз, нәтижелерді өлшеңіз және тұрақты өнімділікті көргеннен кейін ғана кеңейтіңіз.

Жасанды интеллект тым көп мақтана алмайтын нақты өмірде қандай жақсы жағдайлар бар?

Жасанды интеллект тар, қайталанатын тапсырмаларды айқын табыс көрсеткіштерімен және орташадан орташаға дейінгі үлестермен ең жақсы нәтижеге қол жеткізуге бейім. Жалпы жеңістерге жобаларды жасау және қайта жазу, ұзын құжаттарды қорытындылау, нұсқаларды (жоспарлар, тақырыптар, электрондық пошта нұсқалары) жасау, кодтау құрылымдары, қолдау сұрыптауы және ішкі анықтама қызметі ұсыныстары жатады. Ең бастысы - «ойлап табу → үміттену → орналастыру» емес, «жіктеу → алу → ұсыну». Адамдар әлі де не жеткізетінін өздеріне алады.

«Барлығын жасайтын жасанды интеллект агенттері» тым асыра сілтеп айтылып жүр ме?

Көбінесе, иә - әсіресе «қолсыз» режим сату нүктесі болған кезде. Көп сатылы жұмыс процестері, күрделі құралдар, рұқсаттар, нақты пайдаланушылар және нақты салдарлар күрделі ақаулық режимдерін жасайды. Агенттер шектеулі жұмыс процестері үшін пайдалы болуы мүмкін, бірақ ауқым кеңейген сайын әлсіздік тез артады. Практикалық сынақ қарапайым болып қалады: резервтік нұсқаны анықтаңыз, жауапкершілікті тағайындаңыз және зақым таралғанға дейін қателердің қалай анықталатынын көрсетіңіз.

Жасанды интеллект менің командама немесе ұйымыма тұрарлық па, жоқ па, қалай шешемін?

Жұмысты тапсырма сипаттамасы сияқты анықтаудан бастаңыз: кірістер, шығыстар, шектеулер және «орындалды» деген нені білдіреді. Бастапқы деңгейді (уақыт, шығын, қателік деңгейі) белгілеңіз, сонда сіз вибрацияны талқылаудың орнына жақсартуды өлшей аласыз. Шындықтың қайдан келетінін шешіңіз - ішкі білім базалары, бекітілген құжаттар немесе тұтынушылардың жазбалары. Содан кейін адам цикліндегі жоспарды жасап, кеңейту алдында жарылыс радиусын картаға түсіріңіз.

Жасанды интеллект шығысы дұрыс болмаған кезде кім жауапты?

Адам иесі нәтижелерге, шолуларға және жүйе істен шыққан кезде не болатынына тағайындалуы керек. «Модель солай деді» деген жауапкершілік емес, әсіресе ақша, қауіпсіздік немесе құқықтар туралы сөз болғанда. Жауаптарды кім бекітетінін, шолу қашан қажет болатынын және оқиғалар қалай тіркеліп, шешілетінін анықтаңыз. Бұл жасанды интеллектті жауапкершіліктен айқын жауапкершілігі бар бақыланатын құралға айналдырады.

Басқару қашан қажет және қандай құрылымдар жиі қолданылады?

Басқару, ең алдымен, тәуекелдер көтерілген кезде маңызды - заңды нәтижелерге, қауіпсіздікке, қаржылық әсерге немесе адамдардың құқықтарына қатысты кез келген нәрсе. Жалпы қорғаныс шараларына NIST генеративтік жасанды интеллект профилі (ЖИ тәуекелдерін басқару құрылымына қосымша), ЭЫДҰ ЖИ қағидаттары және ЕО ЖИ туралы заңының тәуекелге негізделген міндеттемелері жатады. Бұлар тестілеуді, шығу тегін, мониторингті және оқиғаларды ашу тәжірибелерін ынталандырады. Бұл жағымсыз болып көрінуі мүмкін, бірақ «ой, біз сәйкестік туралы кошмарды іске қостық» дегенге жол бермейді

Егер жасанды интеллект тым көп мақтана берсе, неге ол әлі де маңызды болып көрінеді?

Айқай-шу мен әсер қатар өмір сүре алады. Көптеген технологиялар таныс доғаны ұстанады: ең жоғары күтулер, нақты шындық, содан кейін тұрақты құндылық. Жасанды интеллект күшті, бірақ ол көбінесе дайын болғандай сатылады - ол әлі де орындалып жатқанда және интеграция баяу болғанда. Жасанды интеллект жұмыстың жалықтыратын бөліктерін алып тастағанда, жобалау мен кодтауды қолдағанда және жұмыс процестерін негіздеу мен шолу арқылы жақсартқанда тұрақты құндылық көрінеді.

Сілтемелер

  1. NIST-тің генеративті жасанды интеллект профилі (NIST AI 600-1, PDF) - жасанды интеллект тәуекелдерін басқару құрылымына қосымша нұсқаулық, онда негізгі тәуекел салалары және басқару, тестілеу, шығу тегі және оқиғаларды ашу бойынша ұсынылған әрекеттер көрсетілген. толығырақ оқыңыз

  2. Стэнфорд HAI AI индексі - негізгі эталондар мен көрсеткіштер бойынша AI-дің дамуын, енгізілуін, инвестицияларын және қоғамға әсерін бақылайтын жыл сайынғы, деректерге бай есеп. толығырақ оқыңыз

  3. GitHub Copilot өнімділігін зерттеу - GitHub-тың Copilot пайдалану кезіндегі тапсырманы орындау жылдамдығы мен әзірлеуші ​​​​тәжірибесі туралы бақыланатын зерттеуі. толығырақ оқу

  4. Еуропалық Комиссияның жасанды интеллект туралы заңына шолу - Комиссияның жасанды интеллект жүйелеріне қатысты ЕО-ның тәуекелге бағытталған міндеттемелерін және тыйым салынған тәжірибелердің санаттарын түсіндіретін орталық беті. толығырақ оқыңыз

Ресми AI көмекші дүкенінен ең соңғы AI-ді табыңыз

Біз туралы

Блогқа оралу