🏫 Кейбір мектептерде чатботтар оқушылардан жұмыстары туралы сұрайды. Бірақ жасанды интеллект төңкерісі мұғалімдерді алаңдатады ↗
Кейбір Австралия мектептері «жұмыс істегеніңді көрсет» дегенге қатысты күрделірек өзгерісті сынап көруде - оқушылар тапсырманы орындайды, содан кейін жасанды интеллект чатботы оларды тапсырған материалын түсінгенін тексеру үшін бір-бірімен сұрақ қояды. Бұл негізінен ауызша вива, бірақ машина сіз қинала бастағанша «бұл нені білдіреді?» деп сұрайды.
Ең үлкен алаңдаушылық - біркелкі емес енгізу: салалық мақалада жылдам енгізушілер алға жылжып, басқалары артта қалып, екі жылдамдықты білім беру жүйесін құруы мүмкін екендігі ескертіледі. Мұғалімдер сонымен қатар таныс және әлі де маңызды мәселелерді атап өтеді: жеке өмір, әл-ауқат және «ЖИ көмектесті» деген сөздің «ЖИ мұны істеді» дегенге ауысуын қалай тоқтатуға болады.
👮 Полиция қызметкерлерінің тәртіп бұзушылықтарын анықтау үшін Palantir ұсынған жасанды интеллект құралдарын пайдаланады ↗
Лондонның Метрополитен департаменті Palantir ұсынған жасанды интеллектті пайдаланып, ішкі жұмыс күшінің үлгілерін - ауру, жұмысқа келмеу, артық жұмыс уақыты - талдау жасап, кәсіби стандарттар мәселелерімен байланысты болуы мүмкін сигналдарды іздейді. Бұл уақытпен шектелген пилоттық жоба ретінде ұсынылып отыр және ең бастысы, Метрополитен департаменті адамдар әлі де нақты шешімдер қабылдайтынын айтады... бірақ бұл «әлі де» көп жұмыс істейді.
Полиция федерациясы бұған қуанбайды, оны «автоматтандырылған күдік» деп атап, түсініксіз құралдардың стресс пен жұмыс жүктемесін дұрыс емес деп түсінетіні туралы ескертеді. Бұл слайдта технологияның естілетін сәттерінің бірі, содан кейін сіз оның жерде қалай сезінетінін елестетіп, ол күрт тікенді болып кетеді.
🛡️ Ұлыбританияның құпиялылықты қорғау жөніндегі ұйымы бірлескен мәлімдемесінде жасанды интеллект арқылы жасалған суреттерге қатысты ескерту жасады ↗
Ұлыбританияның ICO кеңесі басқа реттеушілермен бірге жасанды интеллект жасаған, келісімсіз анықталатын адамдарды бейнелейтін суреттер туралы бірлескен ескерту жасады - негізінен: «бұл синтетикалық» дегенді сиқырлы сылтау ретінде қарастырмаңыз. Хабарлама - алдымен жеткізу және кейін кешірім сұрау сияқты классикалық технологиялық қадам жасаудың орнына, қорғаныс шараларын ертерек жасап, реттеушілермен байланыс орнату.
Олар сондай-ақ балалар үшін жоғары тәуекелдерді атап көрсетеді, бұл мағыналы, себебі бұл нәрсе таралғаннан кейін, жылтырды банкаға қайта салуға тырысқандай болады. Негізгі мақсат - құпиялылық пен қадір-қасиет сән циклінен аман қалу үшін арналған немесе солай болып көрінеді.
🪖 АҚШ қорғаныс министрі Хегсет Anthropic компаниясының бас директорын Клодты әскери мақсатта пайдалану мәселесі бойынша қатаң келіссөздер жүргізуге шақырды, деп хабарлайды Axios ↗
Reuters агенттігінің хабарлауынша, АҚШ қорғаныс министрі Anthropic компаниясының бас директорымен Клодтың әскери мақсатта қолданылуы туралы жанжалды әңгімелесу үшін кездесуге дайындалып жатыр. Пентагон ірі жасанды интеллект провайдерлерінің модельдерді құпия желілерде шектеулері аз болуын қалайтынын хабарлады, ал Anthropic қауіпсіздік шараларының кез келген әлсіреуіне қарсылық білдіріп келеді.
Астыңғы мәтін классикалық «жылдам қозғалу, бірақ... зымырандармен байланысты» дилеммасы сияқты. Егер тараптар қорғаныс қоршаулары туралы келісімге келе алмаса, қарым-қатынас шиеленісуі немесе тіпті үзілуі мүмкін - дегенмен Anthropic үкіметпен келіссөздер конструктивті болып қала беретінін де меңзеп отыр, сондықтан бұл шиеленісті, бірақ толықтай үзіліс емес (әзірге).
🧠 ChatGPT - Шығарылым туралы ескертпелер ↗
OpenAI шығарылымының ескертпелері «Ойлау» режимі үшін кеңейтілген контекст терезесіне нұсқайды, яғни сіз модельге көбірек мәтін бере аласыз және бұрынғы мәліметтерді жоғалтпай ұзын ағындарды үйлесімді сақтай аласыз. Егер сіз модельдің сіз айтқан нәрсені (ауырсынуды) «ұмытып қалғанын» көрген болсаңыз, бұл дәл соған бағытталған.
Бұл практикалық нәрселерді тыныш өзгертетін өте ақылды жаңарту: ұзағырақ құжаттамалар, шатасқан жобалар, кең ауқымды зерттеу сессиялары. Сәнді емес, бірақ бұл бүкіл үйді кенеттен үлкенірек ететін сантехникалық өзгеріс.
Жиі қойылатын сұрақтар
Мектептер оқушылардан тапсырмалар бойынша «сұрақ қою» үшін чатботтарды пайдаланған кезде нені білдіреді?
Кейбір Австралия мектептерінде оқушылар тапсырманы орындап, содан кейін олардың ойлау қабілетін зерттейтін жасанды интеллект чатботымен өзара әрекеттеседі. Бұл ауызша сұхбат сияқты жұмыс істейді, оқушыларды не жазғанын және не үшін жазғанын түсіндіруге мәжбүрлейді. Мақсат - тек нәтижені ғана емес, түсінгенін тексеру. Сондай-ақ, оқушы негізгі тұжырымдарды қорғай алмаған кездегі олқылықтарды да анықтауы мүмкін.
Мектептердегі жасанды интеллект чатботтары қалай «екі жылдамдықты» білім беру жүйесін құра алады?
Салалық мақалада жылдам енгізетін мектептер алға жылжуы мүмкін, ал баяу дамып келе жатқан мектептер артта қалуы мүмкін екендігі ескертіледі. Егер кейбір мектептер түсінуді бағалау, оқуды қолдау немесе дұрыс пайдаланбаудың алдын алу үшін жасанды интеллект құралдарын енгізсе, олар нәтижелерді тезірек жақсартуы мүмкін. Басқаларында ұқсас жүйелерді енгізу үшін бюджет, қызметкерлердің әлеуеті немесе саясаттың айқындығы болмауы мүмкін. Мұндай біркелкі емес қабылдау ресурстар мен жетістіктердегі бар алшақтықты кеңейтуі мүмкін.
Мұғалімдер «жасанды интеллект көмектесті» дегеннің «жасанды интеллект мұны істеді» дегенге айналуына қалай жол бермеуге тырысуда?
Жалпы тәсіл - бағалауды тек дайын өнімге емес, процесс пен түсіндіруге ауыстыру. Чатбот стиліндегі сұрақтар, жобалар, ойлар немесе ауызша тексерулер түсінбейтін жұмысты тапсыруды қиындатуы мүмкін. Мұғалімдер сонымен қатар ми шабуылы мен толық қайта жазу сияқты қолайлы көмекке қатысты нақты шекараларды белгілеуі мүмкін. Басым әрбір құралды бақылауға емес, түсінуді көрсетуге қалады.
Сыныптарда жасанды интеллект қолданылған кезде қандай құпиялылық және әл-ауқат мәселелері туындайды?
Мұғалімдер оқушылардың қандай деректері жиналатыны, қайда сақталатыны және оған кім қол жеткізе алатыны туралы алаңдаушылықтарын білдіре береді. Егер оқушылар машиналық сұрақтар арқылы үнемі бақыланатын немесе қысымға ұшырайтынын сезінсе, әл-ауқатқа қатысты да алаңдаушылық бар. Балалар ерекше қауіп тобы болып табылады, себебі құпия ақпарат жүйелерде күтпеген жолмен таралуы немесе сақталуы мүмкін. Көптеген мектептер қауіпсіздік шараларын кейінірек жаңартуға тырысудың орнына ертерек енгізуге тырысады.
Метрополитен полициясы офицерлердің ықтимал тәртіп бұзушылықтарын анықтау үшін Palantir ұсынған жасанды интеллектті қалай пайдаланады?
Лондонның Метрополитен соты ауру, жұмысқа келмеу және артық жұмыс уақыты сияқты жұмыс күшінің үлгілерін талдау үшін Palantir ұсынған жасанды интеллектті пайдаланып жатыр. Мақсат - кәсіби стандарттар мәселелерімен байланысты болуы мүмкін сигналдарды анықтау. Ол уақытпен шектелген пилоттық жоба ретінде сипатталады және Метрополитен соты әлі де адамдар шешім қабылдайтынын айтады. Сыншылар бұл құрал стрессті дұрыс емес әрекет деп санаса, «автоматтандырылған күдік» сияқты сезілуі мүмкін деп санайды.
Неліктен полиция одақтары жасанды интеллектті бақылау құралдарынан туындайтын «автоматты күдіктен» алаңдайды?
Полиция федерациясының алаңдаушылығы - мөлдір емес модельдер зиянсыз түсіндірмелері бар үлгілерден тәртіп бұзушылықты шығаруы мүмкін. Жұмыс жүктемесінің күрт өсуі, денсаулық мәселелері және стресс тәртіп бұзушылықты білдірмей, қатысуды немесе артық жұмыс уақытын өзгертуі мүмкін. Егер құралдың логикасы ашық болмаса, офицерлерге жалаушаларға қарсы тұру немесе басшыларға әділ шекті калибрлеу қиындай түседі. Адами шешімдердің өзінде автоматтандырылған сигналдар нәтижелерді әлі де қалыптастыра алады.
Ұлыбританияның ICO ұйымы жасанды интеллект арқылы жасалған танылатын адамдардың суреттері туралы не ескертеді?
Ұлыбританияның құпиялылықты қорғау жөніндегі ұйымы басқа реттеушілерге қосылып, «синтетикалық» деген сөздің салдарсыз дегенді білдірмейтінін ескертті. Егер жасанды интеллект арқылы жасалған суретте келісімсіз анықталатын адам бейнеленген болса, құпиялылық пен қадір-қасиетке қауіп төнеді. Реттеушілер қауіпсіздік шараларын ертерек құруды және алдымен жеткізуді емес, бақылауды жүзеге асыруды баса айтады. Олар сондай-ақ мазмұн таралғаннан кейін зиян тез таралуы мүмкін балаларға қатысты қауіптердің артуын атап өтті.
Пентагонның Anthropic-ке Клодты әскери мақсатта пайдалану туралы қысым жасауының артында не жатыр?
Reuters агенттігінің хабарлауынша, АҚШ қорғаныс министрі Клодты әскери мақсатта пайдалану туралы қатаң келіссөздер жүргізу үшін Anthropic компаниясының бас директорымен кездесуге дайындалып жатыр. Пентагон ірі жасанды интеллект провайдерлерінен модельдерді аз шектеулермен құпия желілерде қолжетімді етуді қалайтын хабарлар бар. Anthropic қорғаныс шараларының жеңілдетілуіне қарсы тұрып, қоршаулар бойынша қақтығыс болғанын алға тартты. Қарым-қатынас шиеленіскен сияқты, дегенмен екі тарап та келіссөздер конструктивті болып қала береді.
ChatGPT шығарылымының ескертпелерінде «Ойлау» режимінің контекст ұзындығы туралы не өзгерді?
OpenAI шығарылымының ескертпелері «Ойлау» режимі үшін кеңейтілген контекст терезесіне нұсқайды, бұл бір ағын ішінде көбірек мәтінді орналастыруға мүмкіндік береді. Іс жүзінде бұл ұзақ құжаттарға, күрделі жобаларға және ертерек мәліметтер маңызды болатын көп сатылы зерттеулерге көмектесе алады. Бұл көзге түсетін мүмкіндік емес, сантехникалық стильдегі жаңарту. Негізгі артықшылығы - ұзақ сессияларда түсірілген мәліметтердің аз болуы.