🏛️ Ұлыбритания үкіметі жасанды интеллект саласындағы жетістіктерді жеделдету үшін жаңа зертхана құрады ↗
Ұлыбритания үкімет қолдайтын іргелі жасанды интеллект зерттеу зертханасын құрып, оны «көк аспан» жұмысы деп атайды - бұл қауіпті, баяу және кейде басқалардың ұйықтап қалғандай көрінуіне әкелетіндей нәтиже береді. ( GOV.UK )
Назар тек «үлкен модельдер, көбірек графикалық процессорлар» ғана емес - бұл галлюцинация, қысқа есте сақтау қабілеті және болжауға келмейтін ойлау сияқты тұрақты кемшіліктерді жою, сонымен қатар зерттеушілерге жасанды интеллект зерттеу ресурсы арқылы маңызды есептеулерге қол жеткізуге мүмкіндік беру. Өте ақылға қонымды естіледі... және сонымен қатар, үнсіз түрде, Ұлыбританияның ең жақсы ақыл-ойларының басқа жерде лезде бос қалуына жол бермеу әрекеті сияқты. ( GOV.UK )
🧨 Nvidia компаниясының бас директоры OpenAI және Anthropic компанияларына инвестиция салудың аяқталатынын айтты ↗
Дженсен Хуан Nvidia компаниясының шекаралық жасанды интеллект зертханаларына бұрынғыдай инвестиция салуды жалғастырмауы мүмкін екенін білдіруде - IPO динамикасы (және талқыланып жатқан тексерулердің көлемі) бұл қаржыландыру стилін жүзеге асыруды қиындатады. ( Reuters )
Бұл көңіл бөлуге тұрарлық тоналды өзгеріс: Nvidia - бұл бүкіл бумның басты кейіпкері, бірақ ол «кеншілердің бөліктеріне иелік ету» енді әрқашан маңызды емес екенін меңзеп отыр. Немесе бұл жай ғана дауыстап қоршау болуы мүмкін, бұл бас директорлар сияқты тыныс алу сияқты. ( Reuters )
🧩 Эксклюзивті: Ірі технологиялық топ Пентагонмен күресте антропикалық топты қолдайды, ал инвесторлар жасанды интеллект қауіпсіздігіне қатысты қақтығысты бәсеңдетуге тырысуда ↗
Anthropic компаниясының Пентагонмен қақтығысы қысымды пешке айналуда - инвесторлар температураның төмендеуін қалайды, ал компания қауіпсіздік ережелерін (әсіресе бақылауға қатысты) сақтауға тырысады. ( Reuters )
Әңгіменің астарлы мазмұны мәтіннен гөрі қаттырақ: жасанды интеллект дәуірінде келісімшарт тұжырымдамасы «заңды ұсақ-түйек емес», бұл негізінен өнім саясаты - және ол модельдің құралға, қаруға немесе кең таралған міндеттемеге айналатынын шешеді. ( Reuters )
🪖 Сэм Альтман OpenAI Пентагонның жасанды интеллектті пайдалануын басқара алмайтынын мойындады ↗
Альтман қызметкерлеріне OpenAI Пентагонның жасанды интеллект орналастырылғаннан кейін оны қалай пайдаланатынын басқара алмайтынын айтқан, бұл дыбыс адамдардың айналасында жүрген қорқыныштың дәл атауын білдіретіндіктен естіледі. ( The Guardian )
Кең ауқымды көрініс «біз ережелермен көмектесеміз» және «біз көмектесеміз, нүкте» арасындағы үйкелістің күшеюіне, сондай-ақ әскери қабылдау асығыс немесе мүмкіндікті пайдаланып сезілген кезде ішкі және қоғамдық наразылыққа әкеледі. Мұндағы этика таза сызықтан гөрі дымқыл бояу төгілуіне көбірек ұқсайды - әркім оған араласады, содан кейін кімнің аяқ киімі екендігі туралы дауласады. ( The Guardian )
🧬 Сангер институты және Google DeepMind компаниясымен бірлесіп геномика саласындағы жаңа жасанды интеллект бойынша стипендия ↗
Wellcome Sanger институты DeepMind қаржыландыратын және жасанды интеллектті геномикаға қолдануға бағытталған академиялық стипендияны іске қосуда, бұл осы саладағы DeepMind стипендиаты үшін алғашқы орын болып табылады. ( sanger.ac.uk )
Қызықтысы (және, шынын айтқанда, сәл жаңартады) - жасанды интеллект барлық жерде жоқ, зерттелмеген геномика мәселелеріне баса назар аударылады - сонымен қатар DeepMind зерттеушінің зерттеулерін басқармайтыны туралы айқын ескерту. Бұл біреуге зымыран беріп, «жол картамызды оңтайландыр» дегеннің орнына «барып, бірдеңе аш» дегенмен бірдей ( sanger.ac.uk ).
Жиі қойылатын сұрақтар
Ұлыбритания үкіметі қолдайтын іргелі жасанды интеллект зерттеу зертханасы дегеніміз не және ол немен айналысады?
Үкімет қолдайтын іргелі жасанды интеллект зерттеу зертханасы «көк аспан» зерттеу жұмысы ретінде қарастырылуда - бұл өз нәтижесін беру үшін уақытты қажет ететін жоғары қауіпті жұмыс. Ол тек үлкенірек модельдерді масштабтауға ғана назар аудармай, галлюцинация, қысқа есте сақтау қабілеті және болжауға келмейтін ойлау сияқты тұрақты мәселелерді шешуге бағытталған. Негізгі ой - жетістіктер тек көбірек графикалық процессорларды қосудан емес, іргелі мәселелерден туындайды.
Ұлыбританияның іргелі жасанды интеллект зерттеу зертханасы зерттеушілерге күрделі есептеулерге қол жеткізуге қалай көмектесе алады?
Ұлыбританияның іргелі жасанды интеллект зерттеу зертханасымен қатар, жоспар жасанды интеллект зерттеу ресурсы арқылы маңызды есептеулерге қол жеткізуді ерекше атап көрсетеді. Іс жүзінде бұл зерттеушілердің шығындармен немесе инфрақұрылыммен шектелетін эксперименттер жүргізе алатынын білдіреді. Сондай-ақ, бұл командаларға сенімділік пен беріктік сияқты мәселелер тек теориялық емес, нақты болатын ауқымда идеяларды тексеруге мүмкіндік береді.
Неліктен Ұлыбритания галлюцинацияларға, есте сақтау қабілетінің қысқаруына және болжау мүмкін емес ойлауға баса назар аударады?
Бұл кемшіліктер орналастыру кезінде пайда болатын және сенімді тез жоғалтуы мүмкін. Көрсетілген бағыт мақсат тек мүмкіндік қана емес, сонымен қатар сенімділік екенін көрсетеді - ойдан шығарылған нәтижелерді азайту, модельдердің ұзақ контекстті қалай өңдейтінін жақсарту және ойлауды аз ретсіз ету. Мұндай жұмыс көбінесе баяу және қауіптірек, сондықтан ол іргелі зерттеулер ретінде қарастырылады.
Nvidia компаниясының OpenAI немесе Anthropic-ке инвестиция салудағы өзгерісі шын мәнінде нені білдіреді?
Есепте бұл Nvidia компаниясының шет елдік зертханаларға бұрынғыдай инвестиция салуды жалғастыра бермеуі мүмкін деген меңзеу ретінде көрсетілген, әсіресе IPO динамикасы мен чектердің үлкен көлемі бұл стратегияны қиындатады. Тіпті жасанды интеллект жабдықтарындағы «қалаулы» көшбасшы ретінде де, бұл меншік үлесі әрқашан ең жақсы ойын емес екенін көрсетеді. Сондай-ақ, бұл басшылықтың пікірлерінде жиі кездесетін сақтықпен хабарлама жіберу болуы мүмкін.
Неліктен Anthropic-тің Пентагондағы «қорғаныс тілі» туралы дауы соншалықты маңызды?
Мақаланың негізгі түйіні - келісімшарт тұжырымдамасы өнім саясатына айналуы мүмкін, әсіресе ол бақылау және басқа да маңызды мақсаттарға қатысты болған кезде. Инвесторлар қақтығысты бәсеңдеткісі келетіні, ал компания қауіпсіздік шараларына қатысты өз ұстанымын сақтауға тырысатыны туралы хабарланады. Көптеген жасанды интеллект орналастыруларында бұл баптар жүйені не үшін пайдалануға болатынын және компания қандай тәуекелдерді тиімді түрде қабылдайтынын анықтайды.
Сэм Альтман OpenAI Пентагонның жасанды интеллектті қалай пайдаланатынын басқара алмайды деп айтқаны нені білдіреді?
Бұл практикалық шектеуді сипаттайды: құрал орналастырылғаннан кейін, бастапқы әзірлеушінің кейінгі пайдалануды басқару мүмкіндігі шектеулі болуы мүмкін. Бұл адамдардың әскери қабылдауға қатысты негізгі қорқынышын көрсететіндіктен қатты әсер етеді - келісімшарт жасау кезеңінде ережелер болуы мүмкін, бірақ оларды орындау қиын болуы мүмкін. Бұл сондай-ақ «шектеулермен көмек» және «қарамастан көмек» арасындағы кеңірек шиеленісті көрсетеді