AI жаңалықтары, 2026 жылғы 9 ақпан

Жасанды интеллект жаңалықтарының қорытындысы: 2026 жылғы 9 ақпан

🏗️ АҚШ компанияларды жаңа «ықшам» жасанды интеллект деректер орталығына бағыттайды, деп хабарлайды Politico

АҚШ ірі компанияларды жасанды интеллект деректер орталықтарына арналған жаңа «келісімшартқа» қол қоюға көндіруге тырысып жатқаны хабарланады - бұл негізінен осы үлкен есептеу құрылғыларын қалай өңдеу керектігі туралы міндеттемелер жиынтығы.

Мәліметтер әлі де түсініксіз (классикалық), бірақ бағыт таныс сияқты: энергетика, қауіпсіздік және, мүмкін, есеп беру салаларына қатысты күтулерді стандарттау - «мұның шатасуына жол бермеңіз» деген сыпайы саяси нұсқа

🎬 Autodesk компаниясы Google компаниясын жасанды интеллектпен жұмыс істейтін фильм түсіру бағдарламалық жасақтамасы үшін сотқа берді

Autodesk компаниясы Google компаниясын «Flow» атауына байланысты сотқа беріп, оның өндіріс және VFX басқару бағдарламалық жасақтамасы үшін «Flow» функциясын бұрыннан қолданғанын, ал Google компаниясының жасанды интеллект фильм түсіру құралы дәл осындай брендпен келгенін мәлімдеді.

Google бұрын бұл атауды коммерцияландырмайтынын айтқан... содан кейін сауда белгілерін іздеуге кіріскен деген айыптау айқынырақ. Бұл сауда белгілері үшін күрес, әрине, бірақ сонымен бірге шағын көлемдегі «үлкен платформа мен мамандандырылған құрал жасаушы» арасындағы тартысты да тудырады.

🏥 Зерттеулер көрсеткендей, жасанды интеллект медициналық кеңес іздейтін пациенттер үшін басқа әдістерден жақсы емес

Жаңа зерттеу пациенттерге медициналық кеңес беру үшін жасанды интеллектті пайдалану басқа тәсілдерден асып түспегенін анықтады - бұл таңқаларлық емес және симптомдарды тексерушілерді қаншалықты мұқият бақылағаныңызға байланысты аздап сенімділік береді.

Бұл денсаулық сақтау саласында жасанды интеллект пайдасыз дегенді білдірмейді - тек «боттан сұрау» функциясы, әсіресе дәлдік пен қауіпсіздік маңызды болған кезде, автоматты түрде қолданыстағы опцияларды жаңарту емес.

🩺 Жасанды интеллектпен жұмыс істейтін қосымшалар мен боттар медицинаға еніп жатыр. Дәрігерлердің сұрақтары бар.

Зерттеу жасанды интеллект денсаулық сақтау қосымшалары мен чатботтарының клиникалық кеңістіктерге қалай таралып жатқанын зерттейді - кейде басшылықтан, бақылаудан немесе қарапайым дәлелдерден гөрі тезірек.

Дәрігерлер сенімділік, пациенттерге келтіретін зиян және робот сенімді, бірақ қате кеңес бергенде кім жауапты екендігі туралы алаңдаушылық білдіруде... мысалы, навигатор дәрі-дәрмексіз көлге кіруді талап еткендей.

📈 CNBC хабарлауынша, OpenAI бас директоры ChatGPT ай сайынғы өсімнің 10%-дан асқанын айтты

OpenAI компаниясының бас директоры ChatGPT ай сайынғы өсімінің 10%-дан асқанын айтты, бұл «барлығы оны қолданып көрді» фазасы шарықтау шегіне жетті деп есептесек, үлкен мәселе.

Бұл жаңа пайдаланушылардың әлі де ағылып келе жатқанын немесе бұрыннан бар пайдаланушылардың қалудың көбірек себептерін тауып жатқанын немесе екеуін де көрсетеді. Қалай болғанда да, өнім сәнге ұқсамай, инфрақұрылымға көбірек ұқсайды... немесе солай болып көрінеді.

Жиі қойылатын сұрақтар

АҚШ ұсынып отырған жасанды интеллект деректер орталығының «ықшам» құрылымы қандай?

Бұл ірі фирмалар ірі жасанды интеллект деректер орталықтарын салу немесе пайдалану кезінде келісетін міндеттемелер жиынтығы ретінде сипатталады. Мақсат - бұл ауқымды есептеу жобалары компаниялар арасында шашыраңқы немесе сәйкессіз болып кетпеуі үшін күтулерді стандарттау. Нақты мәліметтер әлі де шешілмеген болып көрінгенімен, басты назар практикалық салада жатқан сияқты: энергияны пайдалану, қауіпсіздік және, мүмкін, есеп берудің қандай да бір түрі.

Неліктен АҚШ компаниялардың жасанды интеллект деректер орталығы туралы келісімге қол қоюын қалайды?

Келісімшарт заң шығарушыларды әрбір шектеу жағдайы үшін жаңа ереже әзірлеуге мәжбүрлемей, ортақ бастапқы күтулерді белгілей алады. Жасанды интеллект деректер орталықтары тез кеңейіп жатқандықтан, саясаткерлер көбінесе электр желісіне әсер ету, қауіпсіздік тәуекелдері және операциялық ашықтық туралы алаңдайды. Жалпы стратегия - ең ірі ойыншыларды ертерек үйлестіру, сондықтан дұрыс тәжірибелер тезірек таралады және мәселелер туындаған жағдайда есеп берушілікті бақылау оңайырақ болады.

Жасанды интеллект деректер орталығының келісімшартына қандай міндеттемелер кіруі мүмкін?

Қабылданған міндеттемелерге энергетикалық жоспарлауды (энергия көзі және басқару тәсілі), қауіпсіздік шараларын (физикалық және кибернетикалық) және есеп беру немесе жария етудің қандай да бір түрін қамтуы мүмкін. Көптеген құбырларда есеп беру стандарттарды оқуға және өлшеуге болатындай ететін «қолдануды жеңілдететін» деңгейге айналады. Егер келісім ерікті болса, бұл міндеттемелер кейінірек реттеуді қалыптастыруға көмектесетін нұсқаулықтар ретінде тұжырымдалуы мүмкін.

Google-дың «Flow» деп аталатын жасанды интеллект арқылы фильм түсіру құралына қатысты сот ісі қандай?

Autodesk компаниясы Google компаниясын «Flow» атауына байланысты сотқа беріп, Autodesk компаниясының «Flow» атауын өндіріс және VFX басқару бағдарламалық жасақтамасы үшін бұрыннан пайдаланғанын алға тартты. Дау сауда белгісі мен брендинг қақтығысы ретінде қарастырылып отыр, сонымен қатар Google бұрын бұл атауды коммерцияландырмайтынын айтқан, бірақ кейінірек сауда белгілерін іздеген деген айыптау да бар. Бұл істер көбінесе брендтің басымдығына және шатасу ықтималдығына байланысты.

Жасанды интеллект пациенттерге медициналық кеңес берудің басқа әдістерінен жақсы емес деген нені білдіреді?

Бұл «боттан сұрау» пациенттердің кеңес алудың қолданыстағы тәсілдеріне қарағанда автоматты түрде дәлірек немесе қауіпсіз емес екенін көрсетеді. Егер сіз симптомдарды тексерушілердің немесе чатботтардың тым сенімді жауаптарына алаңдасаңыз, бұл сізді тыныштандырады. Бұл жасанды интеллекттің денсаулық сақтаудағы әлеуетті құндылығын жоққа шығармайды, бірақ қателіктер зиян келтіруі мүмкін жерлерде дәлелдемелер, бақылау және мұқият интеграция қажеттілігін атап көрсетеді.

Неліктен дәрігерлер жасанды интеллектпен жұмыс істейтін денсаулық сақтау қосымшалары мен чатботтарына алаңдайды?

Дәрігерлер сенімділік, пациентке келтірілетін зиян және құрал сенімді, бірақ дұрыс емес кеңес берген кезде кім жауапты болатыны туралы алаңдайды. Мәселе тек дәлдікте ғана емес; сонымен қатар пациенттердің нәтижелерді қалай түсіндіретінінде және жүйенің адамдарды қауіпсіз емес өзін-өзі басқаруға итермелейтінінде де. Клиникалық жағдайларда жауапкершіліктің анық еместігі үлкен қауіпке айналуы мүмкін: пациенттер құралға сенуі мүмкін, клиниктер оны бақыламауы мүмкін және басшылық қабылдаудан артта қалуы мүмкін.

Кешегі жасанды интеллект жаңалықтары: 2026 жылдың 8 ақпаны

Ресми AI көмекші дүкенінен ең соңғы AI-ді табыңыз

Біз туралы

Блогқа оралу