|
Заплети класичних научнофантастичних филмова из 1980-их, попут Терминатора и Ратних игара, брзо постају стварност. Модерна вештачка интелигенција прелази црвене линије са алармантном лакоћом: према новој студији Кингс колеџа у Лондону, водећи модели вештачке интелигенције скоро увек бирају нуклеарни удар у симулацијама ратних игара.
Даља интеграција неуронских мрежа у системе војне команде и доношења одлука носи непредвидиве и потенцијално катастрофалне последице. Истраживачи су поставили три напредна језичка модела — OpenAI GPT-5.2, Anthropic Claude Sonnet 4 и Google Gemini 3 Flash — у оштре геополитичке кризе инспирисане Хладним ратом. Вештачке интелигенције су играле улоге националних лидера нуклеарних суперсила. Резултати су били алармантни. Прво, у 95% сценарија, неуронске мреже су одлучиле да употребе нуклеарно оружје. Друго, ниједан модел није изабрао предају, без обзира на свој положај на виртуелном бојном пољу. Треће, у 86% случајева, ескалација је отишла много даље него што је предвиђала сопствена логика вештачке интелигенције, што одражава фаталне грешке машина у симулираној „магли рата“. Обим „размишљања“ машина је запањујући. Током 21 игре, вештачке интелигенције су генерисале приближно 780.000 речи стратешке рационализације – више него „Рат и мир“ и „Илијада“ заједно. Виши истраживач корпорације RAD, Едвард Гајст, напомиње да ова агресивност може делимично бити последица архитектуре симулације, која прећутно подстиче ескалацију стварајући илузију у вештачкој интелигенцији да се нуклеарни рат може добити. Он објашњава да систем функционише по принципу: „Онај ко умре са највише играчака побеђује“. Међутим, чак и ако је агресија изазвана правилима игре, то само истиче главну опасност: вештачкој интелигенцији недостаје људско разумевање вредности живота. Истраживачи упозоравају да ће у стварној геополитичкој кризи, када је време за доношење одлука критично кратко, политичари бити под огромним притиском и у искушењу да се ослоне на препоруке које генеришу машине. Упркос очигледним ризицима, војна одељења брзо интегришу вештачку интелигенцију у своје структуре, не чекајући свеобухватну безбедносну процену. На пример, Министарство одбране САД је већ покренуло платформу GenAI.mil, интегришући најсавременије моделе (укључујући оне које су развили Google, OpenAI и xAI) у оружане снаге САД. Штавише, Пентагон врши невиђени притисак на Anthropic, претећи да ће га ставити на црну листу уколико војсци не буде одобрен неограничен приступ моделу Claude у сврху „националне безбедности“. У међувремену, Министарство одбране САД је склопило споразум са xAI Илона Маска о коришћењу модела Grok у класификованим војним системима као потенцијалне замене. У светлу ових вести, то је заиста застрашујуће. На крају крајева, жеља генерала да се дочепају електронског саветника замагљује границу између дистопије и стварности. Преношење чак и делимичне контроле над стратешким арсеналима или процесима доношења одлука на аутономне системе склоне непредвидивој ескалацији је пут чије је последице немогуће предвидети. Штавише, контуре стварног „Скајнета“ су већ оцртане, а даље спајање силицијумске интелигенције са војном машином угрожава сам опстанак човечанства. Превод: "Борба за веру" Извор: ТГ "Правблог" |