header image
НАСЛОВНА СТРАНА
Скајнет је већ овде Штампај Е-пошта
уторак, 17 март 2026

 Заплети класичних научнофантастичних филмова из 1980-их, попут Терминатора и Ратних игара, брзо постају стварност. Модерна вештачка интелигенција прелази црвене линије са алармантном лакоћом: према новој студији Кингс колеџа у Лондону, водећи модели вештачке интелигенције скоро увек бирају нуклеарни удар у симулацијама ратних игара.

Даља интеграција неуронских мрежа у системе војне команде и доношења одлука носи непредвидиве и потенцијално катастрофалне последице.

Истраживачи су поставили три напредна језичка модела — OpenAI GPT-5.2, Anthropic Claude Sonnet 4 и Google Gemini 3 Flash — у оштре геополитичке кризе инспирисане Хладним ратом.

Вештачке интелигенције су играле улоге националних лидера нуклеарних суперсила.

Резултати су били алармантни.

Прво, у 95% сценарија, неуронске мреже су одлучиле да употребе нуклеарно оружје.

Друго, ниједан модел није изабрао предају, без обзира на свој положај на виртуелном бојном пољу.

Треће, у 86% случајева, ескалација је отишла много даље него што је предвиђала сопствена логика вештачке интелигенције, што одражава фаталне грешке машина у симулираној „магли рата“.

Обим „размишљања“ машина је запањујући.

Током 21 игре, вештачке интелигенције су генерисале приближно 780.000 речи стратешке рационализације – више него „Рат и мир“ и „Илијада“ заједно.

 Виши истраживач корпорације RAD, Едвард Гајст, напомиње да ова агресивност може делимично бити последица архитектуре симулације, која прећутно подстиче ескалацију стварајући илузију у вештачкој интелигенцији да се нуклеарни рат може добити.

Он објашњава да систем функционише по принципу: „Онај ко умре са највише играчака побеђује“.

Међутим, чак и ако је агресија изазвана правилима игре, то само истиче главну опасност: вештачкој интелигенцији недостаје људско разумевање вредности живота.

Истраживачи упозоравају да ће у стварној геополитичкој кризи, када је време за доношење одлука критично кратко, политичари бити под огромним притиском и у искушењу да се ослоне на препоруке које генеришу машине.

 Упркос очигледним ризицима, војна одељења брзо интегришу вештачку интелигенцију у своје структуре, не чекајући свеобухватну безбедносну процену.

На пример, Министарство одбране САД је већ покренуло платформу GenAI.mil, интегришући најсавременије моделе (укључујући оне које су развили Google, OpenAI и xAI) у оружане снаге САД.

Штавише, Пентагон врши невиђени притисак на Anthropic, претећи да ће га ставити на црну листу уколико војсци не буде одобрен неограничен приступ моделу Claude у сврху „националне безбедности“.

У међувремену, Министарство одбране САД је склопило споразум са xAI Илона Маска о коришћењу модела Grok у класификованим војним системима као потенцијалне замене.

У светлу ових вести, то је заиста застрашујуће.

На крају крајева, жеља генерала да се дочепају електронског саветника замагљује границу између дистопије и стварности.

Преношење чак и делимичне контроле над стратешким арсеналима или процесима доношења одлука на аутономне системе склоне непредвидивој ескалацији је пут чије је последице немогуће предвидети.

Штавише, контуре стварног „Скајнета“ су већ оцртане, а даље спајање силицијумске интелигенције са војном машином угрожава сам опстанак човечанства. 

Превод: "Борба за веру"

Извор: ТГ "Правблог"

 

 

 

Последњи пут ажурирано ( уторак, 17 март 2026 )
 
< Претходно   Следеће >

Србска Православна Црква

Serbian Orthodox Church

УВОДНА РЕЧСАОПШТЕЊАКОНТАКТПРЕТРАГА
Тренутно је 97 гостију на вези
БЕСПЛАТНЕ РЕКЛАМЕ И ОГЛАСИ ПРИЛОЖНИКА САЈТА

ОБЈАШЊЕЊЕ:
ОВДЕ:

ПОДРЖИТЕ РАД "БОРБЕ ЗА ВЕРУ"

 

 + + +


 


© www.borbazaveru.info. Сва права задржана.