Владимир Судар, „Спутњик“: Лажна вест о „злочину“ вештачке интелигенцијеј |
недеља, 04 јун 2023 | |
Вест америчке војске да је током симулације дрон којим управља вештачка интелигенција „убио“ оператера, иако је демантована, узбунила је светску јавност. Да ли се вештачка интелигенција већ одметнула од творца, ко је крив за њене грешке и прети ли нам сценарио из „Терминатора“, за Спутњик открива филозоф Никола Танасић. Вест која је узбунила светску јавност да је у симулираном тесту америчке војске дрон под контролом вештачке интелигенције убио оператера како би га спречио да се меша у напоре да постигне мисију, експресно је демантована. Америчко ратно ваздухопловство саопштило је да се пуковник Такер Хамилтон „погрешно изразио“ када је описивао експеримент и да су његови коментари, који су требало да буду анегдотски, „извучени из контекста“. Без обзира на деманти, после „анегдотске приче“ пуковника Хамилтона широм планете појавио се страх да се вештачка интелигенција (АИ) већ отргла контроли и да би нас у скорој будућности мога задесити катаклизмичан сценарио какав смо виђали у филмској саги о Терминатору. Злоупотреба вештачке интелигенције у маркетиншке сврхе Вештачка интелигенција данас је термин који се умеће у било коју корпоративну причу зато што привлачи пажњу, маркетиншки је јако експониран, скаче на врхове свих претраживача и генерише велику пажњу, каже за Спутњик филозоф Никола Танасић. Поготово што се тиче високотехнолошких компанија које су у претходних годину дана у све живо чиме се баве почеле на сваки могући начин да гурају АИ јер привлачи пажњу инвеститора, подиже им акције на берзи и тако генерише већу пажњу за свој производ који у највећем броју случајева нема никакве везе с оним што ми подразумевамо под АИ. Најједноставнији пример примене АИ су аутономна возила која се тестирају већ деценијама. Циљ је да се направе аутомобили који ће моћи потпуно самостално да се пусте у саобраћај и буду једнако безбедни уколико не и безбеднији него аутомобили које возе обучени возачи. Међутим, та технологија није заживела јер и тако једноставна група операција које људи рутински обављају није нешто што се лако може програмирати зато што постоји читав низ одлука које једноставно зависе од моралне аутономије самог возача, објашњава Танасић. Оружје будућности не доноси одлуке Ствари постају вишеструко компликованије кад је реч о војној технологији у којој постоји огромно интересовање за аутоматизоване дронове. „Модерни ратови показали су да су дронови оружје будућности. Дронови у великој мери зависе од сателитске везе са оператером, а управљање сателитском везом може да се омета што се већ показало у Украјини. Један од ефикасних начина да се заустави напад дроновима јесте да се прекине њихова веза са оператером и наравно да су војне индустрије широм света заинтересоване за аутономне дронове који би имали ону врсту аутономије и способности за адаптирање коју имају пилоти у авионима“.
Дрон који нема пилота могао би имати одређене техничке перформансе које авион са пилотом не би, али је способност адаптације и прилагођавања опет људска ствар. Војне индустрије се баве могућношћу прилагођавања и адаптације дронова, али не са неким нарочито импресивним успехом. „Обично војна технологија иде неколико генерација испред цивилне, тако да можемо бити сигурни да самоуправљајући дронови у војсци имају бољу технологију од самоуправљајућих аутомобила. Али и даље је то далеко од онога како то научна фантастика замишља, од робота који су самосвесни и у стању да сами доносе конкретне моралне одлуке. А то је не на који начин погодити циљ, него треба ли или не треба погодити циљ. Дакле, то је нешто што је још искључиво у нивоу људског моралног ауторитета. То се може упрограмирати у машину, али опет доносилац одлуке није сама машина, него онај ко ју је програмирао.“ Пилатовско прање руку – етичка питања војне индустрије А то је тема о којој се веома широко расправљало у оквирима етике кад је била реч о аутономним возилима, јер уколико би она неког повредила, поставило би се питање одговорности. А та филозофска зачкољица постаје још компликованија ако се стави у услове војне технике. Али ни ту се није нешто далеко отишло јер и у војном комплексу има много технологије која се брендира као АИ, али то је најчешће само „маркетиншка фора за привлачење инвеститора“, наглашава Танасић. Само учитавање етичких питања у војну индустрију је бизарно по себи и може да послужи као један „елегантан начин пилатовског прања руку“. Међутим, између програмиране војне машине у коју је унесен одређени протокол и антитерористичке јединице нема неке велике разлике, сматра Танасић. Одговорност човека за грешке вештачке интелигенције Уколико се приликом акције специјалне јединице догоди нешто непредвиђено, одговорност сноси конкретан официр који је донео конкретну одлуку на основу протокола, а ако он може доказати да се у потпуности придржавао протокола и инструкција које је имао, неће сносити никакву одговорност, и онда се потеже питање ко је правио тај протокол. Слична је ствар са неким хипотетичким дроном који у некој кризну ситуацији може да бомбардује цивиле. „Онда је одговорна или особа која га је програмирала, или особа која је особи која га је програмирала дала наређење да је тако програмира. И ствар се опет само у неколико инстанци враћа до конкретне особе, официра, војног стратега или политичара који је донео одлуку да се таква конкретна војна доктрина учита у цели војно-технолошки комплекс“, закључио је Танасић. |
|
Последњи пут ажурирано ( недеља, 04 јун 2023 ) |