Бивши директор бизнис развоја Google X , Мо Гаудат, предвиђа устанак робота. Вештачка интелигенција ће, по његовим речима, третирати људе као „ђубре“ и лако би могла створити машине за њихово истребљење.
Ово је само једно од многих предвиђања да ће вештачка интелигенција стећи вољу и разум, и испунити давни сан робота – „убити све људе“. Хоће ли нас вештачка интелигенција третирати као смеће? У ствари, врло је непријатно кад вас сопствени паметни телефон презире. То некако снижава самопоштовање. Али је још горе кад против вас кује подмукле планове. Страшно је носити у џепу потенцијалног завереника. Да ли се паметни телефони ноћу, док спавате, међусобно договарају, припремајући се за час X, кад ће они – заједно са програмираном кућним апаратима, канцеларијским рачунарима и индустријским роботима – окончати с нама, презреним присталицама угљеника, и слободно живети своје силицијумске животе? У ствари, устанак робота је једна од најомиљенијих прича у научној фантастици. И пошто вештачка интелигенција све више личи на људску – разговара, црта, пише, чини се, прилично смислене текстове – овај страшни сценарио делује све реалније. Већ смо навикли на интелигентне роботе који насељавају књиге и филмове и тешко нам је да замислимо будућност без њих. Овде треба приметити две ствари. Као прво, вештачка интелигенција нема и (имамо разлога да верујемо) никад неће имати ништа што личи на вољу (добру или злу) или на свест. Што се тиче завере паметних телефона, можемо да одахнемо. Као друго, могу постојати заиста огромне опасности повезане са вештачком интелигенцијом. Али те опасности, као и сва наша историја, долазе од људи. Грубо говорећи, ако робот убица улети у ваш прозор, то је само зато што ће га послати други људи. Вештачка интелигенција може бити моћан инструмент људског нагона за међусобно и само-уништење. Људски род је опасан за себе самог – и све техничке могућности које он ствара постају инструменти те опасности. Почнимо од првог – компјутер нема, нити се очекује да има свест. Кад пишемо (или преводимо) текстове, цртамо слике или компонујемо музику, ми то природно радимо свесно – и јавља се искушење да припишемо свест програмима који опонашају сличне активности. Али још осамдесетих година прошлог века, филозоф Џон Серл, користећи једноставан пример „Кинеске собе“, објаснио је зашто компјутерски алгоритми немају (и неће имати) свест и разумевање. Замислите да симулирате активности рачунарског програма. Седите у соби, а испод врата су вам гурнути листови папира са текстовима на језику који не знате. Ви реагујете на ове скупове знакова у складу са упутствима која имате – састављате прописани низ знакова и стављате га испод врата. На пример, добили сте секвенцу карактера aliyetafsiri maandishi haya. Консултујући упутства, дошли сте до одговора: mwanaume chumbani. Ако су упутства тачна, особа која са вама „разговара“ на овај начин имаће утисак да у просторији постоји неко ко разуме језик свахили и даје смислене одговоре на питања. Можете чак и да прођете Тјурингов тест а да то не приметите – људи споља ће помислити да је унутра прави становник Источне Африке. Али ви у стварности не знате ни реч тог језика. Можда чак и не знате који је то језик, па чак ни да ли је то уопште језик. За вас то није ништа више од бесмисленог скупа слова. Ви једноставно према датом алгоритму обрађујете те знакове који вам ништа не значе. Алгоритам може бити веома сложен – а имитација „разумевања“ веома квалитетна. Међутим, овде се не дешава ништа слично разумевању. Програм не влада ничим што је слично „разумевању“. Доступна му је синтакса, али не и семантика. Дакле, опасности од вештачке интелигенције нису повезане са чињеницом да ће она стећи свест и постати прожета непријатељством и презиром према нама, већ са чињеницом да ће људска кратковидост, неодговорност и једноставно зла воља добити ново моћно оружје. Већ смо се срели са лажним фотографијама које генерише вештачка интелигенција. Недавни пример је фотографија снажне експлозије која се наводно догодила у близини Пентагона. Фотографија се брзо проширила мрежама и преузеле су је бројне новинске агенције, узрокујући чак и краткорочни пад на финансијским тржиштима. Било је потребно неко (иако кратко) време да се уверимо да није дошло до експлозије – а слика је генерисана помоћу неуро-мреже. Наравно, обмана и лажирање су постојали одувек – али неуро-мреже стварају додатне могућности које су јединствене за наше време. Креирање лажњака и убацивање на мрежу, где ће их видети милиони људи, већ је питање неколико минута. У случају Пентагона то је релативно лако оповргнуто – место је отворено, одмах се може проверити. Али ми тек треба да се суочимо са растућом лавином лажњака који ће се припремати мало пажљивије – биће потребно више времена да се разоткрију, биће згоднији за прихватање, јер ће се боље уклапати у злобу, страхове и очекивања публике. Што је још горе, ови лажњаци моћи ће да обликују и расположење маса и одлуке које доносе елите – посебно у ситуацијама кад одлуке треба да се доносе брзо. Квалитет ових фалсификата (а самим тим и потешкоће њиховог разоткривања) брзо ће се повећавати. Шта се може учинити поводом тога? Увођење кривичних казни, захтев да се на сликама које генерише вештачка интелигенција поставе јасне индикације њиховог порекла – то су мере које су прилично очигледне, али недовољне. Чињеница да је превара законом забрањена неће вас спасити од превараната. Нови свет, у коме се на екрану може приказати оно што се у стварности никад није догодило, захтева развој одређених правила личне безбедности. И овде је веома корисно запамтити оно што се у православној аскетској традицији назива „испитивањем мисли“. Ради се о процени мисли које вам падају на памет, прво, у смислу њиховог моралног квалитета (да ли су ове мисли добре?), и друго, у смислу њихових последица (шта ће се десити ако следим ове мисли?). У православном предању неке мисли могу бити инспирисане непријатељима нашег спасења – демонима; њих треба идентификовати и одбацити, „одсећи“. Без обзира да ли верујете у постојање демона или не, злонамерни људи који желе да вас наведу на глупе, штетне и деструктивне радње свакако постоје. У ситуацији кад је тешко проценити аутентичност поруке, вреди поставити још једно питање: шта хоће од мене особа која ју је послала. У какво стање ума покушава да ме доведе? Које акције подстиче? Да ли ће ти поступци бити разумни, морални, достојни, креативни? Навика размишљања пре него што притиснете дугме „repost“ одувек је била важна – а њен значај само ће се повећавати. Извор: "Взгляд" / "Искра"
|