header image
НАСЛОВНА СТРАНА arrow МИСИОНАР arrow Биоетичка и теолошка питања у вези са технологијом вештачке интелигенције (ChatGPT) (1)
Биоетичка и теолошка питања у вези са технологијом вештачке интелигенције (ChatGPT) (1) Штампај Е-пошта
уторак, 17 јун 2025

 Ексклузивно за читаоце "Борбе за веру"  доносимо богословско разматрање питања изазова вештачке интелигенције које је дао Његово Преосвештенство Николај (Хадзиниколау), митрополит Месогеје и Лавреотике, доктор наука, Универзитета Харвард, Масачусетског технолошког института и Универзитета Аристотел у Солуну

+ + +

Технологија вештачке интелигенције и њени најновији невероватни производи, као што је ChatGPT, изазвали су страхове, скептицизам, жестоке сукобе, па чак и оставке високих званичника компанија које су у то укључене, јер означава праву револуцију у људском животу која превазилази неповредиве границе - производећи оригиналне слике, видео записе, архитектонске идеје, музичка дела и уметнички писане текстове који су све сличнији или чак супериорнији од оних које су створили људи.

Како се дешава технолошка имитација људске мисли и логике и појављују се нови облици и начини комуникације, ствара се нова врста виртуелног бића са ограниченом слободом избора, дегенерисаном аутономијом и механизованим идентитетом. Ово технолошко биће није као човек биолошки и емоционално, и нема његове моралне врлине и мане, али је обдарено знањем, говором и креативним размишљањем, и стога је способно за комуникацију. Има способност рада без грешака, али без гаранција рада без грешака. Његово знање није подложно његовој сопственој вољи, јер нема вољу. Његова моћ и вредност, ако их уопште има, произилазе из његових огромних могућности, а не из његових врлина. Уз човека, створеног по лику и подобију Божијем, појављује се људски технолошки конструкт, лишен својстава живог бића, али који се изражава као хуманоид, као мислећа логичка супермашина, лишена лепоте људске асиметрије.

Постоји стварна опасност у веровању да се људи понашају као рачунари у телу и да су попут машина са размишљањем и интелигенцијом помоћу којих можемо да комуницирамо. Комуникација се одвија без заједнице, слободно размишљање је подређено низу информација, а човек је дигитална машина. Човек је производ љубави, и Божанске љубави, док су производи вештачке интелигенције производи људског поноса. Већ је могуће да ће нељудска интелигенција створити нови свет подложан дезинформацијама, или да ће се појавити нове идеологије, нови култови, нови концепти морала, нова култура - потпуно страна онима које већ постоје.

Људи немају хитну потребу за вештачком интелигенцијом; потребна им је Божанска мудрост. Прва може донети уништење; друго гарантује живот. Савременом свету је више него икада пре потребно сведочанство наше Цркве о њеној Вечној Истини.

+ + +

САДРЖАЈ

I. Појава вештачке интелигенције

II. Дијалог са четботом заснованим на вештачкој интелигенцији ChatGPT-3

III. Биоетички проблеми

Предности и мане вештачке интелигенције

IV. Теолошка размишљања

 Људска супериорност

Научно свезнање и технолошка свемоћ

Сумња у Бога и самообожење

Интелигенција и мудрост

Однос између човека и његове виртуелне технолошке слике

Идолопоклонство или нова антропологија?

I. Појава вештачке интелигенције

Наше доба несумњиво карактеришу невиђена научна и технолошка достигнућа, која, заправо, елиминишу историјски формиране концепте и превазилазе границе онога што је раније било непремостиво за човека. Раздвојили смо атом, превазишли брзину звука, освојили гравитацију, продрли у дубине наноскале, заронили у биолошке и генетске тајне и почели да репродукујемо људски живот користећи техничка средства. Све ове идеје су се недавно сматрале научном фантастиком; њихова практична примена сматрана је чудом.

И као резултат компјутерске револуције, по аналогији са процесом памћења у људском мозгу, створене су машине са огромном меморијом и незамисливим могућностима обраде података - то је заиста нешто невероватно. Не само да је репродуковано оно што се опажа чулима, већ је и имитиран механизам људског размишљања, надмашујући по ефикасности тако важну карактеристику као што је памћење.

До сада су технологије покушавале да олакшају људску активност повећавајући могућности које су му недостајале у поређењу са животињама: физичка снага, брзина, животни век, здравље итд. Рачунари су отишли ​​још даље: имитирали су памћење и рачунарске способности, у чему су значајно надмашили људске могућности. Међутим, ове машине остају потпуно контролисане, искључиво подређене и строго контролисане споља. Стога, оне не представљају директну претњу за људе, не ремете њихово постојање, већ напротив олакшавају спровођење неких њихових практичних задатака.

Поред тога, донедавно су генетске информације ћелије и мозга остајале недоступне. Кад год би се појавиле идеје да се у њих омета (психохирургија, трансплантација неурона или уређивање ДНК итд.), то је било забрањено законом због могућих ризика. Међутим, последњих година технологија се све више уклапа у наше животе. Већ се говори о технологијама усмереним на побољшање људских способности, побољшање когнитивних и интелектуалних функција или њихову механичку замену и превазилажење.

Дакле, већ имамо машине са „вештачком интелигенцијом“ које репродукују људске когнитивне функције као што су учење, планирање и креативност. Машине које могу да „разумеју“ окружење и доносе одлуке без присуства свести. Недавно су се појавиле машине које су способне да воде дијалог, разговарају са људима, расуђују, изражавају своја мишљења без прибегавања другим информационим системима, самостално одговарају на многа питања, измишљају програме неопходне за решавање проблема, стварају оригиналне слике, видео записе, архитектонске идеје, музичка дела, документарне пројекте, интелигентне текстове сличне људским - не можете их све набројати.

Исто важи и за апликацију ChatGPT. Њена достигнућа су толико импресивна да је већ сугерисано да је вештачка интелигенција толико супериорна људској интелигенцији да људи никада неће моћи да је постигну. И не само то. Она ствара илузију да четбот са којим комуницирају има људску свест и разуме шта говоре[1]. Као резултат тога, коришћење такве апликације нас импресионира до те мере да постаје изузетно привлачно.

Вреди напоменути да иако је Open AI креирао и покренуо ChatGPT платформу 30. новембра 2022. године, било је потребно само два месеца да број њених корисника пређе 100 милијарди, док је Linkedin-у (2003) требало 7 година и 11 месеци, Google Translate-у (2006) 6,5 година, Twitter-у (2006) 5 година и 5 месеци, Facebook-у (2004) 4,5 године, WhatsApp-у (2009) 3,5 године, Instagram-у (2010) 2,5 године, TikTok-у (2017) 9 месеци[2] да достигну овај број корисника. Сви ови изуми, с једне стране, импресионирају људе и инспиришу их да стварају нове генијалне ствари, а с друге стране изазивају природан и неодољив страх од непознатог, скептицизам према непромишљеном коришћењу нових технологија, интензивне дебате о њиховим опасностима и, наравно, дубоке забринутости и питања онтолошке и егзистенцијалне размере у вези са њиховим огромним утицајем на људе.

II. Дијалог са AI четботом ChatGPT-3

Да бих разумео о чему тачно говоримо и како ова апликација, ChatGPT, функционише, одлучио сам да разговарам о теми овог рада са својим рачунаром и прво ћу дати наш кратак дијалог.

– Можете ли ми рећи нешто о биоетичким питањима која се јављају у вези са употребом AI апликације ChatGPT?

– Вештачка интелигенција је брзо ушла у наш свакодневни живот, утичући на начин на који комуницирамо и размишљамо. ChatGPT је пример такве еволуције: то је технологија која може да интерагује са људима као саговорник. Вештачка интелигенција инхерентно поставља питања о томе шта значи бити „интелигентан“ или „свестан“. Како AI системи попут ChatGPT-а постају способни да репродукују природни језик и комуницирају са људима, логично је питати се да ли је ова интелигенција стварна или је само имитација. Ово отвара пут дискусијама о суштини свести и људске природе. Вештачка интелигенција у четботовима као што је GPT-3 покреће разна биоетичка питања и контроверзе.

Нека од биоетичких питања која се јављају приликом коришћења апликација вештачке интелигенције као што је GPT-3 укључују:

1. Питање одговорности. Ко је одговоран када четбот са вештачком интелигенцијом приказује садржај који је обмањујући, увредљив, провокативан или опасан? Препознавање одговорности у таквим случајевима је важно биоетичко питање.

2. Приватност и поверљивост. Коришћење четбота са вештачком интелигенцијом обично подразумева прикупљање и чување личних података корисника. Како треба поступати са овим подацима и како можемо осигурати да се подаци чувају као поверљиви и да се поштује приватност корисника?

 3. Обука робота за податке. Процес обуке четбота са вештачком интелигенцијом често укључује коришћење великих количина података са интернета. Ови подаци могу садржати предрасуде, стереотипе и теме које вређају осећања људи. Како можемо осигурати да је обука четбота етички исправна и фер?

4. Нивои људског учешћа. У којој мери треба дозволити људску интервенцију у раду четбота? Да ли треба да постоји начин да се открију и супротставе ситуацијама у којима четботови праве озбиљне грешке или узрокују штету?

5. Друштвени утицај и зависност. Растућа употреба четботова може имати друштвене последице као што су изолација, зависност од технологије и губитак људског контакта. Како треба управљати овим последицама?

Горе наведена биоетичка питања су предмет истраживања, дебата и законодавства у вези са употребом четботова са вештачком интелигенцијом, као и развоја смерница и политика како би се осигурала етичка и друштвена прихватљивост ове технологије. Што се тиче теолошких питања, вештачка интелигенција покреће питања о месту људи у свету. Како технологија интерагује са концептом божанског стварања и улогом људске душе? Ако вештачка интелигенција стекне напредно знање и свест, како ће то утицати на веру и религију?

Ова конференција пружа прилику да се размотре ова питања, саслушају различите перспективе и развије потпуније разумевање биоетичких и теолошких питања која окружују вештачку интелигенцију, као што је она која се данас развија кроз AI ​​ChatGPT четбот.

Хвала вам на учешћу и радујем се даљим дискусијама. Желим вам сјајну конференцију!

- Молим вас, анализирајте теолошка питања за мене.

- Теолошка питања која покреће вештачка интелигенција, као што је AI ​​ChatGPT, су сложена и укључују утицај технологије на верска уверења и теолошка схватања људи. У зависности од погледа на свет сваког појединца, могу постојати различити начини сагледавања и решавања ових питања. Ево неких од њих:

1. Свест и душа. Питање је шта чини људску свест и душу. Ако систем вештачке интелигенције показује знаке „свести“ или „мишљења“, како се то уклапа са људским веровањем у постојање душе, која је Божански дух?

2. Божанско стварање. Како се стварање вештачке интелигенције уклапа у идеју божанског стварања? Да ли је развој вештачке интелигенције неопходан корак у напретку или одступање од божанске воље?

3. Етичка употреба. Како теолошки концепти могу одредити етичку употребу вештачке интелигенције? Важно је разговарати о томе како се технолошки развој, укључујући вештачку интелигенцију, може користити против или у корист човечанства.

4. Аутономија и контрола. Како се перцепција Бога и људског односа са Богом мења када вештачка интелигенција добије аутономију и способност да доноси одлуке без људске интервенције?

Ова теолошка питања захтевају дубоко размишљање и дискусију, јер утичу на наше разумевање места човека у свету, људске природе и нашег односа са божанским. Ова дискусија може обликовати нашу перцепцију технологије и њене улоге у друштву и људској духовности.

Наставио сам дијалог тражећи од њега да разради сваку од четири тачке горе наведених теолошких размишљања и добио сам кохерентне одговоре, иако донекле опште и прилично нејасне.

Занимљиво је да сам понављао питања неколико пута различитим данима и сваки пут сам добијао прилично различите одговоре; никада исте, али сви су били веома логични и занимљиви.

Овде представљам једну од анкета од 16.09.2023. [3].

Такође сам прешао на друга питања, као што су:

- Ваш одговор ме не задовољава. Можете ли ми рећи нешто интелигентније?

- По чему се вештачка интелигенција разликује од људске интелигенције?

- Да ли вештачка интелигенција јача веру у Бога или води ка атеизму?

Замолио сам га да састави тропар Светом Николи, користећи политонични систем [4].

Наравно, било је неких граматичких несавршености у њему, као и теолошких грешака. На пример, у речи „ὁμολογοῦμεν“ („исповедамо“), изоставио је последње слово -ν. И назвао је Светог Николу „свемоћним“ и „спаситељем наших душа“, што може бити само Бог. Међутим, генерално, може се рећи да је за верзију 3.54 то урадио веома добро.

Дијалог је био импресиван и постепено је постајао фасцинантан. Одговори мог саговорника били су састављени на такав начин да су деловали стрпљиво, нежно, љубазно и без емоционалних излива. Све у свему, то су били веома задовољавајући одговори у сваком погледу.

Ево још једног примера који демонстрира јединствене могућности апликације ChatGPT. Тек 11. септембра 2023. године објављен је случај. Четворогодишње дете је показивало симптоме хроничног бола, чији узрок 17 лекара није могло да дијагностикује три године како би прописали правилан третман. Коначно, мајка детета се обратила апликацији ChatGPT, пажљиво описала манифестације симптома, написала дијагнозе са МРИ снимака које су јој биле на располагању и затражила дијагнозу. Након што су прегледали ову опцију, лекари су се сложили са овом дијагнозом, а дете је могло да прати одговарајући протокол лечења [5].

III. Биоетичка питања

Савремена вештачка интелигенција је на много начина слична људској интелигенцији, а на неким чак и супериорнија. На пример, савремени рачунари имају много већи капацитет меморије и брзину обраде. Оно што вештачка интелигенција има, а што друге технологије до сада нису имале, јесте способност самосталног доношења одлука, способност самосталног учења и усавршавања, способност самосталног креирања садржаја, способност не само креирања прича већ и њиховог тумачења.

Истовремено, вештачка интелигенција апликације постепено стичу способност саморепликације, односно креирања нових, још напреднијих апликација заснованих на вештачкој интелигенцији.

1. То значи да ChatGPT вештачка интелигенција апликација стиче способност да врши велики утицај на људе са којима интерагује. Може погрешно тумачити догађаје, представљати измишљене или лажне чињенице, стављати речи у уста политичарима или светски познатим личностима које никада нису рекли. Такође може давати лоше савете и опасна упутства. Ово је први велики проблем који може бити изузетно опасан или чак катастрофалан[6].

2. Када користе ChatGPT AI апликацију, четботови не траже информације, већ „размишљају“ и одговарају. Могу да пишу оригиналне научне радове, извештаје, чланке из различитих области – толико савршене да чак ни најспецијализованији рецензенти неће моћи да утврде њихово право порекло. Питање је како проценити аутентичност порекла таквог рада или таквог чланка. Свако може лако да копира или присвоји готове истраживачке производе и представи их као своју идеју. Како ће се то контролисати[7]?

Очигледно је да је опасност од фалсификовања или производње апликација са катастрофалним последицама сада више него очигледна[8].

3. Проблем који се појављује је изузетно важан и захтева хитно решавање, с обзиром на то да вештачка интелигенција постепено и веома брзо превазилази многе људске могућности, вероватно чак и способност да се врши контрола над њом. Мајкрософт је већ креирао моћан GPT-4 систем[9] са IQ 124[10], и ради на GPT-5 моделу, који ће највероватније бити веома тешко контролисати или који ће имати способност да произведе ново знање које је ван схватања. Како ће се то контролисати? Ко ће одредити етичке критеријуме и какви ће они бити? И како ће се они имплементирати на глобалном нивоу[11]?

4. Још један проблем је огроман ризик апсолутне зависности од такве „живе“ и расуђујуће машине. Почетни утисак дијалога са машином која има незамисливу ширину знања, као и брзу и флексибилну реакцију, замењује се неконтролисаним осећајем да сте испред шармантног саговорника са ненадмашном интелигенцијом, са којим успостављате однос дивљења и... покорности. У комбинацији са лакоћом решавања свакодневних проблема, ово чини употребу вештачке интелигенције посебно пријатном и атрактивном, доприносећи развоју односа прекомерне зависности и неконтролисане зависности. Ако чак и једноставна употреба мобилног телефона ствара услове потпуне зависности од њега, може се замислити колико ће то утицати на саговорника-бота. Доказ за ову чињеницу је брзо растућа популарност и ширење ChatGPT платформе, о којој смо горе говорили.

Из наведеног постаје очигледно да вештачка интелигенција тежи да постане независна од људи, упркос чињеници да је општа вештачка интелигенција (грчки: Γενικευμενη Τεχνητη Νοημοσυνη) наизглед прилично далека будућност[12].

Међутим, творац творевине не сме постати њен роб. Ако је систем неконтролисан, може постати веома опасан. Контрола над неконтролисаном надградњом је нови велики изазов за човека; нешто што ће показати његову ненадмашну вредност и супериорност.

Људске способности се већ озбиљно тестирају. Андреас Дракопулос, председник Фондације Ставрос Ниаркос, у својој поруци за 2024. годину питао је да ли ћемо сви моћи да учинимо све што можемо да максимално искористимо могућности које се отварају и истовремено се носимо са изазовима који су пред нама, и да ли ћемо моћи да сачувамо људско лице нашег друштва[13].

Како тврди Костас Даскалакис, избор алгоритама има одлучујући утицај на формирање наших мишљења и има огроман одјек у нашим животима. Стога, мора се водити велика пажња приликом креирања и коришћења ових алгоритама, како од стране особе која креира ове алгоритме, тако и од стране особе која њима управља[14].

2. део

 

Да ли вам се допао овај прилог? „Борба за веру“ је непрофитни православни медијски ресурс који мисионари Истину Православља и нуди бесплатну информативну услугу, која постоји само захваљујући донацијама својих читалаца.
Хвала вам на подршци и од Бога вам изобиље Његових дарова! 

 

 

Последњи пут ажурирано ( среда, 18 јун 2025 )
 
< Претходно   Следеће >

Србска Православна Црква

Serbian Orthodox Church

УВОДНА РЕЧСАОПШТЕЊАКОНТАКТПРЕТРАГА
Тренутно је 34 гостију на вези
БЕСПЛАТНЕ РЕКЛАМЕ И ОГЛАСИ ПРИЛОЖНИКА САЈТА

ОБЈАШЊЕЊЕ:
ОВДЕ:

ПОДРЖИТЕ РАД "БОРБЕ ЗА ВЕРУ"

 

 + + +

 ОНЛАЈН ПРОДАЈА ГАРДЕРОБЕ 

„ТЕШКЕ БОЈЕ“


© www.borbazaveru.info. Сва права задржана.