|
Јуче сам учествовала у раду првог „Међународног конгреса јавне управе“. Овај конгрес је посвећен ресурсима и људском потенцијалу руских државних институција. Програм догађаја у великој мери се ослањао на примену нових технологија. Говорила сам на сесији „Технолошки пробој као основа за унапређење регулаторне политике“, коју је водила Светлана Орлова, ревизор у „Рачуноводственој комори“. Дискусија се фокусирала на то како дигитална трансформација и ширење вештачке интелигенције могу изменити приступе јавној управи. У наставку су главне тезе мог извештаја.
Имплементација технологије није ствар достизања резултата. Доста људи у Влади имају илузију да нове технологије могу решити многе проблеме. Спремна сам да оспорим такав приступ. Прво, не могу се решити друштвени проблеми применом технологије. Друштвени проблеми су - друштвени проблеми, а не технолошки. Људи су - људи, и покушај да се њима управља помоћу технологије осуђен је на неуспех зато што су технологије увек ограничени модели. То је увек нешто што је много мање од људског бића. Друго, тренутно се налазимо на таласу интензивног публицитета вештачке интелигенције. Истраживачка фирма „Гартнер“ је приметила тенденцију: када се појави нова модерна технологија, сви почињу да разговарају о њој и очекују чуда од ње, али онда интересовање опада, као и очекивања од нове технологије. На пример, недавно је блокчејн био популаран – њега су укључили у све државне програме, а затим нису знали како да га уклоне. Сада је код нас на таквом таласу публицитета вештачка интелигенција. Нажалост, примена технологије често замењује решење задатка. У почетку увек треба поставити питање: „А зашто нам је потребна примена нове технологије? Шта хоћемо да добијемо?“ Примена ради саме примене неће дати тај резултат који нам је потребан. Генеративна вештачка интелигенција је обмана Вештачка интелигенција је изузетно корисна. На пример, за војне примене. Главна трка ће бити баш тамо. Управо из тог разлога су Американци сада почели да скривају своја истраживања а нама су истакли превару - генеративну вештачку интелигенцију, и сви су насели на то. Обмана је бриљантна: генеративна вештачка интелигенција брбља као човек, црта слике и ствара видео записе. Сви се радују, како је она дивна, теже да саздају своје одговарајуће моделе и троше на то ресурсе. У стварности, вештачка интелигенција уопште није због слика и текста. Она је за управљање бојним пољем. И ту не смемо заостајати. То што ми заостајемо у генеративној вештачкој интелигенцији – то је већ сасвим други проблем, не таквих размера. Како технологија може проузроковати штету У току дискусија на конгресу било је изнето неколико теза о интелигентном регулаторном окружењу. У суштини, такав приступ је покушај да се све контролише одозго, до последњег човека. А пошто не можемо доносити одлуке за сваког човека, морамо дати субјективност вештачкој интелигенцији - дозволити јој да доноси одлуке. Рекло би се, веома добра ствар: вештачка интелигенција сама доноси одлуку, а ми ништа не радимо, све иде аутоматски, све је одлично. Какве ја ризике видим овде? Ризик први: црна кутија вештачке интелигенције - то је технологија вероватноће Она доноси одлуке са одређеном вероватноћом. Неки је називају црном кутијом. Проблем са црном кутијом је у томе што ни програмер ове технологије, ни корисник нису у стању да разумеју зашто је машина донела једну или другу одлуку. Сада је питање: желимо ли ми да ова црна кутија доноси одлуке о људима? Или ми не желимо то? И како ће се тумачити резултати? Пре две године ја сам учествовала на међународном банкарском форуму у Сочију. Представник руског Министарства пољопривреде објаснила је да су они развили систем заснован на вештачкој интелигенцији. И овај систем је повећао број инцидената за 90.000 пута. Не девет, не деведесет него деведесет хиљада пута. Добили смо милионе инцидената. И она каже: „Замислите, могли бисмо аутоматски да кажњавамо, али не можемо; морамо ручно да обрађујемо те милионе инцидената. Какав ужас!“ Али очигледно је да њихова машина просто неправилно ради. Не може бити за 90.000 пута повећање броја инцидената. И ово је пример тога како можемо добити нешто што нећемо бити у стању да протумачимо. Ризик други: Потпуна контрола Потпуна контрола може носити ризик непредвидивих друштвених последица. На догађајима у Непалу ми смо то на прелеп начин видели. Тамо су нешто урадили - и влада је нестала. И то за веома кратак рок. Ризик трећи: Цурење података и преваре Информационе технологије увек долазе са ризицима – то су вируси, компјутерски напади, цурење података и, наравно, преваре. Најефикаснији резултат, у данашње време, имплементације технологије су милијарде украденог новца од људи. Никада раније се није толико варало, али сада су научили. Зашто? Зато што је ту могућност дала дигитализација. Преваранти нас пљачкају помоћу дигитализације зато што знају све о нама. Они вас зову телефоном, ословљавају вас по имену, знају ваше податке и користе их изузетно ефективно. Било која технологија може бити искоришћена за штету. Ризик четврти: Пузећи прелаз власти Постоји једна ствар о којој многи чиновници не размишљају. Ово је пузећи пренос власти са чиновника, који усмеравају примену нових ИТ решења, ка систем администраторима. Чиновници рачунају да ће ИТ стручњаци радити све што им се каже. Али то, нажалост, није тако. Светом технологије ће управљати ИТ стручњаци, а не назови хуманистички научници. Рецимо да стварамо систем друштвеног рангирања (социјалног рејтинга, као у Кини, прим. БзВ). Одређени ИТ стручњаци ће га непосредно реализовати. Шта мислите где ће ови ИТ стручњаци позиционирати себе у оквиру овог система? Какав ће бити њихов ранг? Наравно, они ће поставити себе, своју породицу и пријатеље у привилегован положај и све ће, за њих, бити у реду. Чиновник није у стању да исконтролише ИТ стручњака – он нема довољно компетенције за то. Ризик пети: могућности за корупцију Говоре: „Ми ћемо сада направити електронски систем, све ће бити контролисано, јасно, без икакве корупције.“ Али ја вас уверавам, за корумпиране службенике ће увек имати простора за деловање. На пример, недавно су направили јединствени регистар миграната и у новостима је већ избио скандал: за мито, из овог јединственог регистра, неко може да се избрише. Неки закључци Не треба се заваравати технологијом. То није чудо које ће изменити свет заувек. Технологија је (само) алат. Хајде да се према њој односимо сходно томе. Не могу се решавати друштвени проблеми помоћу технологије. Приликом примене технологије, ми морамо почети од анализе какав задатак хоћемо да решимо и да се он стави на прво место. Прво да дефинишемо проблем а затим одаберемо технологију. То може бити, а и не мора, вештачка интелигенција. Технологија мора бити руска. У супротном случају ми упадамо у зависност од које нећемо бити у стању да се извучемо. На пример, Совјетски Савез је 1970-их имао своје технологије, имао је електронику. Али Централни комитет КПСС је донео одлуку да пређе на једну серију машина - IBM PC. И ми још увек од ове платформе нисмо успели да се одвојимо. Ми смо, у суштини, изгубили електронску индустрију, а њена поновна изградња је веома скупа и дуготрајна. Пре него што се примене нове технологије, треба схватити од самог почетка како ће оне бити заштићене. Пред очима нам стоји пример преваре. Пре свега, технологија треба да буде одбрана а не рањивост. Превод: "Борба за веру" Извор: https://www.infowatch.ru/resursy © InfoWatch Да ли вам се допао овај прилог? „Борба за веру“ је непрофитни православни медијски ресурс који мисионари Истину Православља и нуди бесплатну информативну услугу, која постоји само захваљујући донацијама својих читалаца. Хвала вам на подршци и од Бога вам изобиље Његових дарова!

|