Вы тут

Штучны інтэлект — не кібарг, а набор тэхналогій, здольных змяніць наша жыццё


Брытанскі навуковец Стывен Хокінг неаднойчы выказваўся аб развіцці штучнага інтэлекту як аб рэальнай прычыне магчымага знішчэння чалавечага роду. У красавіку 2017 года падчас відэаканферэнцыі ў Пекіне, якая адбылася ў рамках Глабальнай канферэнцыі мабільнага інтэрнэту, ён заявіў: «Развіццё штучнага інтэлекту можа стаць як найбольш пазітыўным, так і самым страшным фактарам для чалавецтва. Мы павінны ўсведамляць небяспеку, якую ён сабой уяўляе». Пазней у сваім інтэрв’ю выданню Wired вучоны канстатаваў, што асцерагаецца таго, што штучны інтэлект можа замяніць людзей. Па меркаванні Хокінга, людзі могуць стварыць занадта магутны штучны інтэлект, які будзе надзвычай эфектыўны ў дасягненні сваіх мэт. І калі гэтыя мэты не будуць супадаць з чалавечымі, то ў людзей будуць праблемы...


Штучны інтэлект стаў новым фактарам, які вызначае вектары грамадскага развіцця. Яго прымяненне пашыраецца ва ўсіх сферах жыццядзейнасці. Якія этычныя дылемы нясе развіццё штучнага інтэлекту? Ці будуць дадзеныя тэхналогіі садзейнічаць грамадскаму прагрэсу? З якімі праблемамі і перашкодамі спалучана распаўсюджванне штучнага інтэлекту? Адказы на гэтыя пытанні шукаюць сёння ва ўсім свеце. Падчас выстаўкі-форуму ІT-Акадэмграда «Штучны інтэлект у Беларусі», які прайшоў у Нацыянальнай акадэміі навук, адбыўся круглы стол, дзе таксама ўзнімаліся гэтыя пытанні.

Ад пыласосаў — да касмічных станцый

Першапачаткова ўдзельнікі паспрабавалі вызначыцца з тэрмінам «штучны інтэлект». Што пад ім разумець? Высветлілася, што ў інжынераў, праграмістаў, медыкаў, юрыстаў можа быць сваё бачанне штучнага інтэрнэту. Хтосьці лічыць, што гэта вобласць інфарматыкі, якая займаецца распрацоўкай інтэлектуальных камп’ютарных сістэм — сістэм, што валодаюць магчымасцямі, якія мы традыцыйна звязваем з чалавечым розумам (гэта разуменне мовы, навучанне, здольнасць разважаць, вырашаць праблемы і г. д.). Для кагосьці штучны інтэлект — навуковы напрамак, які ахоплівае шмат галін ведаў, таму ставіць знак роўнасці паміж штучным інтэлектам і інфарматыкай яны лічаць абсалютна неправільным. А ёсць меркаванне, што гэта набор тэхналогій, аб’яднаных агульнай назвай, якія могуць палепшыць наша жыццё. Напрыклад, тыя ж чат-боты выкарыстоўваюць штучны інтэлект, каб хутчэй аналізаваць звароты заказчыкаў і даваць адпаведныя адказы. «Разумныя памочнікі» — каб здабываць інфармацыю з вялікіх баз даных і аптымізаваць планаванне.

Сферы прымянення штучнага інтэлекту дастаткова шырокія і ахопліваюць як звыклыя слыху тэхналогіі, так і новыя напрамкі, якія толькі з’яўляюцца і яшчэ далёкія ад масавага прымянення, інакш кажучы, гэта ўвесь спектр рашэнняў: ад пыласосаў да касмічных станцый.

Ключавыя напрамкі развіцця штучнага інтэлекту — камп’ютарны зрок, распазнанне маўлення, разуменне сэнсу тэкстаў, аналітыка і падтрымка прыняцця рашэнняў, бязлюдныя і алічбаваныя прадпрыемствы.

Па меркаванні экспертнай супольнасці, мы знаходзімся цяпер у самай актыўнай фазе трансфармацыі грамадства, якое імкліва інфарматызуецца.

А суддзі хто?

У пачатку кастрычніка стала вядома аб тым, што з дапамогай штучнага інтэлекту фізікі змаглі радыкальна аптымізаваць вядомую квантавую праблему, якая да нядаўняга часу мела на ўвазе рашэнне 100 тысяч розных ураўненняў. Цяпер дастаткова вырашыць чатыры ўраўненні, і гэта без якіх-небудзь ахвяр у плане дакладнасці вынікаў.

Навучанне нейрасеткі запатрабавала вялікіх вылічальных рэсурсаў: праграма прапрацавала некалькі тыдняў бесперапынна. Аднак зараз гэтая нейрасетка можа быць выкарыстана для вытворчасці вылічэнняў у сувязі з іншымі буйнымі фізіка-матэматычнымі праблемамі, без неабходнасці пачынаць яе навучанне з нуля.

У Кітаі штучны інтэлект пачаў дапамагаць суддзям выносіць прысуд. У сярэдзіне ліпеня бягучага года штучны інтэлект упершыню стаў складальнікам тэксту абвінаваўчага заключэння. Сістэма машыннага навучання можа аўтаматычна сканаваць судовыя справы на прадмет спасылак, рэкамендаваць суддзі законы і правілы, складаць юрыдычныя дакументы і выпраўляць тое, што яна лічыць чалавечымі памылкамі ў прысудзе.

Між іншым, у 2014 годзе інтэлектуальная судовая сістэма пад назвай System of Systems (SoS) пачынала сваю дзейнасць як база даных. А ў ліпені 2022 года з ёй кансультаваўся кожны суддзя па кожнай справе, як гэта прадпісана Вярхоўным судом. Калі суддзі не згодны з рэкамендацыямі машыны, яны павінны прадставіць пісьмовае тлумачэнне для ўліку і праверкі.

Штучны інтэлект атрымаў пракурорскія навыкі пасля вывучэння больш як 17 тысяч спраў, разгледжаных у судах Шанхая з 2015 да 2020 год. Абвінавачванні SoS выносіць з дакладнасцю ў 97 %, засноўваючыся на адной тысячы характэрных рыс, якія ён выяўляе ў судовых дакументах па пэўных крымінальных справах. Укараненне штучнага інтэлекту ў судовую сістэму дазволіла скараціць сярэднюю нагрузку на суддзю больш чым на траціну і сэканоміць 1,7 млрд працоўных гадзін для грамадзян Кітая ў перыяд з 2019 да 2021 года.

Паводле інфармацыі распрацоўшчыкаў, SoS здольны выстаўляць абвінавачанні па васьмі найбольш распаўсюджаных у Кітаі злачынствах, такіх як махлярства з крэдытнымі картамі, арганізацыя азартных гульняў, небяспечнае кіраванне, наўмыснае нанясенне траўм, стварэнне перашкод прадстаўнікам улад у выкананні службовых абавязкаў, крадзеж і махлярства. Стваральнікі ўпэўнены, што ў будучыні штучны інтэлект зможа выносіць абвінавачванні і па больш рэзанансных і складаных з юрыдычнага пункту погляду злачынствах.

Выкарыстанне штучнага інтэлекту ў судовай сістэме многія лічаць «лагічным крокам» па развіцці заканадаўчай роўнасці і справядлівасці. Машынны розум не схільны да карупцыі і эмоцый, можа дакладна прытрымлівацца заканадаўчых рамак і выносіць рашэнні з улікам многіх фактараў, уключаючы даныя, якія характарызуюць удзельнікаў спрэчкі. Па аналогіі з медыцынскай сферай, робаты-суддзі могуць аперыраваць вялікімі звесткамі са сховішчаў дзяржаўных службаў. Можна меркаваць, што машынны інтэлект зможа хутка апрацоўваць даныя і ўлічваць значна больш фактараў, чым суддзя-чалавек.

Але эксперты-псіхолагі лічаць, што адсутнасць эмацыянальнага складніка пры разглядзе судовых спраў негатыўна адаб’ецца на якасці рашэння. Вердыкт машыннага суда можа аказацца занадта прамалінейным, які не ўлічвае важнасць пачуццяў і настроі людзей.

Урач або камп’ютарная праграма?

Укараненне сістэм штучнага інтэлекту ў медыцыне — адзін з найважнейшых сучасных трэндаў. Тэхналогіі штучнага інтэлекту кардынальна мяняюць сусветную сістэму аховы здароўя, медыцынскую дыягностыку, дазваляюць наблізіцца да медыцыны 4П, павысіць якасць паслуг аховы здароўя пры адначасовым зніжэнні расходаў для клінік. Па меркаванні аналітыкаў, у штучнага інтэлекту ёсць вялікі патэнцыял у праектах догляду пажылых людзей, даследаванні геному, адкрыцці новых лекаў, медыцынскай візуалізацыі і дыягностыцы розных захворванняў.

У 2021 годзе інвестыцыі ў праекты штучнага інтэлекту ў сферы аховы здароўя па ўсім свеце дасягнулі 11,2 млрд долараў супраць 8 млрд долараў годам раней. Такія звесткі ў сакавіку 2022 года апублікаваў Стэнфардскі інстытут штучнага інтэлекту.

Для прыкладу: урачы пачалі выкарыстоўваць штучны інтэлект, які дыягнастуе глаўкому на ранніх стадыях з дакладнасцю 97 %. Даследчыкі з Універсітэта RMІT у Мельбурне (Аўстралія) стварылі сістэму, якая зможа выяўляць рак прастаты падчас стандартнай камп’ютарнай тамаграфіі. Звычайна на КТ-малюнках цяжка выявіць гэту паталогію.

У канцы мая 2021 года стала вядома аб стварэнні нейрасеткі, якая вылічае рызыку злаякасных новаўтварэнняў па здымках камп’ютарнай тамаграфіі і флюараграфіі. Даследчыкі з Нідэрландаў распрацавалі алгарытм, які ацэньвае злаякаснасць лёгачных вузельчыкаў, выяўленых пры скрынінгавым КТ. Нейрасетка, створаная імі, можа адрозніваць разнавіднасці лёгачных вузельчыкаў і ацэньваць верагоднасць развіцця раку з дакладнасцю ў 82–93 %, не саступаючы 11 прызнаным экспертам у гэтай галіне. Такім чынам, у пульманолагаў, анколагаў і радыёлагаў з’яўляецца выдатны электронны памочнік.

— Асабіста я вельмі скептычна стаўлюся да выказванняў распрацоўшчыкаў накшталт «наша праграма працуе як чалавечы мозг», — канстатуе кандыдат тэхнічных навук, загадчык лабараторыі аналізу біямедыцынскіх выяў Аб’яднанага інстытута праблем інфарматыкі НАН Беларусі, дацэнт кафедры біямедыцынскай інфарматыкі ФПМІ БДУ Васіль КАВАЛЁЎ. — Пасля сваёй работы ў Інстытуце мозгу мушу канстатаваць, што нават людзі, якія шмат гадоў прысвяцілі вывучэнню кагнітыўнай неўралогіі, кажуць, што яны хацелі б ведаць, як уладкаваны мозг чалавека, але насамрэч мы ведаем пра яго яшчэ зусім мала. Медыцынская галіна — вельмі адчувальная да сучасных інжынерных рашэнняў у галіне штучнага інтэлекту. Іх прапануецца дастаткова, бо шмат спецыялістаў працуюць у гэтай сферы, увогуле ва ўсіх краінах свету айцішная падтрымка медыцыны вельмі моцная. Але нам трэба разумець, што дакладнасць рашэнняў у медыцыне надзвычай важная, бо памылкі будуць каштаваць пацыенту вельмі дорага. Усе праграмы трэба распрацоўваць пры непасрэдным удзеле ўрачоў, якія будуць іх прымяняць, бо менавіта ўрач, а не нейронная сетка, вызначае па кардыяграме верагоднасць інфаркту.

Лічу, што ніякая нейронная сетка, ніякія камп’ютарныя праграмы не змогуць цалкам замяніць урача. Увогуле, міждысцыплінарнасць у сферы штучнага інтэлекту надзвычай важная. Немагчыма ствараць інтэлектуальныя сістэмы прыкладнога характару без адпаведных экспертаў у галіне медыцыны, нейраматэматыкі, апрацоўкі выяў, юрыспрудэнцыі... Напрыклад, любы здымак — гэта персанальныя даныя чалавека, што істотна ўскладняе задачу інфармацыйнай бяспекі.

Між іншым, Сусветная арганізацыя аховы здароўя ўказала на негатыўныя наступствы прымянення штучнага інтэлекту ў медыцыне, калі ў аснове яго распрацоўкі і выкарыстання не будуць ляжаць этычныя прынцыпы і абарона правоў чалавека, і апублікавала рэкамендацыі, у якіх выкладзены прынцыпы абмежавання рызык і максімальнага выкарыстання магчымасцяў штучнага інтэлекту для аховы здароўя.

Кодэкс этыкі

Падчас круглага стала прагучала думка, што беларускія юрысты ў сваіх даследаваннях і публікацыях абыходзяць бокам вострыя этычныя праблемы ўкаранення штучнага інтэлекту.

— Для таго, каб новыя тэхналогіі ўкараняліся і выкарыстоўваліся, трэба павышаць лічбавы давер да іх грамадзян. Закон «Аб абароне персанальных даных» выклікаў пэўны калапс, таму што інфарматызацыя працэсаў апярэдзіла прававое рэгуляванне. Пытанняў вельмі шмат. Што павінна быць раней: тэхналогія ці права? Я лічу, што права не павінна тармазіць развіццё тэхналогій. Заканадаўства павінна адпавядаць узроўню развіцця грамадства, а не тармазіць яго развіццё. Самае галоўнае — зрабіць так, каб гэтыя тэхналогіі маглі суіснаваць з людзьмі, каб штучны інтэлект кіраваўся чалавекам, а не паўстаў над ім, — падзялілася сваім меркаваннем кандыдат юрыдычных навук, дацэнт Марыя АБЛАМЕЙКА.

Многія краіны свету ўжо маюць канцэптуальныя дакументы, якія кантралююць штучны інтэлект.

7 кастрычніка 2022 года Упраўленне па навукова-тэхнічнай палітыцы (OSTP) Белага дома выпусціла пяць палажэнняў, якімі трэба кіравацца пры распрацоўцы, выкарыстанні і ўкараненні аўтаматызаваных сістэм. Дакумент быў падрыхтаваны на фоне таго, як па меры развіцця штучнага інтэлекту ўсё больш галасоў далучаецца да закліку прыняць меры па абароне людзей ад гэтай тэхналогіі. Небяспека, на думку экспертаў, заключаецца ў тым, што нейрасеткі лёгка становяцца прадузятымі, неэтычнымі і небяспечнымі. Адно з палажэнняў датычыцца абароны ад алгарытмічнай дыскрымінацыі. У залежнасці ад канкрэтных абставін яна можа парушаць прававую абарону. Таму аўтаматызаваныя сістэмы павінны праектавацца на аснове раўнапраўя.

Вельмі важны аспект — канфідэнцыяльнасць даных. Карыстальнік павінен быць абаронены ад неправамернага выкарыстання даных з дапамогай убудаваных сродкаў абароны, і ён павінен мець права распараджацца тым, як будуць выкарыстоўваюцца даныя аб ім.

Карыстальнік павінен мець магчымасць адмовіцца ад паслуг аўтаматызаванай сістэмы, дзе гэта неабходна, і мець доступ да спецыяліста, які можа хутка разгледзець і прадухіліць узніклыя праблемы. Мець магчымасць адмовіцца ад аўтаматызаваных сістэм на карысць чалавечай альтэрнатывы.

Кодэкс этыкі штучнага інтэлекту быў распрацаваны таксама расійскім Альянсам у сферы штучнага інтэлекту сумесна з Аналітычным цэнтрам пры ўрадзе РФ і Міністэрстве эканамічнага развіцця. Асноўныя прынцыпы яго ўкаранення — празрыстасць, праўдзівасць, адказнасць, надзейнасць, інклюзіўнасць, непрадузятасць, бяспека і канфідэнцыяльнасць.

Ці варта нам распрацоўваць свой кодэкс або можна вывучыць расійскі і еўрапейскі вопыт? Сёння ў свеце прапануецца распрацаваць адзіныя падыходы для ўсіх краін, бо праблемы стаяць перад усімі аднолькавыя. Ёсць меркаванне, што чалавецтва яшчэ не на ўсе граблі наступіла, каб кіраваць штучным інтэлектам як дадзенасцю.

А вось распрацаваць Стратэгію развіцця штучнага інтэлекту ў Беларусі неабходна. У гэтым сышліся ўсе ўдзельнікі круглага стала. Магчыма, трэба засяродзіць увагу на пэўных напрамках, а не спрабаваць ахапіць усе, улічваючы памеры нашай краіны і яе інтэлектуальныя рэсурсы. Найбольшы прыбытак укараненне штучнага інтэлекту можа прынесці ў прамысловасці і ў той жа медыцыне. Адным словам, ёсць над чым падумаць.

Надзея НІКАЛАЕВА

Фота pexels.com

 

Выбар рэдакцыі

Грамадства

Час клопату садаводаў: на якія сарты пладовых і ягадных культур варта звярнуць увагу?

Час клопату садаводаў: на якія сарты пладовых і ягадных культур варта звярнуць увагу?

Выбар саджанца для садавода — той момант, значнасць якога складана пераацаніць.

Культура

Чым сёлета будзе здзіўляць наведвальнікаў «Славянскі базар у Віцебску»?

Чым сёлета будзе здзіўляць наведвальнікаў «Славянскі базар у Віцебску»?

Канцэрт для дзяцей і моладзі, пластычны спектакль Ягора Дружыніна і «Рок-панарама».