Top.Mail.Ru
330

Пасткі лічбавай эпохі: Як махляры аднаўляюць голас і знешнасць вашых знаёмых, расказалі ў СК

Начальнік упраўлення лічбавізацыі Галоўнага ўпраўлення лічбавага развіцця папярэдняга следства Следчага камітэта (СК) Пётр Зарэцкі расказаў пра тое, як махляры выкарыстоўваюць штучны інтэлект для здзяйснення злачынстваў, перадае БелТА.



«Уплыў штучнага інтэлекту на бяспеку асобы, грамадства і дзяржавы носіць дваісты характар. Праваахоўныя і іншыя дзяржорганы большасці краін актыўна выкарыстоўваюць ШІ-сістэмы для ўмацавання правапарадку, прафілактыкі і расследавання злачынстваў, а таксама для павышэння эфектыўнасці сваёй работы. Такія тэхналогіі, як распазнаванне асоб і аўтамабільных нумароў, пераўтварэнне мовы ў тэкст і паляпшэнне якасці аўдыя- і відэаматэрыялаў даказалі сваю высокую эфектыўнасць у рабоце айчынных «электронных вартавых парадку», — расказаў Пётр Зарэцкі.

Але ёсць і другі бок медаля. «Крымінальныя структуры таксама актыўна асвойваюць штучны інтэлект, знаходзячы яму прымяненне ў злачынных мэтах. Так, у Беларусі былі зарэгістраваны злачынствы, заснаваныя на тэхналогіі deep-fake: махляры з дапамогай нейрасетак стваралі голас і відэааблічча сваяка ахвяры, што прымушала людзей перадаваць ім значныя сродкі. Іншы метад — маштабная рассылка ў інтэрнэце рэкламы з падробленымі зваротамі кіраўнікоў, прадстаўнікоў бізнесу і публічных асоб, якія завабліваюць у фінансавыя піраміды», — падкрэсліў прадстаўнік СК. 

І гэта характэрна не толькі для Беларусі. «Штучны інтэлект адкрывае новыя магчымасці для злачыннай дзейнасці. У свеце фіксуюцца выпадкі, калі з дапамогай фальшывых відэа зламыснікі паспяхова праходзяць праверкі банкаўскіх сістэм. Аўтаматызацыя дасягае такога ўзроўню, што махлярскія кол-цэнтры працуюць на аснове ШІ, які самастойна вядзе дыялогі з дзясяткамі абанентаў, вылічвае найбольш уразлівых і толькі ў крытычны момант перадае размову рэальнаму аферысту. Пры гэтым сучасныя тэхналогіі рэзка знізілі патрабаваны для кіберзлачынстваў узровень навыкаў: стварэнне фішынгавага сайта-двайніка зараз магчыма за некалькі гадзін работы з ChatGPT. Расце і прымяненне ШІ ў такіх небяспечных сферах, як распрацоўка камп’ютарных вірусаў, генерацыя дзіцячай парнаграфіі і выраб кампраметуючых фэйкавых матэрыялаў», — адзначыў начальнік упраўлення. 

Як засцерагчы сябе ад злачынных выкрутаў, створаных з дапамогай ШІ? «У сучасным свеце да любога медыякантэнту варта ставіцца з крайнім недаверам. Прынцып „не вер вачам сваім“ стаў актуальным як ніколі. Уявіце: падчас відэазванка ваша бабуля са слязамі моліць тэрмінова перадаць ёй грошы праз курьера. Высокая верагоднасць, што гэта махляр. Сапраўднасць падобных сітуацый лёгка праверыць: проста ператэлефануйце блізкаму чалавеку па вядомым вам нумары або прапануйце сустрэцца асабіста. Калі суразмоўца пачне ўхіляцца ад сустрэчы — гэта дакладная прыкмета падману», — падкрэсліў Пётр Зарэцкі. 

Ён таксама звярнуў увагу на тое, што для капіравання голасу або стварэння відэадвайніка, неабходны зыходны матэрыял, якога сучасныя маладыя людзі (ды і не толькі маладыя) пакідаюць у сеткі занадта шмат. «Ваша лічбавая бяспека знаходзіцца ў зваротнай залежнасці ад аб’ёму асабістай інфармацыі, даступнай у сетцы. Чым менш даных пра вас вядома інтэрнэту, тым вышэй ваша абароненасць», — рэзюмаваў прадстаўнік СК.

arrow
Нашы выданні

Толькі самае цікавае — па-беларуску!

Напішыце ў рэдакцыю