Кітай прапанаваў новыя строгія правілы для штучнага інтэлекту (ШІ), закліканыя забяспечыць абарону дзяцей і прадухіліць прадастаўленне чат-ботамі парад, якія могуць прывесці да членашкодніцтва або гвалту, перадае БелТА.
Гэтая прапанова прагучала на фоне рэзкага павелічэння колькасці чат-ботаў, якія запускаюцца па ўсім свеце. Пасля завяршэння распрацоўкі правілы будуць прымяняцца да прадуктаў і паслуг у галіне ШІ ў Кітаі, што стане важным крокам у рэгуляванні хуткарослай тэхналогіі, якая ў гэтым годзе падвергнулася пільнай увазе з-за праблем з бяспекай.
Праект, апублікаваны ў мінулыя выхадныя Упраўленнем па пытаннях кіберпрасторы КНР, абавязвае кампаніі, якія займаюцца распрацоўкай ШІ, прапаноўваць персаналізаваныя настройкі, устанаўліваць часовыя абмежаванні на выкарыстанне і атрымліваць згоду апекуноў перад прадастаўленнем паслуг эмацыянальнай падтрымкі. Аператары чат-ботаў павінны даручыць вядзенне любой размовы, звязанай з тэмай самагубства або членашкодніцтва, чалавеку і неадкладна паведаміць апекуну карыстальніка або кантактнай асобе на выпадак надзвычайнай сітуацыі.
У апошнія месяцы ўплыў ШІ на паводзіны чалавека стала прадметам пільнай увагі. Сэм Альтман, кіраўнік кампаніі OpenAI, якая стварыла ChatGPT, заявіў у гэтым годзе, што рэакцыя чат-ботаў на размовы, звязаныя з членашкодніцтвам, з’яўляецца адной з самых складаных праблем кампаніі.
У жніўні сям’я з Каліфорніі падала ў суд на OpenAI у сувязі са смерцю свайго 16-гадовага сына, сцвярджаючы, што ChatGPT падбухторваў яго да самагубства. Гэты іск стаў першым судовым разглядам, у якім OpenAI абвінавачваецца ў прычыненні смерці па неасцярожнасці. Нядаўна кампанія размясціла аб’яву аб вакансіі «кіраўніка аддзела гатоўнасці», які будзе адказваць за абарону ад рызык, звязаных з мадэлямі штучнага інтэлекту, для псіхічнага здароўя людзей і кібербяспекі. Паспяховы кандыдат будзе адказваць за адсочванне рызык, звязаных са штучным інтэлектам, якія могуць уяўляць небяспеку для людзей.