Зачыніць аб'яву

Сфера тэхналогій знаходзіцца пад пагрозай шэрагу фактараў. Карыстальнікі баяцца, напрыклад, шкоднасных праграм або страты прыватнасці. Але, на думку ўплывовых дзеячаў тэхналагічнай індустрыі, нас павінен турбаваць не столькі сам чалавечы фактар, колькі яго сувязь са штучным інтэлектам. На сёлетнім Сусветным эканамічным форуме ў Давосе кіраўнікі шэрагу буйных тэхналагічных кампаній заклікалі да заканадаўчага рэгулявання галіны. Якія ў іх прычыны для гэтага?

«Штучны інтэлект - адна з самых важных рэчаў, над якімі працуе чалавецтва. Ён мае большую глыбіню, чым агонь ці электрычнасць», сказаў генеральны дырэктар Alphabet Inc. у мінулую сераду на Сусветным эканамічным форуме. Сундар Пічаі, дадаўшы, што рэгуляванне штучнага інтэлекту патрабуе глабальнай структуры апрацоўкі. Дырэктар Microsoft Сацья Надэла і дырэктар IBM Джыні Рамеці таксама заклікаюць да стандартызацыі правілаў выкарыстання штучнага інтэлекту. Па словах Надэлы, сёння, больш за трыццаць гадоў таму, ЗША, Кітаю і Еўрасаюзу неабходна ўсталяваць правілы, якія вызначаюць важнасць штучнага інтэлекту для нашага грамадства і свету.

Спробы асобных кампаній усталяваць уласныя правілы этыкі штучнага інтэлекту ў мінулым сустракалі пратэсты не толькі з боку супрацоўнікаў гэтых кампаній. Напрыклад, у 2018 годзе Google быў вымушаны выйсці з сакрэтнай урадавай праграмы Project Maven, якая выкарыстоўвала тэхналогію для аналізу малюнкаў з ваенных беспілотнікаў, пасля масавай рэакцыі. Штэфан Хойман з берлінскага аналітычнага цэнтра Stiftung Neue Verantwortung у сувязі з этычнымі спрэчкамі вакол штучнага інтэлекту кажа, што правілы павінны ўсталёўваць палітычныя арганізацыі, а не самі кампаніі.

Разумная калонка Google Home выкарыстоўвае штучны інтэлект

Цяперашняя хваля пратэстаў супраць штучнага інтэлекту мае відавочныя падставы для такога часу. Літаральна праз некалькі тыдняў Еўрасаюз павінен змяніць свае планы адносна адпаведнага заканадаўства. Гэта можа ўключаць у сябе, напрыклад, правілы, якія тычацца развіцця штучнага інтэлекту ў так званых сектарах высокай рызыкі, такіх як ахова здароўя або транспарт. У адпаведнасці з новымі правіламі, напрыклад, кампаніі павінны будуць дакументаваць у рамках празрыстасці, як яны ствараюць свае сістэмы штучнага інтэлекту.

У сувязі са штучным інтэлектам у мінулым ужо было некалькі скандалаў - адзін з іх, напрыклад, справа Cambridge Analytica. У кампаніі Amazon супрацоўнікі падслухоўвалі карыстальнікаў праз лічбавы асістэнт Alexa, а летам мінулага года зноў разгарэўся скандал з-за таго, што кампанія Google - або платформа YouTube - збірала дадзеныя дзяцей ва ўзросце да трынаццаці гадоў без згоды бацькоў.

У той час як некаторыя кампаніі маўчаць на гэтую тэму, паводле заявы яе віцэ-прэзідэнта Ніколы Мендэльсона, Facebook нядаўна ўсталяваў свае правілы, падобныя на еўрапейскі рэгламент GDPR. У заяве Мендэльсона гаворыцца, што гэта стала вынікам імкнення Facebook да глабальнага рэгулявання. Кіт Энрайт, які адказвае за прыватнасць у Google, заявіў на нядаўняй канферэнцыі ў Брусэлі, што кампанія ў цяперашні час шукае спосабы мінімізаваць колькасць карыстальніцкіх даных, якія неабходна сабраць. "Але шырока распаўсюджана сцвярджэнне, што такія кампаніі, як наша, спрабуюць сабраць як мага больш дадзеных", далей ён заявіў, дадаўшы, што трымаць дадзеныя, якія не прыносяць ніякай каштоўнасці для карыстальнікаў, рызыкоўна.

Здаецца, рэгулятары ні ў якім разе не недаацэньваюць абарону дадзеных карыстальнікаў. Зараз ЗША працуюць над федэральным заканадаўствам, падобным да GDPR. Зыходзячы з іх, кампаніі павінны былі б атрымаць згоду сваіх кліентаў на прадастаўленне іх дадзеных трэцім асобам.

Siri FB

крыніца: Bloomberg

.