Найти в Дзене

Дэбаты аб выкарыстанні алгарытмаў прагназавання ў Вялікабрытаніі: 53 супольнасці і 14 паліцэйскіх ўжо выкарыстоўваюць іх

Алгарытмы прагназавання і іх здольнасць выяўляць праблемы да іх узнікнення маюць мноства прыкладанняў у галіне дзяржаўнага кіравання, ад трафіку да сацыяльнай дапамогі. Тым больш што мы гаворым пра муніцыпальныя ўстановы. У некаторых краінах яны, здаецца, ужо ўсвядомілі гэта: нядаўняе расследаванне, праведзенае сумесна Універсітэтам Кардыфа і каналам Sky News, паказвае, што да 53 муніцыпалітэтаў і 14 з 45 паліцэйскіх сіл у краіне ўжо выкарыстоўваюць гэтую супярэчлівую тэхналогію. Гэта выклікала некаторыя дыскусіі ў краіне. З аднаго боку, абаронцы выкарыстання алгарытмаў сцвярджаюць, што праблему, якую можна прадказаць, можна прадухіліць лягчэй, у той час як нядобразычліўцы адзначаюць, што незразумела, наколькі дакладна выкарыстоўваецца велізарная колькасць асабістых дадзеных, неабходных алгарытмам для выканання сваіх дадзеных. Гэта не справаздача аб меншасці Даследчыкі вылучаюцца муніцыпальным інстытутам-піянерам у Брыстальскім гарадскім савеце, у якім ёсць спецыяльна адданы орган, ін
Оглавление

Алгарытмы прагназавання і іх здольнасць выяўляць праблемы да іх узнікнення маюць мноства прыкладанняў у галіне дзяржаўнага кіравання, ад трафіку да сацыяльнай дапамогі. Тым больш што мы гаворым пра муніцыпальныя ўстановы.

У некаторых краінах яны, здаецца, ужо ўсвядомілі гэта: нядаўняе расследаванне, праведзенае сумесна Універсітэтам Кардыфа і каналам Sky News, паказвае, што да 53 муніцыпалітэтаў і 14 з 45 паліцэйскіх сіл у краіне ўжо выкарыстоўваюць гэтую супярэчлівую тэхналогію.

Гэта выклікала некаторыя дыскусіі ў краіне. З аднаго боку, абаронцы выкарыстання алгарытмаў сцвярджаюць, што праблему, якую можна прадказаць, можна прадухіліць лягчэй, у той час як нядобразычліўцы адзначаюць, што незразумела, наколькі дакладна выкарыстоўваецца велізарная колькасць асабістых дадзеных, неабходных алгарытмам для выканання сваіх дадзеных.

https://i.pinimg.com/564x/68/76/98/687698f0154d49a091c5d55d46bad1be.jpg
https://i.pinimg.com/564x/68/76/98/687698f0154d49a091c5d55d46bad1be.jpg

Гэта не справаздача аб меншасці

Даследчыкі вылучаюцца муніцыпальным інстытутам-піянерам у Брыстальскім гарадскім савеце, у якім ёсць спецыяльна адданы орган, інтэграваны цэнтр Analytics Bristol.

Яго місія складаецца ў зборы інфармацыі аб даходах, наведванні школ, выпадках падлеткавай цяжарнасці або псіхічных захворваннях і г.д. на аснове дадзеных 54 000 мясцовых сем'яў.

Мэта складаецца ў тым, каб на аснове гэтых дадзеных дамагчыся прагназавання таго, якія дзеці найбольш схільныя выпадкам хатняга гвалту, сэксуальнага гвалту альбо падобных сітуацый.

Сістэма працуе, прысвойваючы адзнаку ад 0 да 100 кожнаму дзіцяці, лічбу, якая паказвае на іх ацэнку рызыкі, і адтуль падае прапановы сацыяльным работнікам муніцыпалітэта, гэтак жа, як рухавік рэкамендацый сайты, як Amazon або Facebook.

"Наша даследаванне паказвае прыхаваную рэвалюцыю, якая адбываецца ў дзяржаўных службах Злучанага Каралеўства. [...] На гэтым новым полі назіраецца вельмі мала нагляду, бо ні цэнтральны ўрад, ні мясцовы ўзровень не даюць інфармацыі пра тое, як яны выкарыстоўваюцца і як перадаюцца дадзеныя грамадзянам ".

Па словах журналіста Роуленда Манторпа, яны кажуць, што на працягу ўсёй справаздачы яны выявілі, што грамадскасць працягвае бачыць алгарытмы прагназавання праз прызму адзінага мастацкага твору: Minority Report. "Я не хачу сказаць, што ўсе людзі, якіх мы сустракалі, згадвалі пра яго ... але амаль".

Што рабіць, калі чыноўнікі занадта лічаць, што алгарытм кажа?

"На шчасце (ці, на жаль, гэта залежыць ад пункту гледжання), рэчаіснасць вельмі далёкая ад папярэдняга злачынства", - тлумачыць ён.

І справа ў тым, што алгарытмы, якія выкарыстоўваюцца муніцыпалітэтамі і сіламі міліцыі, па большай частцы нават не з'яўляюцца штучным інтэлектам, а таксама не ажыццяўляюць аўтаматычны маніторынг: яны абмяжоўваюцца ўнясеннем прапаноў камунальным работнікам.

Па словах Джоаны Рэддэн, судырэктара "Лабараторыі юстыцыі" у Кардыфскім універсітэце, "людзі імкнуцца давяраць камп'ютэру; хаця кажуць, што ён можа дапамагчы прыняць рашэнне, ён на самай справе замяняе чалавечае рашэнне, бо вы давяраеце, што заўсёды будзе правільна".

Між тым, пацярпелыя людзі нават не ведаюць, што на іх жыццё ўплывае вынік алгарытму...

Супрацоўнікі міліцыі і супрацоўнікі міліцыі, з якімі размаўлялі аўтары расследавання, «былі ў поўнай меры ўсведамлены небяспекай» прыняцця рашэнняў, якія яны прымаюць, з простых няпоўных звестак пра мінулае людзей. Са слоў Манторпа:

"Я адчуваў, што я практычна ніколі не размаўляю з вялікімі тэхнікамі, што яны былі насцярожаныя ад рызык уласнай тэхналогіі.

Эканоміка 2.0?

Аднак, у адрозненне ад буйных кампаній, у дзяржаўных службаў няма грошай і мала месца для манеўру. [...] Яны ўводзяць падобныя праграмы з абяцаннем, што яны скароцяць выдаткі, калі на самой справе яны павінны больш інвеставаць, каб палегчыць пераход ".

І заключэнне, зробленае Манторпам, заключаецца ў тым, што гэтая прыхільнасць да алгарытмаў мала звязана з верай у патэнцыял тэхналогій для стварэння дзяржавы дабрабыту 2.0 і шмат у чым з "аўтаматызацыяй эканоміі":

"З зніжэннем больш чым на 40% з 2010 года, [...] патэнцыял алгарытмаў зніжэння выдаткаў занадта прывабны, каб супрацьстаяць".

"Але, не маючы належных гарантый, гэтыя сістэмы могуць узмацніць існуючыя цяжкасці, падвяргаючы бедных і найбольш уразлівых да сістэмы дысцыпліны без празрыстасці, падсправаздачнасці і, што яшчэ важней, чалавечнасці".