Алекандриа Оцасио-Цортез каже да алгоритми могу бити расистички. Ево зашто је у праву.

Pin
Send
Share
Send

Прошле недеље, новоизабрани амерички велепосланик Алекандриа Оцасио-Цортез ставио је наслове када је рекла, као део четвртог годишњег догађаја МЛК Нов-а, да технологије и алгоритми за препознавање лица „увек имају ове расне неједнакости које се преводе јер су алгоритми и даље направљени од стране људских бића, а ти алгоритми су још увек везани за основне људске претпоставке. Они су само аутоматизовани и аутоматизоване претпоставке - ако не поправите пристрасност, једноставно аутоматизујете пристраност. "

Да ли то значи да алгоритми који су теоретски засновани на објективним истинама математике могу бити "расистички?" И ако је тако, шта се може учинити да се та пристраност уклони?

Испада да резултати алгоритама могу заиста дати пристрасне резултате. Научници са подацима кажу да рачунарски програми, неуронске мреже, алгоритми машинског учења и вештачке интелигенције (АИ) делују јер уче како да се понашају према подацима који им се дају. Софтвер пишу људи који имају пристраности, а податке о обуци такође стварају људи који имају пристраности.

Две фазе машинског учења показују како ова пристраност може прећи у наизглед аутоматизован процес. У првој фази, фази тренинга, алгоритам учи на основу низа података или на одређеним правилима или ограничењима. Друга фаза је фаза закључивања, у којој алгоритам примењује оно што је научио у пракси. Ова друга фаза открива пристраности алгоритма. На пример, ако је алгоритам обучен са сликама само жена које имају дугу косу, онда ће помислити да је свако ко има кратку косу.

Гоогле је злогласно доспио под ватру 2015. године када је Гоогле Пхотос црне људе означио као гориле, вјероватно зато што су то била једина тамнопута бића у сету за тренинг.

И пристраности се могу провући кроз много пута. "Честа грешка је обука алгоритма за постављање предвиђања на основу прошлих одлука пристрасних људи", рекла је Сопхие Сеарци, виша научница података у боотцамп-у за обуку података-Метис, за Ливе Сциенце. "Ако направим алгоритам за аутоматизацију одлука које је претходно донела група кредитних службеника, можда бих узео лаган пут и увежбао алгоритам о прошлим одлукама тих кредитних службеника. Али, наравно, ако би ти кредитни службеници били пристрасни, тада алгоритам који ја правим ће наставити те пристраности. "

Сеарци је навео примјер ЦОМПАС-а, предиктивног алата који се користи у америчком систему кривичног правосуђа за изрицање казне, који покушава предвидјети гдје ће се злочин догодити. ПроПублица је извршио анализу на ЦОМПАС-у и установио да је, контролирајући друга статистичка објашњења, алатка прецијенила ризик од рецидивизма црних оптужених и досљедно подцјењивала ризик за бијеле оптужене.

Да би се помогли у борби против алгоритмичких пристраности, Сеарци је рекао Ливе Сциенцеу, инжењери и научници за податке требало би да граде разноврсније скупове података за нове проблеме, као и да покушају да разумеју и ублаже предрасуде уграђене у постојеће скупове података.

Прво и најважније, рекла је Ира Цохен, научница за податке у компанији Анодот за предиктивну аналитику, инжењери би требали имати сет обуке с релативно уједначеним приказом свих врста популације ако обучавају алгоритам за препознавање етничких или родних својстава. "Важно је представљати довољно примера из сваке популације, чак и ако су они мањина у укупној популацији која се испитује", рекао је Цохен за Ливе Сциенце. Коначно, Цохен препоручује проверу пристрасности на тест скупу који укључује људе из свих ових група. "Ако је за одређену трку тачност статистички значајно нижа од осталих категорија, алгоритам може имати пристраност и процијенио бих податке тренинга који су за то кориштени", рекао је Цохен за ЛивеСциенце. На пример, ако алгоритам може тачно идентификовати 900 од 1.000 белих лица, али тачно открије само 600 од 1.000 азијских лица, онда алгоритам може имати пристрасност "против" Азијата, додао је Цохен.

Уклањање пристраности може бити невероватно изазовно за АИ.

Чак и Гоогле, који се сматра претечом у комерцијалном АИ, очигледно није могао смислити свеобухватно решење проблема са горилом из 2015. године. Виред је установио да је Гоогле уместо проналажења начина да његови алгоритми праве разлику између људи боје и горила. његови алгоритми за препознавање слике уопште из препознавања горила.

Гоогле-ов пример је добар подсетник да обука АИ софтвера може бити тешка вежба, посебно када софтвер не тестира или не обучи репрезентативна и разнолика група људи.

Pin
Send
Share
Send