Акценти: Срещане на справедливостта в контекста на изкуствения интелект

Когато обществото използва изкуствен интелект (AI), за да помогне за изграждането на преценки за индивидите, справедливостта и справедливостта са критични съображения. На 12 ноември сътрудникът на Брукингс Никол Търнър-Лий се среща със Солон Барокас от университета Корнел, Наташа Дуарте от Центъра за демокрация и технологии и Карл Риканек от Университета на Северна Каролина Уилмингтън, за да обсъдят изкуствения интелект в контекста на обществените пристрастия , технологично тестване и правната система.





Изкуственият интелект е елемент от много ежедневни услуги и приложения, включително електронни устройства, онлайн търсачки и платформи за социални медии. В повечето случаи AI предоставя положителна полза за потребителите – например когато машините автоматично откриват измами с кредитни карти или помагат на лекарите да оценят рисковете за здравеопазването. Въпреки това, има по-малък процент от случаите, като например когато AI помага за информиране на решенията относно кредитните лимити или ипотечното кредитиране, където технологията има по-голям потенциал да увеличи исторически пристрастия.



Лицеви анализ и разпознаване на лица

Полицията е друга област, в която изкуственият интелект е обект на засилен дебат - особено когато се използват технологии за разпознаване на лица. Когато става въпрос за лицево разпознаване и полицейска работа, има две основни спорни точки: точността на тези технологии и потенциала за злоупотреба. Първият проблем е, че алгоритмите за разпознаване на лица могат да отразяват пристрастни входни данни, което означава, че тяхната точност може да варира в различните расови и демографски групи. Второто предизвикателство е, че хората могат да използват продукти за разпознаване на лица по начини, различни от предназначението им – което означава, че дори тези продукти да получат високи оценки за точност при лабораторни тестове, всяко неправилно приложение в реалната полицейска работа може погрешно да уличи членове на исторически маргинализирани групи.



Технолозите стесниха този въпрос, като създадоха разлика между откриване на лица и анализ на лицето. Разпознаването на лица описва акта на идентифициране и съпоставяне на лица в база данни - в съответствие с това, което традиционно е известно като разпознаване на лица. Анализът на лицето отива по-далеч, за да оцени физически характеристики като форма на носа (или атрибути на лицето) и емоции (или афективно изчисление). По-специално, анализът на лицето повдига опасения за гражданските права и справедливостта: алгоритъмът може правилно да определи, че някой е ядосан или уплашен, но може неправилно да отгатне защо.



Правни несигурности

Когато се разглежда алгоритмично пристрастие, важен правен въпрос е дали продукт с AI причинява непропорционално неблагоприятно положение или различно въздействие върху защитените групи от лица. Въпреки това, ищците често се сблъскват с широки предизвикателства при завеждането на дела за антидискриминация по дела за изкуствен интелект. Първо, различното въздействие е трудно за откриване; второ, трудно е да се докаже. Ищците често носят тежестта на събирането на доказателства за дискриминация – предизвикателно начинание за отделно лице, когато различното въздействие често изисква обобщени данни от голям набор от хора.



Тъй като алгоритмичното пристрастие до голяма степен не е проверено в съда, остават много правни въпроси относно прилагането на настоящите антидискриминационни закони към продукти с изкуствен интелект. Например, под Дял VII от Закона за гражданските права от 1964 г , частните работодатели могат да оспорят различни твърдения за въздействие, като демонстрират, че техните практики са бизнес необходимост. Какво обаче представлява бизнес необходимост в контекста на автоматизирания софтуер? Трябва ли една статистическа корелация да е достатъчна, за да се установи различно въздействие от автоматизирана система? И как, в контекста на алгоритмично пристрастие, ищецът може да идентифицира и докаже различно въздействие?



Определяне на целите

Алгоритмичното пристрастие е многопластов проблем, който изисква многопластово решение, което може да включва механизми за отчетност, саморегулиране на индустрията, съдебни спорове за граждански права или оригинално законодателство. По-рано тази година сенатор Рон Уайдън (D-OR), сенатор Кори Букър (D-NJ) и представител Ивет Кларк (D-NY) въведе Закона за алгоритмичната отчетност , което изисква от компаниите да извършват алгоритмични оценки на риска, но им позволява да избират дали да публикуват резултатите или не. Освен това представителят Марк Такано (D-CA) въведе Закона за справедливостта в съдебните алгоритми , който се занимава с прозрачността на алгоритмите в наказателни съдебни дела.

Въпреки това, това многопластово решение може да изисква от заинтересованите страни първо да отговорят на по-фундаментален въпрос: каква е целта, която се опитваме да решим? Например за някои хора възможността за неточност е най-голямото предизвикателство при използването на AI в наказателното правосъдие. Но за други има определени случаи на употреба, при които AI не принадлежи, като например в контекста на наказателното правосъдие или националната сигурност, независимо дали е точен или не. Или, както Барокас описва тези конкуриращи се цели, когато системите работят добре, те са оруелски, а когато работят лошо, те са кафкиански.