Наблюдательный совет ЕС по правам человека заявил в четверг, что приложения, использующие искусственный интеллект (ИИ) для прогнозирования преступности и смягчения разжигания ненависти в Интернете, должны быть свободны от предвзятости, чтобы избежать дискриминации.
В отчете, основанном на результатах исследования 2021 года, базирующееся в Вене Агентство ЕС по основным правам (FRA) заявило, что алгоритмы, основанные на низком качестве данных, могут нанести вред жизни людей.
Исследование проводится на фоне предложенного Европейской комиссией закона об ИИ, который вызвал критику со стороны законодателей и групп потребителей из стран ЕС за то, что они не в полной мере учитывают риски, связанные с системами ИИ, которые могут нарушать основные права.
«Нам нужна система для оценки и смягчения предвзятости до и во время использования алгоритмов для защиты людей от дискриминации», – сказал директор FRA Майкл О’Флаэрти.
Раскрытие преступлений варьируется и может повлиять на данные, сказал FRA, поскольку некоторые преступления легко обнаружить, в то время как прогнозы слишком сильно фокусируются на преступлениях, которые полиции легче зафиксировать.
В результате некоторые демографические группы могут чаще быть связаны с «более простыми преступлениями», что может привести к предвзятости в правоохранительных органах, сказал FRA.
Что касается модерации оскорбительных высказываний, агентство сочло алгоритмы, разработанные для автоматического обнаружения разжигающих ненависть высказываний, ненадежными, поскольку они помечали не оскорбительные термины на английском языке, намекающие на «мусульманина», «гея» или «еврея» как оскорбительные.
Аналогичным образом, некоторые алгоритмы в немецком и итальянском языках, в которых используются существительные с родами, посчитали женскую версию термина более оскорбительной, чем его мужской аналог, или наоборот.
FRA заявила, что прогнозы алогритмов имеют тенденцию к чрезмерной реакции, поскольку они связаны с ненавистью в Интернете в своих текстовых наборах данных.