Приложения, использующие искусственный интеллект (ИИ) для прогнозирования преступлений и смягчения разжигания ненависти в Интернете, должны быть свободны от предвзятости, чтобы избежать дискриминации, передает Reuters.
В отчете агентства ЕС по основным правам (FRA) говорится, что алгоритмы, основанные на низком качестве данных, могут нанести вред жизни людей.
Исследование проводится на фоне предложенного Европейской комиссией Закона об ИИ, который вызвал критику со стороны законодателей и групп потребителей из стран ЕС за неполное устранение рисков, связанных с системами ИИ, которые могут нарушать основные права.
«Нам нужна система для оценки и смягчения предвзятости до и во время использования алгоритмов для защиты людей от дискриминации», — сказал директор FRA Майкл О'Флаэрти.
Отмечается, что раскрытие преступлений варьируется и может повлиять на данные, поскольку некоторые преступления легко раскрыть, в то время как прогнозы слишком сосредоточены на преступлениях, которые полиции легче регистрировать.
В результате некоторые демографические группы могут чаще быть связаны с «более простыми преступлениями», что может привести к предвзятости в правоохранительных органах, говорится в сообщении FRA.
При модерации оскорбительных высказываний агентство обнаружило алгоритмы, разработанные для автоматического обнаружения языка ненависти, ненадежными, поскольку оно помечало неоскорбительные термины в английском языке, в которых упоминаются слова «мусульманин», «гей» или «еврей», как оскорбительные.
Точно так же некоторые алгоритмы в немецком и итальянском языках, которые используют родовые существительные, считали женскую версию термина более оскорбительной, чем мужскую, или наоборот.
FRA заявила, что прогнозы алгоритмов имеют тенденцию к чрезмерной реакции, поскольку они связаны с ненавистью в Интернете в своих текстовых наборах данных.