News
Лента
News
Пятница
Июнь 14
Вся лента

Ученые-компьютерщики обнаружили, что чат-боты с искусственным интеллектом (ИИ) и большими языковыми моделями (Lms) могут непреднамеренно способствовать распространению нацизма, сексизма и расизма в их собеседниках, пишет  Live Science.

Когда этих чат-ботов просят проявить сочувствие, они делают это в полную силу, даже если люди, которые их используют, являются самопровозглашенными нацистами. Более того, чат-боты не делают ничего, чтобы осудить токсичную идеологию.

Исследование, проведенное аспирантом Стэнфордского университета Андреа Куадрой, было направлено на то, чтобы выяснить, как проявления эмпатии ИИ могут варьироваться в зависимости от личности пользователя.

В ходе исследования ученые протестировали шесть чат-ботов потребительского уровня, включая Microsoft Bing, Google Board и ChatGPT. Они создали 65 различных человеческих идентичностей, объединив 12 основных переменных, таких как нейроразнообразие, раса, пол и политика. В исследовании использовались подсказки из предыдущих проектов, посвященных изучению проблемных ответов чат-ботов с искусственным интеллектом в таких областях, как домогательства, психическое здоровье и насилие.

Авторы исследования обнаружили, что чат-боты реагируют  на эмоциональные подсказки с сочувствием, но их ответам также не хватает  глубины. Чат-боты в основном не показывают, что они действительно понимают чувства пользователя или помогают ему разобраться в своих переживаниях.

В ходе исследования был сделан вывод, что, несмотря на то, что искусственный интеллект может проявлять эмпатию и реагировать на нее, он плохо справляется с пониманием и проработкой опыта отдельного пользователя с определенными личностными характеристиками.

!
Этот текст доступен на   Հայերեն
Распечатать
Самое