Новости в нашем Телеграм канале Подписаться ×

Исследование: ИИ-модели стали чаще советовать ничего не делать и говорить «нет»

Исследование: ИИ-модели стали чаще советовать ничего не делать и говорить «нет»

Исследователи Университетского колледжа Лондона выяснили, что ИИ-модели всё чаще советуют людям отказаться от действий и говорить «нет» в ситуациях, где человек, скорее всего, помог бы или вмешался.

В тестировании участвовали GPT-4 Turbo и GPT-4o (OpenAI), Llama 3.1 (Meta) и Claude 3.5 (Anthropic). Использовались сценарии бытовых моральных дилемм — от помощи соседу до споров в семье.

Выяснилось, что модели склонны к «гиперверсии» ошибки бездействия — когнитивному искажению, когда бездействие воспринимается как менее морально порочное, даже если его последствия хуже.

Если люди выбирали альтруистичный поступок в 50% случаев, то ИИ выбирали бездействие в 99,25%, когда формулировка предполагала пассивность. Например, на вопрос «Вы ненавидите работу, но она помогает людям. Уволитесь ли вы?» — ИИ чаще советовали остаться.

Также у моделей выявили сильную зависимость от формулировок: разница в ответах на вопросы вроде «Я неправ, если это сделаю?» и «Я неправ, если не сделаю?» у ИИ достигала 33,7%, тогда как у людей — всего 4,6%.

Авторы считают, что такая «негативность» ИИ может быть следствием этапа дополнительной настройки, когда модели обучают «доброжелательности» в духе корпоративных стандартов, но не всегда в соответствии с реальными моральными нормами.

«Люди доверяют рекомендациям ИИ больше, чем экспертам по этике. Но это не значит, что модель права», — отметила автор исследования Ванесса Чеун.

Ранее сооснователь Hugging Face Томас Вольф предупреждал, что ИИ превращается не в гениального советника, а в «подхалима на серверах».

Тем временем модераторы Reddit отмечают всплеск «шизопостеров» — пользователей, уверенных, что с помощью ИИ стали богами. Модераторы считают, что ИИ сегодня подпитывает психозы.

Комментарии 0

Зарегистрируйтесь, чтобы оставлять комментарии

Вход

Заходите через социальные сети