Оказалось, что нейросеть Google отвечает лучше после угроз или мотивации деньгами

Исследование Уортонской школы бизнеса при Пенсильванском университете поставило под сомнение мнение, что языковые модели искусственного интеллекта (LLM) работают лучше под давлением угроз, эмоций или финансовой мотивации. В эксперименте тестировались пять моделей — Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini и o4-mini. Им предлагали решить сложные задачи по естественным и инженерным наукам, предваряя запросы «мотивационными» фразами: от угроз и обещаний наград до заявлений о критичности ответа.
Результаты показали, что такие факторы не оказывают стабильного влияния на точность. Колебания составляли от +36% до –35% в зависимости от формулировки, но устойчивой корреляции не выявлено.
Единственным исключением стала модель Gemini 2.0 Flash, чья точность в среднем повышалась на 10%, если запрос содержал историю о заработке \$1 млрд для спасения жизни её «матери» с раком. Учёные связывают это с особенностями настройки и повышенной чувствительностью модели к эмоционально-гуманитарному контексту.
Интересно, что идея о мотивации ИИ угрозами ранее высказывалась сооснователем Google Сергеем Брином, заявившим в мае 2025 года, что «модели обычно работают лучше, если пригрозить им физической расправой».
Зарегистрируйтесь, чтобы оставлять комментарии
Вход
Заходите через социальные сети
FacebookTwitter