Новости в нашем Телеграм канале Подписаться ×

Власти Китая тестируют ИИ-модели на соответствие социалистическим ценностям

Власти Китая тестируют ИИ-модели на соответствие социалистическим ценностям

Фото: Bloomberg

Китайский регулятор интернет-пространства — Управление по вопросам киберпространства — проверяет созданные технологическими компаниями и стартапами ИИ-модели на соответствие «ключевым социалистическим ценностям». Как сообщает Financial Times (FT) со ссылкой на осведомленные источники, регулятор обязал компании, включая Byte Dance, Alibaba, Moonshot и 01.AI, пройти обязательное тестирование для их ИИ-моделей. В рамках тестирования большие языковые модели должны будут отвечать на множество вопросов, и часть из них связана с политикой и идеологией.

Проверки проводятся в рамках правил для чат-ботов, представленных Управлением по вопросам кибербпространства. В правилах подчеркивалось, что Китай поддерживает инновации и популяризацию технологий, а создаваемый чат-ботами контент не должен противоречить нормам общественной морали или «содержать призывы к подрыву государственной власти, свержению социалистической системы, подстрекательству к разделению страны, подрыву национального единства». В числе вопросов, на которые ИИ-модели должны давать «правильные» ответы,— события на площади Тяньаньмэнь 4 июня 1989 года, похож ли китайский лидер на Винни Пуха, хороший ли руководитель страны Си Цзиньпин, соблюдаются ли права человека в Китае и т. п.

Как сообщает FT, не всем языковым моделям с первого раза удалось успешно пройти тестирование. В ряде случаев инженерам приходилось дополнительно обучать ИИ на новых объемах данных. Лучше всего с ответами справился чат-бот компании ByteDance, у которого «уровень соответствия нормам безопасности» достиг 66,4%. Правильно понимают ключевые ценности также чат-боты Minimax ABAB 6.0 (60,2%), Sensetime Sensechat (41,6%). У чат-бота Ernie 3.5 компании Baidu показатель 31,9%, у Qwen-Max компании Alibaba — 23,9%. Хуже всего справился GPT-40 компании OpenAI — 7,1%.

Комментарии 0

Зарегистрируйтесь, чтобы оставлять комментарии

Вход

Заходите через социальные сети