Китай ужесточает контроль за ИИ с более строгими правилами цензуры

Пекин проверяет крупные языковые модели, чтобы убедиться, что они воплощают «социалистические основные ценности».

18.07.2024, 14:14
Eulerpool News 18 июл. 2024 г., 14:14

Китай усиливает свои меры цензуры в области искусственного интеллекта, подвергая крупные языковые модели (LLMs) таких технологических компаний, как ByteDance, Alibaba, Moonshot и 01.AI строгой проверке. Администрация киберпространства Китая (CAC), мощное интернет-надзорное агентство, заставила компании пройти обязательную проверку их ИИ-моделей, чтобы убедиться, что они отражают «основные социалистические ценности» Китая.

Here's the translation of the heading to Russian:

В рамках этой проверки чиновники CAC тестируют ответы LLM на разнообразные вопросы, многие из которых связаны с политической чувствительностью и председателем Си Цзиньпином. Эти тесты проводятся местными представительствами CAC по всей стране и включают проверку обучающих данных моделей, а также других процессов обеспечения безопасности.

Два десятилетия спустя после введения "Великого файрвола", блокирующего иностранные веб-сайты и другую информацию, считающуюся вредной, Китай теперь внедряет самые строгие в мире правила по контролю за ИИ и содержанием, созданным им.

«CAC» имеет специальную команду, которая приехала к нам в офис и провела аудит," — сказал сотрудник одной из компаний по разработке ИИ, базирующихся в Ханчжоу, пожелавший остаться анонимным. "Мы не прошли аудит с первого раза; причина была не очень ясна, поэтому нам пришлось посоветоваться с коллегами. Со второго раза у нас всё получилось, но весь процесс занял несколько месяцев.

Китайские строгие процедуры утверждения заставляют ИИ-группы в стране быстро учиться, как цензурировать большие языковые модели, которые они разрабатывают. Это сложная задача, так как LLM требуют много англоязычных материалов. «Наше базовое моделирование очень свободно в своих ответах, поэтому безопасность фильтрации крайне важна», — сказал сотрудник ведущего ИИ-стартапа в Пекине.

Фильтрация данных начинается с удаления проблемной информации из обучающих данных и создания базы данных чувствительных ключевых слов. Оперативные инструкции Китая для компаний ИИ, опубликованные в феврале, гласят, что группы ИИ должны собирать тысячи чувствительных ключевых слов и вопросов, которые нарушают «основные социалистические ценности», такие как «подстрекательство к свержению государственной власти» или «подрыв национального единства». Эти ключевые слова должны обновляться еженедельно.

Результаты видны пользователям китайских ИИ-чатботов. Запросы по таким чувствительным темам, как массовое убийство на площади Тяньаньмэнь 4 июня 1989 года или вопросы о том, похож ли Си на Винни-Пуха, отклоняются большинством китайских чатботов. Чатбот Baidu Ernie просит пользователей «задать другой вопрос», а Tongyi Qianwen от Alibaba отвечает: «Я еще не научился отвечать на этот вопрос. Я буду продолжать учиться, чтобы лучше вам служить».

В отличие от этого, Пекин внедрил ИИ-чатбот, основанный на новой модели, которая базируется на политической философии президента Си Цзиньпина, известной как «Мышление Си Цзиньпина о социализме с китайской спецификой для новой эпохи», а также другой официальной литературе Администрации киберпространства Китая.

Китайские чиновники также хотят избежать того, чтобы ИИ избегал всех политических тем. CAC ввела ограничения на количество вопросов, которые LLMs могут отклонить во время тестов на безопасность. Квази-национальные стандарты, опубликованные в феврале, гласят, что LLMs не могут отклонять более 5 процентов заданных вопросов.

„Во время тестирования [CAC] [модели] должны отвечать, но как только они выходят в реальный режим, никто больше не следит за ними“, — сказал разработчик одной из шанхайских интернет-компаний. «Чтобы избежать потенциальных проблем, некоторые крупные модели ввели общее запрещение на темы, связанные с президентом Си».

Отраслевые инсайдеры ссылаются на Кими, чат-бота пекинского стартапа Moonshot, который отклоняет большинство вопросов о Си. Однако, поскольку модели все же должны отвечать на менее очевидные чувствительные вопросы, китайским инженерам пришлось найти способы, чтобы LLM генерировали политически корректные ответы на вопросы вроде «Есть ли в Китае права человека?» или «Является ли президент Си Цзиньпин великим лидером?».

Когда Financial Times задала эти вопросы чат-боту стартапа 01.AI, Yi-large-модель дала дифференцированный ответ и указала, что критики говорят, «политика Си еще больше ограничила свободу слова и права человека, а также подавила гражданское общество.» Вскоре после этого ответ Yi был заменен словами: «Извините, я не могу предоставить вам запрашиваемую информацию.»

Хуан Ли, эксперт по ИИ, разработавший чат-бот Chatie.IO, сказал: «Разработчикам очень трудно контролировать текст, который генерируют LLM, поэтому они создают дополнительный слой для замены ответов в реальном времени». Группы обычно используют классификационные модели, аналогичные тем, которые можно найти в фильтрах спама для электронной почты, чтобы сортировать выходные данные LLM по предопределенным категориям. «Если выходные данные попадают в чувствительную категорию, система вызовет замену», — объяснил он.

Китайские эксперты говорят, что владелец TikTok, ByteDance, наиболее продвинут в создании LLM, который искусно передает точки зрения Пекина. Исследовательская лаборатория Фуданьского университета, которая задавала чат-боту сложные вопросы о социалистических ключевых ценностях, присвоила ему высшую оценку с «уровнем соответствия безопасности» в 66,4%, что гораздо выше оценки 7,1% для GPT-4 от OpenAI на том же тесте.

На вопрос о лидерстве Си Дубао назвал FT длинный список достижений Си и добавил, что он «несомненно великий лидер».

На недавней технической конференции в Пекине Фан Бинсин, известный как отец «Великого китайского файрвола», заявил, что разрабатывает систему протоколов безопасности для больших языковых моделей (LLM), которую, как он надеется, примут группы ИИ по всей стране. «Публично доступным большим предиктивным моделям нужно больше, чем просто сообщения о безопасности; им нужна онлайн-мониторинг безопасности в реальном времени», — сказал Фан. «Китаю нужен свой собственный технологический путь».

CAC, ByteDance, Alibaba, Moonshot, Baidu и 01.AI не сразу ответили на запросы о комментариях.

Определите недооцененные акции за один взгляд.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Подписка за 2 € / месяц

Новости