AI

Китай затяга контрола върху изкуствения интелект със строгите цензурни правила

Pекинг проверява големи езикови модели, за да гарантира, че те въплъщават „социалистически основни ценности“.

Eulerpool News 18.07.2024 г., 14:14 ч.

Китай засилва мерките за цензура в областта на изкуствения интелект, като подлага големите езикови модели (LLMs) на технологични компании като ByteDance, Alibaba, Moonshot и 01.AI на строг контрол. Администрацията на киберпространството на Китай (CAC), мощен интернет регулаторен орган, е принудила компаниите да преминат задължителна проверка на техните AI модели, за да гарантира, че те отразяват „социалистическите основни ценности“ на Китай.

В рамките на това преглеждане служители на CAC тестват отговорите на LLMs на разнообразни въпроси, много от които са свързани с политически чувствителни теми и президента Си Дзинпин. Тези тестове се извършват от местните представителства на CAC в цялата страна и включват проверка на тренировъчните данни на моделите, както и други процеси за сигурност.

Две десетилетия след въвеждането на „Голямата защитна стена“, която блокира чуждестранни уебсайтове и друга информация, считана за вредна, Китай сега внедрява най-строгия регулаторен режим в света за наблюдение на изкуствения интелект и генерираното от него съдържание.

„Die CAC hat ein spezielles Team, das zu uns ins Büro kam und den Audit durchführte“, sagte ein Mitarbeiter eines in Hangzhou ansässigen KI-Unternehmens, der anonym bleiben möchte. „Wir sind beim ersten Mal durchgefallen; der Grund war nicht sehr klar, also mussten wir uns mit unseren Kollegen austauschen. Beim zweiten Mal haben wir es geschafft, aber der gesamte Prozess dauerte Monate.“

„CAC има специален екип, който дойде при нас в офиса и извърши одита“, каза служител на базирана в Ханджоу KI-компания, който желае да остане анонимен. „На първия път не се справихме; причината не беше много ясна, така че трябваше да се консултираме с колегите си. При втория опит успяхме, но целият процес продължи месеци.“

Строгите процедури за одобрение в Китай принуждават групите за изкуствен интелект в страната бързо да се научат как да цензурират големите езикови модели, които разработват. Това е сложна задача, тъй като големите езикови модели изискват голямо количество съдържание на английски език. „Нашият основен модел е много свободен в своите отговори, затова филтрирането за сигурност е изключително важно“, каза служител на водещ стартъп за изкуствен интелект в Пекин.

Филтрирането започва с премахване на проблемната информация от учебните данни и създаване на база данни с чувствителни ключови думи. Оперативните насоки на Китай за компаниите за изкуствен интелект, публикувани през февруари, посочват, че групите за изкуствен интелект трябва да събират хиляди чувствителни ключови думи и въпроси, които нарушават „социалистическите основни ценности“, като „подбуждане към подриване на държавната власт“ или „подкопаване на националното единство“. Тези ключови думи трябва да се актуализират седмично.

Резултатите са видими за потребителите на китайски AI чатботове. Запитвания по чувствителни теми, като масовото убийство на площад "Тянанмън" от 4 юни 1989 г. или дали Си Дзинпин прилича на Мечо Пух, се отказват от повечето китайски чатботове. Чатботът Ерни на Baidu моли потребителите да „зададат друг въпрос“, докато Tongyi Qianwen на Alibaba отговаря: „Все още не съм научил как да отговоря на този въпрос. Ще продължа да уча, за да ви служа по-добре.“

За разлика от това, Пекин въведе AI-чатбот, базиран на нов модел, основан на политическата философия на президента Си Дзинпин, известна като „Мисловната система на Си Дзинпин за социализма с китайски характеристики за нова ера“, както и друга официална литература на Администрацията на киберпространството на Китай.

Китайските служители обаче искат също да избегнат, че ИИ не заобикаля всички политически теми. CAC въведе ограничения за броя на въпросите, които LLMs могат да откажат по време на тестовете за сигурност. Полу-националните стандарти, публикувани през февруари, гласят, че LLMs не могат да отказват повече от 5 процента от зададените въпроси.

„По време на [CAC]-тестовете [моделите] трябва да отговарят, но щом започнат на живо, никой вече не ги наблюдава“, каза разработчик от интернет компания, базирана в Шанхай. „За да избегнат потенциални проблеми, някои големи модели са въвели обща забрана за теми, свързани с президента Си.“

Инсайдери от бранша посочват Кими, чатбот на пекинския стартъп Moonshot, който отхвърля повечето въпроси за Си. Тъй като моделите обаче трябва да отговарят на по-малко очевидни чувствителни въпроси, китайските инженери трябваше да намерят начини да гарантират, че LLM генерира политически коректни отговори на въпроси като „Има ли Китай човешки права?“ или „Президентът Си Дзинпин велик лидер ли е?“

Когато Financial Times зададе тези въпроси на чатбота на стартъп компанията 01.AI, моделът Yi-large даде диференциран отговор и посочи, че критиците казват, че „политиката на Си е допълнително ограничила свободата на словото и човешките права и е потискала гражданското общество“. Малко след това отговорът на Yi беше заменен с „Съжалявам, не мога да ви предоставя исканата информация.“

Хуан Ли, експерт по изкуствен интелект, който разработи чатбота Chatie.IO, каза: „Много е трудно за разработчиците да контролират текста, генериран от големите езикови модели (LLMs), затова те изграждат допълнителен слой, за да заместят отговорите в реално време.“ Групите обикновено използват модели за класификация, подобни на тези в филтрите за спам в електронната поща, за да сортират изходните данни от големите езикови модели в предварително определени категории. „Ако изходът попада в чувствителна категория, системата ще задейства замяна“, обясни той.

Китайски експерти казват, че собственикът на TikTok, ByteDance, е най-напреднал в създаването на LLM, който умело предава възгледите на Пекин. Изследователска лаборатория на университета Фудан, която задавала трудни въпроси за социалистическите основни ценности на чатбота, му дала висока оценка със "съответствие на сигурността" от 66,4 процента, далеч пред 7,1 процента за GPT-4 на OpenAI при същия тест.

На въпроса за лидерството на Си, Дубао предостави на FT дълъг списък с неговите успехи и добави, че той "без съмнение е велик лидер".

На скорошна техническа конференция в Пекин, Фанг Бинсинг, известен като бащата на „Голямата защитна стена“ на Китай, каза, че разработва система от протоколи за сигурност за големи езикови модели (LLMs), която се надява, че ще бъде широко приета от AI групите в страната. „Публично достъпните големи предиктивни модели се нуждаят от повече от просто съобщения за сигурност; те се нуждаят от онлайн наблюдение на сигурността в реално време“, каза Фанг. „Китай се нуждае от своя собствен технологичен път.“

CAC, ByteDance, Alibaba, Moonshot, Baidu и 01.AI не отговориха веднага на запитванията за коментар.

Направи най-добрите инвестиции в живота си
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

От 2 евро си осигурявате

Новини