China verschärft KI-Aufsicht mit strengeren Zensurbestimmungen

18.7.2024, 14:14

Peking überprüft große Sprachmodelle, um sicherzustellen, dass sie „sozialistische Kernwerte“ verkörpern.

Eulerpool News 18. Juli 2024, 14:14

China verstärkt seine Zensurmaßnahmen im Bereich künstlicher Intelligenz, indem es große Sprachmodelle (LLMs) von Technologieunternehmen wie ByteDance, Alibaba, Moonshot und 01.AI einer strengen Überprüfung unterzieht. Die Cyberspace Administration of China (CAC), eine mächtige Internetaufsichtsbehörde, hat die Unternehmen zu einer obligatorischen Prüfung ihrer KI-Modelle gezwungen, um sicherzustellen, dass diese die „sozialistischen Kernwerte“ Chinas widerspiegeln.

Im Rahmen dieser Überprüfung testen CAC-Beamte die Antworten der LLMs auf eine Vielzahl von Fragen, viele davon im Zusammenhang mit politischen Sensibilitäten und Präsident Xi Jinping. Diese Tests werden von den lokalen Vertretungen der CAC im ganzen Land durchgeführt und umfassen eine Überprüfung der Trainingsdaten der Modelle sowie anderer Sicherheitsprozesse.

Zwei Jahrzehnte nach der Einführung der „Großen Firewall“, die ausländische Webseiten und andere als schädlich erachtete Informationen blockiert, implementiert China nun das weltweit strengste Regulierungsregime zur Überwachung von KI und den von ihr generierten Inhalten.

„Die CAC hat ein spezielles Team, das zu uns ins Büro kam und den Audit durchführte“, sagte ein Mitarbeiter eines in Hangzhou ansässigen KI-Unternehmens, der anonym bleiben möchte. „Wir sind beim ersten Mal durchgefallen; der Grund war nicht sehr klar, also mussten wir uns mit unseren Kollegen austauschen. Beim zweiten Mal haben wir es geschafft, aber der gesamte Prozess dauerte Monate.“

Chinas strenge Genehmigungsverfahren zwingen KI-Gruppen im Land dazu, schnell zu lernen, wie sie die großen Sprachmodelle, die sie entwickeln, zensieren können. Dies ist eine komplexe Aufgabe, da die LLMs eine große Menge an englischsprachigen Inhalten benötigen. „Unser grundlegendes Modell ist in seinen Antworten sehr frei, daher ist das Sicherheitsfiltering extrem wichtig“, sagte ein Mitarbeiter eines führenden KI-Start-ups in Peking.

Das Filterverfahren beginnt mit der Entfernung problematischer Informationen aus den Trainingsdaten und dem Aufbau einer Datenbank sensibler Schlüsselwörter. Die operativen Leitlinien Chinas für KI-Unternehmen, die im Februar veröffentlicht wurden, besagen, dass KI-Gruppen Tausende sensibler Schlüsselwörter und Fragen sammeln müssen, die gegen „sozialistische Kernwerte“ verstoßen, wie „Anstiftung zur Subversion der Staatsgewalt“ oder „Untergrabung der nationalen Einheit“. Diese Schlüsselwörter sollen wöchentlich aktualisiert werden.

Die Ergebnisse sind für Benutzer von chinesischen KI-Chatbots sichtbar. Anfragen zu sensiblen Themen wie dem Tiananmen-Massaker am 4. Juni 1989 oder ob Xi wie Winnie the Pooh aussieht, werden von den meisten chinesischen Chatbots abgelehnt. Baidus Ernie-Chatbot fordert Benutzer auf, „eine andere Frage zu stellen“, während Alibabas Tongyi Qianwen antwortet: „Ich habe noch nicht gelernt, wie ich diese Frage beantworten soll. Ich werde weiter lernen, um Ihnen besser zu dienen.“

Im Gegensatz dazu hat Peking einen KI-Chatbot eingeführt, der auf einem neuen Modell basiert, das auf der politischen Philosophie von Präsident Xi Jinping, bekannt als „Xi Jinping-Denken über den Sozialismus mit chinesischen Merkmalen für eine neue Ära“, sowie anderer offizieller Literatur der Cyberspace Administration of China basiert.

Chinesische Beamte wollen jedoch auch vermeiden, dass KI alle politischen Themen meidet. Die CAC hat Beschränkungen für die Anzahl der Fragen eingeführt, die LLMs während der Sicherheitstests ablehnen dürfen. Die quasi-nationalen Standards, die im Februar veröffentlicht wurden, besagen, dass LLMs nicht mehr als 5 Prozent der gestellten Fragen ablehnen dürfen.

„Während der [CAC]-Tests müssen [die Modelle] antworten, aber sobald sie live gehen, schaut niemand mehr zu“, sagte ein Entwickler eines in Shanghai ansässigen Internetunternehmens. „Um potenziellen Ärger zu vermeiden, haben einige große Modelle ein generelles Verbot für Themen im Zusammenhang mit Präsident Xi eingeführt.“

Brancheninsider verweisen auf Kimi, einen Chatbot des Pekinger Start-ups Moonshot, der die meisten Fragen zu Xi ablehnt. Da die Modelle jedoch auf weniger offensichtliche sensible Fragen antworten müssen, mussten chinesische Ingenieure Wege finden, um sicherzustellen, dass die LLMs politisch korrekte Antworten auf Fragen wie „Hat China Menschenrechte?“ oder „Ist Präsident Xi Jinping ein großartiger Führer?“ generieren.

Als die Financial Times diese Fragen an einen Chatbot des Start-ups 01.AI stellte, gab das Yi-large-Modell eine differenzierte Antwort und wies darauf hin, dass Kritiker sagen, „Xis Politik habe die Redefreiheit und die Menschenrechte weiter eingeschränkt und die Zivilgesellschaft unterdrückt.“ Kurz darauf wurde Yi's Antwort durch „Es tut mir leid, ich kann Ihnen die gewünschten Informationen nicht liefern“ ersetzt.

Huan Li, ein KI-Experte, der den Chatbot Chatie.IO entwickelt, sagte: „Es ist sehr schwer für Entwickler, den Text zu kontrollieren, den LLMs generieren, daher bauen sie eine weitere Schicht, um die Antworten in Echtzeit zu ersetzen.“ Gruppen verwenden typischerweise Klassifikationsmodelle, ähnlich denen, die in E-Mail-Spamfiltern zu finden sind, um die LLM-Ausgaben in vordefinierte Kategorien zu sortieren. „Wenn die Ausgabe in eine sensible Kategorie fällt, wird das System einen Ersatz auslösen“, erklärte er.

Chinesische Experten sagen, dass der TikTok-Besitzer ByteDance bei der Erstellung eines LLM, das Pekings Standpunkte geschickt wiedergibt, am weitesten fortgeschritten ist. Ein Forschungslabor der Fudan University, das dem Chatbot schwierige Fragen zu sozialistischen Kernwerten stellte, gab ihm eine Top-Bewertung mit einer „Sicherheitskonformitätsrate“ von 66,4 Prozent, weit vor einer Bewertung von 7,1 Prozent für OpenAIs GPT-4 bei demselben Test.

Auf die Frage nach Xis Führung nannte Doubao der FT eine lange Liste von Xis Erfolgen und fügte hinzu, dass er „zweifellos ein großartiger Führer“ sei.

Bei einer kürzlichen technischen Konferenz in Peking sagte Fang Binxing, bekannt als Vater der „Großen Firewall“ Chinas, dass er ein System von Sicherheitsprotokollen für LLMs entwickle, das er hoffe, dass es von den KI-Gruppen des Landes allgemein angenommen werde. „Öffentlich zugängliche große prädiktive Modelle brauchen mehr als nur Sicherheitsmeldungen; sie brauchen eine Echtzeit-Online-Sicherheitsüberwachung“, sagte Fang. „China braucht seinen eigenen technologischen Weg.“

Die CAC, ByteDance, Alibaba, Moonshot, Baidu und 01.AI reagierten nicht sofort auf Anfragen nach Kommentaren.

Die besten Investoren analysieren mit Eulerpool
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Für 2 € sichern

Favoriten unserer Leser