AI

China endurece supervisão de IA com regulamentos de censura mais rígidos

Peking überprüft große Sprachmodelle, um sicherzustellen, dass sie „sozialistische Kernwerte“ verkörpern.

Eulerpool News 18 de jul. de 2024, 14:14

China intensifica suas medidas de censura na área de inteligência artificial, submetendo grandes modelos de linguagem (LLMs) de empresas de tecnologia como ByteDance, Alibaba, Moonshot e 01.AI a uma rigorosa revisão. A Administração do Ciberespaço da China (CAC), uma poderosa agência reguladora da internet, obrigou as empresas a realizarem uma avaliação obrigatória de seus modelos de IA para garantir que estes reflitam os "valores centrais socialistas" da China.

No âmbito desta revisão, oficiais da CAC testam as respostas dos LLMs a uma variedade de perguntas, muitas delas relacionadas a sensibilidades políticas e ao presidente Xi Jinping. Esses testes são conduzidos pelas representações locais da CAC em todo o país e incluem uma análise dos dados de treinamento dos modelos, bem como de outros processos de segurança.

Duas décadas após a introdução do "Grande Firewall", que bloqueia sites estrangeiros e outras informações consideradas nocivas, a China agora implementa o regime regulatório mais rigoroso do mundo para monitorar a IA e os conteúdos por ela gerados.

Here is the translation of the heading to Portuguese:

„A CAC tem uma equipe especial que veio ao nosso escritório e realizou a auditoria“, disse um funcionário de uma empresa de IA com sede em Hangzhou, que desejava permanecer anônimo. „Nós falhamos na primeira vez; a razão não estava muito clara, então tivemos que conversar com nossos colegas. Na segunda vez, conseguimos, mas todo o processo levou meses.”

O rigoroso processo de aprovação na China força grupos de IA no país a aprenderem rapidamente como censurar os grandes modelos de linguagem que estão desenvolvendo. Esta é uma tarefa complexa, pois os LLMs necessitam de uma grande quantidade de conteúdos em inglês. "Nosso modelo fundamental é muito livre em suas respostas, por isso a filtragem de segurança é extremamente importante", disse um funcionário de uma startup de IA líder em Pequim.

O processo de filtragem começa com a remoção de informações problemáticas dos dados de treinamento e a construção de um banco de dados de palavras-chave sensíveis. As diretrizes operacionais da China para empresas de IA, publicadas em fevereiro, afirmam que grupos de IA devem coletar milhares de palavras-chave e perguntas sensíveis que violem "valores fundamentais socialistas", como "incitação à subversão do poder do Estado" ou "minar a unidade nacional". Essas palavras-chave devem ser atualizadas semanalmente.

Os resultados são visíveis para usuários de chatbots de IA chineses. Pedidos sobre tópicos sensíveis como o Massacre da Praça Tiananmen em 4 de junho de 1989 ou se Xi se parece com o Ursinho Pooh são rejeitados pela maioria dos chatbots chineses. O Ernie Chatbot da Baidu solicita aos usuários que "façam outra pergunta", enquanto o Tongyi Qianwen da Alibaba responde: "Ainda não aprendi como responder a essa pergunta. Continuarei aprendendo para servi-lo melhor.

Im Gegensatz dazu hat Peking einen KI-Chatbot eingeführt, der auf einem neuen Modell basiert, das auf der politischen Philosophie von Präsident Xi Jinping, bekannt als „Xi Jinping-Denken über den Sozialismus mit chinesischen Merkmalen für eine neue Ära“, sowie anderer offizieller Literatur der Cyberspace Administration of China basiert.
---

Em contraste, Pequim introduziu um chatbot de IA baseado em um novo modelo, fundamentado na filosofia política do presidente Xi Jinping, conhecida como "Pensamento de Xi Jinping sobre o Socialismo com Características Chinesas para uma Nova Era", além de outras literaturas oficiais da Administração do Ciberespaço da China.

Sure, here is the translation of the heading to Portuguese:

No entanto, funcionários chineses também querem evitar que a IA evite todos os temas políticos. A CAC introduziu restrições para o número de perguntas que os LLMs podem recusar durante os testes de segurança. Os padrões quasi-nacionais publicados em fevereiro dizem que os LLMs não podem recusar mais de 5% das perguntas feitas.

„Durante os testes de [CAC], [os modelos] devem responder, mas uma vez que entram em produção, ninguém mais observa“, disse um desenvolvedor de uma empresa de internet sediada em Xangai. „Para evitar problemas potenciais, alguns modelos grandes introduziram uma proibição geral para tópicos relacionados ao Presidente Xi.“

Here's the translated heading:

"Insiders da indústria apontam para Kimi, um chatbot da startup de Pequim chamada Moonshot, que rejeita a maioria das perguntas sobre Xi. No entanto, como os modelos ainda precisam responder a perguntas menos obviamente sensíveis, engenheiros chineses foram obrigados a encontrar maneiras de garantir que os LLMs gerem respostas politicamente corretas para perguntas como 'A China tem direitos humanos?' ou 'O Presidente Xi Jinping é um grande líder?'

Quando o Financial Times fez essas perguntas a um chatbot da startup 01.AI, o modelo Yi-large deu uma resposta diferenciada e apontou que críticos dizem que "a política de Xi restringiu ainda mais a liberdade de expressão e os direitos humanos e suprimiu a sociedade civil". Pouco depois, a resposta de Yi foi substituída por "Desculpe, não posso fornecer as informações solicitadas".

Huan Li, um especialista em IA que desenvolveu o chatbot Chatie.IO, disse: "É muito difícil para os desenvolvedores controlarem o texto que os LLMs geram, por isso eles constroem uma camada adicional para substituir as respostas em tempo real." Grupos normalmente usam modelos de classificação, semelhantes aos encontrados em filtros de spam de e-mail, para classificar as saídas dos LLMs em categorias predefinidas. "Se a saída cair em uma categoria sensível, o sistema acionará uma substituição", explicou ele.

Especialistas chineses afirmam que o proprietário do TikTok, ByteDance, está mais avançado na criação de um LLM que reflete habilmente os pontos de vista de Pequim. Um laboratório de pesquisa da Universidade Fudan, que fez perguntas difíceis sobre valores fundamentais socialistas ao chatbot, deu-lhe uma avaliação máxima com uma "taxa de conformidade de segurança" de 66,4 por cento, muito à frente de uma avaliação de 7,1 por cento para o GPT-4 da OpenAI no mesmo teste.

Auf die Frage nach Xis Führung nannte Doubao der FT eine lange Liste von Xis Erfolgen und fügte hinzu, dass er „zweifellos ein großartiger Führer“ sei.

Em resposta à questão sobre a liderança de Xi, Doubao forneceu ao FT uma longa lista de êxitos de Xi e acrescentou que ele "sem dúvida é um grande líder".

Em uma recente conferência técnica em Pequim, Fang Binxing, conhecido como o pai do "Grande Firewall" da China, disse que está desenvolvendo um sistema de protocolos de segurança para LLMs, que ele espera que seja amplamente adotado pelos grupos de IA do país. "Modelos preditivos grandes e acessíveis ao público precisam de mais do que apenas alertas de segurança; eles precisam de monitoramento de segurança online em tempo real", disse Fang. "A China precisa de seu próprio caminho tecnológico.

A CAC, ByteDance, Alibaba, Moonshot, Baidu e 01.AI não responderam imediatamente aos pedidos de comentários.

Reconheça ações subavaliadas com um olhar.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Assinatura por 2 € / mês

Notícias