
Empresas chinas de IA desafían críticas occidentales mientras equiparan su rendimiento al de EE. UU.
El debate global se centra ahora en la seguridad y regulación de los modelos generativos.
Las principales compañías chinas de inteligencia artificial han rechazado las críticas de Occidente sobre sus políticas y usos tecnológicos, en un momento en que sus modelos ya compiten en rendimiento con los desarrollados en Estados Unidos. Mientras la brecha técnica se reduce, el foco internacional se desplaza hacia la seguridad y la gobernanza de la IA china, un aspecto que expertos consideran aún rezagado frente al avance computacional.
El auge de estas herramientas ha sido vertiginoso desde la irrupción de OpenAI y el lanzamiento de ChatGPT a finales de 2022. En apenas tres años, la tecnología ha transformado la producción de contenidos, el entorno laboral y las redes sociales, generando tanto innovación como controversia. En paralelo, empresas como xAI han enfrentado cuestionamientos por el desempeño de sus desarrollos, como el chatbot Grok.
El crecimiento acelerado también ha intensificado los riesgos vinculados a los modelos generativos, especialmente por la proliferación de deepfakes y contenidos manipulados. Ante este escenario, la Unión Europea impulsó la AI Act, el primer marco normativo integral y vinculante sobre inteligencia artificial. China, por su parte, ha optado por una regulación propia, basada en supervisión algorítmica estricta y prioridad a la estabilidad social, rechazando que sus estándares sean evaluados exclusivamente bajo parámetros occidentales.
El debate cobra relevancia ante la inminente presentación de nuevos sistemas antes del Año Nuevo Lunar. Firmas como DeepSeek —conocida por el lanzamiento de DeepSeek— y Zhipu AI, internacionalmente identificada como Z.ai, han logrado disminuir la distancia tecnológica respecto a sus competidores estadounidenses. Sin embargo, antiguos investigadores advierten que la presión por alcanzar a EE. UU. habría relegado la inversión en protocolos de protección y alineación ética.
“Todos los recursos computacionales se están destinando al entrenamiento de modelos de IA, quedando poco para el trabajo de seguridad”, señaló Tu Jinhao, exinvestigador de DeepSeek, en un podcast reciente. En la misma línea, Max Tegmark, presidente de FLI y profesor del Instituto Tecnológico de Massachusetts, sostuvo que, si las capacidades convergen, las exigencias en materia de seguridad deberían ser equivalentes en ambos países.
Desde Zhipu AI, su jefe de operaciones globales, Li Zixuan, defendió que la estrategia interna responde a parámetros culturales propios. La compañía fue evaluada con una calificación “D” por un panel de expertos del FLI, aunque fue la primera empresa china en adherirse a compromisos voluntarios internacionales tras la Cumbre de IA de Seúl en mayo de 2024. “Los valores no son universales; conllevan fuertes matices culturales y regionales”, afirmó Li. “Dicho esto, reconocemos que más de la mitad de los valores fundamentales se comparten en diferentes regiones y culturas, y nos comprometemos a defender estos principios universales en nuestro desarrollo de IA”.
Mientras tanto, OpenAI anunció que ‘adiestrará’ a sus modelos para que identifiquen y reconozcan cuando hayan incurrido en comportamientos inapropiados, en un intento por reforzar la transparencia y la autorregulación. El pulso tecnológico entre China y Estados Unidos entra así en una nueva fase: menos centrada en la capacidad bruta y más en la responsabilidad que acompañe al desarrollo de la seguridad en IA.










