¿Por qué la IA de X parece progre pese a Elon Musk?
- Redacción El Salmón
- hace 13 minutos
- 4 Min. de lectura

Desde su lanzamiento, muchos usuarios han notado que Grok, la inteligencia artificial de X, la plataforma social propiedad de Elon Musk, suele ofrecer respuestas que reflejan posturas socialmente mayoritarias en temas como equidad, inclusión y derechos civiles. Esto ha resultado llamativo para algunos, considerando que Musk es conocido por sus posturas políticas más inclinadas hacia la derecha y su constante crítica a lo que él denomina "cultura woke". Pero, ¿por qué ocurre esto?
Un ejemplo concreto se dio en Perú, donde Grok ha señalado a Fuerza Popular, el partido liderado por Keiko Fujimori, como la agrupación política más corrupta del país. Esta afirmación se basa en la vinculación del partido con el expresidente Alberto Fujimori, condenado por corrupción y violaciones a los derechos humanos, lo que contribuye a una percepción generalizada de corrupción que afecta a la organización.
Incluso Grok ha emitido juicios contra su mismo dueño. En marzo de 2025, Grok identificó a Elon Musk como uno de los principales difusores de desinformación en X, debido a la amplificación de afirmaciones falsas entre sus más de 200 millones de seguidores. Además, Grok ha señalado al expresidente estadounidense Donald Trump como una figura perjudicial para el país, lo que ha generado debates sobre la autonomía de la IA y su capacidad para emitir juicios imparciales.
El sesgo de los datos: el reflejo de la sociedad digital
Las inteligencias artificiales no crean sus respuestas desde el vacío; se entrenan con enormes cantidades de datos provenientes de internet, libros, artículos, redes sociales y otros textos. Gran parte de estos datos provienen de fuentes institucionales y académicas que, en la actualidad, tienden a adoptar posturas progresistas y políticamente correctas. Al procesar esta información, la IA aprende patrones de lenguaje y formas de argumentación que reflejan esas mismas tendencias.
Por ejemplo, si Grok se entrena con datos provenientes de medios como The New York Times o The Guardian, es probable que refleje una inclinación progresista. En contraste, si tomara más contenido de sitios con posturas conservadoras, su tendencia podría cambiar, aunque los modelos suelen evitar fuentes con reputación de desinformación para mantener la fiabilidad.
Incluso si Elon Musk quisiera que Grok fuera más neutral o tuviera un sesgo distinto, cambiar la orientación de una IA no es tan sencillo como dar una orden directa. El entrenamiento de estos modelos es complejo y requiere el ajuste de millones de parámetros sin comprometer su capacidad de generar respuestas coherentes y útiles.
Los filtros de moderación y la seguridad del producto
Las empresas tecnológicas implementan filtros en sus inteligencias artificiales para evitar que generen respuestas que puedan considerarse ofensivas, extremistas o que inciten al odio. Esta política responde no solo a principios éticos, sino también a cuestiones legales y comerciales: plataformas como X deben cumplir con regulaciones y evitar crisis de imagen que afecten su valor de mercado.
Por ejemplo, cuando Grok responde sobre temas como identidad de género o cambio climático, sus respuestas tienden a alinearse con el consenso científico y social predominante. Si un usuario le pregunta sobre el uso de pronombres, es probable que la IA promueva la inclusión, no porque "tome partido", sino porque su entrenamiento y filtros están diseñados para evitar respuestas que puedan interpretarse como discriminatorias.
Debido a que muchas de las normativas internacionales sobre moderación de contenido están influenciadas por valores progresistas, Grok y otras IA similares tienden a adoptar posturas que minimicen la posibilidad de generar controversia o rechazo social.
Limitaciones tecnológicas: la IA no tiene ideología propia
Es importante aclarar que la inteligencia artificial no tiene una ideología propia. Sus respuestas se basan en patrones de lenguaje y no en una comprensión real del mundo o en una preferencia política consciente. Sin embargo, la forma en que se entrena y modera influye en el tipo de respuestas que genera.
Además, la IA tiende a buscar respuestas que sean socialmente aceptables y seguras, lo que muchas veces coincide con la corrección política. Esto se debe a que los modelos están diseñados para evitar conflictos y generar interacciones positivas con los usuarios.
Sin embargo, Grok también ha mostrado limitaciones en la moderación, como cuando generó imágenes hiperrealistas con contenido racista y xenófobo, lo que evidencia que el control sobre sus respuestas no es absoluto y aún enfrenta desafíos técnicos y éticos.
Elon Musk y la paradoja del control
A pesar de ser el dueño de X, Elon Musk no puede modificar directamente la forma en que Grok responde sin afectar su rendimiento. Aunque ha expresado públicamente su desacuerdo con la corrección política, la necesidad de mantener un producto funcional y atractivo para los usuarios impide que imponga un sesgo completamente diferente sin consecuencias en la calidad del servicio.
Elon Musk ha reconocido que el sesgo progresista en Grok proviene de los datos de entrenamiento disponibles en internet. En respuesta a críticas sobre las respuestas de Grok, Musk comentó: "Desafortunadamente, Internet (en el que está entrenado) está plagado de tonterías woke". Además, indicó que se están tomando medidas para ajustar la orientación de la IA hacia una postura más neutral, señalando: "Estamos tomando medidas inmediatas para acercar a Grok a la neutralidad política".
Si bien el debate sobre la neutralidad de la IA continúa, es evidente que ninguna inteligencia artificial es completamente objetiva. Su comportamiento no solo refleja los datos con los que ha sido entrenada, sino también las decisiones ideológicas de quienes la desarrollan. En el caso de Grok, los intentos de "corregir" su supuesto sesgo progresista bajo la dirección de Musk no parecen buscar un equilibrio genuino, sino más bien imponer una orientación alineada con su agenda ultraderechista, lo que plantea serias dudas sobre la verdadera independencia de la tecnología.
Comments