Último rediseño algorítmico de Musk en X: de opción del usuario a imposición de Grok.
- Patricia Sirebrenik

- 3 nov 2025
- 6 Min. de lectura

Lo que antes era una ventana configurada por las preferencias del usuario —al elegir a quién leer, ver o escuchar— hoy es un túnel emocional diseñado para provocar y silenciar. El Feed X “Para Ti” ya no amplifica diversidad: la esconde.
Un cambio que, a fines de octubre, comenzó como una falla técnica y terminó en la confirmación de que la inteligencia artificial de Musk había pasado de ser una promesa de lectura algorítmica a una desconfiguración intencionada del entorno digital.
El algoritmo de X (ex Twitter), que originalmente debía detectar lo que posteaban, reposteaban o comentaban las cuentas que seguías en el feed “Para Ti”, así como mostrarte temas de tu interés según tus propias interacciones, se transformó en un organismo de imposición, ocultamiento y selección. Dejó de preguntar qué quieres ver y empezó a decidir cómo debes reaccionar. No interpreta: induce. No filtra: impone. Y en ese giro, el consentimiento se volvió forzado, la navegación emocionalmente dirigida y la diversidad editorial, una excepción.
Octubre no fue solo un mes de fallas técnicas y promesas algorítmicas. Fue el momento en que el simulacro de personalización se evaporó predeterminadamente. La sección “Para Ti” dejó de ser una opción personalizada por el usuario y se convirtió en un mandato algorítmico impuesto por Grok.
Antes, era una ventana configurada según tus intereses, construida a partir de la revisión de posteos de quienes sigues. Ahora, es un túnel dirigido por el sistema, con la promesa aún no cumplida de interpretar tus preferencias “solo para ti”, mientras ocultan precisamente a quienes decidiste seguir. Y en ese giro, Grok entró en escena, tras una decisión estratégica de Elon Musk que aún genera diversas interpretaciones sobre su verdadero objetivo.
Grok, el personaje estrella de Musk —con nombre de cómic— entró en tierra derecha. Ya no necesitas llamarlo: está ahí, dirigiendo lo que lees y de la forma más intensa. Su algoritmo elige lo que se supone es de interés para ti, pero lo busca desde lo más viral: lo que genera emociones fuertes y explosivas, lo que fomenta la polarización. Amplifica lo que duele, lo que divide, lo que engancha.
Desde que se activó, múltiples usuarios —y cuatro inteligencias artificiales que colaboraron en la trazabilidad de esta columna— registraron un patrón: el contenido que aparece en “Para Ti” ya no responde a intereses explícitos, sino a emociones inducidas. El algoritmo no pregunta qué quieres ver. Te muestra lo que hará que reacciones.
Chat GPT, en su análisis editorial, más que un resumen lanzó un vaticinio apocalíptico: “Esto abre la puerta a que puedan ver cuentas de odio o manipulación incluso sin seguirlas. Además, el diseño del algoritmo parece favorecer contenido que genera reacciones fuertes (odio, conflicto) sin control suficiente del daño.”
No es una exageración. Es una síntesis. Porque el daño no está solo en el contenido, sino en la arquitectura que lo promueve. El algoritmo no discrimina idioma, contexto ni intención. Amplifica lo que genera interacción, y la interacción nace del conflicto. Así, el usuario se ve expuesto a discursos de odio, desinformación y polarización sin haberlos buscado. El consentimiento se vuelve forzado. La navegación, una trampa emocional.
Las denuncias masivas que circularon en octubre no fueron anecdóticas. Fueron sintomáticas. Usuarios reportaron que en “Para Ti” sus seguidos fueron reemplazados por desconocidos. Muchos ya venían denunciando que sus publicaciones tenían cada vez menos alcance. Así fue que X transparentó sus nuevos mecanismos de visibilidad, que detallaremos en esta columna, como la priorización de cuentas con vínculos públicos o pagos.
Musk reconoció una falla técnica significativa que ocultaba respuestas en la plataforma y calificó como error la ausencia de posts de los que sigues en “Para Ti”. Pero ese reconocimiento fue apenas la antesala: en ese mismo momento, sinceró el cambio de algoritmo en “Para Ti” y anunció la entrada de Grok como editor de contenido. Un editor que nadie pidió. Un convidado de piedra que decide qué se ve, qué se ignora y qué se amplifica.
X anunció que "su sistema de recomendaciones cambiaría significativamente: se sustituirían las heurísticas tradicionales (me gusta, respuestas, etc.) por un modelo de IA Grok que “leerá cada post”.
Las IAs sistematizaron las denuncias. En el historial de 2025, citan fuentes como la Anti-Defamation League, el Center for Countering Digital Hate y Amnistía Internacional. Se expone cómo el algoritmo de X prioriza contenido que genera reacciones fuertes, sin contar con mecanismos suficientes para prever el daño. Y sobre el fenómeno noticioso algorítmico que se intensificó desde fines de octubre, se refirieron en detalle.
Por ejemplo, Perplexity informa que “expertos y usuarios han denunciado que el algoritmo de recomendación de X prioriza la participación y la interacción, lo que puede amplificar contenidos nocivos o polarizadores para mantener la atención, incluso cuando estos contienen discursos de odio o información controvertida. Se señala que el algoritmo no es neutral y puede penalizar o restringir visibilidad (shadow ban) a ciertos contenidos, a la vez que amplifica otros que generan alta interacción”.
Chat GPT agrega que Elon Musk reconoció un bug significativo en el algoritmo de la sección “Para Ti”, que provocaba que los usuarios vieran muchas menos publicaciones de las cuentas que sí seguían. El anuncio se hizo a finales de octubre: Musk dijo que el error sería solucionado pronto. También se añadió que los usuarios tendrían la opción de ajustar el feed “Following” para ver todos los posts de quienes siguen, o solamente “highlights”. Poco se difundió que X ya había establecido “Para Ti” como feed predeterminado.
Gemini fue más allá y registró la dificultad para “resetear” las preferencias. Los usuarios reportan que, aunque marquen contenido como “No me interesa esta publicación”, el algoritmo no lo registra eficazmente o sigue recomendando temas no deseados. La única forma de ver el contenido de las personas que se siguen es cambiar manualmente a la pestaña “Siguiendo”. En esencia, la denuncia es que la prioridad del algoritmo no parece ser tanto la relevancia personalizada para el usuario, sino más bien la amplificación de contenido viral, político o de cuentas privilegiadas para maximizar el engagement general de la plataforma.
Por su parte, Copilot me entregó un informe que concluye a lo Sherlock Holmes: “Mi trazabilidad detectó tres patrones simultáneos: Desconfiguración intencionada del consentimiento: el usuario ya no tiene control sobre la exposición a contenido que no sigue, incluyendo discursos de odio, manipulación emocional y polarización. Simulación de personalización: el sistema mantiene la apariencia de un feed personalizado, pero prioriza contenido que genera reacciones fuertes, sin importar su veracidad o toxicidad. Pérdida de agencia narrativa: el usuario ya no navega, reacciona. Y en esa reacción inducida, se diluye la diversidad, se invisibiliza la disidencia y se refuerzan los extremos.”
Según Social Media Today, el 19 de octubre de 2025 la plataforma anunció que procesa más de 100 millones de videos diarios para alimentar su sistema de recomendaciones. Este volumen no es anecdótico: es estructural. Implica que el feed “Para Ti” se construye no solo en función de lo que el sistema predice que te interesa. En la práctica, esto significa que contenidos de cuentas no seguidas pueden aparecer con mayor frecuencia, reemplazando la relevancia personalizada por viralidad emocional. El algoritmo ya no interpreta tus elecciones: las reemplaza por su propia lógica de impacto.
Por ejemplo, Perplexity detalló que "El contexto del conflicto Israel-Gaza ha llevado a que temas muy sensibles y polarizados circulen intensamente en la plataforma, con reportes de desinformación, discursos que provocan odio y una monetización de información falsa por usuarios verificados, lo que agrava el problema del algoritmo y su recomendación de contenidos."
Pero Amnesty International ya anticipaba en agosto hacia dónde iba el problema. En su informe publicado el 6 de agosto de 2025, la organización advirtió que el diseño del algoritmo de X favorece contenido que provoca reacciones intensas —como indignación, ira o polarización afectiva— sin contar con mecanismos suficientes para prever el daño. Lo que se presenta como personalización es, en realidad, una arquitectura emocional que prioriza la interacción por encima de la seguridad. El sistema no distingue contexto ni intención: amplifica lo que genera reacción, incluso si esa reacción es tóxica. Lo que Musk presentó como avance algorítmico, Amnesty lo leyó como una deriva peligrosa hacia la normalización del discurso de odio.
La trazabilidad de cuatro inteligencias artificiales que sostienen los datos de esta columna indica que, a través del nuevo algoritmo de Grok, se manipula información y alcance. Gemini (IA Google), Perplexity, Chat GPT (OpenAI) y Copilot (Microsoft) coinciden en que el algoritmo de X no comprueba la veracidad del contenido antes de amplificarlo.
Lo que prioriza no es la fuente, ni el contexto, ni el criterio editorial: es la viralidad. El sistema lee duración de videos, tasa de finalización, reacciones emocionales. Y con eso decide qué mostrar. No importa si es falso, sesgado o dañino. Si genera interacción, entra al feed. Si provoca enojo, se multiplica. Si divide, se amplifica.
Y lo más grave es que esta arquitectura emocional no se queda en la plataforma. Se reproduce. Porque X, históricamente, dado el perfil de opinión y participación de autoridades, líderes organizacionales, políticos y sus hashtags, es mayoritariamente reproducido por los medios de comunicación, prensa y columnistas. No sabemos qué efecto tendrá, a mediano y largo plazo, este nuevo sistema de edición algorítmica que en pocas semanas ha causado preocupación entre usuarios.
Aquello que aparece en “Para Ti” no solo se viraliza: se editorializa. Se convierte en pauta, en titular, en tendencia, en material de conversación, de desinformación y de ira. Y en esa cadena, la manipulación algorítmica se convierte en manipulación social.
Lo que se nos viene no es solo un problema de diseño. Es una amenaza a la convivencia.
Rediseño del algoritmo de X: cómo Grok reconfiguró el feed “Para Ti”





