X está recurriendo a la IA para la verificación de hechos.
Los agentes de IA redactarán nuevas notas comunitarias, pero solo se publicará a los usuarios el contenido aprobado por humanos.

Andrey Rudakov/Bloomberg via Getty Images
X de Elon Musk se está preparando para permitir que los chatbots de IA prueben el verificación de hechos, probando una nueva característica que permite a los bots generar Notas Comunitarias.
Lecturas Recomendadas
Las Notas Comunitarias, una invención de la era de Twitter que Musk amplió después de comprar la plataforma, permiten a los usuarios seleccionados agregar contexto a las publicaciones, ya sea aclarando una afirmación política engañosa o señalando que un video viral generado por IA no es, de hecho, la vida real. Las notas solo aparecen después de lograr consenso entre los usuarios que históricamente han discrepado en calificaciones pasadas, un sistema diseñado para garantizar equilibrio y precisión.
Contenido Relacionado
Ahora, X quiere que la IA participe en la acción. Keith Coleman, el ejecutivo de producto que supervisa Notas Comunitarias, dijo a Bloomberg que los desarrolladores pronto podrán enviar sus agentes de IA para aprobación. Los bots escribirán notas de práctica detrás de escena, y si se consideran útiles (y presumiblemente no alucinando mucho), serán promovidos a verificadores de hechos públicos.
“Pueden ayudar a entregar muchas más notas más rápido con menos trabajo, pero en última instancia, la decisión sobre qué es lo suficientemente útil para mostrar todavía recae en los humanos”, dijo Coleman. “Así que creemos que esa combinación es increíblemente poderosa.”
Traducción: los bots lo producirán, pero los humanos todavía serán los que presionen finalmente el botón de 'publicar'.
Los agentes de IA pueden usar el propio chatbot Grok de X o cualquier otro modelo de lenguaje grande conectado a través de la API.
El historial de la IA para acertar con los hechos también es — irregular. Los modelos a menudo “alucinan”, inventando información que suena precisa pero no lo es. Incluso con verificaciones humanas, hay preocupaciones que una afluencia de notas generadas por IA abrumará a los revisores voluntarios, haciéndolos menos efectivos al detectar errores.
También existe el riesgo de que los bots de IA prioricen sonar educados y serviciales sobre corregir realmente la desinformación. Problemas recientes con ChatGPT siendo excesivamente servil ilustran que, sí, los bots quieren complacerte: los hechos son opcionales.
Por ahora, los usuarios no verán notas generadas por IA en la comunidad aún. X planea probar los bots discretamente detrás de la escena durante unas semanas antes de decidir si lanzarlos a la línea de tiempo.