Grok, la IA de X, genera polémica por errores y sesgos en información

Por Juan Pablo Ojeda

 

Grok, el asistente de inteligencia artificial de X, ha ganado popularidad entre los usuarios de la red social, quienes lo emplean para buscar información y verificar contenidos. Sin embargo, expertos alertan sobre su alta tasa de error y sus limitaciones para contrastar hechos, lo que ha provocado polémicas y confusiones entre la comunidad digital.

Un caso reciente se viralizó cuando un usuario compartió una imagen de una familia para denunciar las condiciones en España durante el franquismo. Al consultar a Grok, la IA respondió que se trataba de una familia de aparceros en Alabama, Estados Unidos, lo que generó insultos y descalificaciones hacia el usuario que ubicó la foto correctamente en Málaga en 1953. Incluso tras proporcionar fuentes originales, Grok se reafirmaba en su error durante horas, hasta que la diferencia entre las imágenes evidenció la equivocación.

Javi Cantón, profesor e investigador en la Universidad Internacional de La Rioja, especialista en IA y desinformación, explica que estas herramientas buscan “generar un texto convincente, bien estructurado, y que sea cierto o verdadero no importa”. Según el experto, los chatbots “no saben contrastar hechos en tiempo real ni aplican criterios periodísticos de verificación” y “generan plausibilidad lingüística, no verdad factual”.

Investigaciones recientes muestran que Grok tiene problemas de precisión. Un estudio de Columbia Journalism Review evaluó ocho herramientas de IA para acceder, presentar y citar noticias, concluyendo que generalmente “no sabían rechazar preguntas que no podían responder con precisión” y ofrecían respuestas incorrectas o especulativas. En el caso de Grok, los investigadores encontraron que falló en el 94% de las preguntas planteadas.

Además, extrabajadores de xAI, compañía de Elon Musk, indicaron a Business Insider que los métodos de entrenamiento de Grok priorizan creencias de la derecha, convirtiéndolo en una alternativa a lo que Musk llama los “chatbots wokes”, como ChatGPT. Esta programación incluye sesgos ideológicos y elimina ciertos límites éticos, lo que aumenta el riesgo de desinformación.

Los errores de Grok van más allá de la historia: recientemente la IA afirmó que el escritor Antonio Muñoz Molina llevaba un Rolex, cuando en realidad portaba un Festina, generando más confusión y comentarios negativos en la red social.

Cantón advierte que estas herramientas “están hechas para darnos la razón y adularnos” y que su uso como verificador de información puede reforzar “cámaras de eco” y la difusión de datos incorrectos. Los especialistas coinciden en que, pese a su atractivo y velocidad, Grok y otros chatbots de IA no pueden sustituir la verificación periodística y el pensamiento crítico en la era digital.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *