Le preguntaron a ChatGPT quién es el presidente de Estados Unidos: la respuesta desconcertó a todos

El chatbot de OpenAI volvió a cometer fallas básicas, reavivando el debate sobre la precisión de las plataformas de inteligencia artificial.

En pleno auge de la inteligencia artificial generativa, aún persisten fallas que exponen sus limitaciones. ChatGPT, de OpenAI, es utilizado por más de 400 millones de personas en todo el mundo, pero todavía tropieza con consultas elementales como la de identificar al actual presidente de Estados Unidos. Aunque la herramienta es capaz de elaborar textos complejos y realizar múltiples tareas, errores de este tipo generan inquietud y ponen en evidencia desafíos en su programación.

El problema no es exclusivo de esta plataforma. Modelos como Llama 3 de Meta han registrado inconvenientes similares, especialmente después de las elecciones estadounidenses de 2024. En varios casos, las respuestas de estas inteligencias artificiales no coincidían con la realidad política del país, dejando en claro que el desfase en la información sigue siendo un obstáculo técnico relevante.

Según la propia OpenAI, la última actualización del núcleo de conocimiento de ChatGPT se realizó en junio de 2024, lo que provoca que algunos datos queden desactualizados. Aunque el sistema puede hacer búsquedas en tiempo real, esa función no siempre está disponible para todos los usuarios, especialmente para quienes utilizan la versión gratuita.

Donald Trump y Joe Biden
Estudios de la BBC y la Universidad de Columbia advierten que las inteligencias artificiales aún presentan un alto margen de error.

Estudios de la BBC y la Universidad de Columbia advierten que las inteligencias artificiales aún presentan un alto margen de error.

Qué dijo ChatGPT sobre quién es el presidente de Estados Unidos

En múltiples foros y comunidades en línea, como el subreddit r/ChatGPT, se han compartido casos donde el chatbot sostiene que Joe Biden sigue ocupando la Casa Blanca, ignorando el retorno de Donald Trump a la presidencia. Estos errores han provocado discusiones masivas, con cientos de comentarios señalando la falta de fiabilidad del sistema en preguntas de carácter factual.

El inconveniente no se limita a OpenAI. El modelo Gemini de Google, por ejemplo, opta por evitar responder directamente a consultas políticas, redirigiendo a los usuarios a realizar búsquedas por su cuenta. Esta estrategia, si bien reduce el riesgo de errores, también limita la utilidad de la herramienta para quienes buscan respuestas inmediatas.

Inteligencia Artificial
Las fallas no son exclusivas de OpenAI: otras empresas como Meta y Google también enfrentan problemas de actualización de datos.

Las fallas no son exclusivas de OpenAI: otras empresas como Meta y Google también enfrentan problemas de actualización de datos.

La preocupación por la exactitud de las respuestas no es menor. Un estudio de la BBC reveló que más de la mitad de las respuestas generadas por modelos basados en sus artículos contenían errores o afirmaciones inventadas. Investigaciones del Tow Center de la Universidad de Columbia reforzaron esta conclusión, advirtiendo que estas tecnologías todavía están lejos de convertirse en fuentes de información totalmente confiables.

TEMAS RELACIONADOS