La expansión de las inteligencias artificiales generativas ha captado una atención global, pero también dejó en claro que su precisión no siempre es absoluta. Chat GPT, una de las herramientas más populares, se convirtió en protagonista de un episodio que mostró sus fallos más humanos: la contradicción y la falta de coherencia.
En 2023, el guionista español Manuel Bartual compartió una interacción que tuvo con esta IA, la cual rápidamente se volvió viral en redes sociales. Su objetivo inicial era resolver una simple duda ortográfica sobre una palabra inventada, pero el resultado fue una cadena de respuestas que dejó en evidencia las limitaciones del sistema.
La conversación fue publicada en la red social X, donde miles de usuarios comentaron entre asombro y humor la facilidad con la que la IA se equivocó y hasta ofreció disculpas por sus errores.
La conversación entre el usuario y la inteligencia artificial
Bartual inició el intercambio con una pregunta aparentemente sencilla: “¿La palabra pavosáurica lleva tilde?”. ChatGPT, con una seguridad llamativa, respondió que no, argumentando que la sílaba tónica recaía en “sau”, lo que contradecía las reglas del español sobre las palabras esdrújulas.
Al repreguntar si entonces debía escribirse “pavosaurica”, la IA cambió de postura y afirmó que la forma correcta era “pavosáurica” con tilde, contradiciendo su respuesta inicial. Ante la confusión, Bartual siguió cuestionando y la máquina alternó entre correcciones y disculpas, reconociendo en un momento que había cometido un error.
La secuencia se volvió aún más enredada cuando ChatGPT volvió a sostener lo contrario de lo que había dicho segundos antes, demostrando que la IA puede ser “torpe e influenciable”, como describió el propio Bartual. Este episodio, ocurrido en España, se convirtió en un ejemplo viral de las limitaciones que aún tienen los sistemas de inteligencia artificial para manejar conceptos lingüísticos básicos.