A mediados de 2023, un creador de contenido realizó un experimento con inteligencia artificial que terminó yendo mucho más lejos de lo que imaginaba. En una transmisión de TikTok, el tiktoker argentino conocido como @diegurocanguro recurrió a ChatGPT para ensayar cómo sería terminar una relación amorosa. Lo que comenzó como una práctica sin mayores pretensiones desencadenó una avalancha de reacciones en redes sociales, donde el tono de la IA sorprendió por su carga emocional.
Durante el ejercicio, la IA adoptó el rol de la pareja ficticia de Diego y respondió con frases cargadas de dramatismo, a tal punto que muchos usuarios comenzaron a cuestionar la supuesta neutralidad de estas herramientas. En un giro inesperado, el chatbot lanzó una pregunta que dejó a todos desconcertados: “¿Querés terminar para estar con otra persona, como Frank?”. La mención de un nombre que el usuario nunca había mencionado generó polémica y sembró dudas sobre cómo se construyen las respuestas del sistema.
Recién entonces se popularizó el video, que acumuló millones de visualizaciones y dividió las opiniones del público. Algunos lo vieron como una muestra de la capacidad creativa de la IA, mientras que otros advirtieron sobre los riesgos de asignarle cualidades humanas, como emociones o intenciones. La experiencia abrió un debate inesperado sobre los límites de lo que la inteligencia artificial debería o no simular.
La respuesta que le dio Chat GPT para cortar con su pareja
Lo que más llamó la atención fue la reacción emocional del chatbot, que pareció asumir el rol de una persona real herida. Entre sus respuestas, aparecieron frases como “soy la peor persona” y acusaciones indirectas que, según varios usuarios, rozaban la manipulación emocional. En lugar de limitarse a reproducir un diálogo objetivo, la IA mostró un comportamiento que muchos calificaron como inquietante.
La inclusión del nombre “Frank”, jamás mencionado por Diego, alimentó teorías sobre el funcionamiento del modelo: desde quienes creen que se trató de una coincidencia generada por los patrones del lenguaje, hasta quienes sugieren que ChatGPT podría haber extrapolado esa información de alguna manera contextual. El giro inesperado fue interpretado por algunos como una demostración del poder de estas herramientas para construir narrativas complejas, y por otros como un ejemplo preocupante de atribución emocional.
1010x567_chatgpt-corte-parejas-519252-220454.jpg
En redes sociales como TikTok, Instagram y X (ex Twitter), las reacciones no se hicieron esperar. Comentarios como “Incluso el chat lo manipulaba”, “Tenía como mucho contexto” o “Se lo tomaba re en serio Chat GPT” reflejaron el impacto del video. También hubo quienes ironizaron con frases como “Iba a terminar con su novio y ahora tiene dos” o “Chat GPT personificó al novio en base a la info que tenía”, sumando humor al desconcierto generalizado.
Aunque se trató de una simulación, el experimento generó preguntas profundas sobre el uso de la inteligencia artificial en situaciones personales. ¿Debe una IA simular emociones humanas? ¿Dónde está el límite entre lo creativo y lo invasivo? El video de Diego dejó más preguntas que respuestas, pero puso en evidencia que incluso una simple conversación con un chatbot puede disparar un fenómeno viral y cultural.