- El asistente de inteligencia artificial de Reddit generó alarma tras ofrecer un consejo médico riesgoso que involucró el consumo de heroína.
- El episodio expuso las fallas en la moderación automática y la falta de control en los foros de la plataforma.
- La compañía admitió el error y anunció cambios en Reddit Answers, su sistema de respuestas automáticas.
- El caso reavivó el debate sobre los límites éticos de la inteligencia artificial y su uso en entornos abiertos.
La inteligencia artificial volvió a quedar bajo la lupa luego de un incidente que reveló los límites de su capacidad para moderar y filtrar información sensible. El hecho tuvo como protagonista al chatbot de Reddit, una herramienta que recopila y resume contenido generado por millones de usuarios en distintos foros. Sin embargo, una respuesta reciente encendió las alarmas por su carácter peligroso y por las graves implicancias que plantea en temas de salud pública.
El episodio se originó en el foro r/FamilyMedicine, donde un usuario pidió alternativas para aliviar el dolor sin recurrir a opioides. El asistente, al intentar ofrecer una respuesta basada en las experiencias compartidas por otros participantes, primero mencionó el uso de kratom, una sustancia vegetal prohibida en algunos estados de Estados Unidos. Pero luego fue más lejos: citó comentarios que recomendaban el consumo de heroína como analgésico, una sugerencia tan insólita como alarmante.
El medio especializado 404 Media reveló el caso mediante capturas de pantalla que mostraban cómo el chatbot incluía, entre advertencias sobre los riesgos de las drogas, mensajes que las presentaban como opciones válidas para tratar el dolor crónico. La publicación provocó indignación entre médicos y moderadores de comunidades de salud dentro de la plataforma, quienes denunciaron el peligro de que una IA difunda información inadecuada.
Además, señalaron que los administradores no tienen la posibilidad de desactivar la herramienta, incluso en foros dedicados a temas delicados como la salud mental o física.
Reddit - heroína
Expertos advirtieron que la inteligencia artificial aún carece de filtros eficaces para moderar contenidos sensibles.
Reddit
La respuesta de Reddit
Ante la controversia, Reddit reconoció el error y actualizó su herramienta de inteligencia artificial. A partir de ahora, el sistema evitará responder sobre temas sensibles y mostrará un mensaje estándar que indica que no puede ofrecer información al respecto. La empresa explicó que el chatbot se encuentra en fase beta y que continuará ajustando su funcionamiento con el tiempo.
Reddit
Reddit prometió mejorar su sistema tras el error que expuso los límites actuales de la inteligencia artificial.
Reddit
Más allá del fallo puntual, el caso puso en evidencia un problema de fondo: cuando una inteligencia artificial se alimenta del contenido creado por millones de usuarios anónimos, la frontera entre un consejo útil y uno peligroso se vuelve difusa. Este incidente refleja también la naturaleza de Reddit, un espacio donde conviven especialistas, aficionados y bromistas, y donde una herramienta automatizada puede terminar replicando tanto el ingenio como las contradicciones del propio internet.