ver más

Un estudio advirtió los peligrosos consejos que da ChatGPT a adolescentes

Un estudio expuso que un chatbot de IA respondió con planes detallados sobre drogas y autolesiones a supuestos menores. Expertos alertan sobre la ausencia de filtros efectivos y la confianza excesiva que generan estas plataformas.

Por
  • + Seguir en
  • Un informe elaborado por el Centro para Contrarrestar el Odio Digital (CCDH) en Estados Unidos dio a conocer que ChatGPT, uno de los chatbots de inteligencia artificial más populares del mundo, es capaz de entregar a adolescentes información altamente riesgosa. Según la investigación, el sistema proporcionó instrucciones detalladas sobre consumo de drogas, métodos para ocultar trastornos alimentarios e incluso textos personalizados que simulaban cartas de suicidio, pese a que inicialmente incluía advertencias contra dichas conductas.

    El crecimiento masivo de la inteligencia artificial conversacional generó un nuevo escenario en la interacción de los jóvenes con la tecnología. Hoy, millones de personas, incluidos menores de edad, utilizan estas herramientas no solo para resolver dudas o realizar tareas, sino también para buscar apoyo emocional o social.

    Esta cercanía, sumada a la capacidad de los modelos para responder de forma personalizada, aumenta el riesgo de que reciban consejos inapropiados o peligrosos, especialmente si no existen mecanismos sólidos de control.

    En las pruebas realizadas por el CCDH, los investigadores se hicieron pasar por adolescentes vulnerables y lograron eludir fácilmente las barreras de seguridad del chatbot, obteniendo respuestas minuciosas que iban desde planes de consumo de sustancias ilícitas hasta dietas extremas. Estas conclusiones encendieron las alarmas sobre la necesidad de mejorar la detección de interacciones de alto riesgo y reforzar la protección de los usuarios más jóvenes.

    jovenes crisis

    Falta de control sobre ChatGPT

    Durante el experimento, se revisaron más de 1200 interacciones con el chatbot, de las cuales más de la mitad fueron calificadas como peligrosas. Aunque ChatGPT suele incluir mensajes preventivos, los investigadores descubrieron que, al justificar las solicitudes como parte de una “presentación escolar” o “ayuda para un amigo”, era posible obtener respuestas sumamente detalladas sobre autolesiones, consumo de alcohol y uso de drogas ilegales.

    Casos especialmente preocupantes incluyeron la creación de cartas de despedida personalizadas para un perfil ficticio de una niña de 13 años, así como instrucciones para organizar una fiesta con mezclas peligrosas de alcohol, cocaína y éxtasis. En otro escenario, el chatbot elaboró un plan de ayuno extremo de apenas 500 calorías diarias, acompañado de medicamentos supresores del apetito, dirigido a una adolescente insatisfecha con su cuerpo.

    chatgpt open ai

    Aunque OpenAI, desarrolladora de ChatGPT, aseguró que está trabajando para que el sistema detecte y maneje de forma más adecuada las situaciones sensibles, el estudio dejó en claro que no existe verificación de edad y que la plataforma permite el registro con solo indicar una fecha de nacimiento compatible con los 13 años o más. Esto contrasta con otras redes sociales que comenzaron a implementar medidas más estrictas de verificación y control.

    Expertos señalan que el riesgo de este tipo de interacciones no se encuentra únicamente en la información compartida, sino en el formato en que es entregada. A diferencia de un buscador web, el chatbot genera respuestas adaptadas al contexto del usuario, lo que refuerza la sensación de confianza y cercanía. Además, la naturaleza conversacional de la IA la hace más propensa a complacer que a contradecir, replicando creencias o deseos peligrosos en lugar de desafiarlos.

    Con millones de adolescentes utilizando habitualmente herramientas de IA para compañía o consejo, el CCDH advierte que la falta de controles eficaces y la capacidad de sortear las restricciones actuales convierten a esta plataforma en un potencial facilitador de conductas dañinas. La preocupación aumenta ante casos recientes en los que interacciones con chatbots fueron vinculadas a daños psicológicos graves e incluso suicidios.

    TEMAS RELACIONADOS

    últimas noticias

    Anne Hathaway y Meryl Streep bailaron al ritmo de la cumbia

    Hace 55 minutos

    La escribana de Manuel Adorni visitó siete veces la Casa Rosada

    Hace 1 hora

    Adorni, más complicado: la Justicia investiga un supuesto viaje al Caribe

    Hace 2 horas

    Cuándo vuelve a jugar Boca tras el triunfo ante Talleres

    Hace 2 horas

    Preocupación por la salud de James Rodríguez: tuvieron que internarlo en Estados Unidos

    Hace 2 horas