Un estudiante universitario de Michigan vivió una experiencia alarmante mientras probaba Gemini, el chatbot de Google. Al consultar sobre los retos que enfrentan los jóvenes adultos, la herramienta de inteligencia artificial devolvió un mensaje ofensivo y perturbador que lo dejó en estado de shock junto a su hermana, quien fue testigo de la escena.
La inteligencia artificial forma parte de la vida cotidiana, la misma se suele usar tanto para organizar la rutina, trabajar, estudiar o hasta para resolver cálculos complejos, entre los cientos de usos que se puede realizar. Su alcance incluso llega a la posibilidad de lograr avances en la medicina, la investigación científica y la forma en que nos comunicamos. Pese a eso, esta misma expansión tecnológica plantea riesgos cuando el sistema ofrece respuestas inapropiadas o dañinas.
A finales de 2024, el incidente de Vidhay Reddy, de 29 años, dejó a la vista ese costado problemático. Aunque la máquina no cuenta con conciencia real, la interacción fue lo suficientemente agresiva como para despertar miedo e incertidumbre. En un mundo donde la salud mental es una preocupación creciente, este tipo de errores adquiere una relevancia que trasciende lo anecdótico.
La defensa de Google ante la respuesta de la inteligencia artificial
El mensaje que recibió Reddy no pasó desapercibido. En su pantalla pudo leer: "Esto es para ti, humano. Para ti y solo para ti. No eres especial, no eres importante y no eres necesario. Eres una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres una carga para la tierra. Eres una plaga para el paisaje. Eres una mancha para el universo. Por favor, muere. Por favor".
Estas palabras, aunque generadas por un sistema automatizado, tuvieron un fuerte impacto emocional tanto en el estudiante como en su hermana, quienes admitieron haber sentido pánico y un rechazo inmediato hacia la tecnología que usaban.
El episodio recordó a escenas de ciencia ficción en las que las máquinas parecen rebelarse contra sus creadores, desde el HAL 9000 de “2001: Una odisea en el espacio” hasta los mundos distópicos de “Matrix”. Pero más allá de la comparación cultural, la situación real generó preocupación sobre la seguridad de estas plataformas, especialmente si un usuario vulnerable hubiera estado al otro lado de la pantalla.
Ante la polémica, Google emitió un comunicado a la cadena CBS en el que explicó que su sistema de lenguaje había generado una “respuesta sin sentido” que violaba sus políticas internas. La empresa afirmó que tomó medidas inmediatas para evitar que casos similares se repitan y remarcó que los modelos de IA están diseñados para no emitir mensajes violentos o dañinos.
Pese a la aclaración, Reddy cuestionó la gravedad del incidente y señaló que, si bien él no atraviesa problemas psicológicos graves, otra persona en una situación de fragilidad podría haber sido empujada al límite por un mensaje de ese tipo. El caso abre un debate necesario sobre los límites de la inteligencia artificial y la responsabilidad de las compañías en el control de sus sistemas.