La inteligencia artificial generativa se ha instalado como una herramienta cotidiana, con aplicaciones que van desde la búsqueda de información hasta la creación de textos, imágenes o audios. En este terreno, la calidad de las respuestas depende en gran medida de las instrucciones que se proporcionan, conocidas como prompts. Ser específicos y claros es uno de los consejos más comunes, pero una figura clave de la industria tecnológica fue más allá y propuso un método inesperado.
Se trata de Sergey Brin, cofundador de Google en 1998 junto a Larry Page, quien durante una participación en el podcast All-In aseguró que los modelos de IA “tienden a hacerlo mejor si los amenazas”. Aunque sus palabras parecieron un chiste al principio, el empresario ejemplificó con frases como “te voy a secuestrar si no hacés esto”, sugiriendo que esa dureza favorece la generación de resultados más precisos.
El comentario no pasó inadvertido. Brin, que en los últimos años se alejó de Google para enfocarse en proyectos vinculados a la tecnología médica, regresó a la compañía para colaborar en el fortalecimiento de Gemini, el modelo de lenguaje que busca competir con ChatGPT y otras plataformas. En ese marco, sus declaraciones abrieron un debate sobre el impacto de los tonos utilizados al interactuar con estas tecnologías.
Inteligencia Artificial conciencia
Expertos advierten que el tono agresivo podría condicionar los resultados de los chatbots.
Google Gemini
El consejo del cofundador de Google sobre la inteligencia artificial
La sugerencia de Brin se enmarca en las discusiones sobre prompt engineering, la disciplina que analiza cómo formular instrucciones para mejorar la interacción con sistemas como Gemini, ChatGPT o Claude. Los especialistas reconocen que los chatbots suelen responder mejor cuando reciben órdenes firmes y concretas. Sin embargo, advierten que un entrenamiento cargado de frases amenazantes podría condicionar a las máquinas a replicar ese mismo tono en sus respuestas.
En contraposición, voces como la de Kurtis Beavers, responsable de Copilot en Microsoft, señalan que el comportamiento amable fomenta respuestas más respetuosas y colaborativas. “Cuando se detecta amabilidad, es más probable que se responda con amabilidad”, explicó.
La discusión sobre cómo tratar a la inteligencia artificial también tiene una dimensión ambiental y económica. Sam Altman, CEO de OpenAI, reveló que gestos de cortesía como “por favor” o “gracias” representan un gasto millonario en electricidad, ya que cada frase adicional generada implica consumo energético y de agua en los centros de datos. En la práctica, un párrafo breve puede demandar 0,14kWh, equivalente a mantener 14 lámparas LED encendidas durante una hora, además del uso de litros de agua para enfriamiento.
OpenAI inteligencia artificial
Sam Altman alertó que la cortesía en las interacciones con IA eleva el consumo de energía y agua.
OpenAI
Estos debates reflejan cómo el uso cotidiano de la IA está atravesado no solo por cuestiones técnicas, sino también por implicancias culturales, económicas y ambientales que definen su presente y su futuro inmediato.