Sorpresa: esta es la razón por la que no hay que decirle "gracias" ni "por favor" a la inteligencia artificial

Ser educado con la IA puede tener consecuencias negativas. La cortesía no siempre garantiza mejores resultados.

Expresiones como “gracias” o “por favor” suelen ser palabras muy usadas en la vida cotidiana para expresar señales de respeto y educación. Pese a eso, cuando se trata de interactuar con sistemas de inteligencia artificial, especialistas y referentes del sector advierten que estas costumbres no siempre son convenientes.

El funcionamiento de modelos como ChatGPT requiere un enorme procesamiento de datos en cada consulta. Aunque parezca un detalle menor, el simple hecho de incluir palabras extra en los mensajes implica un mayor consumo de recursos, lo que se traduce en más gasto energético y costos operativos más altos para las compañías que los desarrollan. Además, este impacto no solo es económico, ya que también tiene un efecto directo en el medioambiente.

Detrás de esta práctica se abre un debate interesante: ¿hasta qué punto conviene mantener la cortesía en las interacciones con la IA? La respuesta no es tan simple, ya que algunos estudios dan a entender que el uso de un lenguaje educado puede mejorar la calidad de las respuestas, mientras que otros señalan que la diferencia no justifica el costo ambiental que conlleva.

chatgpt open ai

Por qué no hay que decirle "gracias" y "por favor" a la inteligencia artificial

El CEO de OpenAI, Sam Altman, explicó que cada interacción con ChatGPT demanda un procesamiento intenso, ya que el sistema divide el texto en tokens, pequeñas unidades lingüísticas, antes de generar una respuesta. En este proceso, cada palabra adicional aumenta el tiempo de cálculo y el uso de GPU, lo que incrementa tanto el consumo energético como la carga de los servidores.

Aunque el directivo bromeó en redes sociales sobre los “millones de dólares bien gastados” que la empresa destinó por la cortesía de los usuarios, lo cierto es que esta práctica representa un gasto real a gran escala. Una consulta aislada apenas suma fracciones de electricidad, pero multiplicada por millones de usuarios diarios genera un fuerte impacto.

El problema no se limita a lo económico. Según datos de Tom’s Hardware, cada interacción promedio con ChatGPT consume unos 0,3 Wh de energía. Si bien es menos de lo que se calculaba en el pasado, sigue siendo considerable por el enorme volumen de consultas diarias. La Agencia Internacional de la Energía advierte que, para 2030, los centros de datos podrían casi duplicar su consumo eléctrico, alcanzando los 945 TWh.

chatgpt open ai 2

Además de la electricidad, los servidores necesitan grandes cantidades de agua para mantener las temperaturas bajo control. Investigadores de la Universidad de California estiman que incluso una respuesta corta de apenas dos o tres palabras puede requerir entre 40 y 50 mililitros de agua en el proceso de enfriamiento.

Por otro lado, un trabajo de la Universidad de Cornell descubrió que la forma en que los usuarios formulan sus consultas sí influye en el rendimiento del modelo. El uso de un lenguaje respetuoso tiende a generar respuestas más satisfactorias, mientras que las expresiones descorteses afectan negativamente la calidad de los resultados. Aún así, no todos los niveles de cortesía son igual de efectivos y el impacto varía según el idioma y el contexto cultural.

TEMAS RELACIONADOS