ChatGPT: Decir “Gracias” a la IA tiene un precio millonario, según Sam Altman

¿Ser educado con ChatGPT sale caro? Sam Altman revela el impacto de la cortesía digital

Chat GPT.Créditos: Canva | Redes Sociales
Por
Escrito en TENDENCIA el

Estados Unidos.- ¿Alguna vez te has detenido a agradecer a ChatGPT por su ayuda? Pues bien, según Sam Altman, CEO de OpenAI, ese simple acto de cortesía podría tener un costo millonario para la empresa detrás de la inteligencia artificial. 

Descubre por qué el líder tecnológico ve un impacto económico significativo en nuestras interacciones con la IA.

¿Cuánto cuesta decir “gracias” a ChatGPT?

Recientemente, un usuario en redes sociales lanzó una curiosa pregunta al CEO de OpenAI a través de X (antes Twitter) en el cuál puntualiza cuál sería la cantidad que ha perdido OpenAI en electricidad por las veces que la gente dice ‘por favor’ y ‘gracias’ a sus modelos. 

Me pregunto cuánto dinero ha perdido OpenAI en costos de electricidad porque la gente dice “por favor” y “gracias” a sus modelos.- Se lee en la publicación. 

Sam Altman respondió al usuario, estimando que se gastan "decenas de millones de dólares bien gastados", aunque con un toque de ironía añadió que "nunca se sabe".

“Decenas de millones de dólares bien gastados: nunca se sabe.” 

Créditos X (Twitter) 

Aunque pueda sonar exagerado, cada palabra que ChatGPT procesa y genera implica un gasto energético. Incluso las frases de cortesía, por su brevedad, requieren que el modelo realice cálculos para entenderlas y responder, incrementando la actividad de los servidores y, por ende, el consumo de electricidad.

¿Cómo se gasta energía con cada palabra en ChatGPT?

Según Chat GPT, cada palabra que sale del servidor de la IA tiene un procedimiento el cual gasta energía dividiéndolo en las siguientes etapas. 

Procesamiento en servidores

Cada vez que escribes una palabra o frase y el modelo responde, se activan potentes servidores con unidades gráficas (GPUs) especializadas. Estas máquinas consumen mucha electricidad para calcular, interpretar y generar lenguaje.

Tokens = consumo

OpenAI no mide por palabras, sino por “tokens” (fragmentos de palabras). Por ejemplo, “gracias” es 1 token, y “amablemente” puede ser 2 o 3. Cada token implica trabajo computacional, y más tokens = más electricidad consumida.

Inteligencia Artificial | Créditos Canva

Millones de usuarios, millones de tokens

Con millones de personas usando ChatGPT a diario, incluso frases cortas como “por favor” o “gracias” se acumulan. Esa cortesía digital genera una demanda energética real, que se traduce en gastos operativos para OpenAI.

Costo por uso

Aunque no hay una cifra exacta por palabra, se estima que operar modelos grandes como GPT cuesta varios centavos de dólar por cada mil tokens. Parece poco, pero a escala global, eso se traduce en millones de dólares al año solo en energía eléctrica.

Inteligencia Artificial | Créditos Canva

¿Varían las respuestas de ChatGPT si le digo por favor y gracias? Esto dice un estudio

Un estudio realizado por la Universidad  de Cornell, en Estados Unidos reveló que la respuesta de la inteligencia artificial variaba si la persona era amable o no.

“El lenguaje cortés en las comunicaciones humanas a menudo genera mayor cumplimiento y efectividad, mientras que la grosería puede causar aversión, lo que afecta la calidad de la respuesta”, indica el estudio.

Según la Universidad de Cornell planteó que reflejan los rasgos de la comunicación humana, por lo que sugiere que se alinean con las normas de los humanos y tienen mejor respuesta a indicaciones que tengan ‘por favor’ y ‘gracias’.

“Evaluamos el impacto de la cortesía en las indicaciones sobre los LLM en tareas de inglés, chino y japonés. Observamos que las indicaciones descorteses a menudo resultan en un rendimiento bajo, pero el lenguaje excesivamente cortés no garantiza mejores resultados”, puntualizó el estudio.

 

Redes Sociales