Ir al contenido principal

Decir “por favor” y “gracias” a ChatGPT le cuesta millones a OpenAI

💸 Decir “por favor” y “gracias” a ChatGPT le cuesta millones a OpenAI

Interactuar con ChatGPT puede parecer una conversación natural, tanto que muchas personas escriben "por favor" y "gracias" como si se dirigieran a alguien real. Pero esa cortesía, por pequeña que parezca, no es gratis.

Un usuario de X lanzó una curiosa pregunta: ¿cuánto gasta OpenAI en electricidad por los mensajes educados que envían los usuarios a sus modelos? A lo que Sam Altman, CEO de OpenAI, respondió: “Decenas de millones de dólares bien gastados”.

Aunque la respuesta fue irónica, dejó claro un punto importante: el alto costo de mantener en funcionamiento modelos como ChatGPT. Según estimaciones, en 2023 operar la versión GPT-3 podía costar hasta 700.000 dólares diarios. Teniendo en cuenta que GPT-4o es más avanzado, ese número probablemente sea aún mayor hoy.

Cada vez que alguien le pide a la IA revisar un texto, resolver un problema o simplemente responde con amabilidad, se activa una enorme red de servidores con chips especializados (GPUs) con un alto consumo energético. Estos gastos diarios, conocidos como costes de inferencia, ya superan los costes de entrenamiento de los modelos.


Entradas más populares de este blog

Apple ya supero a Nokia

La empresa de la Manzana acaba de superar en ventas de smartphones a Nokia, vendiendo 20.24 millones de unidades en el tercer trimestre de 2011 un aumento de 142% con respecto al trimestre de 2010. Este numero convierte a Apple en el cuarto mayor fabricante de celulares (smart y normales) del Mundo siendo superado por Nokia, Samsung y LG. LINKS RELACIONADOS Apple tiene más efectivo que todo EU - Economía - CNNExpansion.com