Para reducir el consumo de recursos energéticos, es necesario enfocarse en diversas áreas. Estas incluyen el desarrollo de chips más eficientes, la investigación sobre la eficiencia energética de la IA que considere tanto el hardware como los algoritmos y prácticas de entrenamiento de modelos
La Inteligencia Artificial (IA) representa una tecnología que requiere enormes cantidades de energía, tanto en su fase de entrenamiento como en su funcionamiento.
A medida que la IA se vuelve más avanzada, sus demandas energéticas aumentan significativamente, llegando al punto en que una consulta en ChatGPT consume tres veces más energía que una realizada en el buscador de Google.
Una de las compañías más prominentes en el campo de la IA es OpenAI, creadora del 'chatbot' ChatGPT. Se estima que el modelo de lenguaje GPT-3 necesitó un asombroso total de 78.437 kWh de electricidad para su entrenamiento, una cifra comparable al consumo energético medio de un hogar en España durante 23 años.
¿Qué tan grave es?
Este dato, proporcionado por el Instituto de la Ingeniería de España (IIE), resalta el enorme gasto energético asociado a la IA, pues su entrenamiento demanda grandes cantidades de datos y recursos computacionales, lo que también repercute en la necesidad de una considerable cantidad de energía para su funcionamiento. A medida que los modelos de IA se vuelven más complejos, estos requisitos energéticos pueden aumentar aún más.
El consumo energético también se traduce en el uso de una gran cantidad de agua para refrigerar los servidores que alimentan los diversos productos y sistemas de IA. Según investigadores de las universidades de Riverside y Arlington, el entrenamiento de GPT-3 en uno de los avanzados centros de datos de Microsoft, colaborador de OpenAI en el desarrollo de IA, consumió directamente 700.000 litros de agua dulce limpia, equivalente a la producción de 370 coches BMW o 320 vehículos eléctricos Tesla.
En el caso de los centros de datos propios de Google en Estados Unidos, se estima que consumieron 12.700 millones de litros de agua dulce en 2021 para los procesos de refrigeración de sus equipos informáticos.
El uso cotidiano de esta tecnología también implica un alto consumo de recursos. Por ejemplo, una sola conversación de entre 20 y 50 preguntas con ChatGPT requiere aproximadamente 500 ml de agua para refrigeración, según indica el estudio citado. En términos de electricidad, una búsqueda promedio en Google consume 0,0003 kWh, mientras que una consulta en ChatGPT necesita entre 0,001 y 0,01 kWh, según datos del Instituto de la Ingeniería de España.
Ante este panorama, las grandes empresas tecnológicas están comenzando a tomar medidas para abordar el impacto ambiental de sus operaciones, además de buscar beneficios económicos y satisfacer las demandas del mercado. José Andrés López de Fez, miembro del Comité de Sociedad Digital del Instituto IIE, señala que estas compañías están adoptando energías renovables para alimentar sus centros de datos, mejorando la eficiencia energética de los servidores y estableciendo programas de reciclaje de productos electrónicos.
Para reducir el consumo de recursos energéticos, es necesario enfocarse en diversas áreas. Estas incluyen el desarrollo de chips más eficientes, la investigación sobre la eficiencia energética de la IA que considere tanto el hardware como los algoritmos y prácticas de entrenamiento de modelos, el uso de sistemas de energía renovable y neutral en carbono, mejoras en la infraestructura de datos y la implementación de políticas de reciclaje de dispositivos electrónicos y economía circular. Estas cuestiones son fundamentales para garantizar un uso más sostenible de la tecnología de Inteligencia Artificial en el futuro.