Um estudo conduzido pela University College London (UCL) em parceria com a UNESCO revelou que pedir respostas mais curtas às inteligências artificiais generativas pode reduzir o consumo de energia em até 54%. A pesquisa destaca que mudanças simples na forma como interagimos com ferramentas como o ChatGPT podem gerar impactos ambientais significativos.
Segundo o relatório, plataformas de IA consomem cerca de 310 GWh por ano apenas para gerar textos, o equivalente ao gasto anual de eletricidade de 3 milhões de pessoas na Etiópia. Esse número não inclui o processamento de imagens, que exige ainda mais energia.

Como reduzir o impacto energético da IA?
Pesquisadores da UCL testaram modelos de IA em máquinas próprias e monitoraram o consumo em tempo real. Os resultados mostraram que:
- Prompts mais curtos levam a respostas mais sucintas e consomem menos energia;
- Ferramentas de compressão de texto podem reduzir o tempo de processamento sem comprometer a qualidade;
- A UNESCO recomenda campanhas de conscientização para incentivar práticas mais eficientes entre usuários e desenvolvedores.
“A responsabilidade por uma IA energeticamente eficiente não deveria recair apenas sobre os usuários. Mas, se adotada em escala, a prática de solicitar respostas curtas pode gerar economias significativas”
afirmou Leona Verdadero, especialista da UNESCO.

📉 Modelos menores, impacto menor O estudo também aponta que modelos de linguagem compactos, voltados para tarefas específicas como tradução e resumo, podem consumir apenas 10% da energia usada por grandes plataformas como ChatGPT, Gemini e Claude. Além disso, esses modelos são mais acessíveis para países com infraestrutura limitada, como os da África e América Latina.
🌍 Com o consumo de eletricidade da IA dobrando a cada 100 dias, segundo a Agência Internacional de Energia (IEA), a UNESCO reforça a urgência de debater o tema globalmente e promover soluções sustentáveis para o avanço da tecnologia.