Artigos

EMergia do ChatGPT

EMergia do ChatGPT
Eduardo Athayde - Diretor da Rede WWI no Brasil

Eduardo Athayde - Diretor da Rede WWI no Brasil

09/08/2023 5:30pm

Qual o consumo de eletricidade por consulta do ChatGPT? De acordo com Sajjad Moazeni, professor de engenharia elétrica e de computação da Universidade de Washington, "Apenas treinar um chatbot pode usar tanta eletricidade quanto um bairro consome em um ano". Emergia é toda energia necessária para um ecossistema produzir um recurso, utilizado como sinônimo de ´energia incorporada´ ou ´memória energética´.

Se as organizações souberem quanta eletricidade o ChatGPT requer para responder a uma pergunta, podem estimar a pegada de carbono associada ao uso do ChatGPT ou serviços semelhantes, como as APIs LLM da OpenAI. Para mais de 50.000 empresas europeias, isso pode se tornar altamente relevante em breve, já que a futura Diretiva de Responsabilidade Social Corporativa (CSRD) provavelmente os forçará a divulgar as emissões de escopo 3 em seus relatórios de gestão nos parâmetros ODS/ESG.

Outra razão pela qual é interessante examinar o uso de energia do ChatGPT por consulta é que ele permitirá que os indivíduos criem suas próprias estimativas do consumo total de eletricidade ou da pegada de carbono do ChatGPT, e de outros grandes modelos de linguagem, que aprendem a imitar humanos analisando grandes quantidades de dados.

Segundo Moazeni, esses modelos se tornaram tão grandes que você precisa de milhares de processadores para treinar os modelos e, em seguida, suportar os bilhões de consultas diárias dos usuários. Toda essa computação só pode ocorrer em um data center. Em comparação, as cargas de trabalho de computação em nuvem convencionais, como serviços online, bancos de dados e streaming de vídeo, são muito menos intensivas em termos de computação e exigem muito menos uso de memória.

Pesquisas da Universidade de Washington mostram que nos data centers de hoje, existem centenas de milhares de unidades de processamento que podem se comunicar usando um grande número de fibras ópticas e switches de rede. Esses processadores (além da memória e dispositivos de armazenamento) são armazenados em racks de servidores. Há também infraestrutura interna para resfriamento dos servidores (com água e ar) e unidades para geração e distribuição de energia.

Em termos de treinamento de um grande modelo de linguagem, cada unidade de processamento pode consumir mais de 400 watts de energia durante a operação. Normalmente, você também precisa consumir uma quantidade semelhante de energia para resfriamento e gerenciamento de energia. No geral, isso pode levar a um consumo de energia de até 10 gigawatts-hora (GWh) para treinar um único modelo de linguagem grande como o ChatGPT-3. Isso é, em média, aproximadamente equivalente ao consumo anual de eletricidade de mais de 1.000 residências nos EUA.

Hoje existem centenas de milhões de consultas diárias no ChatGPT, embora esse número possa estar diminuindo. Tantas consultas podem custar cerca de 1 GWh por dia, o que equivale ao consumo diário de energia de cerca de 33.000 residências nos Estados Unidos.

Pesquisadores têm tentado otimizar o hardware e os processadores do data center para se tornarem mais eficientes em termos de energia para esses tipos de computação, construindo a próxima geração de soluções de interconexão óptica, que incluem a conversão desses sinais elétricos em sinais ópticos. Esses sinais ópticos têm perdas significativamente menores e isso minimiza o consumo de energia.

O estudo global Trust in Artificial Intelligence, realizado pela KPMG e pela Universidade de Queensland (Austrália), analisa a confiança do público no uso da Inteligência Artificial (IA). O Brasil foi um dos 17 países participantes. Na opinião de 84% dos brasileiros entrevistados, a Inteligência Artificial é confiável. É uma média superior à global: em todos os países, três em cada cinco pessoas (61%) são cautelosas sobre confiar em sistemas de IA.

Quase todos os brasileiros (93%) têm expectativas boas ou moderadas em relação aos benefícios que a tecnologia poderá proporcionar. A maioria considera que os sistemas de IA são “confiáveis” e “funcionam de acordo com as expectativas”. Mas isso não significa que exista uma tranquilidade total em relação ao uso dessas ferramentas. Os brasileiros se preocupam com questões de segurança cibernética (66%), manipulação (63%) e substituição da mão de obra humana (57%).

Eduardo Athayde é diretor do WWI no Brasil. [email protected]