Author:
Ferraro Vívian R. G.,Gullo Gabriel,Costa Daniel da Silva,Moura Pedro Nuno de S.
Abstract
Na última década, houve avanços significativos nos resultados alcançados por modelos de Aprendizagem Profunda e uma ampla adoção desses na academia e na indústria. Embora esses modelos tenham potencial para auxiliar na gestão de recursos naturais e em questões ambientais, eles tipicamente demandam grande poder computacional, resultando em maiores gastos energéticos e também em grandes números de pegada de carbono. Este trabalho busca evidenciar e discutir o gasto energético envolvido no uso de modelos de redes neurais, comparando experimentalmente algumas arquiteturas em relação ao desempenho, à eficiência energética e ao custo computacional. Os resultados obtidos reforçam que é possível construir modelos que consumam menos energia e que tenham desempenho compatível com aqueles mais dispendiosos, contribuindo para uma abordagem mais sustentável.
Publisher
Sociedade Brasileira de Computação - SBC
Reference15 articles.
1. Aggarwal, C. C. (2023). Neural Networks and Deep Learning: A Textbook. Springer Publishing Company, Incorporated, 2nd edition.
2. Desislavov, R., Martínez-Plumed, F., and Hernández-Orallo, J. (2023). Trends in ai inference energy consumption: Beyond the performance-vs-parameter laws of deep learning. Sustainable Computing: Informatics and Systems, 38:100857.
3. Dhar, P. (2020). The carbon impact of artificial intelligence. Nat. Mach. Intell., 2(8):423–425.
4. Douwes, C., Esling, P., and Briot, J.-P. (2021). Energy consumption of deep generative audio models. arXiv preprint arXiv:2107.02621.
5. He, K., Zhang, X., Ren, S., and Sun, J. (2015). Deep residual learning for image recognition. arXiv.org.