Utilização de modelos BERT em língua portuguesa para predição de códigos CID em contexto neonatal
Author:
Santos Ricardo da S.,Gazzola Murilo G.,Souza Renato T.,Pacagnella Rodolfo C.,Torezzan Cristiano
Abstract
A tarefa de prever códigos da Classificação Internacional de Doenças (CID) representa um desafio contemporâneo de pesquisa na área de inteligência artificial aplicada à saúde. Essa abordagem é vista como uma solução promissora para otimizar tarefas recorrentes de registros clínicos, aumentar a precisão de diagnósticos e aprimorar a tomada de decisões médicas. Uma previsão acurada de códigos CID pode permitir agilizar e automatizar processos administrativos em ambientes de saúde e contribuir para uma medicina mais personalizada e eficaz. Apesar da relevância desse tema, ainda existem poucas pesquisas para a predição do código CID em português brasileiro. Neste contexto, este trabalho apresenta resultados preliminares de uma pesquisa que está em desenvolvimento, com objetivo de treinar algoritmos para a predição de códigos CID no contexto da atenção primária neonatal, com foco na previsão dos códigos CID em admissões e relatórios de alta de internações pediátricas de recémnascidos. Os algoritmos utilizam modelos baseados em BERT - Representações Codificadoras Bidirecionais de Transformadores e os resultados preliminares indicam que o caminho é promissor, mas ainda há necessidade de ajustes para que se tenha uma aplicação que possa ser utilizada na prática clínica.
Publisher
Sociedade Brasileira de Computação - SBC
Reference15 articles.
1. Conneau, A., Khandelwal, K., Goyal, N., Chaudhary, V., Wenzek, G., Guzmán, F., Grave, E., Ott, M., Zettlemoyer, L., and Stoyanov, V. (2020). Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Association for Computational Linguistics. 2. de Lima, L. R., Laender, A. H., and Ribeiro-Neto, B. A. (1998). An experimental study in automatically categorizing medical documents. In Journal of the American Society for Information Science and Technology, CIKM ’98, Nova York, NY, EUA. 3. Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2019). BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), Minneapolis, Minnesota. Association for Computational Linguistics. 4. Duarte, F., Martins, B., Pinto, C. S., and Silva, M. J. (2018). Deep neural models for icd-10 coding of death certificates and autopsy reports in free-text. Journal of biomedical informatics, 80. 5. Farkas, R. and Szarvas, G. (2008). Automatic construction of rule-based ICD-9-CM coding systems. BMC Bioinformatics, 9(3).
|
|