Author:
Gomes Alexandre Augusto Aguiar,Braga Leonidas J. F.,Azevedo Marcos P. C.,Assunção Gabriel,Carvalho Arthur,Brandão Michele A.,Dalip Daniel H.,Pádua Flávio Cardeal
Abstract
Técnicas de Explicabilidade são métodos que auxiliam usuários a entender os resultados de um modelo de aprendizado de máquina. Nesse contexto, este trabalho investiga se a técnica de explicabilidade de Oclusão consegue gerar respostas similares às esperadas por humanos na classificação de palavras para o Reconhecimento de Entidades Nomeadas. Para isso, utilizou-se uma LSTM bidirecional e o conjunto de dados CoNLL 2003, bem como foi utilizado a anotação manual de 849 sentenças criando-se, assim, uma base de dados de referência. Os resultados mostram que a Oclusão é capaz de indicar pelo menos uma palavra relevante e compatível com a compreensão humana.
Publisher
Sociedade Brasileira de Computação - SBC
Reference22 articles.
1. Adadi, A. and Berrada, M. (2018). Peeking inside the black-box: A survey on explainable artificial intelligence (xai). IEEE Access, 6:52138–52160.
2. Arras, L., Montavon, G., Müller, K.-R., and Samek, W. (2017). Explaining recurrent neural network predictions in sentiment analysis. arXiv preprint arXiv:1706.07206.
3. Brin, S. and Page, L. (1998). The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 30(1):107–117.
4. Danilevsky, M., Qian, K., Aharonov, R., Katsis, Y., Kawas, B., and Sen, P. (2020). A survey of the state of explainable ai for natural language processing. arXiv preprint arXiv:2010.00711.
5. Goodman, B. and Flaxman, S. (2017). European union regulations on algorithmic decision-making and a “right to explanation”. AI magazine, 38(3):50–57.