Affiliation:
1. DOKUZ EYLÜL ÜNİVERSİTESİ
Abstract
Adlandırılmış varlık tanıma problemi, veri çıkarımı, doğal dil işleme ve metin madenciliği gibi alanların alt dalı olarak ele alınmaktadır. Adlandırılmış varlık tanıma, yapılandırılmamış metinlerdeki varlık isimlerinin uygunluklarına göre önceden belirlenen kişi ismi, organizasyon ismi veya yer ismi gibi sınıflara atama yapmak için kullanılan bir araçtır. Gelişen teknoloji ile birlikte sosyal ağlar çok insan tarafından kullanılmaktadır. Sosyal medya kullanan kişiler her türlü resim, metin veya video içeriklerini paylaşabilmektedir. Paylaşılan bu içerikler ise bazen uygunsuz yani aile yapısını etkiler nitelikte olabilmektedir. Bu çalışmada, Twitter’daki Türkçe tweetler kullanılarak küfür, hakaret ve uygunsuz kelimeler adlandırılmış varlık tanıma problemi olarak ele alınmış ve bu kelimeler farklı yöntemler ile tespit edilmeye çalışılmıştır. Çalışmada, önce metinlerde geçen kelime ve kelime öbekleri etiketlenmiş daha sonra ise etiketlenen kelimeler vektörleştirilmiştir. Vektörler, Bi-LSTM ve öneğitimli BERT modelleri kullanılarak eğitim yapılmıştır. Bi-LSTM modeli hem eğitimde hem de test aşamasında %99‘a yakın doğruluk oranı sergilemiştir. BERT modeli ise eğitim aşamasında %99 civarında doğruluk oranı gösterirken, test başarısının %95 civarında olduğu gözlemlenmiştir. Çalışma hızı açısından, Bi-LSTM modelinin BERT modelinden yaklaşık olarak 3 kat daha hızlı olduğu görülmüştür.
Publisher
Afyon Kocatepe Universitesi Fen Ve Muhendislik Bilimleri Dergisi
Reference45 articles.
1. Bowden, K. K., Wu, J., Oraby, S., Misra, A., and Walker, M., 2018. SlugNERDS: A named entity recognition tool for open domain dialogue systems. arXiv preprint arXiv:1805.03784.
2. Çelik, A. and Yıldırım, B., 2020. Turkish profanity detection enhanced by artificial intelligence. 28th Signal Processing and Communications Applications Conference (SIU), 1-4. IEEE.
3. Deepak, G., Teja, V., and Santhanavijayan, A., 2020. A novel firefly driven scheme for resume parsing and matching based on entity linking paradigm. Journal of Discrete Mathematical Sciences and Cryptography, 23(1), 157-165.
4. Devlin, J., Chang, M. W., Lee, K., and Toutanova, K., 2018. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.
5. Grishman, R., 1995. The NYU System for MUC-6 or Where's the Syntax?, New York Unıv, Ny, Dept. Of Computer Scıence.