Abstract
Актуальність теми дослідження зумовлена зростанням обсягу медіа контенту та необхідністю ефективного виявлення ризикової інформації, що може мати негативні наслідки для суспільства та бізнесу. Важливість автоматизації цього процесу підкреслюється складністю та великим обсягом даних, які потребують аналізу. Метою дослідження є розробка візуального користувацького інтерфейсу (UI додатку) для автоматизації прискореної обробки медіа контенту з використанням методів машинного та глибокого навчання для виявлення ризикової інформації. Дизайн дослідження включає збір та підготовку даних, вибір та навчання моделей машинного та глибокого навчання, оцінку та тестування моделей, а також їх впровадження в реальні умови. Використовується підхід, який поєднує машинне навчання з алгоритмами обробки природної мови для аналізу тексту та візуального контенту. Основна гіпотеза дослідження полягає в тому, що методи машинного та глибокого навчання можуть значно покращити ефективність та точність виявлення ризикової інформації у медіа контенті. Нові дані включають результати тестування моделей на реальних наборах даних. Методика дослідження включає збір даних, їх очищення та анотацію, навчання моделей машинного та глибокого навчання, а також оцінку їх продуктивності за допомогою метрик точності, відтворюваності та специфічності. У дослідженні виявлено, що побудований додаток значно покращує точність та швидкість виявлення ризикової інформації. Наведено результати тестування, які демонструють високу ефективність моделей у реальних умовах. Теоретичне значення дослідження полягає у розвитку методології автоматизації обробки україномовного медіа контенту, що може бути використана для подальших досліджень у цій сфері. Практичне значення дослідження полягає у можливості застосування додатку для покращення моніторингу та аналізу медіа контенту у різних галузях, а також для імплементації або вдосконалення реальних програмних продуктів. Тип статті – емпіричний.
Publisher
NGO "Research and Educational Innovation Center of Social Transformations"
Reference10 articles.
1. Site of Pew Research Center. pewresearch.org. Retrieved from https://www.pewresearch.org
2. Crider, A. (2021, 16 April). Scrape Web Articles With Python. Medium. Retrieved from https://medium.com/geekculture/automating-web-scraping-articles-with-python-49dce6714517
3. Ajala, E. (2018, 21 August). What is Web Scraping? Imperva a Thales company. Retrieved from https://www.imperva.com/blog/archive/the-economics-of-web-scraping-report/
4. Haisal, A. D., & Mahmood, U. (2022). Sentiment Classification: Review of Text Vectorization Methods: Bag of Words, Tf-Idf, Word2vec and Doc2vec. SLU Journal of Science and Technology, 4. 27-33. Doi: http://doi.org/10.56471/slujst.v4i.266.
5. Kmytiuk, T. L., & Zavalskyi, A. A. (2024). Analiz modelei hlybokoho ta mashynnoho navchannia dlia roboty z pryrodnoiu movoiu [Analysis of deep and machine learning models for working with natural language]. Efektyvna ekonomika - Effective Economics, 2. Doi: http://doi.org/10.32702/2307-2105.2024.2.80 [in Ukrainian]