Abstract
в статье исследуются возможности и риски внедрения технологий искусственного интеллекта (ИИ) в процессы создания и распространения новостного контента. На основе обзора ведущих научных публикаций и отраслевых материалов анализируются как позитивные эффекты автоматизации, так и потенциальные угрозы для журналистики. Рассматриваются примеры успешного использования ИИ-систем крупными медиакомпаниями для мониторинга информационных поводов, персонализации материалов и автоматической генерации текстов. При этом обозначаются риски снижения ценности человеческого вклада, монополизации преимуществ ИИ ведущими игроками, распространения дезинформации, этических нарушений, утраты плюрализма мнений. Особое внимание уделяется выявлению и классификации ключевых опасностей автоматизации, таких как предвзятость алгоритмов, потеря журналистами статуса посредников реальности, нарушение приватности, угроза профессиональной идентичности. Предлагаются рекомендации по минимизации рисков через регулярный аудит ИИ-систем, документирование процессов их разработки, обучение кадров, обеспечение транспарентности для аудитории. Делается вывод о необходимости комплексного социального подхода к использованию искусственного интеллекта в журналистике с сохранением контроля человека и учетом культурных ценностей профессии. Только гармоничное взаимодействие инженерных инноваций и журналистских традиций позволит максимизировать позитивный потенциал ИИ.
the article explores the opportunities and risks of introducing artificial intelligence (AI) technologies into the processes of creating and distributing news content. Based on a review of leading scientific publications and industry materials, both positive effects of automation and potential threats to journalism are analyzed. Examples of successful use of AI-systems by large media companies for monitoring news events, personalization of materials and automatic generation of texts are considered. The risks of reducing the value of human contribution, monopolization of AI advantages by leading players, spreading misinformation, ethical violations, and loss of pluralism of opinions are outlined. Special attention is paid to the identification and classification of key dangers of automation, such as biased algorithms, journalists losing their status as mediators of reality, violation of privacy, and threat to professional identity. Recommendations for minimizing risks through regular auditing of AI systems, documenting the processes of their development, training personnel, and ensuring transparency for the audience are offered. The conclusion is made about the need for a comprehensive social approach to the use of artificial intelligence in journalism while maintaining human control and taking into account the cultural values of the profession. Only harmonious interaction between engineering innovations and journalistic traditions will maximize the positive potential of AI.
Publisher
Sole Proprietor Company Klyueva M.M.
Reference17 articles.
1. Чертовских О.О., Чертовских М.Г. Искусственный интеллект на службе современной журналистики: история, факты и перспективы развития // Вопросы теории и практики журналистики. 2019. Т. 8. № 3. С. 555 – 568. DOI 10.17150/2308-6203.2019.8(3).555-568
2. Arria Natural Language Generation Technology Expands BBC's Coverage of UK Elections [Electronic resource]. URL: https://www.prnewswire.com/in/news-releases/arria-natural-language-generation-technology-expands-bbc-s-coverage-of-uk-elections-865255548.html (date of treatment: 07.10.2023)
3. Arria NLG [Electronic resource]. URL: https://www.arria.com/about-overview/ (date of treatment: 07.10.2023)
4. Arria NLG for news and media [Electronic resource]. URL: https://www.arria.com/news-and-media/#:~:text=Arriaeveryone (date of treatment: 07.10.2023)
5. Ashfaq, D.R., Nabi, M.Z., & Rohit, D. (2022). Artificial Intelligence and the Indian Media Industry: the Future is Now. Journal of Artificial Intelligence, Machine Learning and Neural Network. [Electronic resource]. URL: https://journal.hmjournals.com/index.php/JAIMLNN/article/view/1637/1972 (date of treatment: 07.03.2024). https://doi.org/10.55529/jaimlnn.26.24.31