Affiliation:
1. RECEP TAYYİP ERDOĞAN ÜNİVERSİTESİ
Abstract
“Neyi bilebilirim? Nasıl bilebilirim? Nasıl eylemde bulunurum?” sorularına felsefe tarihi boyunca cevap aranmıştır. Yanıtların sürekli yenisi ile güncellendiği bir süreçte, bugün geldiğimiz nokta bize bilginin hakikatine yönelik araştırmaların yerini gündelik bilginin ticaretine bıraktığını göstermektedir. ChatGPT (3,5) gibi yapay zekâ dil modelleri insanların sıradan sohbet arkadaşı olmasının ötesinde, kendi ifadesi ile dili anlama, analiz etme ve üretme yeteneklerine sahip bir mekanizmadır. Yapay zekanın gelişimiyle birlikte, akademik yazım süreçlerinde yapay zekâ tabanlı dil modelleri araştırmacılara, yazarlara ve öğrencilere yazma sürecinde hız, veriye dayalı içerik üretimi ve hataların azaltılması gibi faydalar sunarken, etik kaygıları da beraberinde getirmektedir. İçinde bulunduğumuz çağ itibariyle yapay zekânın makale yazabilir olması değil, bu makaleyi nasıl değerlendirmemiz gerektiği gerçeği ile yüzleşmek zorundayız. Yapay zekâ ve insan iş birliğinin, akademi dünyasında özgün ve değerli içerikler oluşturması imkânsız değildir. Buna karşın öne sürülen düşüncenin ne derece intihal olduğu, intihal ise nasıl bir tavır izlenmesi gerektiği tartışmalıdır. Bu çalışmada, yapay zekâ ve akademik yazım alanlarının birlikte ilerlemesi ve etkileşimi dikkate alındığında yapay zekâ temelli dil programlarının yardımı ile üretilen yazıları nasıl değerlendirmemiz gerektiğini tartışacağız. Bu doğrultuda ilk bölümde, ChatGPT’nin kavramsal tahlil ve mantıksal çıkarım ilkelerini sınadık. ChatGPT kendisine sorduğumuz genel konulara belirli etik ön kabuller çerçevesinde makul yanıtlar vermektedir. Buna karşın, özellikle mantıksal akıl yürütmeye ilişkin konularda yeteri kadar başarılı olamadığı gibi tekrar eden komutlar ChatGPT’nin mantıksal tutarsız yanıtlar vermesine sebep olmaktadır. Söz konusu tutarsızlık kendisinin etik ön kabulüne de sirayet edebilmektedir. Dolayısı ile mevcut ön kabullerin nasıl tasarlandığına ilişkin soruları beraberinde getirmekte ve ChatGPT’nin güvenirliğini tartışmaya açmaktadır. İkinci bölümde ise ChatGPT’den karşılaştırmalı bir konu üzerine deneme yazmasını istedik. Doğru ve açıklayıcı komut dizimi ile kelime sınırı olmaksızın ChatGPT yardımı ile bir makale yazmak mümkündür. Buna karşın ortaya konan metnin özgünlük ve intihal denetiminin nasıl yapılacağı/yapılması gerektiği tartışmalıdır. Bu çalışmada da gösterildiği gibi çevrimiçi benzerlik tespit uygulamaları tüm dilleri algılayacak şekilde yapay zekâ desteğini henüz sağlayamadığı için İngilizce ve Türkçe aynı içeriğe sahip yazıların benzerlik oranı birbirinden tamamen farklıdır. Bununla birlikte, yapay zekâ yardımı ile yazılan bir metnin ne derece özgün kabul edileceği de ayrıca tartışmalıdır. Sadece öğrenen değil öğreten ve yazıların denetlenme ve yayımlanma sürecinde rol alacak kimselerin de faydalanabileceği ChatGPT’nin akademide ne şekilde yer alacağı/alması gerektiği ötelenemez bir meseledir. Çalışmamızı bu tartışmaya verilebilecek yanıtlar çerçevesinde ilerleterek şu sonuca ulaştık: Yapay zekânın getirdiği ilerleme araştırmacılara kullanışlı imkanlar sunsa da etik ve güvenilirlik açılarından dikkatli bir şekilde yönetilmediği takdirde araştırmacının özgün doğasından uzaklaşmasına sebep olabilir. Netice itibariyle yapay zekâ yardımı ile ortaya konan bir çalışmanın araştırmacının kendi özgünlüğünü ve etik kaygılarını içermesi esastır.
Publisher
Recep Tayyip Erdogan Universitesi
Reference19 articles.
1. Akkurt, Kemal. “Gelecek Geldi: Yapay Zekâ ve Akademik Yazım Üzerine Bir Değerlendirme”. Toplumsal Araştırma Merkezi. Erişim: 28 Temmuz 2023. https://Toplumsalarastirmalarmerkezi.Org/2023/Gelecek-Geldi-Yapay-Zeka-Ve-Akademik-Yazim-Uzerine-Bir-Degerlendirme-2/
2. Aslan, Alaattin ve Küçükvardar, Mert. “Dijital Hastalıkların Tespitinde Etik Bir Model Önerisi”, Ajit-e: Bilişim Teknolojileri Online Dergisi, 10/39, (Ocak 2020), 9-22. https://doi.org/10.5824/ajit-e.2019.04.001
3. Aşkun, Volkan. “Sosyal Bilimler Araştırmaları için Chatgpt Potansiyelinin Açığa Çıkarılması: Uygulamalar, Zorluklar ve Gelecek Yönelimler”, Erciyes Akademi, 37/2, (Haziran 2023), 622-656. doi.org/10.48070/erciyesakademi.1281544
4. Baloğlu, Gürol ve Çakalı, Kaan Ramazan. “Is Artificial Intelligence A New Threat To The Academic Ethics?: Enron Scandal Revisited By Chatgpt”, İşletme: The Business Journal, 4/1, (Mart, 2023), 143-165. https://doi.org/10.57116/isletme.1244633.
5. Baum, J. & Villasenor, J. “The Politics of AI: Chatgpt and Political Bias”. Brookings Institution. Erişim 01 Ağustos 2023. https://policycommons.net/artifacts/4139938/the-politics-of-ai/4948896/ on 01 Aug 2023. CID: 20.500.12592/2q41bs.