Affiliation:
1. Universität Graz Institut für Operations und Information Systems Universitätsstraße 15 Graz Österreich
Abstract
Zusammenfassung
Der vorliegende Aufsatz untersucht die Problematik von Halluzinationen in vier wissenschaftlichen Aufsätzen aus verschiedenen Bereichen der Betriebswirtschaftslehre, die von ChatGPT-4 verfasst wurden. Konkret soll geprüft werden, ob die von ChatGPT generierten Quellennachweise existieren und, wenn dies der Fall ist, ob sie korrekt sind. Ein erstes überraschendes Ergebnis ist, dass fast 40 Prozent der 174 in den Artikeln referenzierten Quellen, deren bibliografische Angaben nach den einzelnen Hauptkapiteln ausgegeben wurden, nicht im für jeden Aufsatz eigens generierten Literaturverzeichnis ausgewiesen waren. Eine Überprüfung aller bibliografischen Angaben ergab, dass in den einzelnen Artikeln zwischen 18 und 100 Prozent der Quellen in Google Scholar nicht gefunden werden konnten. Die Hälfte der gefundenen ChatGPT-Quellen war in unterschiedlichem Ausmaß fehlerhaft (falscher Dokumenttyp, falscher Zeitschriftenname, falsche Seitenangabe). Im Durchschnitt war nur ein Viertel der bibliografischen Quellenangaben vollständig korrekt. Im Web of Science konnte nur ein Viertel der Quellenangaben nachgewiesen werden, diese waren aber größtenteils korrekt. Obige Ergebnisse zeigen, dass ChatGPT-4 für das Verfassen von wissenschaftlichen Arbeiten – nicht nur aufgrund von ethischen und rechtlichen Bedenken – nicht empfohlen werden kann, da ein großer Teil der (zum Zeitpunkt des Verfassens dieser Arbeit gültigen Version) von ChatGPT generierten Referenzen nicht existiert oder teilweise fehlerhaft ist. Es ist weiter davon auszugehen, dass auch die erzeugten Texte teilweise erfunden sind oder von nicht referenzierten Quellen (Plagiate) stammen. Von ChatGPT erzeugte Texte müssen daher einer umfassenden Überprüfung unterzogen werden, die vor allem auf inhaltlicher Ebene nicht immer einfach sein dürfte. Die Autoren schließen sich daher der Empfehlung von Gimpel et al. (2023) an, dass ChatGPT beim Schreiben primär nur ergänzend (z. B. Rechtschreibkontrolle, Erstellung von Zusammenfassungen, Unterstützung bei der Ideengenerierung) verwendet werden sollte.
Reference19 articles.
1. Athaluri Sai Anirudh, Manthena Sandeep Varma, Kesapragada V S R Krishna Manoj, Yarlagadda Vineel, Dave Tirth & Duddumpud Rama Tulasi Siri (2023). Exploring the Boundaries of Reality: Investigating the Phenomenon of Artificial Intelligence Hallucination in Scientific Writing Through ChatGPT References. Cureus 15 (4), e37432, DOI: 10.7759/cureus.37432.
2. Bhattacharyya Mehul, Miller Valerie M, Bhattacharyya Debjan & Miller Larry E. (2023). High Rates of Fabricated and Inaccurate References in ChatGPT-Generated Medical Content. Cureus 15(5): e39238. DOI: 10.7759/cureus.39238.
3. Buchanan Joy, Hill Stephen & Shapoval Olga (2024). ChatGPT Hallucinates Non-existent Citations: Evidence from Economics. The American Economist, 69 (1), 80 – 87. DOI: 10.1177/05694345231218454.
4. Clarivate (2022). Web of Science Core Collection: Explanation of peer reviewed journals. Version vom 12.05.2022, abgerufen am 10. 4. 2024 von https://support.clarivate.com/ScientificandAcademicResearch/s/article/Web-of-Science-Core-Collection-Explanation-of-peer-reviewed-journals?language=en_US.
5. Clarivate (2024). Web of Science-Recherche, durchgeführt am 2. 5. 2024, https://www.webofscience.com/wos/woscc/analyze-results/675ef6a4-cc60-45de-9efb-f32e738125bd-e4f6a5c1.