1. Bundesamt für Sicherheit in der Informationstechnik (2023). Große Sprachmodelle. Chancen und Risiken für Industrie und Behörden. Link online abgerufen 11.8.2023: https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/KI/Grosse_KI_Sprachmodelle.pdf?__blob=publicationFile&v=2).
2. Cremers, Armin B.; Gabriel, Markus et al. (2019). Vertrauenswürdiger Einsatz von Künstlicher Intelligenz. Handlungsfelder aus philosophischer, ethischer, rechtlicher und technologischer Sicht als Grundlage für eine Zertifizierung von Künstlicher Intelligenz. Zusammenarbeit mit dem Fraunhofer‐Institut für Intelligente Analyse‐ und Informationssysteme IAIS. Online verfügbar unter dem Link, abgerufen am 27.04.2023: https://www.iais.fraunhofer.de/content/dam/iais/KINRW/Whitepaper_KI-Zertifizierung.pd.
3. Dramigia, Joe (2019). Computer, die wie Menschen Kunstwerke schaffen: Der Lovelace 2.0 Test. Veröffentlicht auf: https://scilogs.spektrum.de/die-sankore-schriften/der-lovelace-2-0-test/ (zuletzt abgerufen am 20.04.2023).
4. Ingram, Royston (2014). »DoC Professor disputes whether computer ›Eugene Goostman‹ passed Turing test.« Veröffentlicht als Blogbeitrag auf Imperial College (zuletzt abgerufen am 20.04.2023): http://www3.imperial.ac.uk/newsandeventspggrp/imperialcollege/engineering/computing/newssummary/news_11-6-2014-11-33-32.
5. Gubelmann, Reto (2023). »A Loosely Wittgensteinian Conception of the Linguistic Understanding of Large Language Models like BERT, GPT‑3, and ChatGPT.« In Grazer Philosophische Studien (Online Link verfügbar, abgerufen am 7. Juni 2023: https://brill.com/view/journals/gps/99/4/articlep485_2.xml?ebody=metrics63181).