1. XLNet–Người khổng lồ thay thế vị trí của BERT, 06/07/2019, URL: https://trituenhantao.io/kien-thuc/xlnet-nguoi-khong-lo-thay-the-vi-tri-cua-bert/
2. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova, BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
3. Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, Quoc V. Le, XLNet: Generalized Autoregressive Pretraining for Language Understanding, Đại học Carnegie Mellon, Nhóm trí tuệ AI của Google.C. Waldenor, Is OTT Disrupting Television? Master Thesis, Stockholm, June 7th 2013.
4. Giới thiệu vể chuyên đổi câu trong xử lý ngôn ngữ tự nhiên Transformers In NLP | State-Of-The-Art-Models (analyticsvidhya.com)
5. Mã nguồn của mạng XLNET https://github.com/zihangdai/xlnet.J. C. Whitaker, Interactive TV Demystified, 2001 McFraw-Hill, ISBN 0-07-136325-4