PERBANDINGAN NILAI AKURASI DISTILBERT DAN BERT PADA DATASET ANALISIS SENTIMEN LEMBAGA KURSUS
DOI:
https://doi.org/10.47111/jti.v18i2.13278Keywords:
Analisis Sentimen, distilBERT, BERTAbstract
Penelitian ini bertujuan untuk menerapkan Analisis Sentimen dalam Ulasan Kursus dengan menggunakan pendekatan Transfer Learning menggunakan model bahasa DistilBERT dalam konteks pengembangan sistem pendidikan. Dengan pertumbuhan yang pesat dalam domain e-learning dan layanan kursus online, pemahaman pengguna terhadap berbagai kursus menjadi semakin penting bagi institusi pendidikan. Metode transfer learning, yang mengandalkan model-model NLP yang sudah terlatih seperti DistilBERT, telah terbukti efektif dalam tugas analisis sentimen dengan kinerja yang baik dan efisiensi yang tinggi. Dengan peningkatan minat pada pembelajaran online, penelitian ini menginvestigasi bagaimana pendekatan analisis sentimen dapat memberikan wawasan yang lebih dalam terhadap ulasan kursus. Dengan penerapan teknik DistilBERT, diharapkan sistem mampu efektif dalam mengekstrak sentimen yang terkandung dalam ulasan tersebut, memberikan pemahaman menyeluruh terkait pendapat dan perasaan pengguna terhadap kursus yang mereka ikuti. Melalui penelitian ini, diharapkan dapat memberikan kontribusi penting bagi penyelenggara kursus dalam meningkatkan kualitas layanan pendidikan yang mereka tawarkan, memberikan umpan balik yang lebih terperinci dan tepat waktu kepada pengguna. Diharapkan diseminasi hasil penelitian ini memberikan pandangan yang lebih luas mengenai penerapan transfer learning dalam analisis sentimen, terutama dalam konteks ulasan kursusDownloads
References
Acheampong, F. A., Nunoo-Mensah, H., & Chen, W. (2021). Recognizing emotions from texts using an ensemble of transformer-based language models. 18th International Computer Conference on Wavelet Active Media Technology and Information Processing (ICCWAMTIP), 161–164. https://doi.org/10.1109/ICCWAMTIP53232.2021.9674102
Adoma, A. F., Henry, N. M., & Chen, W. (2020). Comparative analyses of bert, roberta, distilbert, and xlnet for text-based emotion recognition. 17th International Computer Conference on Wavelet Active Media Technology and Information Processing, ICCWAMTIP 2020, 117–121. https://doi.org/10.1109/ICCWAMTIP51612.2020.9317379.
Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). Bert: pre-training of deep bidirectional transformers for language understanding. Proceedings OfNAACL-HLT 2019, 4171–4186. https://aclanthology.org/N19-1423.pdf.
Dogra, V., Singh, A., Verma, S., Kavita, K., Jhanjhi, N. Z., & Talib, M. N. (2021). Analyzing distilbert for sentiment classification of banking financial news. Lecture Notes in Networks and Systems, 248, 501–510. https://doi.org/10.1007/978-981-16-3153-5_53/COVER
Do, P., & Phan, T. H. V. (2021). Developing a bert based triple classification model using knowledge graph embedding for question answering system. Applied Intelligence 2021 52:1, 52(1), 636–651. https://doi.org/10.1007/S10489-021-02460-W
Geetha, M. P., & Karthika Renuka, D. (2021). Improving the performance of aspect based sentiment analysis using fine-tuned Bert Base Uncased model. International Journal of Intelligent Networks, 2, 64–69. https://doi.org/10.1016/J.IJIN.2021.06.005
Preite, S. (2019). Deep question answering: a new teacher for distilbert [University of Bologna]. https://amslaurea.unibo.it/20384/1/MasterThesisBologna.pdf
Sanh, V., Debut, L., Chaumond, J., & Wolf, T. (2019). Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. https://arxiv.org/abs/1910.01108v4