PERBANDINGAN NILAI AKURASI DISTILBERT DAN BERT PADA DATASET ANALISIS SENTIMEN LEMBAGA KURSUS

Authors

  • Ade Chandra Saputra Universitas Palangka Raya
  • Agus Sehatman Saragih Universitas Palangka Raya
  • Deddy Ronaldo Universitas Palangka Raya

DOI:

https://doi.org/10.47111/jti.v18i2.13278

Keywords:

Analisis Sentimen, distilBERT, BERT

Abstract

Penelitian ini bertujuan untuk menerapkan Analisis Sentimen dalam Ulasan Kursus dengan menggunakan pendekatan Transfer Learning menggunakan model bahasa DistilBERT dalam konteks pengembangan sistem pendidikan. Dengan pertumbuhan yang pesat dalam domain e-learning dan layanan kursus online, pemahaman pengguna terhadap berbagai kursus menjadi semakin penting bagi institusi pendidikan. Metode transfer learning, yang mengandalkan model-model NLP yang sudah terlatih seperti DistilBERT, telah terbukti efektif dalam tugas analisis sentimen dengan kinerja yang baik dan efisiensi yang tinggi. Dengan peningkatan minat pada pembelajaran online, penelitian ini menginvestigasi bagaimana pendekatan analisis sentimen dapat memberikan wawasan yang lebih dalam terhadap ulasan kursus. Dengan penerapan teknik DistilBERT, diharapkan sistem mampu efektif dalam mengekstrak sentimen yang terkandung dalam ulasan tersebut, memberikan pemahaman menyeluruh terkait pendapat dan perasaan pengguna terhadap kursus yang mereka ikuti. Melalui penelitian ini, diharapkan dapat memberikan kontribusi penting bagi penyelenggara kursus dalam meningkatkan kualitas layanan pendidikan yang mereka tawarkan, memberikan umpan balik yang lebih terperinci dan tepat waktu kepada pengguna. Diharapkan diseminasi hasil penelitian ini memberikan pandangan yang lebih luas mengenai penerapan transfer learning dalam analisis sentimen, terutama dalam konteks ulasan kursus

Downloads

Download data is not yet available.

References

Acheampong, F. A., Nunoo-Mensah, H., & Chen, W. (2021). Recognizing emotions from texts using an ensemble of transformer-based language models. 18th International Computer Conference on Wavelet Active Media Technology and Information Processing (ICCWAMTIP), 161–164. https://doi.org/10.1109/ICCWAMTIP53232.2021.9674102

Adoma, A. F., Henry, N. M., & Chen, W. (2020). Comparative analyses of bert, roberta, distilbert, and xlnet for text-based emotion recognition. 17th International Computer Conference on Wavelet Active Media Technology and Information Processing, ICCWAMTIP 2020, 117–121. https://doi.org/10.1109/ICCWAMTIP51612.2020.9317379.

Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). Bert: pre-training of deep bidirectional transformers for language understanding. Proceedings OfNAACL-HLT 2019, 4171–4186. https://aclanthology.org/N19-1423.pdf.

Dogra, V., Singh, A., Verma, S., Kavita, K., Jhanjhi, N. Z., & Talib, M. N. (2021). Analyzing distilbert for sentiment classification of banking financial news. Lecture Notes in Networks and Systems, 248, 501–510. https://doi.org/10.1007/978-981-16-3153-5_53/COVER

Do, P., & Phan, T. H. V. (2021). Developing a bert based triple classification model using knowledge graph embedding for question answering system. Applied Intelligence 2021 52:1, 52(1), 636–651. https://doi.org/10.1007/S10489-021-02460-W

Geetha, M. P., & Karthika Renuka, D. (2021). Improving the performance of aspect based sentiment analysis using fine-tuned Bert Base Uncased model. International Journal of Intelligent Networks, 2, 64–69. https://doi.org/10.1016/J.IJIN.2021.06.005

Preite, S. (2019). Deep question answering: a new teacher for distilbert [University of Bologna]. https://amslaurea.unibo.it/20384/1/MasterThesisBologna.pdf

Sanh, V., Debut, L., Chaumond, J., & Wolf, T. (2019). Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. https://arxiv.org/abs/1910.01108v4

Downloads

Published

2024-08-31