Peringkasan Multi Dokumen Berbahasa Indonesia Menggunakan Metode Recurrent Neural Network

Authors

DOI:

https://doi.org/10.62411/tc.v23i1.9605

Keywords:

, Peringkasan, Recurrent Neural Network, Long Short-Term Memory, Word2vec

Abstract

Peringkasan dokumen berita adalah sebuah aspek penting dalam pemrosesan bahasa alami dan jurnal ini bertujuan untuk menggambarkan perkembangan terbaru dalam bidang ini. Dengan ledakan informasi dan jumlah berita yang terus meningkat, peringkasan dokumen berita menjadi kunci dalam menghadapi tantangan untuk mengakses informasi yang relevan dan berharga.  Pada paper ini dilakukan peringkasan multi dokumen berbahasa Indonesia dengan menggunakan metode RNN (Recurrent Neural Network) variasi yang digunakan adalah Long Short-Term Memory (LSTM), dengan ekstraksi fitur menggunakan dua model Word2Vec yang berbeda, yaitu CBOW (Continuous Bag of Words) dan Skip-gram. Hasilnya menunjukkan nilai recall, presisi, dan F-measure yang signifikan. Untuk model CBOW, nilai recall, presisi, dan F-measure yang ditemukan adalah 0.487, 0.704, dan 0.550. Sementara itu, untuk model Skip-gram, hasil pengujian menunjukkan nilai recall sebesar 0.414, presisi sebesar 0.687, dan F-measure sebesar 0.504.

References

S. N. Asiyah and K. Fitrhiasari, “Klasifikasi Berita Online Menggunakan Metode Support Vector Machine dan K- Nearest Neighbor,” JURNAL SAINS DAN SENI ITS, vol. 5, no. 2, pp. 317–322, 2016.

D. Anjar Prabowo, M. Fhadli, M. Ainun Najib, H. Agus Fauzi, I. Cholissodin, and P. Studi Informatika, “TF-IDF-Enhanced Genetic Algorithm untuk Extractive Automatic Text Summarization,” 2016.

I. P. G. H. Saputra, “Peringkasan Teks Otomatis Untuk Dokumen Bahasa Bali Berbasis Metode Ektraktif,” Jurnal Ilmiah ILMU KOMPUTER Universitas Udayana, vol. X, no. 1, pp. 33–38, 2017.

R. Adelia, S. Suyanto, and U. N. Wisesty, “Indonesian Abstractive Text Summarization Using Bidirectional Gated Recurrent Unit,” Procedia Comput Sci, vol. 157, pp. 581–588, 2019, doi: 10.1016/j.procs.2019.09.017.

M. A. Saputra, “Peringkas Teks Otomatis Bahasa Indonesia secara Abstraktif Menggunakan Metode Long Short-Term Memory,” e-Proceeding of Engineering, pp. 3473–3488, 2021.

K. Ivanedra and M. Mustikasari, “Implementasi Metode Recurrent Neural Network Pada Text Summarization dengan Teknik Abstraktif,” vol. 6, no. 4, pp. 377–382, 2019, doi: 10.25126/jtiik.201961067.

N. Savanti Widya Gotami and R. Kartika Dewi, “Peringkasan Teks Otomatis Secara Ekstraktif Pada Artikel Berita Kesehatan Berbahasa Indonesia Dengan Menggunakan Metode Latent Semantic Analysis,” 2018. [Online]. Available: http://j-ptiik.ub.ac.id

K. Kurniawan and S. Louvan, “IndoSum: A New Benchmark Dataset for Indonesian Text Summarization,” in Proceedings of the 2018 International Conference on Asian Language Processing, IALP 2018, Institute of Electrical and Electronics Engineers Inc., Jan. 2019, pp. 215–220. doi: 10.1109/IALP.2018.8629109.

T. Mikolov, K. Chen, G. Corrado, and J. Dean, “Distributed Representations of Words and Phrases and their Compositionality,” 2013.

S. Hochreiter and J. ?urgen Schmidhuber, “Long Short-Term Memory,” 1997.

P. Liu, X. Qiu, and X. Huang, “Recurrent Neural Network for Text Classification with Multi-Task Learning,” May 2016, [Online]. Available: http://arxiv.org/abs/1605.05101

A. Naufal Ammar, “Peringkasan Teks Ekstraktif Menggunakan Binary Firefly Algorithm,” Ind

Downloads

Published

2024-06-18