Peringkasan Multi Dokumen Berbahasa Indonesia Menggunakan Metode Recurrent Neural Network
DOI:
https://doi.org/10.62411/tc.v23i1.9605Keywords:
, Peringkasan, Recurrent Neural Network, Long Short-Term Memory, Word2vecAbstract
Peringkasan dokumen berita adalah sebuah aspek penting dalam pemrosesan bahasa alami dan jurnal ini bertujuan untuk menggambarkan perkembangan terbaru dalam bidang ini. Dengan ledakan informasi dan jumlah berita yang terus meningkat, peringkasan dokumen berita menjadi kunci dalam menghadapi tantangan untuk mengakses informasi yang relevan dan berharga. Pada paper ini dilakukan peringkasan multi dokumen berbahasa Indonesia dengan menggunakan metode RNN (Recurrent Neural Network) variasi yang digunakan adalah Long Short-Term Memory (LSTM), dengan ekstraksi fitur menggunakan dua model Word2Vec yang berbeda, yaitu CBOW (Continuous Bag of Words) dan Skip-gram. Hasilnya menunjukkan nilai recall, presisi, dan F-measure yang signifikan. Untuk model CBOW, nilai recall, presisi, dan F-measure yang ditemukan adalah 0.487, 0.704, dan 0.550. Sementara itu, untuk model Skip-gram, hasil pengujian menunjukkan nilai recall sebesar 0.414, presisi sebesar 0.687, dan F-measure sebesar 0.504.References
S. N. Asiyah and K. Fitrhiasari, “Klasifikasi Berita Online Menggunakan Metode Support Vector Machine dan K- Nearest Neighbor,” JURNAL SAINS DAN SENI ITS, vol. 5, no. 2, pp. 317–322, 2016.
D. Anjar Prabowo, M. Fhadli, M. Ainun Najib, H. Agus Fauzi, I. Cholissodin, and P. Studi Informatika, “TF-IDF-Enhanced Genetic Algorithm untuk Extractive Automatic Text Summarization,” 2016.
I. P. G. H. Saputra, “Peringkasan Teks Otomatis Untuk Dokumen Bahasa Bali Berbasis Metode Ektraktif,” Jurnal Ilmiah ILMU KOMPUTER Universitas Udayana, vol. X, no. 1, pp. 33–38, 2017.
R. Adelia, S. Suyanto, and U. N. Wisesty, “Indonesian Abstractive Text Summarization Using Bidirectional Gated Recurrent Unit,” Procedia Comput Sci, vol. 157, pp. 581–588, 2019, doi: 10.1016/j.procs.2019.09.017.
M. A. Saputra, “Peringkas Teks Otomatis Bahasa Indonesia secara Abstraktif Menggunakan Metode Long Short-Term Memory,” e-Proceeding of Engineering, pp. 3473–3488, 2021.
K. Ivanedra and M. Mustikasari, “Implementasi Metode Recurrent Neural Network Pada Text Summarization dengan Teknik Abstraktif,” vol. 6, no. 4, pp. 377–382, 2019, doi: 10.25126/jtiik.201961067.
N. Savanti Widya Gotami and R. Kartika Dewi, “Peringkasan Teks Otomatis Secara Ekstraktif Pada Artikel Berita Kesehatan Berbahasa Indonesia Dengan Menggunakan Metode Latent Semantic Analysis,” 2018. [Online]. Available: http://j-ptiik.ub.ac.id
K. Kurniawan and S. Louvan, “IndoSum: A New Benchmark Dataset for Indonesian Text Summarization,” in Proceedings of the 2018 International Conference on Asian Language Processing, IALP 2018, Institute of Electrical and Electronics Engineers Inc., Jan. 2019, pp. 215–220. doi: 10.1109/IALP.2018.8629109.
T. Mikolov, K. Chen, G. Corrado, and J. Dean, “Distributed Representations of Words and Phrases and their Compositionality,” 2013.
S. Hochreiter and J. ?urgen Schmidhuber, “Long Short-Term Memory,” 1997.
P. Liu, X. Qiu, and X. Huang, “Recurrent Neural Network for Text Classification with Multi-Task Learning,” May 2016, [Online]. Available: http://arxiv.org/abs/1605.05101
A. Naufal Ammar, “Peringkasan Teks Ekstraktif Menggunakan Binary Firefly Algorithm,” Ind
Downloads
Published
Issue
Section
License
Pernyataan Lisensi
Artikel yang diterbitkan dalam jurnal Techno.Com dilisensikan di bawah Lisensi Creative Commons Atribusi-NonKomersial 4.0 Internasional (CC BY-NC 4.0).
Anda diperbolehkan untuk menyalin, mendistribusikan, menampilkan, dan melakukan karya dari artikel ini serta membuat karya turunan selama Anda memberikan kredit yang sesuai kepada penulis asli dan tidak menggunakan karya ini untuk tujuan komersial. Untuk melihat salinan lisensi ini, kunjungi [Creative Commons Attribution-NonCommercial 4.0 International](https://creativecommons.org/licenses/by-nc/4.0/).
---
Contoh pengkreditan:
- Penulis: [Nama Penulis]
- Judul Artikel: [Judul Artikel]
- Jurnal: Techno.Com, Vol. [Nomor Volume], No. [Nomor Edisi], Tahun [Tahun Penerbitan]
Jika Anda ingin menggunakan karya ini untuk tujuan komersial, Anda harus mendapatkan izin terlebih dahulu dari penulis atau penerbit.
---