Algoritma Apriori: Bagaimana Cara Kerjanya? Bagaimana Merek Dapat Memanfaatkan Algoritma Apriori?
Diterbitkan: 2020-03-26Bayangkan Anda berada di supermarket, dan dalam pikiran Anda, Anda memiliki barang-barang yang ingin Anda beli. Tapi Anda akhirnya membeli lebih banyak dari yang seharusnya. Ini disebut pembelian impulsif dan merek menggunakan algoritme apriori untuk memanfaatkan fenomena ini. Klik untuk mempelajari lebih lanjut jika Anda tertarik untuk mempelajari lebih lanjut tentang algoritme ilmu data.
Apa algoritma ini? Dan bagaimana cara kerjanya? Anda akan menemukan jawaban atas pertanyaan-pertanyaan ini di artikel ini. Pertama-tama kita akan melihat apa algoritma ini dan kemudian bagaimana cara kerjanya.
Mari kita mulai.
Daftar isi
Apa itu Algoritma Apriori?
Algoritme apriori memberi Anda kumpulan item yang sering. Dasarnya adalah sifat apriori yang dapat kita jelaskan sebagai berikut:
Misalkan set item yang Anda miliki memiliki nilai dukungan kurang dari nilai dukungan yang diperlukan. Kemudian, subset dari itemset ini juga akan memiliki nilai dukungan yang lebih sedikit dari yang dibutuhkan. Jadi, Anda tidak akan memasukkannya ke dalam perhitungan Anda dan akibatnya, menghemat banyak ruang.
Nilai dukungan mengacu pada berapa kali itemset tertentu muncul dalam transaksi. Algoritma apriori cukup populer karena penerapannya dalam sistem rekomendasi. Umumnya, Anda akan menerapkan algoritme ini ke basis data transaksional, yang berarti, basis data transaksi. Ada banyak aplikasi dunia nyata dari algoritma ini juga. Anda juga harus membiasakan diri dengan Penambangan Aturan Asosiasi untuk memahami algoritme apriori dengan benar.
Baca juga: Prasyarat untuk Ilmu Data. Bagaimana itu berubah dari waktu ke waktu?
Bagaimana Algoritma Apriori Bekerja?
Algoritma apriori menghasilkan aturan asosiasi dengan menggunakan frequent itemsets. Prinsipnya sederhana – subset dari frequent itemset juga akan menjadi frequent itemset. Itemset yang memiliki nilai support lebih besar dari nilai threshold adalah frequent itemset. Perhatikan data berikut:
TID | item |
T1 | 1 3 4 |
T2 | 2 3 5 |
T3 | 1 2 3 5 |
T4 | 2 5 |
T5 | 1 3 5 |
Pada iterasi pertama, misalkan nilai support adalah dua dan buat itemset dengan ukuran 1. Sekarang hitung nilai supportnya sesuai dengan itu. Kami akan membuang item yang memiliki nilai dukungan lebih rendah dari nilai minimum. Dalam contoh ini, itu akan menjadi item nomor empat.
C1 (Hasil iterasi pertama)
kumpulan barang | Mendukung |
{1} | 3 |
{2} | 3 |
{3} | 4 |
{4} | 1 |
{5} | 4 |
F1 (Setelah kita membuang {4})
kumpulan barang | Mendukung |
{1} | 3 |
{2} | 3 |
{3} | 4 |
{5} | 4 |
Pada iterasi kedua, kami akan mempertahankan ukuran itemset dua dan kemudian menghitung nilai dukungan. Kami akan menggunakan semua kombinasi tabel F1 dalam iterasi ini. Kami akan menghapus itemset apa pun yang memiliki nilai dukungan kurang dari dua.
C2 (Hanya ada item yang ada di F1)
kumpulan barang | Mendukung |
{1,2} | 1 |
{1,3} | 3 |
{1,5} | 2 |
{2,3} | 2 |
{2,5} | 3 |
{3,5} | 3 |
F2 (Setelah kami menghapus item yang memiliki nilai dukungan lebih rendah dari 2)
kumpulan barang | Mendukung |
{1,3} | 3 |
{1,5} | 2 |
{2,3} | 2 |
{2,5} | 3 |
{3,5} | 3 |
Sekarang, kita akan melakukan pemangkasan. Dalam hal ini, kita akan membagi itemset C3 menjadi subset dan menghapus yang memiliki nilai support lebih rendah dari dua.
C3 (Setelah kita melakukan pruning)

kumpulan barang | Di F2? |
{1,2,3}, {1,2}, {1,3}, {2,3} | TIDAK |
{1,2,5}, {1,2}, {1,5}, {2,5} | TIDAK |
{1,3,5}, {1,5}, {1,3}, {3,5} | YA |
{2,3,5}, {2,3}, {2,5}, {3,5} | YA |
Pada iterasi ketiga, kita akan membuang {1,2,5} dan {1,2,3} karena keduanya memiliki {1,2}. Ini adalah dampak utama dari algoritma apriori.
F3 (Setelah kita membuang {1,2,5} dan {1,2,3})
kumpulan barang | Mendukung |
{1,3,5} | 2 |
{2,3.5} | 2 |
Pada iterasi keempat, kita akan menggunakan himpunan F3 untuk membuat C4. namun, karena nilai dukungan C4 lebih rendah dari 2, kami tidak akan melanjutkan dan item terakhir adalah F3.
C3
kumpulan barang | Mendukung |
{1,2,3.5} | 1 |
Kami memiliki itemset berikut dengan F3:
Untuk I = {1,3,5}, himpunan bagian yang kita miliki adalah {5}, {3}, {1}, {3,5}, {1,5}, {1,3}
Untuk I = {2,3,5}, himpunan bagian yang kita miliki adalah {5}, {3}, {2}, {3,5}, {2,5}, {2,3}
Sekarang, kita akan membuat dan menerapkan aturan pada itemset F3. Untuk tujuan itu, kami akan mengasumsikan bahwa nilai kepercayaan minimum saat ini adalah 60%. Untuk himpunan bagian S dari I, inilah aturan yang kami hasilkan:
- S -> (I,S) (ini berarti S merekomendasikan IS)
- Jika support(I) / support(S) >= nilai min_conf
Mari kita lakukan ini untuk subset pertama yang kita miliki, yaitu {1,3,5}
Aturan no.1: {1,3} -> ({1,3,5} – {1,3}) ini berarti 1 & 3-> 5
Nilai Confidence = nilai support (1,3,5) / nilai support (1,3) = = 66,66%
Karena hasilnya lebih dari 60%, kami memilih Aturan no.1.
Aturan no.2: {1,5} -> {(1,3,5) – {1,5}) ini berarti 1 & 5 -> 3
Nilai Confidence = nilai support (1,3,5) / nilai support (1,5) = 2/2 = 100%
Karena hasilnya lebih tinggi dari 60%, kami memilih Aturan no.2.
Aturan no.3: {3} -> ({1,3,5} – {3}) ini berarti 3 -> 1 & 5
Nilai Confidence = nilai support (1,3,5) / nilai support (3) = 2/4 = 50%
Karena hasilnya lebih rendah dari 60%, kami menolak Peraturan no.3.
Dapatkan kursus ilmu data dari Universitas top dunia. Bergabunglah dengan Program PG Eksekutif, Program Sertifikat Tingkat Lanjut, atau Program Magister kami untuk mempercepat karir Anda.
Dengan contoh di atas, Anda dapat melihat bagaimana algoritma Apriori membuat dan menerapkan aturan. Anda dapat mengikuti langkah-langkah ini untuk set item kedua ({2,3,5}) yang kami miliki. Mencobanya pasti akan memberi Anda pengalaman hebat dalam memahami aturan apa yang diterima algoritme dan mana yang ditolaknya. Algoritma tetap sama di tempat lain seperti algoritma Apriori Python.
Kesimpulan
Setelah membaca artikel ini, kami yakin Anda akan cukup familiar dengan algoritma ini dan aplikasinya. Karena penggunaannya dalam sistem rekomendasi, ini juga menjadi sangat populer.
Apakah ada algoritma yang lebih efisien daripada algoritma Apriori?
Algoritma ECLAT (Equivalence Class Clustering dan bottom-up Lattice Traversal) ternyata cukup berguna dan populer untuk penambangan aturan asosiasi. Selain itu, algoritma ini juga dikenal sebagai algoritma yang lebih efisien dan lebih cepat dibandingkan dengan algoritma Apriori.
Algoritma Apriori bekerja secara horizontal karena meniru Breadth-First Search dari sebuah Grafik, sedangkan algoritma ECLAT bekerja secara vertikal dengan meniru Depth-First Search dari sebuah Grafik. Pendekatan vertikal ini adalah alasan di balik kecepatan yang lebih cepat dan efisiensi yang lebih baik dari algoritma ECLAT dibandingkan dengan algoritma Apriori.
Algoritma Apriori berguna untuk tujuan apa?
Algoritma Apriori merupakan algoritma klasik yang banyak digunakan dalam data mining. Ini sangat berguna untuk menambang aturan asosiasi yang relevan dan juga kumpulan item yang sering muncul dari database yang tersedia. Biasanya, algoritma ini digunakan oleh organisasi yang harus menangani database yang terdiri dari banyak transaksi. Misalnya, algoritme apriori membuatnya cukup mudah untuk menentukan barang yang sering dibeli pelanggan dari toko Anda. Penjualan pasar dapat sangat ditingkatkan dengan bantuan algoritma ini.
Selain itu, algoritma ini juga digunakan di sektor kesehatan untuk mendeteksi reaksi obat yang merugikan. Algoritma menghasilkan aturan asosiasi untuk menentukan semua kombinasi karakteristik pasien dan obat-obatan yang dapat menyebabkan reaksi obat yang merugikan.
Apa pro dan kontra dari algoritma Apriori?
Algoritma Apriori cukup mudah diimplementasikan, dipahami dan dapat digunakan dengan sangat efisien pada itemset besar. Terkadang, mungkin ada kebutuhan untuk menemukan sejumlah besar aturan kandidat, dan proses ini bisa menjadi sedikit mahal secara komputasi. Karena harus melalui seluruh database, juga mahal untuk menghitung dukungan.