Pengantar Rantai Markov: Prasyarat, Properti & Aplikasi

Diterbitkan: 2020-04-14

Pernahkah terlintas dalam pikiran Anda bagaimana ahli meteorologi membuat prediksi cuaca yang tepat atau bagaimana Google memberi peringkat pada halaman web yang berbeda? Bagaimana mereka membuat aplikasi python yang menarik di dunia nyata. Perhitungan ini kompleks dan melibatkan beberapa variabel yang dinamis dan dapat diselesaikan dengan menggunakan perkiraan probabilitas.

Ketika Google memperkenalkan algoritma PageRank, itu merevolusi industri web. Dan jika Anda terbiasa dengan algoritme itu, Anda juga harus tahu bahwa ia menggunakan rantai Markov. Dalam pengantar kami untuk rantai Markov, kami akan melihat sekilas dan memahami apa itu. Jadi, mari kita mulai.

Daftar isi

Prasyarat

Penting untuk mengetahui beberapa konsep sebelum kita mulai membahas rantai Markov. Dan kebanyakan dari mereka berasal dari teori probabilitas. Secara non-matematis, Anda dapat menentukan nilai variabel acak sebagai hasil dari peristiwa acak. Jadi, misalnya, jika variabelnya adalah hasil pelemparan dadu, itu akan menjadi angka sedangkan jika itu adalah hasil dari pelemparan koin, itu akan menjadi boolean (0 atau 1). Himpunan hasil yang mungkin ini dapat kontinu dan juga diskrit.

Jadi kita dapat mengatakan bahwa proses stokastik adalah kumpulan variabel acak yang menetapkan indeks. Set itu mewakili contoh waktu yang berbeda. Himpunan ini dapat berupa bilangan real (proses kontinu) atau bilangan asli (proses diskrit).

Baca: Struktur Data Dibangun dengan Python

Pengantar Rantai Markov

Rantai Markov mendapatkan namanya dari Andrey Markov, yang pertama kali mengemukakan konsep ini pada tahun 1906. Rantai Markov mengacu pada proses stokastik yang berisi variabel acak, dan variabel tersebut bertransisi dari keadaan ke keadaan lain sesuai dengan aturan dan asumsi probabilitas.

Apa aturan dan asumsi probabilistik itu, Anda bertanya? Itu disebut Properti Markov. Belajar lebih tentang Rantai Markov dalam Tutorial Python

Apa itu Properti Markov?

Ada banyak kelompok proses acak, seperti model autoregressive dan proses Gaussian. Properti Markov membuat studi proses acak ini menjadi lebih mudah. Properti Markov menyatakan bahwa kita tidak akan mendapatkan lebih banyak informasi tentang hasil masa depan dari suatu proses dengan meningkatkan pengetahuan kita tentang masa lalunya jika kita mengetahui nilainya pada waktu tertentu.

Definisi yang lebih rumit adalah: Properti Markov mengatakan bahwa probabilitas proses stokastik hanya bergantung pada keadaan dan waktu saat ini, dan tidak bergantung pada keadaan lain sebelumnya. Itu sebabnya ini adalah properti tanpa memori karena hanya bergantung pada status proses saat ini.

Rantai Markov waktu diskrit homogen adalah proses Marko yang memiliki ruang dan waktu keadaan diskrit. Kita dapat mengatakan bahwa rantai Markov adalah deret keadaan diskrit, dan memiliki sifat Markov.

Berikut representasi matematis dari rantai Markov:

X = ( X n ) n N =( X 0 , X 1 , X 2 , …)

Sifat Rantai Markov

Mari kita lihat fitur dasar rantai Markov untuk memahaminya dengan lebih baik. Kami tidak akan membahas topik ini terlalu dalam karena tujuan artikel ini adalah untuk membuat Anda terbiasa dengan konsep umum rantai Markov.

Reduksibilitas

Rantai Markov tidak dapat direduksi. Itu berarti mereka tidak memiliki reducibility jika dapat mencapai negara bagian mana pun dari negara bagian lain. Rantai tidak perlu mencapai satu keadaan dari yang lain hanya dalam satu langkah waktu; itu dapat melakukannya dalam beberapa langkah waktu. Jika kita dapat merepresentasikan rantai dengan sebuah graf, maka graf tersebut akan terhubung dengan kuat.

aperiodik

Misalkan periode suatu keadaan adalah k. Jika k = 1, maka keadaan ini aperiodik ketika setiap jenis pengembalian ke keadaannya memerlukan beberapa k langkah waktu. Ketika semua keadaan dari rantai Markov adalah aperiodik, maka kita dapat mengatakan bahwa rantai Markov adalah aperiodik.

Keadaan Transien dan Berulang

Ketika Anda meninggalkan suatu keadaan, dan ada kemungkinan bahwa Anda tidak dapat kembali ke keadaan itu, kita katakan bahwa keadaan itu bersifat sementara. Di sisi lain, jika kita dapat kembali ke keadaan dengan probabilitas 1, setelah kita meninggalkannya, kita dapat mengatakan bahwa properti tersebut berulang.

Ada dua jenis keadaan berulang yang bisa kita miliki. Yang pertama adalah keadaan berulang positif yang memiliki waktu kembali yang diharapkan terbatas, dan yang kedua adalah keadaan berulang nol yang memiliki waktu kembali yang diharapkan tak terbatas. Waktu kembali yang diharapkan mengacu pada waktu pengulangan rata-rata ketika kita meninggalkan keadaan.

Aplikasi Rantai Markov

Rantai Markov menemukan aplikasi di banyak area. Berikut adalah aplikasi mereka yang menonjol:

  • Algoritma PageRank Google memperlakukan web seperti model Markov. Anda dapat mengatakan bahwa semua halaman web adalah status, dan tautan di antara mereka adalah transisi yang memiliki probabilitas tertentu. Dengan kata lain, kami dapat mengatakan bahwa apa pun yang Anda cari di Google, ada kemungkinan terbatas Anda akan berakhir di halaman web tertentu.
  • Jika Anda menggunakan Gmail, Anda pasti memperhatikan fitur IsiOtomatisnya. Fitur ini secara otomatis memprediksi kalimat Anda untuk membantu Anda menulis email dengan cepat. Rantai Markov sangat membantu di sektor ini karena mereka dapat memberikan prediksi semacam ini secara efektif.
  • Pernahkah Anda mendengar tentang Reddit? Ini adalah platform media sosial yang signifikan yang diisi dengan subreddits (nama untuk komunitas di Reddit) dari topik tertentu. Reddit menggunakan rantai dan model Markov untuk mensimulasikan subreddit untuk pemahaman yang lebih baik tentang hal yang sama.

Tahu lebih banyak: Evolusi Pemodelan Bahasa dalam Kehidupan Modern

Pikiran Akhir

Tampaknya kita telah mencapai akhir pengenalan rantai Markov. Kami harap Anda menemukan artikel ini bermanfaat. Jika Anda memiliki pertanyaan atau pertanyaan, jangan ragu untuk membagikannya kepada kami melalui komentar. Kami akan senang mendengar dari Anda.

Jika Anda ingin mempelajari lebih lanjut tentang topik ini, Anda harus menuju ke bagian kursus kami. Anda akan menemukan banyak sumber daya berharga di sana.

Jika Anda penasaran untuk belajar tentang ilmu data, lihat Diploma PG IIIT-B & upGrad dalam Ilmu Data yang dibuat untuk para profesional yang bekerja dan menawarkan 10+ studi kasus & proyek, lokakarya praktis, bimbingan dengan pakar industri, 1- on-1 dengan mentor industri, 400+ jam pembelajaran dan bantuan pekerjaan dengan perusahaan-perusahaan top.

Apakah ada aplikasi kehidupan nyata dari Markov Chains?

Salah satu tes paling penting untuk menangani prosedur percobaan terpisah adalah rantai Markov. Di bidang keuangan dan ekonomi, rantai Markov digunakan untuk mewakili berbagai peristiwa, seperti kehancuran pasar dan nilai aset. Rantai Markov diterapkan di berbagai bidang akademik, termasuk biologi, ekonomi, dan bahkan skenario dunia nyata. Tempat parkir memiliki sejumlah tempat yang tersedia, tetapi berapa banyak yang tersedia pada satu saat dapat dicirikan menggunakan model Markov berdasarkan kombinasi banyak faktor atau variabel. Rantai Markov sering digunakan untuk membuat teks tiruan, artikel panjang, dan pidato.

Apa yang dimaksud dengan istilah ekuilibrium sehubungan dengan Rantai Markov?

Distribusi T dikatakan distribusi kesetimbangan Jika T P = T. Kesetimbangan mengacu pada situasi di mana distribusi Xt tidak berubah saat kita maju melalui rantai Markov. Faktanya, fitur pembeda dari rantai Markov adalah bahwa keadaan potensial di masa depan adalah tetap, terlepas dari bagaimana proses mencapai keadaan saat ini. Dengan kata lain, kemungkinan transisi ke kondisi tertentu sepenuhnya ditentukan oleh keadaan saat ini dan jumlah waktu yang telah berlalu.

Apakah waktu Rantai Markov homogen?

Jika probabilitas transisi antara dua nilai keadaan yang diberikan pada setiap dua waktu hanya bergantung pada perbedaan antara waktu-waktu itu, prosesnya adalah waktu yang homogen. Ada syarat agar rantai Markov homogen atau tidak homogen. Peluang transisi rantai Markov dikatakan homogen jika dan hanya jika tidak bergantung pada waktu. Properti Markov dipertahankan dalam rantai Markov non-homogen (nhmc), meskipun probabilitas transisi dapat bervariasi dengan waktu. Bagian ini memaparkan kriteria yang menjamin adanya batas variasi dalam rantai tersebut, dengan tujuan menerapkannya pada simulasi anil.