Academia.eduAcademia.edu

Bab 9 Analisis Markov

2019

Probababilitas Transisi Probabilitas Tree Pendekatan Matriks

Analisis Markov Agustin Windianingsih, S.T., M.M. Materi Universitas Islam Jakarta 01 Pendahuluan 02 Probabilitas Transisi dan Contoh Kasus 03 Probabilitas Tree dan Contoh Kasus 04 Pendekatan Matriks dan Contoh Kasus 05 Probabilitas Steady State dan Contoh Kasus 1. Pendahuluan ✓ Model rantai markov dikembangkan oleh A.A Markov tahun 1896. ✓ Dalam analisis markov yang dihasilkan adalah suatu informasi probabilistik yang dapat digunakan untuk membantu pembuatan keputusan. ✓ Analisis ini bukan teknik optimisasi melainkan suatu teknik deskriptif. ▪ Analisis markov merupakan bentuk khusus dari model probabilistik yang lebih umum dikenal sebagai proses stokastik ▪ Analisa Rantai Markov adalah suatu metode yang mempelajari sifat-sifat suatu variabel pada masa sekarang yang didasarkan pada sifat-sifatnya pada masa lalu dalam usaha menaksir sifat-sifat variabel tersebut di masa yang akan dating ▪ Analisis Markov adalah suatu teknik matematik untuk peramalan perubahan pada variabel-variabel tertentu berdasarkan pengetahuan dari perubahan sebelumnya. Deterministik : jika dari pengalaman yang lalu keadaan yang akan datang suatu barisan kejadian dapat diramalkan secara pasti. Stokastik : jika pengalaman yang lalu hanya dapat menyajikan struktur peluang keadaan yang akan datang. Hull said “setiap nilai yang berubah terhadap waktu dalam ketidakpastian, mengikuti proses stokastik” Konsep Dasar Analisis Markov : State dari sistem atau state transisi SIFAT : Apabila diketahui proses berada dalam suatu keadaan tertentu, maka peluang berkembangnya proses di masa mendatang hanya tergantung pada keadaan saat ini dan tidak tergantung pada keadaan sebelumnya, Atau dengan kata lain rantai Markov adalah rangkaian proses kejadian dimana peluang bersyarat kejadian yang akan datang tergantung pada kejadian sekarang. Aplikasi Membantu membuat keputusan dalam bisnis dan industri Ganti Merk Hutang Piutang Operasi Mesin Analisis Pengawasan Informasi yang dihasilkan tidak mutlak menjadi suatu keputusan, karena sifatnya yang hanya memberikan bantuan dalam proses pengambilan keputusan. Re a l E state 2. Probabilitas Transisi dan Contoh Kasus Probabilitas Transisi adalah perubahan dari satu status ke status yang lain pada periode (waktu) berikutnya dan merupakan suatu proses random yang dinyatakan dalam probabilitas. Tabel 1 : Matriks Kemungkinan Transisi ❑ n = jumlah keadaan dalam proses ❑ Pij = kemungkinan transisi dari keadaan saat i ke keadaan j ❑ Jika saat ini berada pada keadaan i maka baris i dari tabel di atas berisi angka- angka Pi1, Pi2, Pin merupakan kemungkinan berubah ke keadaan berikutnya. ❑ Oleh karena angka tersebut melambangkan kemungkinan, maka semuanya merupakan bilangan non negatif dan tidak lebih dari satu. Ciri-ciri Markov ▪ Suatu keadaan A atau B, atau disebut state A atau dan state B, atau state 1 atau state 2 ▪ Jika berada pada state A, pasti tidak pada state B dan sebaliknya Contoh kendaraan umum, jika ada dua kondisi mogok dan narik Pasti kendaraan tersebut jika tidak mogok pasti narik Jika narik → state 1 Jika mogok → state 2 Dalam konteks ini kendaraan selalu berada pada salah satu state diatas secara bergantian. Perubahan dari suatu status ke status yang lain pada periode berikutnya merupakan suatu proses random yang dinyatakan dalam probabilitas dan dinamakan probabilitas transisi. Contoh: P (narik I narik ) = 0,6 P (narik I mogok) = 0,4 P (mogok I narik) = 0,8 P (mogok I mogok) = 0,2 P (mogok I narik) = 0,8, berarti peluang besok narik jika sekarang mogok adalah 0,8. Probabilitas ini dapat disusun dalam bentuk tabel (matriks) Dari status (sekarang) Ke status (besok) Narik Mogok Narik 0,6 0,4 Mogok 0,8 0,2 Digolongkan proses Markov jika masalah di atas memenuhi asumsi: • Jika sekarang kendaraan narik, besok hanya ada dua kemungkinan status, yaitu narik lagi atau mogok. Sehingga jumlah probabilitas transisi pada setiap baris adalah 1. • Probabilitas transisi itu tidak akan berubah untuk selamanya. • Probabilitas transisi hanya tergantung pada status sekarang dan bukan pada status periode sebelumnya. Contoh Kasus I Tabel 2 : Matriks Kemungkinan Transisi • Pada kedua baris berjumlah 100, tetapi jumlah kolom tidak • Informasi ini digunakan untuk membuat matriks kemungkinan perpindahan keadaan/transisi • Didefinisikan : Keadaan 1 : Pembeli berbelanja di W , Keadaan 2 : Pembeli berbelanja di L • Dengan demikian matriks kemungkinan transisinya adalah sbb : Tabel 3 : Probabilitas Transisi • Terlihat bahwa kemungkinan dari setiap baris berjumlah satu. Syarat – syarat dalam analisa markov 01 02 Probabilitas-probabilitas tersebut berlaku untuk semua partisipan dalam sistem. 03 04 Jumlah probabilitas transisi untuk suatu keadaan awal dari sistem sama dengan 1. Probabilitas transisi konstan sepanjang waktu. Kondisi merupakan kondisi yang independen sepanjang waktu. Re a l E state 3. Probabilitas Tree dan Contoh Kasus Probabilitas Tree merupakan cara yang mudah untuk menggambarkan transisi dengan jumlah terbatas dari suatu proses Markov. Contoh Kasus : Sebuah perusahaan transportasi mempunyai 220 unit mobil. Namun tidak semua mobil dapat beroperasi dikarenakan mesin rusak. Data mobil yang sedang beroperasi (narik) dan rusak (mogok) adalah sebagai berikut : Dalam waktu dua hari terdapat perubahan, mobil yang tadinya beroperasi ternyata rusak, begitu pula sebaliknya untuk mengetahui perubahan yang terjadi ada pada tabel berikut : Dari data tersebut hitunglah : a. Probabilitas Transisi b. Probabilitas hari ke-3 narik jika hari ke-1 narik c. Probabilitas hari ke-3 mogok jika hari ke-1 narik d. Probabilitas hari ke-3 narik jika hari ke-1 mogok e. Probabilitas hari ke-3 mogok jika hari ke-1 mogok Jawab : a. Probabilitas Transisi b. Probabilitas Tree Peralatan Analisis Markov Informasi yang dapat dihasilkan dari analisis Markov adalah probabilitas berada dalam suatu status pada satu periode di masa depan. Ada dua cara untuk menemukan informasi itu, yaitu : 1 Dengan probabilitas tree 2 Perkalian matriks 3 Probabilitas Tree merupakan cara yang nyaman untuk menunjukkan sejumlah terbatas transisi dari suatu proses Markov. Re a l E state Contoh kendaraan umum Dari status (sekarang) - Ke status (besok) Narik Mogok Narik 0,6 0,4 Mogok 0,8 0,2 Misalkan ingin diketahui peluang narik pada hari ketiga jika pada hari pertama kendaraan berstatus narik . 0,36 0,6 Narik 0,6 0,24 0,6 0,68 Narik 0,4 Narik 0,4 0,4 Mogok 0,32 0,8 Mogok Narik 0,32 0,08 0,2 Mogok Re a l E state Jika pada hari pertama mogok, berapa peluang mogok pada hari ketiga 0,48 0,6 Narik 0,6 0,32 0,8 0,64 Narik 0,4 Narik 0,2 0,2 Mogok 0,16 0,8 Mogok Narik 0,36 0,04 0,2 - Mogok Jika yang ingin diketahui adalah probabilitas status pada periode ke t di masa depan, dimana t cukup besar, maka alternatif yang digunakan adalah dengan perkalian matriks Re a l E state Matriks probabilitas transisi : 0,6 0,4 0,8 0,2 Jika kendaraan narik pada hari ke 1, maka berlaku probabilitas berikut ini: Nn (1) = 1 Mm(1) = 0 jika kedua probabilitas ini disusun ke dlm matrik (1 0) Kemudian kalikan dengan matrik probabilitas transisi (N (1) M(1)) = ( 1 0) 0,6 0,4 0,8 0,2 Re a l E state Pendekatan Matriks dan Contoh Kasus Ada kalanya kita harus mencari probabilitas pada periode yang sangat besar, misalkan periode hari ke-9, ke-10 dan seterusnya, akan sangat menyulitkan dan membutuhkan media penyajian yang khusus jika kita menggunakan Probabilitas Tree. Permasalahan tersebut dapat diselesaikan dengan menggunakan metode Pendekatan Matriks Probabilitas. Adapun Matriks Probabilitas dari contoh kasus di atas adalah sebagai berikut: Re a l E state • Probabilitas kendaraan narik pada periode ke-i jika pada periode ke-1 narik, dilambangkan dengan: • Probabilitas kendaraan mogok pada periode ke-3 jika pada periode ke-1 mogok,dilambangkan dengan: • Jika kendaraan pada hari ke-1 narik maka berlaku probabilitas sebagai berikut: • Jika probabilitas di atas disusun ke dalam vektor baris, maka kita dapatkan: • Adapun rumus untuk mencari probabilitas periode berikutnya (i+1) adalah: Bila rumus di atas kita gunakan untuk mencari probabilitas hari ke-2, maka: Terlihat bahwa hasilnya sama dengan yang diperoleh dengan menggunakan metode Probabilities Tree. Dengan menggunakan cara yang sama kita akan dapatkan status untuk periode-periode berikutnya sebagai berikut: Terlihat bahwa perubahan probabilitas semakin lama semakin mengecil sampai akhirnya tidak tampak adanya perubahan. Probabilitas tersebut tercapai mulai dari periode ke-7, dengan probabilitas status: Ini berarti pemilik kendaraan dapat menarik kesimpulan bahwa jika awalnya kendaraan berstatus narik, setelah beberapa periode di masa depan probabilitasnya narik adalah sebesar 0,6398 dan probabilitasnya mogok adalah sebesar 0,3602. Untuk perhitungan probabilitas status hari pertama mogok dapat kita cari dengan metode yang sama dan akan kita dapatkan probabilitas yang akan sama untuk periode selanjutnya, mulai dari periode ke-8. Adapun probabilitas pada periode ke-8 adalah: 5. Probabilitas Steady State dan Contoh Kasus Dalam banyak kasus, proses markov akan menuju pada Steady State (keseimbangan) artinya setelah proses berjalan selama beberapa periode, probabilitas yang dihasilkan akan bernilai tetap, dan probabilitas ini dinamakan Probabilitas Steady State. Dari contoh di atas Probabilitas Steady Statenya adalah probabilitas narik sebesar 0,6398 dan probabilitas mogok sebesar 0,3602. Untuk mencari Probabilitas Steady State dari suatu Matriks Transisi, maka kita dapat menggunakan rumus Karena Steady State akan menghasilkan probabilitas yang sama pada periode kedepan maka rumus tersebut akan berubah menjadi: Dari contoh kasus di atas dengan status hari ke-1 narik, maka kita dapatkan: Untuk mengurangi keruwetan, periode (i) dapat kita hilangkan, karena pada saat Steady State tercapai periode tidak akan mempengaruhi perhitungan. Sehingga perhitungan di atas akan menjadi: Dari perhitungan di atas akan menghasilkan persamaan berikut: Karena salah satu ciri proses markov adalah: Dengan menstubstitusikan Mn = 1 -Nn ke persamaan (1) didapatkan: Lalu kita masukkan nilai Nn = 0,6398 ke dalam persamaan (2) didapatkan: Mn = 0,3602 PENGGUNAAN PROBABILITAS STEADY STATE Dari contoh kasus kita ketahui bahwa Pemilik Kendaraan memiliki 220 kendaraan. Dengan menggunakan Probabilitas Steady State yang sudah kita dapatkan, Pemilik dapat mengharapkan jumlah kendaraan setiap harinya narik atau mogok sebanyak: Misalkan Pemilik kurang puas dengan tingkat operasi yang ada dan ingin meningkatkannya, sehingga Pemilik mengambil kebijakan untuk menggunakan suku cadang asli dalam setiap perawatan armada. Kebijakan ini membuat Matriks Probabilitas Transisi berubah menjadi: Artinya kebijakan ini membuat Probabilitas saat ini narik, lalu hari berikutnya mogok menurun dari 0,4 menjadi 0,3. Probabilitas Steady State yang baru adalah: Sehingga kita dapatkan persamaan berikut: Substitusikan Nn = 1 - Mn ke persamaan (2), sehingga kita dapatkan: Mn = 0,2885 dan Nn = 0,7116 Artinya setiap harinya Pemilik dapat mengharapkan kendaraan yang narik atau mogok sebanyak: Narik : Nn x 220 = 0,7116 x 220 = 156,55 atau sebanyak 157 kendaraan Mogok : Mn x 220 = 0,2885 x 220 = 63,47 atau sebanyak 63 kendaraan Kebijakan tersebut menghasilkan kenaikan operasional dari 141 kendaraan perhari menjadi 157 kendaraan perhari. Dalam hal ini Pemilik harus mengevaluasi kebijakan ini, apakah kenaikan pendapatan operasional dapat menutupi kenaikan biaya operasional karena kebijakan ini. Misalkan karena kebijakan ini terjadi kenaikan biaya perawatan kendaraan sebesar Rp. 1.000.000,- setiap harinya. Jadi bila kenaikan pendapatan operasional lebih besar dari Rp. 1.000.000,- maka kebijakan tersebut layak untuk dijalankan. Dari contoh ini menunjukkan bahwa Analisis Markov tidak memberikan solusi atau keputusan, namun analisis tersebut memberikan informasi yang dapat membantu pembuatan keputusan. Thank you