Wednesday, July 6, 2011

MATRIX- TEORI MARKOV


Matriks adalah sekumpulan informasi yang setiap individu elemennya terdefinisi berdasarkan 2 buah indeks(yang biasanya dikonotasikan dengan baris dan kolom).Setiap elemen matriks dapa diakses secara langsung jika kedua indeks diketahui,dan indeksnya harus bertype yang mempunyai keturutan (suksesor),misalnya integer.Matriks adalah struktur data dengan memori internal.Struktur ini praktis untuk dipakai tetapi memakan memori!(matriks integer 100 x 100 memakan 10000x tempat penyimpan integer)Sering dikatakan bahwa matriks adalah table atau array berdimensi 2.Tetapi patut diperhatikan,bahwa pengertian “dimensi 2”,”baris dan kolom” adalah dalam pemikiran kita.Pengaturan letak elemen matriks dalam memori computer selalu tetap sebagai deretan sel”linier”Pengerti 2 dimensi ini hanya untuk mempemudah pemrograman dalam mendesain programnya.Maka matriks adalah salah satu contoh struktur data”logic”.Misal sebuah matriks berikutnya:

    Untuk memahami matriks maka dosen memberi tugas kelompok yaitu pada riset provider GSM yang ada di Indonesia, seperti Telkomsel, Indosat,3, Pro XL dan lain – lain dan dari data sudah tersedia maka untuk yang mana lebih dipilih masyarakat  jadi harus  kita perhitungan  data tersebut dengan matriks. Ketika membahas tentang tugas kalkulus, yang awalnya berhubungan dengan perpindahan dimensi, karena materi yang bersangkutan kami (mahasiswa) belum sepenuhnya mengerti, maka dosen memberikan alternatif lain dalam mengerjakan tugas kelompok. Yaitu dengan matriks serta sedikit menyinggung tentang teori Markov.Ini membahasan sedikit tentang teori Markov
     Definisi Proses Markov
Proses stokastik X(t) adalah aturan untuk menentukan fungsi X(t, ξ) untuk
setiap ξ. Jadi proses stokastik adalah keluarga fungsi waktu yang tergantung pada
parameter ξ atau secara ekivalen fungsi t dan ξ. X(t) adalah proses keadaan
diskret bila harga-harganya bulat. Bila tidak demikian X(t) adalah proses
kontinu.[9]
Pada tahun 1906, A.A. Markov seorang ahli matematika dari Rusia yang
merupakan murid Chebysev mengemukakan teori ketergantungan variabel acak
proses acak yang dikenal dengan proses Markov.[12] Proses Markov adalah proses
stokastik masa lalu tidak mempunyai pengaruh pada masa yang akan datang bila
masa sekarang diketahui.[9]
Bila tn-1<tn maka :
P{X(tn) Xn X(t), t tn-1} = P { X(tn) Xn X(tn-1)} [2.1]
Bila t1<t2<…….<tn maka :
P { X(tn) Xn X(tn-1),…….X(t1)} = P { X(tn) Xn X(tn-1)} [2.2]
Definisi di atas berlaku juga untuk waktu diskret bila X(tn) diganti Xn.[12], [13]
Konsep Dasar Markov Chain
     Apabila suatu kejadian  tertentu dari suatu rangkaian  eksperimen tergantung dari beberapa kemungkinan kejadian , maka rangkaian eksperimen tersebut disebut Proses Stokastik. Sebuah rantai Markov adalah suatu urutan dari variable-variabel acak  X 1, X 2, X 3,…… sifat Markov yaitu, mengingat keadaan masa depan dan masa lalu keadaan yang independen, dengan kata lain
nilai yang mungkin untuk membentuk Xi S disebut ruang keadaan rantai. Markov Chain adalah sebuah Proses Markov dengan populasi yang diskrit ( dapat dihitung) yang berada pada suatu discrete state (position) dan diizinkan utk berubah state pada time discrete.
Teorema-teorema
Teorema mengenai Relasi Ekovalensi
     a. Relasi i <—> j merupakan relasi ekuivalen
        1. untuk setiap status i , berlaku  i <—> i
        2. jika i <—> j, maka juga j <—> i
        3. jika i <—> j dan j <—> k maka i  <—> k
     b. Status-status suatu Rantai Markov dapat dipartisi kedalam kelas-kelas ekivalensi sehingga i  <—> j, jika dan hanya jika i dan j berada dalam kelas ekivalensi yang sama.
     c. Suatu Rantai Markov irreducible jika dan hanya jika didalamnya hanya terdiri atas tepat satu kelas ekivalensi.
     d. Jika i<—> j, maka i dan j memiliki periode yang sama.
     e.  Untuk i<—> j, jika i recurrent maka juga j recurrent.

Teorema mengenai Irreducible
     Jika {Xn}suatu rantai Markov, maka tepat salah satu kondisi berikut ini terjadi:
1.      Semua status adalah positif recurrent
2.      Semua status recurrent null
3.      Semua status trancient
Teorema mengenai Limiting Probability
    Definisi: πj(n) adalah probabilitas suatu Rantai Markov { Xn}berada dalam status j pada step ke n. Maka πj(n) = P[ Xn = j]
    Distribusi awal ( initial ) dari masing-masing status 0, 1, 2, …… dinyatakan sebagai
πj(0) = P[ X0 = j], untuk j = 0, 1, 2, ……
    Suatu rantai Markov memiliki distribusi probabilitas stasioner π = (π0, π1, π2, …., πn ) apabila terpenuhi persamaan π = π P asalkan setiap πi ≥ 0 dan ∑i πi =1.
    Jika suatu rantai Markov homogen waktu (stasioner dari waktu ke waktu) yang irreducible, aperiodic, maka limit probabiltasnya, untuk j = 0, 1, ……selalu ada dan independent dari distribusu probabilitas status awal π (0) = (π0(0) , π1(0) , π2(0), …..).
    Jika seluruh status tidak positif recurrent (jadi seluruhnya recurrent null atau seluruhnya transient), maka πj = 0 untuk semua j dan tidak terdapat distribusi probabilitas stasioner

1 comment: