DASAR – DASAR BAYESIAN LEARNING

Embed Size (px)

Citation preview

Nama Kelompok Luhur Sasongko (0834110016) Irfansyah Adie Kusuma (0834010036) Yuangga K P (0834010078) Agus Hadianto (0834010055) Akhmad Taufik H (0834110015)

DASAR DASAR KECERDASAN BUATANPEMBELAJARAN STATISTIK MESIN Mengapa Belajar BayesianWolfram Burgard, Bernhard Nebel, and Luc De Raedt

Isi Statistik belajar Mengapa belajar bekerja

Statistik Metode Belajar Dalam MDP probabilikantong dan teori utilikantong memungkinkan agen untuk menangani ketidakpastian. Untuk menerapkan teknik ini, bagaimanapun, agen pertama harus belajar probabilistik mereka teori dunia dari pengalaman. Kami akan membahas metode pembelajaran statistik sebagai cara yang kuat untuk mempelajari model probabilistik

Contoh untuk Belajar Statistik Konsep utama adalah data (bukti) dan hipotesis. Sebuah produsen permen menjual lima macam kantong yang dibedakan dari: h1: cherry 100% h2: 75% ceri dan 25% lemon h3: 50% ceri dan 50% lemon h4: cherry 25% dan 75% lemon h5: 100% lemon Mengingat urutan d1, ..... , dN permen diamati, apa rasa yang paling mungkin dari permen berikutnya?

Teori Bayesian Menghitung probabilikantong setiap hipotesis, diberikan data. Hal ini kemudian membuat prediksi menggunakan semua hipotesis tertimbang oleh probabilikantong mereka (dan bukan hipotesis tunggal terbaik). pembelajaran dikurangi menjadi inferensi probabilistik.

Penerapan Aturan Bayes Biarkan D mewakili semua data dengan nilai yang diamati. Probabilikantong masing-masing hipotesis maka diperoleh : Bayes rule = Pabrikan memberitahu kita bahwa sebelum distribusi melalui h1,..., h5 diberikan oleh Kami menghitung kemungkinan data di bawah asumsi bahwa pengamatan independen dan terdistribusi secara identik (iid):

Cara Membuat Prediksi Misalkan kita ingin membuat prediksi tentang memiliki repukantongi X diberikan data d.

Prediksi rata-rata tertimbang selama prediksi dari hipotesis individu. Kuantikantong kunci hipotesis sebelumnya P (hi) dan kemungkinan P (d | hi) dari data di bawah hipotesis masing-masing.

Contoh Misalkan kantong adalah kantong semua-lemon (h5) 10 pertama permen semua lemon. Maka P (d | h3) adalah 0,510 karena setengah permen di dalam kantong h3 adalah lemon. Evolusi dari lima hipotesis yang diberikan 10 permen lemon diamati (nilai dimulai pada sebelumnya!).

Pengamatan Hipotesis yang sesungguhnya seringkali mendominasi prediksi Bayesian. Untuk tetap sebelumnya yang tidak mengesampingkan hipotesis yang benar, posterior dari setiap hipotesis yang salah akhirnya akan lenyap. Prediksi Bayesian adalah optimal dan, diberikan hipotesis sebelumnya, setiap prediksi lainnya akan sering kurang benar. Itu terjadi ketika harga ruang hipotesis sangat besar atau tak terbatas.

Maksimum a posteriori (MAP) Suatu pendekatan umum adalah membuat prediksi berdasarkan hipotesis yang paling mungkin. Maksimum aposteriori (MAP) hipotesis adalah salah satu yang memaksimalkan P (hi | d).

Dalam contoh permen, HMAP = h5 setelah tiga lemon permen berturut-turut. MAP pelajar memprediksi bahwa permen keempat lemon dengan probabilitas 1.0 adalah, sedangkan prediksi Bayesian masih 0,8. Sebagai data yang lebih awal tiba, MAP dan prediksi Bayesian menjadi relevan. Mencari hipotesis MAP sering lebih mudah daripada belajar Bayesian.

Mengapa Kita Perlu tahu cara bekerja Bayesian Bagaimana kita bisa memutuskan bahwa h dekat dengan f ketika f adalah diketahui? Mungkin sekitar yang benar Stasioneritas sebagai asumsi dasar dari PAC-Learning: pelatihan dan uji set dipilih dari yang sama populasi contoh dengan probabilitas yang sama distribusi. Kunci Pertanyaan : berapa banyak contoh yang kita butuhkan? X Set contoh D Distribusi dari mana contoh yang diambil H Hipotesis ruang (f AZ H) m Jumlah contoh dalam pelatihan ditetapkan

Pembelajaran PAC Sebuah h hipotesis adalah benar jika . Untuk menampilkan: Setelah periode pelatihan dengan contoh m, dengan probabilitas tinggi, semua hipotesis konsisten mendekati benar.

Seberapa tinggi adalah probabilitas bahwa hipotesis yang salah hb Hbad konsisten dengan contoh m pertama?

Contoh Kompleksitas Asumsi : P(hb adalah konsisten dengan 1 contoh) P(hb adalah konsisten dengan N contoh) P(Hbad konsisten berisi h) Sesudah |Hbad | |H| P(Hbad konsisten berisi h) Kami ingin membatasi kemungkinan ini dengan beberapa nomor kecil : Sesudah , kita peroleh Contoh Kompleksitas : Jumlah contoh yang diperlukan, sebagai fungsi dan .

Contoh Kompleksitas (2) Contoh: fungsi Boolean Jumlah fungsi Boolean atas atribut n |H|=2 . Kompleksitas sampel itu tumbuh sebagai 2 . Karena jumlah contoh yang mungkin juga 2 , apapun belajar algoritma untuk ruang semua Booleanfungsi akan melakukan tidak lebih baik dari tabel lookup, jika hanya mengembalikan hipotesis yang konsisten dengan semua dikenal contoh.

Belajar dari Daftar Keputusan Dibandingkan dengan pohon keputusan: Struktur keseluruhan lebih sederhana Tes individu lebih kompleks

Ini merupakan hipotesis Jika kita mengizinkan tes ukuran sewenang-wenang, maka setiap fungsi Boolean dapat diwakili. k-DL: Bahasa dengan tes panjang sebesar .

Kemampuan Pembelajaran k-DL

(Ya, Tidak, tidak-Test, semua permutasi) (Kombinasi tanpa pos mengulangi / atribut neg) (Dengan rumus penjumlahan Euler)

Ringkasan (Metode Belajar Statistik) Teknik pembelajaran Bayesian merumuskan belajar sebagai bentuk inferensi probabilistik. Maksimum aposteriori (MAP) belajar memilih hipotesis yang paling mungkin diberikan data. kemungkinan belajar Maksimum memilih hipotesis yang dapat memaksimalkan kemungkinan data.

Ringkasan (Teori Belajar Statistik) Keputusan pohon belajar fungsi Boolean deterministik. PAC belajar berkaitan dengan kompleksitas belajar. Keputusan daftar sebagai fungsi yang mudah belajar.