LCD Text Generator at TextSpace.net

Kamis, 08 Desember 2016

Learning (Decisioin Tree)

Pada kesempatan kali ini saya dan teman saya dari blog airayase.blogspot.com akan membangun sebuah decision tree untuk memutuskan apakah akan menunggu meja di suatu restoran atau tidak menunggu.

Decision Tree Merupakan salah satu metode machine learning yang paling sederhana dan sukses. Pertama dibuat representasinya (ruang hipotesis), kemudian dipelajari bagaimana mendapatkan hipotesis yang baik.

Goal predicate disini adalah WillWait. Berikut Training Set (data latih) yang disediakan ada 12  data. Contoh positif dari data latih adalah yang memiliki goal WillWait=yes sedangkan sisanya (WillWait=no) adalah contoh negatif.



Decision tree adalah membuat pohon keputusan sependek mungkin jadi kita akan mencari perbedaan yang signifikan. Tapi sebelum itu kita akan mencari entropi keseluruhan / Training Set.



Setelah kita mencari entropi Training Set kita mencari perbedaan yang signifikan, disini kita akan mencari Gain terbesar dari setiap atribut. Mencari Gain dengan menggunakan rumus entropi.












Setelah kita hitung maka kita dapatkan Patron dengan Gain terbesar. Maka kita akan menggunakan Patron sebagai akar DT kita.



Setelah kita mendapatkan akar maka kita lanjutkan membuat pohon dengan melihat anak pohon yang masih belum jelas nilai kebenarannya. Kita kembali mencari Gain dari atribut yang lain selain akar pohon dengan hanya melihat entropi dari anak pohon yang belum jelas nilai kebenarannya. Mencari Gain dengan rumus entropi kembali.











Setelah kita hitung lagi kita mendapatkan beberapa kesamaan atribut yang memiliki nilai Gain yang besar. Namun disini saya menggunakan Hungry untuk menjadi induk bagi anak pohon selanjutnya.



Setelah kita membuat pohon seperti itu kita cari lagi kelanjutan pohon dari anak pohon yang belum jelas nilai kebenarannya dengan Gain dan rumus entropi. Mecari Gain dari atribut lain hanya dengan melihat entropi dari anak pohon yang belum jelas nilai kebenarannya.








Kita mendapatkan Type sebagai pemegang Gain terbesar. Sehingga kita gunakan Type untuk melanjutkan pohon kita.



Namun dalam Type masih terdapat anak pohon yang belum jelas nilai kebenarannya, maka kita mencari lagi Gain terbesar dari sisa atribut dengan melihat entropi dari anak pohon yang belum jelas nilai kebenarannya.





Kita kembali mendapatkan beberapa atribut yang memiliki niali Gain yang sama dan paling besar. Namun disini saya memilih Friday.dan akhirnya kita mendapatkan pohon keputusan yang jelas nilai kebenarannya.



Sekian pembuatan decision tree yang saya dan teman saya dapat sampaikan mohon maaf apabila ada kesalahan dalam penjelasan. Atas perhatiannya kami ucapkan terima kasih.

Dibuat oleh :
Istnania Ihzha Adamy            (1503015074)
Ira Mawaddah                      (1503015070)