Pada kesempatan kali ini saya dan teman
saya dari blog airayase.blogspot.com akan membangun sebuah
decision tree untuk memutuskan apakah akan menunggu meja di suatu restoran atau
tidak menunggu.
Decision Tree Merupakan
salah satu metode machine learning yang paling sederhana dan sukses. Pertama
dibuat representasinya (ruang hipotesis), kemudian dipelajari bagaimana
mendapatkan hipotesis yang baik.
Goal
predicate disini adalah WillWait. Berikut Training Set
(data latih) yang disediakan ada 12 data.
Contoh positif dari data latih adalah yang memiliki goal WillWait=yes sedangkan
sisanya (WillWait=no) adalah contoh negatif.
Decision tree adalah membuat
pohon keputusan sependek mungkin jadi kita akan mencari perbedaan yang
signifikan. Tapi sebelum itu kita akan mencari entropi keseluruhan / Training
Set.
Setelah kita mencari entropi
Training Set kita mencari perbedaan yang signifikan, disini kita akan mencari
Gain terbesar dari setiap atribut. Mencari Gain dengan menggunakan rumus
entropi.
Setelah kita hitung maka kita
dapatkan Patron dengan Gain terbesar. Maka kita akan menggunakan Patron sebagai
akar DT kita.
Setelah kita mendapatkan akar
maka kita lanjutkan membuat pohon dengan melihat anak pohon yang masih belum
jelas nilai kebenarannya. Kita kembali mencari Gain dari atribut yang lain
selain akar pohon dengan hanya melihat entropi dari anak pohon yang belum jelas
nilai kebenarannya. Mencari Gain dengan rumus entropi kembali.
Setelah kita hitung lagi kita
mendapatkan beberapa kesamaan atribut yang memiliki nilai Gain yang besar. Namun
disini saya menggunakan Hungry untuk menjadi induk bagi anak pohon selanjutnya.
Setelah kita membuat pohon
seperti itu kita cari lagi kelanjutan pohon dari anak pohon yang belum jelas nilai
kebenarannya dengan Gain dan rumus entropi. Mecari Gain dari atribut lain hanya
dengan melihat entropi dari anak pohon yang belum jelas nilai kebenarannya.
Kita mendapatkan Type sebagai
pemegang Gain terbesar. Sehingga kita gunakan Type untuk melanjutkan pohon
kita.
Namun dalam Type masih terdapat
anak pohon yang belum jelas nilai kebenarannya, maka kita mencari lagi Gain
terbesar dari sisa atribut dengan melihat entropi dari anak pohon yang belum
jelas nilai kebenarannya.
Kita kembali mendapatkan
beberapa atribut yang memiliki niali Gain yang sama dan paling besar. Namun disini
saya memilih Friday.dan akhirnya kita mendapatkan pohon keputusan yang jelas
nilai kebenarannya.
Sekian pembuatan decision tree
yang saya dan teman saya dapat sampaikan mohon maaf apabila ada kesalahan dalam
penjelasan. Atas perhatiannya kami ucapkan terima kasih.
Dibuat oleh :
Istnania Ihzha Adamy (1503015074)
Ira Mawaddah (1503015070)
Tidak ada komentar:
Posting Komentar