Kamis, 02 Februari 2012

Prinsip mendasar Multivariat


  • Kenapa dalam mengestimasi harus dilakukan optimasi (MLE)?
    • Salah satu jawabannya adalah minimize error (misal regresi kita mengestimasi persamaan regresi dengan cara mencari garis regresi yang memiliki eror terkecil artinya jarak dari data ke estimasinya paling kecil)
    • Secara math optimasi ada dua nesesari optimize dan secara kondisi. Pertama syaratnya optimasi adalah turunan pertamanya = nol. Turunan pertamanya adalah gradient = nol dan ini adalah syarat nesesarinya, sementara syarat secara kondisinya adalah ketika turunan berikutnya adalah negatif (untuk memax) dan positif (untuk memin). Ilustrasinya adalah grafik kurva ke atas atau kebawah (sin cos, misalnya)
    • Mirip prinsipnya dengan least square error (tapi LSE lebih spesifik)
  • Wilks lamda untuk varians.
  • Missing data ada dua, satu yang sistematic ada yang random. Dan kalau diperbolehkan milih, maka mising data yang paling aman terjadi pada penelitian kita adalah missing data yang random. Karena kalau kita mising datanya sistematik maka kita bisa melihat adanya suatu fungsi pada data kita dan itu berarti ada kesalahan yang terjadi oleh si peneliti sehingga menghasilkan data yang missing secara sistematik.
  • Maka kalau data hilangnya sistematik maka kita harus mengulang penelitian atau survey. Tapi kalau mising valuenya random maka bisa diestimasi dengan misal rata-rata data yang ada, atau nilai regresi data yang ada, atau dll. Atau bisa juga mendelete variable atau pertanyaan yang banyak missingnya.
  • Outlier. Kalau sampai ada outlier jangan buru-buru datanya dibuang. Karena semua data sangat bernilai. Karena outlier itu sama dengan missing value karena terjadi bisa karena kesalahan kita atau memang sampelnya yang demikian.
  • Outlier bisa terjadi karena salah ambil sampel. Misalnya ketika lagi ujian, maka ketika ada outlier yang nilainya bagus tetapi karena memang mahasiswa itu adalah expert dibidang itu maka hal tersebut adalah prosedural.

1 komentar:

Posting Komentar