Olah Data/ Analisis Data

School Comments Pictures

olah dataAnalisis data (OlDat/AnDat )sering menjadi salah satu kendala bagi para Mahasiswa/i dalam menghadapi tugas akhir perkuliahan. Keterbatasan  informasi serta ilmu pengetahuan secara teoritis sering bersebrangan dengan realita di lapangan serta kondisi yang harus dihadapi.


Statistik, merupakan sesuatu yg sudah pasti....layaknya Matematika atau ilmu Fisika dimana penerapannya tidak bisa dilakukan secara asal-asalan.  

Metode, aplikasi yang digunakan sudah merupakan ketetapan dimana apabila salah dalam penggunaannya maka akan menghasilkan hasil yang salah juga, walaupun secara kasar apabila kita menggunakan penerapan metode yang salah kaprah tetap akan menghasilkan "hasil" juga. 

Memang akan menghasilkan angka/hasil, pertanyaannya adalah apakah  hasil yg kita peroleh akurat? software atau program hanya sebuah alat, salah kita dalam mengoperasikan maka akan salah juga hasil yg kita terima/peroleh. 

Fungsi Software/Program hanya untuk mempermudah kita dalam proses (tidak perlu menghitung secara manual, justru penghitungan secara manual akan memungkinkan kesalahan perhitungnya yg lebih tinggi saat proses perhitungnya berlangsung). Penerapan sebuah rumus/metode melalui tahapan/proses perhitungan yang sangat panjang (biasanya), hal ini yg dpt mengakibatkan kekeliruan saat proses berlangsung jadi lebih tinggi resikonya, seperti: Salah Mengetik, walaupun 1 angka akan menyebabkan nilai akhir jg yang salah, Salah memaknai simbol ini juga salah pengerjaan pada tahap-tahap selanjutnya. Ribetkan?! ..........

Proses saat melakukan penelitian tidaklah mudah, karena keakuratan pemilihan objek penelitian, instrumen penelitian, pengambilan data, dsb, haruslah benar-benar akurat dan sesuai dengan permasalahan yang akan kita teliti. Para Ahli maupun Pakar Ekonometrika  telah mengembangkan Software/Program untuk mempermudah para peneliti dalam memperkecil resiko kekeliruan/kesalahan yang terjadi saat proses "analisis data" berjalan (tahap akhir penelitian), sehingga hasil yang dicapaipun dapat maksimal sesuai dengan data yang telah terkumpul. 


Dalam metode Statistik, terbagi menjadi 2: yaitu 1) Metode Parametrik dan 2) Metode NonParametrik, kedua metode tersebut saling melengkapi. 
1.     Metode Parametrik,  metode ini digunakan dan harus melewati berbagai macem syarat-syarat pengujian sebelum hasil dari pengujian hipotesis kita pergunakan (seperti: Kecukupan sampel, Uji Asumsi/Prasyarat maupun Goodness Of Fit yang harus terpenuhi). Bagaimana apabila hasil pengujian asumsi/prasyarat ataupungoodness of fit tidak terpenuhi? maka hasil yang kita peroleh akan mengalami bias atau tidak dapat digunakan (contoh: hasil pada data bias menunjukkan A berpengaruh pada B, dan C tidak berpengaruh pada B...hasil terbut justru bisa sebaliknya pada kenyataanya)
2.     Metode NonParametrik,  metode ini merupakan metode alternatif dari metode parametrik. metode nonparametrik dapat digunakan oleh peneliti apabila mengalami keterbatasan/kendala saat proses analisis (syarat metode parametrik tidak terpenuhi). 

Pada software/program yang biasa sering kita dengar (tidak/belum bersifat multi dimensi) telah memiliki fasilitas pengujian untuk kedua metode tersebut (metode parametrik dan non parametrik telah tersedia).

Beberapa Program Statistik diantaranya: SPS, MINITAB, Eviews, SPSS, dan lain sebagainya. 

  
Beberapa Metode Pengujian beserta alternatifnya (metode NonParametrik), diantaranya:
Ø     Uji beda untuk Independen sampel T test (parametrik) sedangkan alternatifnya (nonprametriknya) adalah Mann-Whitney, Kolmogorov-Smirnov Z, Wald-Wolfowtz runs, dan Moses extreme reactions.
Ø      Uji beda Paired-sample T test maka alternatifnya (nonparametrik uji paired)  adalah Wilcoxon, Sign, McNemar, dan Marginal Homogenity.
Ø     Anova merupakan metode pengujian parametrik yang dapat dilakukan untuk 2 sample atau lebih, apabila pada tahap pengujian Anova tidak memenuhi syarat maka alternatif untuk 2 sampel (kelompok bukan responden!) maka metode alternatif/nonparametrik dapat dilakukan menggunakan metode nonparametrik di atas, akan tetapi untuk sampel lebih dari 2 maka metode nonparametrik menggunakan Kruskal-Walis, uji Median, dan Jonckheere-Terpstra.

"Ingat !!! setiap langkah pengujian Hipotesis, harus juga diperlakukan hal yang sama untuk pengujian Asumsinya, contoh: Apabila anda melakukan pengujian berjenjang ataupun model yang memiliki mediator maka setiap pengujian dari model terpisahnya harus dilakukan juga pengujian asumsi (kita melakukan 3x pengujian regresi maka 3x juga pengujian asumsi harus dilakukan). Hal tersebut dikarena setiap pengujian yang berbeda, jumlah variabel yang berbeda, data yang berbeda, sampel/responden yang berbeda akan mengakibatkan hasil analisis yang juga berbeda!. Jadi, salah apabila pengujian hipotesis melalui 3x langkah hanya anda wakili dengan 1x pengujian asumsinya (oleh salah-satu langkah/model terpisah saja)!!!."  


Saat ini telah muncul metode yang kebilang baru sebagai pengembangan dari keterbatasan atas alat analisis/software-sofware yang telah ada sebelumnya, yaitu Structural Equation Modelling (SEM). Metode SEM ini memiliki kecanggihan/ keunggulan seperti: 

*    Dapat mengoperasikan model yang jauh lebih rumit dan bersifat multidimensi.
*    Memiliki perhitungan measurement error dari tiap data yang ada/yang diuji.
*    Tidak perlu melakukan pengujian yang berulang-ulang untuk model yang kompleks.
*    Dapat menguji model rumit dengan kelompok yang lebih dari 1 (satu).   
*    Dan tentunya masih byk keunggulan-keunggulan yg dimiliki oleh metode ini yang merupakan alat analisis paling mutkhir saat (Pengembangan dari metode sebelumnya). 

Selayaknya pada alat analisis/metode sebelumnya, SEM juga terbagi menjadi 2, hal tersebut karena tidak mungkin sesuatu yang akan kita teliti akan selalu memenuhi kriteria dari sebuah metode saja. Ambil contoh; kita ingin meneliti sebuah perusahaan/kantor yang hanya memiliki sampel yang sedikit (sampel hanya sebatas jumlah karyawan yang dimiliki perusahaan tersebut, contoh; 37 karyawan) atau kita ingin meneliti jumlah perusahaan, sudah barang tentu jumlah sampel dibawah 100  (<100) tidak dapat dianalisis menggunakan SEM Berbasis Kovarian (metode paling kecil adalah Maximum Likelihood yang memiliki syarat kecukupan sampel minim antara 100-200), nah akan berbeda jika kita bandingkan dengan penelitian konsumen dimana sampel dapat diperoleh dengan jumlah yang jauh lebih tidak terbatas.

Dalam metode SEM, metode Statistik Parametrik SEM dikenal dengan Metode Berbasis Kovarian sedangkan pada metode NonParametrik dikenal dengan istilah Metode Berbasis Komponen.

Berbeda dengan alat analisis/software sebelumnya, dalam SEM sebuah program/software mewakili Basis Metode yang digunakan:
1.     SEM Parametrik (Berbasis Kovarian), software/programnya seperti:Lisrel, Amos, dan lain sebagainya.
2.     SEM NonParametrik (Berbasis Komponen), software/programnya seperti: PLS (PLSv, PLSgraph), GSCA/GeSCA , TEDTRAD IV dan lain sebagainya.


Alhamdulillah, sedikit-banyak saya kupas mengenai hal penting dalam penggunaan dari kedua metode yang sering salah-kaprah dalam peng-aplikasian/penerapannya. Semoga coretan saya di atas dapat menjadi tambahan wawasan/ilmu dan berguna bagi kita semua...Semoga yang Maha Kuasa, Maha Pandai, Maha Kasih Sayang selalu memberikan kita jalan dan kemudahan dalam menghadapi setiap urusan serta menjauhkan kita semua dari sifat malas yang salah satunya adalah malas belajar.......Aammiin ya Robbal a'lamin. 

"JANGAN PERNAH MENYERAH SAAT MENUNTUT ILMU"







0 comments:

STATISTIK NON-PARAMETRIK



1.     STATISTIK INFERENSI UJI SATU SAMPEL
Ø UJI BINOMINAL
Ø RUNS TEST OF  RANDOMNESS
Ø UJI NORMALITAS DATA DENGAN KOLMOGOROV-SMINOV
Ø UJI NORMALITAS DATA
Ø CHI- SQUARE: GOODNESS OF FIT TEST
2.     STATISTIK INFERENSI UJI DUA SAMPEL
Ø UJI DUA SAMPEL BEBAS MANN-WITNEY
Ø UJI DUA SAMPEL BEBAS KOLMOGOROV-SMIRNOV
Ø UJI DUA SAMPEL BEBAS MOSES & WALD-WOLFOWITZ
Ø UJI DUA SAMPEL BERPASANGAN WILCOXON
Ø UJI DUA SAMPEL BERPASANGAN SIGN TEST
Ø UJI DUA SAMPEL BERPASANGAN MCENEMAR & MARGINAL HOMOGENITY
3.     STATISTIK INFERENSI UJI LEBIH DARI DUA SAMPEL
Ø UJI n SAMPEL BEBAS KRUSKAL-WALLIS
Ø UJI n SAMPEL BEBAS MEDIAN & JOCNKHEERE-TERPSTRA
Ø UJI n SAMPEL BERHUBUNGAN FRIEDMAN
Ø UJI n SAMPEL BERHUBUNGAN UJI KONKRODANSI KENDALL
Ø UJI n SAMPEL BERHUBUNGAN COCHIRAN
4.      KORELASI NON PARAMETRIK
Ø KORELASI CRAMER & KOEFISIEN KONTINGENSI
Ø KORELASI LAMBDA
Ø KORELASI SPEARMAN
Ø KORELASI KENDALL
Ø KORELASI PARSIAL KENDALL

Ø KORELASI GAMMA & SOMERS

0 comments:

Ekonometrik Keuangan01


REGRESI LINIER BERGANDA
Multiple Linear Regression


Pengertian Regresi
Regresi: ketergantungan  satu variabel pada variabel yang lain, studi ketergantungan satu variabel (variabel tak bebas) pada satu atau lebih variabel lain (variabel yang menjelaskan), dengan maksud untuk menaksir dan/atau meramalkan nilai rata-rata hitung (mean) atau rata-rata (populasi) variabel tak bebas, dalam pengambilan sampel berulang-ulang dari variabel yang menjelaskan (explanatory variable) dengan 3 tujuan:
  1. estimasi nilai rata-rata variabel è Estimate a relationship among economic variables, such as y = f(x).
  2. menguji hipotesa
  3. Memprediksi è Forecast or predict the value of one variable, y, based on the value of another variable, x.

ESTIMASI
Salah satu bentuk inferensi statistika (pengambilan kesimpulan) terhadap parameter populasi adalah estimasi. Dalam estimasi yang dilakukan adalah menduga/memperkirakan parameter dengan penduga yang sesuai (“terbaik”).
Misalnya :


populasi
sampel
mean
m
standar deviasi
s
s
variansi
s2
s2
proporsi
p

Dalam analisis regresi, ada asimetris atau tidak seimbang (asymmetry) dalam memperlakukan variabel tak bebas dan variabel bebas. Variabel tak bebas diasumsikan bersifat stokastik atau acak. Pada bagian lain, variabel bebas diasumsikan mempunyai nilai yang tetap dalam pengambilan sampel secara berulang-ulang. Sementara itu, dalam analisis korelasi, baik variabel tak bebas maupun variabel bebas diperlakukan secara simetris atau seimbang di mana tidak ada perbedaan antara variabel tak bebas dengan variabel bebas.

Regresi klasik
  1. Regresi klasik mengasumsikan bahwa E (Xt,et)=0. Diasumsikan bahwa tidak ada korelasi antara error term (et) dengan variabel independennya, maka variabel independen disebut independen atau deterministik.
  2. Apabila asumsi klasik tersebut di atas tidak terpenuhi, yang berarti E(Xt,et)¹0, maka hasil estimasi dengan menggunakan methoda OLS tidak lagi menghasilkan estimator yang BLUE.
  3. Jika ada korelasi positif antara independen variabel dan error-term, ada kecenderungan hasil estimasi dengan menggunakan OLS akan menghasilkan estimasi terhadap intersep yang under-valued, dan koefisien parameter yang over-estimated. Apabila ukuran sampel diperbesar, korelasi positif antara independen variabel dan error-term akan menghasilkan estimasi yang semakin bias. Intersep akan semakin bias ke bawah, sedangkan koefisien parameter akan semakin bias ke atas.

Fungsi Regresi Populasi dan Fungsi Regresi Sampel
1.     population regression function = PRF è E(Y½Xi)= bo + b1 Xi + mi
2.     Dengan asumsi bahwa data X dan Y tersedia, maka nilai yang akan dicari adalah rata-rata pengharapan atau populasi (expected or population mean) atau nilai rata-rata populasi (population average value of Y) pada berbagai tingkat harga (X).
3.     E(Y½Xi) è ekspektasi rata-rata nilai Y pada berbagai Xi
a.     bo dan b1   =  parameter regresi
b.     mi = variabel pengganggu                         
4.     sample regression function = SRF 
a.      Ŷ = penaksir dari E(Y½Xi)
b.     bo dan b1 = penaksir dari bo dan b1
c.     ei = variabel  pengganggu

PRF è SRF
  1. SRF digunakan sebagai pendekatan untuk mengestimasi PRF
  2. Penggunaan SRF harus memperhatikan kenyataan bahwa dalam dunia nyata terdapat unsur ketidakpastian (tidak ada hubungan yang pasti).
  3. Untuk mengakomodasi faktor ketidakpastian, maka ditambahkan dengan pengganggu atau faktor acak (ei).

Alasan penggunaan variabel pengganggu
  1. Ketidaklengkapan teori (vagueness of theory).
  2. Ketidaktersediaan data (unavailability of data).
  3. Variabel pusat vs variabel pinggiran (core variable versus peripheral variable).
  4. Kesalahan manusiawi (intrinsic randomness in human behavior).
  5. Kurangnya variabel pengganti (poor proxy variables).
  6. Prinsip kesederhanaan (principle of parsimony).
  7. Kesalahan bentuk fungsi (wrong functional form).

Pengertian Linier
2.     Linier dalam Variabel
          Linier E(Y½Xi)= bo + b1 Xi + mi   
Non Linier    E(Y½Xi)= bo + b1 Xi2 + mi  
                             E(Y½Xi)= bo + b1 (1/Xi) + mi
n      Linier dalam Parameter
 Dalam hal ini yang dimaksud linier adalah linier dalam parameter

Regresi Linier Bersyarat Sederhana adalah regresi linier yang hanya melibatkan dua variabel, satu variabel tak bebas serta satu variabel bebas
è
 è


Dengan menggunakan metode estimasi yang biasa dipakai dalam ekonometrika, yaitu OLS, pemilihan  dan  dapat dilakukan dengan memilih nilai jumlah kuadrat residual (residual sum of squared=RSS),  yang paling kecil. Minimisasi è

Dengan optimasi kondisi order pertama sama dengan nol
 è


Regresi Linier Berganda adalah regresi linier yang hanya melibatkan lebih dari dua variabel, satu variabel tak bebas serta dua atau lebih  variabel bebas (X), misal X2 dan X3

Metode Kuadrat Terkecil (Ordinary Least Square=OLS)
Asumsi OLS:
1.     Model regresi adalah linier dalam parameter.
2.     Nilai X adalah tetap di dalam sampel yang dilakukan secara berulang-ulang. Atau, X adalah non-stokastik (deterministik).
3.     Nilai rata-rata dari unsur faktor pengganggu adalah sama dengan nol
4.     Homokedastisitas
5.     Tidak ada otokorelasi antar unsur pengganggu.
6.     Nilai kovarian antara ui dan Xi adalah nol
7.     Jumlah pengamatan n harus lebih besar daripada jumlah parameter yang diobservasi.
8.     Nilai X adalah bervariasi (variability).
9.     Spesifikasi model regresi harus benar, sehingga tidak terjadi specification bias or error.
10. Tidak ada multikolinieritas sempurna  antar variabel penjelas.

Ciri-ciri estimator OLS
Teorema Gauss-Markov  
Teorema ini menyatakan bahwa apabila semua asumsi linier klasik dipenuhi, maka akan diketemukan model penaksir yang
  1. tidak bias (unbiased),
  2. linier (linear) dan
  3. penaksir terbaik (efisien)
 atau (best linear unbiased estimator = BLUE) [Gujarati, 2003: 79]

Metode Kuadrat Terkecil dalam Model Regresi Linier Berganda

         
di mana ,  dan  masing-masing adalah nilai penaksir ,  dan .
Persamaan ini apabila dinyatakan dalam bentuk persamaan garis regresi populasi (PRL) yang diestimasi adalah:
         

Langkah berikutnya adalah memilih nilai jumlah kuadrat residual (=RSS), ,  yang sekecil mungkin.

RSS dari persamaan di atas adalah:
RSS:

Dengan manipulasi aljabar, diperoleh penaksir OLS untuk b:

di mana  dan  adalah rata-rata sampel dari X dan Y dan ) dan .

Menghitung Nilai t Statistik
Parameter yang diperoleh dalam estimasi OLS, masih perlu dipertanyakan apakah bersifat signifikan atau tidak. Uji signifikansi dimaksudkan untuk mengverifikasi kebenaran atau kesalahan hipotesis nol yang dibuat (Gujarati, 2003: 129). Salah satu cara untuk menguji hipotesis yang melihat signifiknasi pengaruh variabel independen terhadap variabel dependen adalah uji t. Secara sederhana, untuk menghitung nilai t statistik dari  dalam model regresi ganda adalah:

t statistik =
di mana .

Jika dimisalkan hipotesis nol , maka dapat ditulis:
t statistik =

Dengan menggunakan uji t dalam pembuatan keputusan, maka setidaknya ada tiga pengetahuan yang sangat dibutuhkan, yaitu:
  1. Tingkat derajat kebebasan (degree of freedom). Besar Degree of freeom (df)  ditentukan berdasar (n – k), dimana n adalah jumlah observasi dan k adalah jumlah parameter termasuk konstanta. Sehingga bila dalam regresi sederhana terdapat satu variable penjelas dan satu konstanta maka df = n-2, sedangkan dalam regresi berganda dengan 2 varibale penjelas maka df= n-3
  2. Tingkat signifikansi (α) dapat dipilih pada kisaran  1 %; 5 % atau 10 %.
  3. Apakah menggunakan uji dua sisi ataukah satu sisi. Penetapan uji satu atau dua sisi tergantung pada hipotesis yang dibuat oleh peneliti. Apabila peneliti menduga bahwa variabel penjelas memilih arah pengaruh yang pasti, misalnya negatif atau positif maka, uji t yang digunakan adalah uji satu sisi (Ho:  > 0, atau Ho:  < 0). Sedangkan bila tidak diketahui secara pasti arah pengaruhnya maka digunakan uji dua sisi dengan Ho:  = 0.
Apabila nilai t statistik lebih besar dibandingkan dengan nilai t tabel (kritisnya), maka hipotesis nol yang mengatakan bahwa  = 0 ditolak. Begitu pula sebaliknya, apabila nilai t statistik lebih kecil dibandingkan dengan nilai t tabel, maka hipotesis nol yang mengatakan bahwa  = 0 harus ditolak.

Koefisien Determinasi: Suatu Ukuran Kebaikan-Kesesuaian

Uji kebaikan-kesesuaian (goodness of fit) garis regresi terhadap sekumpulan data merupakan kelengkapan lain dari estimasi OLS. Tujuan dari uji goodness of fit adalah untuk mengetahui sejauh mana garis regresi sampel cocok dengan data. Hal ini berkaitan dengan harapan kita agar semua pengamatan terletak pada garis regresi, sehingga akan diperoleh kesesuaian yang sempurna.  Kesesuaian semacam itu tidak akan terjadi karena adanya unsur pengganggu menyebabkan tidak mungkin diperoleh nilai kesesuaian yang sempurna.
Untuk lebih memudahkan, nilai koefisien determinasi regresi dua variabel dinamakan dengan , sementara untuk nilai koefisien determinasi regresi berganda dinamakan dengan . Nilai , dapat  diamati dari persamaan berikut:

Variasi dalam dari nilai nilai rata-ratanya
Variasi dalam  yang dijelaskan oleh X  di sekitar nilai nilai rata-ratanya
(Catatan)
Yang tidak dapat dijelaskan atau variasi residual

 




bila ditulis dalam bentuk simpangan adalah:
Dengan mengkuadratkan kedua sisi dan menjumlahkannya untuk semua sampel, maka akan diperoleh:

Karena ŷi = b2xi, maka persamaan tersebut adalah ekuivalen dengan,

 

Berbagai jumlah kuadrat yang muncul dalam persamaan di atas dapat dijelaskan sebagai berikut:
1.      = total variasi nilai Y sebenarnya di sekitar rata-rata sampelnya, yang bisa disebut sebagai jumlah kuadrat total (total sum of squares = TSS).
2.      = variasi nilai Y, yang diestimasi di sekitar rata-ratanya , yang bisa disebut sebagai jumlah kuadrat karena regresi, yaitu karena variabel yang menjelaskan, atau dijelaskan oleh regresi, atau sering pula disebut dengan jumlah kuadrat yang dijelaskan (explained sum of squares = ESS).
3.      = residual atau variasi yang tidak dapat dijelaskan (unexplained) dari nilai Y di sekitar garis regresi atau sering pula disebut dengan jumlah kuadrat residual (residual sum of squares = RSS).

Dengan demikian, dapat ditulis sebagai berikut:

TSS=ESS + RSS

Memilih Model dan Bentuk Fungsi Model Empiris
  1. model empirik yang baik dan mempunyai daya prediksi serta peramalan dalam sampel
  2. syarat-syarat dasar lain:
a.     model itu dibuat sebagai suatu perpsepsi mengenai fenomena ekonomi aktual yang dihadapi dan didasarkan pada teori ekonomika yang sesuai,
b.     lolos uji baku dan berbagai uji diagnosis asumsi klasik,
c.     tidak menghadapi persoalan regresi lancung atau korelasi lancung dan residu regresi yang ditaksir adalah stasioner khususnya untuk analisis data runtun waktu
d.     specification error è variabel gangguan (disturbances), variabel penjelas (explanatory variable) dan parameter.
e.     penentuan bentuk fungsi (functional form) dari model yang akan diestimasi è   bentuk fungsi adalah linier atau log-linier
  1. Kriteria pemilihan model empirik
a.     Sederhana (parsimony)
b.     Mempunyai adminisibilitas dengan data (data admissibility)
c.     Koheren dengan data (data coherency)
d.     Parameter yang diestimasi harus konstan (constant parameter)
e.     Model konsisten dengan teori ekonomika yang dipilih atau teori pesaingnya (theoretical consistency)
f.       Model mampu mengungguli (encompassing) model pesaingnya  è diketahui via nested dan non nested test


Rumus Kriteria Statistika Seleksi Model

Tabel  Rumus Kriteria Statistika Seleksi Model

Nama
Rumus
Nama
Rumus
1. AIC
6. SCHWARZ
2. FPE
7. SGMASQ
3. GCV
8. SHIBATA
4. HQ
9. PC
5. RICE
10. RVC
Keterangan:
RSS  = Residual sum of squares
T     = Jumlah data/observasi
k      = Jumlah variabel penjelas ditambah dengan konstanta
kj     = Jumlah variabel penjelas tanpa konstanta

Menentukan Bentuk Fungsi Model Empiris
Kesalahan spesifikasi yang sering muncul adalah apabila peneliti terserang sindrom R2 yang menganggap bahwa R2 merupakan besaran statistika penting dan harus memiliki nilai yang tinggi (mendekati satu). Dalam kasus di mana variabel tak bebasnya berbeda, katakanlah model A dengan variabel tak bebas dalam bentuk aras (level of) dan model B variabel tak bebasnya dinyatakan dalam logaritma, maka  dan  tidak dapat dibandingkan

Uji MacKinnon, White dan Davidson (MWD Test)
  • Yt = a0 + a1Xt1 + a2Xt2 + ut
  • LYt = b0 + b1LXt1 + b2LXt2 + vt
  • persamaan uji MWD
    • Yt = a0 + a1Xt1 + a2Xt2 + a3Z1 + ut
    • LYt = b0 + b1LXt1 + b2LXt2 + b3Z2 + vt
  • Z1 è nilai logaritma dari fitted persamaan dasar dikurangi dengan nilai fitted persamaan log
  • Z2 è nilai antilog dari fitted persamaan log dikurangi dengan nilai fitted persamaan dasar
  • Bila Z1 signifikan secara statistik, maka hipotesis nol yang menyatakan bahwa model yang benar adalah bentuk linear ditolak
  • bila Z2 signifikan secara statistik, maka hipotesis alternatif yang menyatakan bahwa model yang benar adalah log-linear ditolak.

Langkah MWD
         Regresi model log-linier dan dapatkan nilai estimasi log Y (log Y fitted) ® LYF
        Klik QUICK
        ESTIMATE EQUATION
        log(Y) C log(X2) log(X3)
        OK
        Dari tampilan equation,
         FORECAST
         log(y)
         LYF     (pada kotak dialog SERIES NAME ® FORECAST NAME)
         OK
         Beri nama equation,
         klik NAME
         EQ02
         OK

Dependent Variable: LOG(INVR)
Method: Least Squares
Date: 02/15/08   Time: 04:38
Sample: 1980:1 2005:4
Included observations: 104
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
-0.757923
 0.393766
-1.924804
 0.0571
LOG(RK)
 0.136025
 0.062273
 2.184318
 0.0313
LOG(YDR)
 0.917818
 0.034187
 26.84702
 0.0000
R-squared
 0.885161
    Mean dependent var
 10.00437
Adjusted R-squared
 0.882887
    S.D. dependent var
 0.470160
S.E. of regression
 0.160897
    Akaike info criterion
-0.787680
Sum squared resid
 2.614680
    Schwarz criterion
-0.711399
Log likelihood
 43.95935
    F-statistic
 389.2460
Durbin-Watson stat
 0.470514
    Prob(F-statistic)
 0.000000




         GENR Z1 = log(YF) – LYF
         Regresi Y terhadap variabel X dan Z1. Jika Z1 signifikan secara statistik, maka tolak Ho (model linier) dan jika tidak signifikan, maka tidak menolak Ho
         GENR Z2= exp(LYF) – YF
         Regresi log Y terhadap variabel log X dan Z2. Jika Z2 signifikan secara statistik, maka tolak Ha (model log linier) dan jika tidak signifikan maka tidak menolak Ha

Dependent Variable: INVR
Method: Least Squares
Included observations: 104
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
 26934.79
 4400.626
 6.120672
 0.0000
RK
-418.2901
 113.2593
-3.693207
 0.0004
YDR
 0.101303
 0.022810
 4.441115
 0.0000
Z1
-129721.0
 21086.83
-6.151754
 0.0000


Dependent Variable: LOG(INVR)
Method: Least Squares
Included observations: 104
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
-2.263580
1.044447
-2.167252
0.0326
LOG(RK)
0.215951
0.080420
2.685284
0.0085
LOG(YDR)
1.029080
0.079211
12.99158
0.0000
Z2
-7.30E-05
4.69E-05
-1.554652
0.1232

AIC, Ommited test, wald test
         Model A:     
Yt = a1 + a2 X2 + a3 X3 + a4 X4 + a5 X5 + a6 X6 + ut
         Model B:     
LYt = b1 + b2 LX2 + b3 LX3 + b4 LX4 + b5 LX5 + b6 LX6 + ut

AIC
         Regresi model A dan model B dengan satu variabel bebas. è Perintahnya:
        Dari menu utama,
        Klik QUICK
        ESTIMATE EQUATION,
        Y C X2
        OK
         Tambahan variabel X3:
        dari workfile EQUATION,
        klik PROCS
        SPECIFY/ESTIMATE
        X3                         (pada kotak dialog)
        OK
         Lakukan berulang untuk variabel baru lainnya dan model B
         Jika penambahan variabel bebas baru menaikkan nilai AIC maka variabel bebas baru harus dikeluarkan dari model dan sebaliknya jika penambahan variabel baru menurunkan AIC maka variabel baru masuk dalam model

Omitted Test
         Test ini dilakukan menguji apakah variabel baru bisa ditambahkan dalam model
         Regresi OLS model A dengan satu variabel bebas
        Dari Workfile Equation,
        klik VIEW
        COEFFICIENT TESTS
        OMITTED VARIABLES – LIKELIHOOD RATIO
        X3      (Pada kotak dialog ketikkan nama variabel baru yang akan ditambahkan)
        OK.
         Perhatikan nilai probabilitas pada F-Statistic, jika lebih kecil dari 0,05 berarti penambahan variabel baru memberikan kontribusi yang signifikan pada model sehingga varibel tersebut harus dimasukkan dalam model.

Wald Test
         Kebalikan dari omitted test, wald test dilakukan untuk mengeluarkan variabel dari model
         Regresi model A dengan memasukkan semua variabel bebas
         Lakukan Wald test terhadap variabel yang paling tidak signifikan pada regresi awal, misal X6.
        Dari Equation:
        klik VIEW
        COEFFICIENT TESTS
        WALD – Coefficient Restrictions,
        C(6)=0    (Pada kotak dialog tuliskan koefisien yang akan direstriksi, yaitu c(6)=0)
        OK
         Probabilitas F tidak signifikan, berarti variabel X6 bisa dikeluarkan dari model



NB: Maaf, rumus (equation) tidak dapat ditampilkan dalam postingan dikarena tidak support! 

0 comments: