EKONOMETRIKA "REGRESI LINIER BERGANDA DAN UJI ASUMSI KLASIK"




TUGAS EKONOMETRIKA
BAB 4 Dan 5


Makalah  ini disusun untuk memenuhi tugas mata kuliah Ekonometrika
Disusun oleh :
Nama   : Anisa Tri Ariyanti                
NIM    : 2014.020.003
Kelas   : Manajemen B1
Email          :anisa_sdp@yahoo.com/
                    anisa.stay32@gmail.com
Blog            :anisasdp23.blogspot.com

EKONOMI MANAJEMEN


FAKULTAS EKONOMI
UNIVERSITAS ISLAM BATIK SURAKARTA
2017


BAB IV
REGRESI LINIER BERGANDA
A.    Rangkuman

1.      Pengertian Regresi Linier Berganda
Jumlah X yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda atau multiple linier regression. Perubahan model dari bentuk single ke dalam bentuk multiple mengalami beberapa perubahan, meliputi:
1.      Jumlah variabel penjelasnya bertambah, sehingga spesifikasi model dan data terjadi penambahan.
2.       Rumus penghitungan nilai b mengalami perubahan.
3.      Jumlah degree of freedom dalam menentukan nilai t juga berubah.
2.      Model Regresi Linier Berganda
Penulisan model regresi linier berganda merupakan pengembangan dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variabel X saja, dimana dalam regresi linier berganda variabel X lebih dari satu. Model linier umumnya dituliskan sebagai berikut:
Populasi           : Y = A + B1X1 + B2X2 + B3X3 + ………+BnXn + e
Atau                  Y = B0 + B1X1 + B2X2+ B3X3 + ………+ BnXn + e
Sampel            : Y = a + b1X1 + b 2X2+ b3X3 + ………+ bnXn + e
Atau                  Y = b0 + b1X1 + b 2X2 + b3X3 + ………+ bnXn+ e
Penulisan model sangat beragam perlu dimengerti karena penulisan model sendiri hanya bertujuan sebagai teknik anotasi untuk memudahkan interpretasi.  Notasi model seperti itu tentu berbeda dengan notasi model Yale. Apabila kita ingin menganalisis pengaruh Budep dan Kurs terhadap Inflasi dengan mengacu model Yale, maka notasi model menjadi seperti berikut:
Populasi           : Y = B1.23 + B12.3X2i + B13.2X3i + e
Sampel            : Y = b1.23 + b12.3X2i + b13.2X3i + e
Notasi model dapat pula ditulis sebagai berikut:
Inflasi = b0 + b1Budep + b2 Kurs + Ɛ
3.      Perhitungan Nilai Parameter
Penggunaan metode OLS dalam regresi linier berganda dimaksudkan untuk mendapatkan aturan dalam mengestimasi parameter yang tidak diketahui. Prinsip dalam OLS sendiri adalah untuk meminimalisasi perbedaan jumlah kuadrat kesalahan (sum of square) antara nilai observasi Y dengan Yˆ .
Rumus fungsi minimalisasi sum of square :
                          
     n
Ʃ e 2(b0, b1,b2) = Ʃ( Y- Yˆ)
     n = 1
     n
= Ʃ( Y- b0- b1 x1- b2 x2)2
     n = 1
Untuk mendapatkan estimasi least square b0, b1,b2 minimum, dapat dilakukan melalui cara turunan parsial (partially differentiate). Nilai dari parameter b1 dan b2 merupakan nilai dari suatu sampel. Nilai b1 dan b2 tergantung pada jumlah sampel yang ditarik. Penambahan atau pengurangan akan mengakibatkan perubahan rentangan nilai b. Perubahan rentang nilai b1 dan b2 diukur dengan standar error. Semakin besar standar error mencerminkan nilai b
sebagai penduga populasi semakin kurang representatif. Sebaliknya, semakin kecil standar error maka keakuratan daya penduga nilai b terhadap populasi semakin tinggi. Perbandingan antara nilai b dan standar error ini memunculkan nilai t, yang dapat dirumuskan sebagai berikut:
 t=  b
     Sb
Keterangan:
b          = nilai parameter
Sb         = standar error dari b. Jika b sama dengan 0 (b=0) atau Sb bernilai sangat    besar, maka nilai t akan sama dengan atau mendekati 0 (nol).
Untuk dapat melakukan uji t, perlu menghitung besarnya standar error masing-masing parameter ( baik b0, b1, b2). Dengan diketahuinya nilai t hitung masing-masing parameter, maka dapat digunakan untuk mengetahui signifikan tidaknya variabel penjelas dalam mempengaruhi variabel terikat. Untuk dapat mengetahui apakah signifikan atau tidak nilai t hitung tersebut, maka perlu membandingkan dengan nilai t tabel. Apabila nilai t hitung lebih besar dibandingkan dengan nilai t tabel, maka variabel penjelas tersebut signifikan. Sebaliknya, jika nilai t hitung lebih kecil darit tabel, maka variabel penjelas tersebut tidak signifikan.
4.      Koefisien Determinasi ( R2)
Koefisien determinasi pada dasarnya digunakan untuk mengkur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. Dengan demikian kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y. Rumus tersebut adalah sebagai berikut:
 =
Total variasi Y (TSS) dapat diukur menggunakan derajat deviasi dari masing-masing observasi nilai Y dari rata-ratanya. Hasil pengukuran ini kemudian dijumlahkan hingga mencakup seluruh observasi. Jelasnya:
             n
TSS= Ʃ( Yt- Y)
           n = 1
Nilai explained sum of square (ESS) atau variasi yang dijelaskan Y didapat dengan menggunakan rumus sebagai berikut:
                 n
ESS= Ʃ( t- Y)
           n = 1
Jadi, rumus di atas dapat pula dituliskan menjadi sebagai berikut:
R2 = Ʃ( Yˆ - Y) 2
         Ʃ( Y - Y) 2
dimana:
Yˆ (baca: Y cap) adalah nilai perkiraan Y atau estimasi garis regresi.
Y (baca: Y bar) adalah nilai Y rata-rata.
Y cap diperoleh dengan cara menghitung hasil regresi dengan memasukkan nilai parameter dan data variabel.
5.      Uji F
Dalam regresi linier berganda variable penjelasnya selalu berjumlah lebih dari satu. Pengujian tingkat signifikansi variabel tidak hanya dilakukan secara induvidual saja , seperti dilakukan dengan uji t , tetapi dapat pula dilakukan pengujian signifikansi semua variable penjelas secara serentak .  Pengujian secara serentak tersebut dilakukan dengan teknik analisis of variance (ANOVA) melalui pengujian nilai F hitung yang dibandingksn dengan nilai F tabel disebut Uji F
Teknik ANOVA digunakan untuk menguji distribusi atau variansi means dalam variable penjelas apakah secara proporsional telah signifikan menjelaskan variansi dari variable yang dijelaskan. Untuk memastikan jawabanya , maka perlu dihitung rasio antara variansi means ( variance between means ) yang dibandingkan dengan vairiansi didalam kelompok variable ( variance between grup ). Hasil pembandingan keduanya itu menghasilkan nilai F hitung yang kemudian dibandingkan dengan nilai F tabel .
Secara ringkas dapat dituliskan sebagai berikut :
F ≤ diterima
F>berarti signifikan atau ditolak
 diterima atau ditolak merupakan suatu keputusan jawaban terhadap hipotesis yang terkait dengan uji F . Karena uji F membandingkan nilai F hitung dengan nilai F tabel maka penting untuk mengetahui bagaimana mencari nilai F hitung maupun nilai F tabel . Nilai F hitung dapat dicari menggunakan rumus :
F =
Sedangkan nilai F tabel telah ditentukan dalam nilai  tabel. Yang penting untuk diketahui adalah bagaimana cara membaca tabelnya.
Arti dari tulisan tersebut adalah :
·         Simbol  menjelaskan tingkat signifikansi (level of significance ) (apakah
·         Simbol (k-1) menunjukkan degrees of freedom for numerator .
·         Simbol (n-k) menunjukkan degrees of freedom for denominator.

B.     SIMPULAN
Regresi linier berganda yaitu jumlah variable X yang lebih dari satu . Analisis ini untuk mengetahui arah hubungan antara variabel independen dengan variabel dependen apakah berhubungan positif atau negatif dan untuk memprediksi nilai dari variabel dependen apabila nilai variabel independen mengalami kenaikan atau penurunan. Koefisien determinasi R2 digunakan untuk mengkur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y).  Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. Uji Koefisien Regresi Secara Simultan (Uji F) Uji ini digunakan untuk mengetahui apakah variabel independen (X1,X2….Xn) secara bersama-sama berpengaruh secara signifikan terhadap variabel dependen (Y). Atau untuk mengetahui apakah model regresi dapat digunakan untuk memprediksi variabel dependen atau tidak.



C.    PERTANYAAN

a. Coba jelaskan apa yang dimaksud dengan regresi linier berganda !
   Jawab : Regresi Linier Berganda adalah Anaalisis regresi dimana variabel X (Variabel independent) lebih dari satu variabel.
b. Coba Tuliskan Model Regresi Linier Berganda !
Jawab :
     Y = a + b1X1+ b2X2+…..+ bnXn + e 
c.  Coba uraikan arti dari notasi atas model yang anda tuliskan !
Jawab:   
Y’                    =   Variabel dependen (nilai yang diprediksikan)
X1 dan X2        =   Variabel independen
a                      =   Konstanta (nilai Y’ apabila X1, X2…..Xn = 0)
b                      =    Koefisien regresi (nilai peningkatan ataupun penurunan)
e                      =   Error
d. Jelaskan informasi apa yang diungkap pada konstanta !
Jawab :
Nilai konstanta dalam regresi digunakan untuk menentukan letak titik potong garis pada sumbu Y. Jika nilai a > 0 maka letak titik potong pada garis regresi pada sumbu Y akan berada di atas origin (0), apabila nilai a < 0 maka titik potongnya berada di bawah origin.
e. Jelaskan informasi apa yang diungkap pada koefisien regresi !
Jawab  :
Koefisien regresi (nilai peningkatan ataupun penurunan)
Koefisien regresi berfungsi untuk menetukan tingkat kemiringan garis regresi. Semakin rendah nilai b maka derajat  kemiringan garis regresi terhadap sumbu X semakin rendah pula dan sebaliknya.
f. Coba sebutkan perbedaan-perbedaan antara model regresi linier sederhana dengan model regersi linier berganda !
Jawab :
Analisis regresi linier sederhana adalah analisis regresi yang hanya melibatkan hubungan           secara linier antara satu variabel dependen atau variabel tergantung dan satu variabel independen atau variabel bebas.
Analisis regresi linier berganda adalah analisis regresi yang melibatkan lebih dari dua variabel, yaitu 1 (satu) variabel dependen atau variabel tergantung dan lebih dari 1 (satu) variabel independen atau bebas.
g. Jelaskan mengapa rumus untuk mencari nilai b pada model regersi linier berganda berbeda dengan model regresi linier sederhana !
Jawab :
Karena dalam model regresi linier berganda memiliki variabel lebih dari dua
h. Coba jelaskan apakah pencarian nilai t juga mengalami perubahan! Kenapa?
Jawab :
Mengalami perubahan karena variable independen lebih dari satu
     i.  Coba uraikan bagaimana menentukan nilai t yang signifikan!
Jawab :
Cara menentukan signifikan tidaknya nilai t yaitu melalui pembandingan antara nilai t hitung dengan nilai t tabel. Derajat signifikansi yang digunakan adalah 0,05. Jika nilai t hitung > t tabel maka signifikan. Jika nilai t hitung <t tabel maka tidak signifikan.
j. Jelaskan apa kegunaan nilai F !
Jawab :
Digunakan untuk pengujian tingkat signifikansi variabel tidak hanya secara individual saja tetapi dapat pula diakukan pengujian signifikansi semua variabel penjelas secara bersama-sama.
k. Bagaimana menentukan nilai F yang signifikan!
Jawab :
Jika nilai F hitung lebih besar dibanding nilai F tabel, maka secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y. Sebaliknya, jika nilai F hitung lebih kecil dibandingkan dengan nilai F tabel, maka tidak secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y.
l. Jelaskan apakah rumus dalam mencari koefisien determinasi pada model regresi linier berganda berbeda dengan regresi linier sederhana! Kenapa?
            Jawab :
Berbeda, karena menguji determinasi seluruh variabel penjelas yang ada dalam model regresi
m. Jelaskan bagaimana variabel penjelas dapat dianggap sebagai  prediktor terbaik dalam menjelaskan Y !
            Jawab :
     Nilai koefisien ini antara 0 dan 1, jika hasil lebih mendekati angka 0 berarti kemampuan variabel-variabel independen dalam menjelaskan variasi variabel amat terbatas. Tapi jika hasil mendekati angka 1 berarti variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variasi variabel dependen.





























BAB 5
UJI ASUMSI KLASIK
A.    RANGKUMAN

1.      Uji Asumsi Klasik
Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi, Jika data yang diregresi tidak memenuhi asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE (Best, Linier, Unbiased, Estimator), maksudnya,
·         Hasil Regresi dikatakan Best, jika garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error (perbedaan antara nilai observasi dan nilai yang diramalkan oleh garis regresi) yang terkecil. Jika garis regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi akan efisien.
·         Linier, ada dua yaitu Linier dalam model yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan Linier dalam parameter menjelaskan parameter yang dihasilkan merupakan fungsi linier dari sample.
·         Unbiased (Tidak bias), Jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya nilai rata-rata b = b, Bila rata-rata b tidak sama dengan b, maka selisihnya disebut dengan bias.
·         Estimator, sifat estimator efisien dapat ditemukan apabila ketiga kondisi diatas telah tercapai.
Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of estimation (BLUE).
2.      Uji Autokorelasi
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel variabel gangguan pada periode lain. Masalah autokorelasi lebih sering muncul pada data time series (runtut waktu), karena sifat data time series ini lekat dengan kontinyuitas dan adanya sifat ketergantungan antar data. Sementara pada data Cross section hal itu kecil kemungkinan terjadi.
Asumsi terbebasnya autokorelasi ditunjukkan oleh niali e yang mempunyai rata-rata nol, dan variannya konstan. Asumsi variance yang tidak konstan menunjukkan adanya pengaruh perubahan nilai suatu observasi berdampak pada observasi lain.
Jika terdapat ketergantungan, dalam bahasa matematisnya dituliskan sebagai berikut :
E (ui,uj) ≠ 0: i≠j,
Sebaliknya, jika tidak terdapat ketergantungan, maka masalah autokorelasi tidak akan muncul, Dalam matematisnya dituliskan sebagai berikut :
E (ui,uj) = 0: i≠j
·      Sebab-sebab Autokorelasi
1.    Kesalahan dalam pembentukan model yang tidak didukung oleh teori-teori yang relevan dan mendukung.
2.    Tidak memasukkan variabel yang penting yang signifikan mempengaruhi variabel Y.
3.    Manipulasi Data
4.    Menggunakan data yang tidak empiris, terkesan bahwa data tersebut tidak didukung oleh realita.
·      Akibat Autokorelasi
Meskipun ada autokorelasi, nilai parameter estimator (b1,b2...,bn) model regresi tetap linier dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1,Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
·         Pengujian Autokorelasi
a.      Uji Durbin – Watson (DW Test)
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson.
Rumus :  d= ( 1- Ʃ et – et-1 )
                           e2t
Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
-          Terdapat intercept dalam model regresi.
-          Variabel penjelasnya tidak random(nonstochastics).
-          Tidak ada unsur lag dari variabel dependen di dalam model.
-          Tidak ada data yang hilang.
-         vt = pvt-1 +  Ɛt
Langkah-langkah pengujian menggunakan DW test dimulai dengan menetukan hipotesis (H0) biasanya menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif, dan perlu mengujinya karena hipotesis sendiri merpakan jawaban sementara yang masih perlu diuji. Terdapat beberapa standar keputusan DW test :
DW < dL                  = terdapat atokorelasi positif
dL< DW <dU            = tidak dapat disimpulkan (inconclusive)
dU > DW >4-dU         = tidak terdapat autokorelasi
4-dU < DW <4-dL = tidak dapat disimpulkan (inconclusive)
DW > 4-dL   = terdapat autokorelasi negatif
Dimana
DW = Nilai Durbin-Watson d statistik
dU = Nilai batas atas (didapat dari tabel)
dL = Nilai batas bawah (didapat dari tabel)
b.      Metode LaGrange Multiplier (LM)
Tehnik regresi yang memasukkan variabel tambahan yang dimasukkan ke dalam model. Variabel tersebut adalah data lag dari variabel dependen, dengan model:
Y = ß0 + ß1X1 + ß2X2 + ß3Yt-1 + ß4Yt-2 + Ɛ
Variabel Yt-1 merupakan variabel lag 1 dari  Y
Variabel Yt-2 merupakan variabel lag 2 dari Y
Sebagai kunci untuk mengetahui pada lag berapa autokorelasi muncul, dapat dilihat dari signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t masing-masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya. Misalnya variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah autokorelasi atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya. Jika ini terjadi, maka untuk perbaikan hasil regresi perlu dilakukan regresi ulang dengan merubah posisi data untuk disesuaikan dengan kurun waktu lag tersebut. Terdapat beberapa alat uji lain untuk mendeteksi autokorelasi seperti uji Breusch-Godfrey, Uji Run, Uji Statistik Q: Box-Pierce dan Ljung Box, dan lainlain,
  1. UJI NORMALITAS
Tujuan melakukan uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu. Jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari.
Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian normalitas ini berdampak pada nilai t dan  F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
Cara melakukan Uji Normalitas :
1.      Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan nilai mean. Data dikatakan normal (simetris) jika perbandingan antara mean dan median menghasilkan nilai yang kurang lebih sama. Atau apabila nilai mean jika dikurangi nilai median menghasilkan angka nol. Cara ini disebut ukuran tendensi sentral (Kuncoro, 2001: 41).
2.      Menggunakan formula Jarque Bera (JB test).
Rumus : JB= n [S2 + (K-3)2]
                           6           24
3.      Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran data, dengan menghitung standar deviasi. Rumus : SD = Ʃ( Dv-Dv)
n
Standar deviasi ini digunakan untuk menentukan rentang deviasi dari posisi simetris data. Untuk mempermudah, kita dapat memberinya nama:
ü  SD1 yang berarti rentang pertama, di sebelah kiri dan sebelah kanan dari posisi tengah-tengah (simetris).
ü  SD2 yang berarti rentang kedua di sebelah kiri dan sebelah kanan posisi tengahtengah (simetris)
ü  SD3 yang berarti rentang ketiga di sebelahn kiri dan sebelah kanan posisi tengah-tengah (simetris).
Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal atau tidak normal. Apabila data telah berdistribusi normal maka tidak ada masalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data. Data yang tidak normal juga dapat dibedakan dari
tingkat kemencengannya (skewness). Jika data cenderung menceng ke kiri disebut positif skewness, dan jika data cenderung menceng ke kanan disebut negatif skewness. Data dikatakan normal jika datanya simetris
4.      UJI HETEROSKEDASTISITAS
Residual harus homoskedastis, artinya, variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas (Setiaji, 2004: 17).
·      Konsekuensi Heteroskedastisitas
Analisis regresi linier yang berupa variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias.,    Jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.
Adanya kesalahan dalam model yang dapat mengakibatkan nilai b meskipun tetap linier dan tidak bias, tetapi nilai b bukan nilai yang terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan.
Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
·      Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18)21.
Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot.
Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan regresi atas residual, dengan model yang dapat dituliskan e2 = a + By2 + u. Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan nilai chi-square (x2) pada derajat kesalahan tertentu. Dengan df=1 (ingat, karena hanya memiliki satu variabel bebas). Jika R2 x N lebih besar dari chi-square (x2) tabel, maka standar error mengalami heteroskedastisitas. Sebaliknya, jika R2 x N lebih kecil dari chi-square (x2) tabel, maka standar error telah bebas dari masalah heteroskedastisitas, atau telah homoskedastis.
5.    UJI MULTIKOLINIERITAS
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadapY, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berkolinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
·      Konsekuensi  multikolinearitas
Apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Dari formula OLS akan menghasilkan bilangan pembagian, b1= 0/0 sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.
·      Pendeteksian multikolinearitas
Pengujian multikolinearitas menggunakan angka korelasi dimaksudkan untuk menentukan ada tidaknya multikolinearitas. Dengan demikian, dapat disimpulkan bahwa apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas dari masalah multikolinearitas. Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas, dengan mempertimbangkan sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.

B.     KESIMPULAN
Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE (Best, Linier, Unbiased, Estimator). Serupa dengan asumsi-asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan OLS,18 yaitu: 
-          Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e Untuk model regresi Y = a + bX + cX2 + e Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.
-          Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random). Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
-          Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas
-          Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
-          Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau non stochastic.
-          Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.
-          Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
-          Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
-          Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.
UJI ASUMSI KLASIK,terdiri dari :
1.      Uji Autokorelasi
2.      Uji Normalitas
3.      Uji Heteroskedastisitas
4.      Uji Multikoliniearitas

C.     PERTANYAAN

a.       Jelaskan apa yang dimaksud  Asumsi Klasik !
Jawab : Asumsi klasik adalah syarat-syarat yang harus dipenuhi pada model regresi linear OLS agar model tersebut menjadi valid sebagai alat penduga.
b.      Sebutkan apa saja asumsi-asumsi yang ditetapkan !
Jawab :
-       Asumsi 1         : Linear regression Model. Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e Untuk model regresi Y = a + bX + cX2 + e.
-       Asumsi 2         : Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
-       Asumsi 3         : Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).
-       Asumsi 4         : Homoskedastisitas,
-       Asumsi 5         : Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
-       Asumsi 6         : Variabel X dan disturbance e tidak berkorelasi.
-       Asumsi 7         : Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi.
-       Asumsi 8         : Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
-       Asumsi 9         : Model regresi secara benar telah terspesifikasi.
-       Asumsi 10       :Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.
Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.
c.       Coba Jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
Jawab :
Karena tidak semua data dapat diperlakukan dengan regresi, Jika data yang diregresi tidak memenuhi asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE (Best, Linier, Unbiased, Estimator). Penyimpangan masing-masing asumsi tidak mempunyai impak yang sama terhadap regresi.
d.      Jelaskan apa yang dimaksud Autokorelasi !
Jawab :                       
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel variabel gangguan pada periode lain.
e.       Jelaskan kenapa autokorelasi timbul !
Jawab :
1.    Kesalahan dalam pembentukan model yang tidak didukung oleh teori-teori yang relevan dan mendukung.
2.    Tidak memasukkan variabel yang penting yang signifikan mempengaruhi variabel Y.
3.    Manipulasi Data
4.    Menggunakan data yang tidak empiris, terkesan bahwa data tersebut tidak didukung oleh realita.
f.       Bagaimana cara mendeteksi maslalah Autokorelasi !
Jawab :
1.      Uji Durbin – Watson (DW Test)
Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
-          Terdapat intercept dalam model regresi.
-          Variabel penjelasnya tidak random(nonstochastics).
-          Tidak ada unsur lag dari variabel dependen di dalam model.
-          Tidak ada data yang hilang.
-         vt = pvt-1 +  Ɛt
Dimulai dengan menetukan hipotesis (H0) biasanya menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif, dan perlu mengujinya karena hipotesis sendiri merpakan jawaban sementara yang masih perlu diuji.
2.      Metode LaGrange Multiplier (LM)
Tehnik regresi yang memasukkan variabel tambahan yang dimasukkan ke dalam model, variabel tersebut dalah data lag dari variabel dependen
Sebagai kunci untuk mengetahui pada lag berapa autokorelasi muncul, dapat dilihat dari signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t masing-masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya. Misalnya variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah autokorelasi atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya. Jika ini terjadi, maka untuk perbaikan hasil regresi perlu dilakukan regresi ulang dengan merubah posisi data untuk disesuaikan dengan kurun waktu lag tersebut.
g.      Apa konsekuensi dari masalah Autokorelasi dalam model !
Jawab :
1.    Estimator yang dihasilkan masih unbiased, konsisten, dan asymptotical normally distributed. Tetapi tidak lagi efisien->varians tidak minimum (tidak BLUE) 
2.    Estimasi standard error dan varian koefisien regresi yang didapat akan ‘underestimate’. 
3.    Pemerikasaan terhadap residualnya akan menemui permasalahan. 
4.    Autokorelasi yang kuat dapat pula menyebabkan dua variabel yang tidak berhubungan menjadi berhubungan. Biasa disebut spourious regression. Hal ini terlihat dari R2
h.      Jelasakan apa yang dimaksud Heteroskedastisitas !
Jawab :
Uji yang muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lain
i.        Jelaskan kenapa heteroskedastisitas timbul!
Jawab :
Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik.
j.        Bagaimana cara mendeteksi masalah Heteroskedastisitas!
Jawab :
Dengan uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier. Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot.
Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan regresi atas residual, dengan model yang dapat dituliskan e2 = a + By2 + u. Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan nilai chi-square (x2) pada derajat kesalahan tertentu. Dengan df=1 (ingat, karena hanya memiliki satu variabel bebas). Jika R2 x N lebih besar dari chi-square (x2) tabel, maka standar error mengalami heteroskedastisitas. Sebaliknya, jika R2 x N lebih kecil dari chi-square (x2) tabel, maka standar error telah bebas dari masalah heteroskedastisitas, atau telah homoskedastis
k.      Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model !
 Jawab :
Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
l.        Jelaskan apa yang dimaksud Multikolinieritas !
Jawab :
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect”atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.
m.    Jelaskan kenapa multikoliniearitas timbul!
Jawab :
Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadapY, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
n.      Bagaimana cara medeteksi masalah multikoliniearitas!
Jawab :
Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk dilakukan.
o.      Apa konsekuensi dari adanya masalah multikoliniearitas dalam model !
Jawab :
Apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t. Dari formula OLS akan menghasilkan bilangan pembagian, b1= 0/0 sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.
p.      Jelaskan apa yang dimaksud normalitas !
Jawab :
Uji Normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak
q.      Jelaskan kenapa normalitas timbul !
Jawab :
Pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu. Jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian normalitas ini berdampak pada nilai t dan  F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
r.        Bagaimana cara mendeteksi masalah normalitas !
Jawab :
a.       Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan nilai mean. Data dikatakan normal (simetris) jika perbandingan antara mean dan median menghasilkan nilai yang kurang lebih sama. Atau apabila nilai mean jika dikurangi nilai median menghasilkan angka nol. Cara ini disebut ukuran tendensi sentral (Kuncoro, 2001: 41).
b.      Menggunakan formula Jarque Bera (JB test). Rumus .......
c.       Mengamati sebaran data, dengan melakukan hitungan-hitungan berupa prosentase data observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran data, dengan menghitung standar deviasi  Standar deviasi ini digunakan untuk menentukan rentang deviasi dari posisi simetris data
s.       Apa konsekuensi dari adanya masalah normalitas dalam model !
Jawab :
Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
t.        Bagaimana cara menangani jika data ternayata tidak normal !
Jawab :
Karena data berdistribusi tidak normal, maka diperlukan upaya untuk mengatasi seperti : memotong data yang out liers, memperbesar sample atau melakukan transformasi data.  Untuk menormalkan sebaran data dapat dilakukan dengan merubah data dengan nilai absolut ke dalam bilangan logaritma, yang akan memperkecil error sehingga kemungkinan timbulnya masalah heteroskedastisitas juga menjadi sangat kecil.
Referensi : Bp Supawi Pawenang 2017, Tugas Ekonometrikawww.uniba.ac.id

Komentar

  1. Pak, ada gak perhitungan manual koefisien regresi untuk masalah data panel Model Fixed Effect dgn Dummy Variabel ?? terima kasih mohon Balasannya

    BalasHapus

Posting Komentar

Postingan populer dari blog ini

MAKALAH TEORI PRODUKSI

EKONOMETRIKA "MODEL REGRESI"