EKONOMETRIKA "REGRESI LINIER BERGANDA DAN UJI ASUMSI KLASIK"
TUGAS EKONOMETRIKA
BAB 4 Dan 5
Makalah ini disusun untuk
memenuhi tugas mata kuliah Ekonometrika
Disusun oleh :
Nama : Anisa
Tri Ariyanti
NIM :
2014.020.003
Kelas :
Manajemen B1
Email :anisa_sdp@yahoo.com/
anisa.stay32@gmail.com
Blog :anisasdp23.blogspot.com
EKONOMI MANAJEMEN
FAKULTAS EKONOMI
UNIVERSITAS ISLAM BATIK SURAKARTA
2017
BAB
IV
REGRESI
LINIER BERGANDA
A.
Rangkuman
1. Pengertian Regresi Linier Berganda
Jumlah X yang lebih
dari satu tersebut terkenal dengan istilah Regresi Linier Berganda atau multiple
linier regression. Perubahan model dari bentuk single ke dalam
bentuk multiple mengalami beberapa perubahan, meliputi:
1. Jumlah
variabel penjelasnya bertambah, sehingga spesifikasi model dan data terjadi
penambahan.
2. Rumus penghitungan nilai b mengalami
perubahan.
3. Jumlah
degree of freedom dalam menentukan nilai t juga berubah.
2. Model Regresi Linier Berganda
Penulisan model
regresi linier berganda merupakan pengembangan dari model regresi linier
tunggal. Perbedaannya hanya terdapat pada jumlah variabel X saja, dimana dalam regresi
linier berganda variabel X lebih dari satu. Model linier umumnya dituliskan
sebagai berikut:
Populasi : Y = A + B1X1
+ B2X2 + B3X3 + ………+BnXn
+ e
Atau Y = B0 + B1X1
+ B2X2+ B3X3 + ………+ BnXn
+ e
Sampel : Y = a + b1X1
+ b 2X2+ b3X3 + ………+ bnXn
+ e
Atau Y = b0 + b1X1
+ b 2X2 + b3X3 + ………+ bnXn+
e
Penulisan model sangat beragam perlu
dimengerti karena penulisan model sendiri hanya bertujuan sebagai teknik
anotasi untuk memudahkan interpretasi. Notasi
model seperti itu tentu berbeda dengan notasi model Yale. Apabila kita ingin menganalisis
pengaruh Budep dan Kurs terhadap Inflasi dengan mengacu model Yale, maka notasi
model menjadi seperti berikut:
Populasi : Y = B1.23 + B12.3X2i + B13.2X3i + e
Sampel : Y = b1.23 + b12.3X2i + b13.2X3i + e
Notasi model dapat pula ditulis sebagai
berikut:
Inflasi = b0
+ b1Budep + b2 Kurs + Ɛ
3. Perhitungan Nilai Parameter
Penggunaan
metode OLS dalam regresi linier berganda dimaksudkan untuk mendapatkan aturan
dalam mengestimasi parameter yang tidak diketahui. Prinsip dalam OLS sendiri
adalah untuk meminimalisasi perbedaan jumlah kuadrat kesalahan (sum of
square) antara nilai observasi Y dengan Yˆ .
Rumus fungsi
minimalisasi sum of square :
n
Ʃ e 2(b0,
b1,b2) =
Ʃ( Y- Yˆ)
n = 1
n
= Ʃ( Y- b0- b1 x1- b2 x2)2
n = 1
Untuk
mendapatkan estimasi least square b0, b1,b2 minimum,
dapat dilakukan melalui cara turunan parsial (partially differentiate). Nilai
dari parameter b1 dan b2 merupakan nilai dari suatu
sampel. Nilai b1 dan b2 tergantung pada jumlah sampel
yang ditarik. Penambahan atau pengurangan akan mengakibatkan perubahan
rentangan nilai b. Perubahan rentang nilai b1 dan b2
diukur dengan standar error. Semakin besar standar error mencerminkan
nilai b
sebagai penduga populasi semakin kurang
representatif. Sebaliknya, semakin kecil standar error maka keakuratan daya
penduga nilai b terhadap populasi semakin tinggi. Perbandingan antara nilai b
dan standar error ini memunculkan nilai t, yang dapat dirumuskan sebagai
berikut:
t= b
Sb
Keterangan:
b = nilai parameter
Sb = standar error dari b. Jika b
sama dengan 0 (b=0) atau Sb bernilai sangat besar, maka nilai t akan sama dengan atau
mendekati 0 (nol).
Untuk dapat melakukan uji t, perlu
menghitung besarnya standar error masing-masing parameter ( baik b0,
b1, b2). Dengan diketahuinya nilai t hitung masing-masing
parameter, maka dapat digunakan untuk mengetahui signifikan tidaknya variabel
penjelas dalam mempengaruhi variabel terikat. Untuk dapat mengetahui apakah
signifikan atau tidak nilai t hitung tersebut, maka perlu membandingkan dengan
nilai t tabel. Apabila nilai t hitung lebih besar dibandingkan dengan nilai t
tabel, maka variabel penjelas tersebut signifikan. Sebaliknya, jika nilai t
hitung lebih kecil darit tabel, maka variabel penjelas tersebut tidak
signifikan.
4. Koefisien Determinasi ( R2)
Koefisien
determinasi pada dasarnya digunakan untuk mengkur goodness of fit dari
persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan
determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y).
Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of
square (TSS) atau total variasi Y terhadap explained sum of square (ESS)
atau variasi yang dijelaskan Y. Dengan demikian kita dapat mendefinisikan lagi
R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y.
Rumus tersebut adalah sebagai berikut:
=
Total variasi Y
(TSS) dapat diukur menggunakan derajat deviasi dari masing-masing observasi
nilai Y dari rata-ratanya. Hasil pengukuran ini kemudian dijumlahkan hingga
mencakup seluruh observasi. Jelasnya:
n
TSS= Ʃ( Yt- Y)
n = 1
Nilai explained
sum of square (ESS) atau variasi yang dijelaskan Y didapat dengan
menggunakan rumus sebagai berikut:
n
ESS= Ʃ( Yˆt- Y)
n = 1
Jadi, rumus di atas dapat pula
dituliskan menjadi sebagai berikut:
R2 = Ʃ( Yˆ - Y) 2
Ʃ( Y
- Y) 2
dimana:
Yˆ
(baca: Y cap) adalah nilai perkiraan Y atau estimasi garis regresi.
Y (baca:
Y bar) adalah nilai Y rata-rata.
Y cap diperoleh
dengan cara menghitung hasil regresi dengan memasukkan nilai parameter dan data
variabel.
5.
Uji F
Dalam regresi linier berganda variable
penjelasnya selalu berjumlah lebih dari satu. Pengujian tingkat signifikansi
variabel tidak hanya dilakukan secara induvidual saja , seperti dilakukan
dengan uji t , tetapi dapat pula dilakukan pengujian signifikansi semua
variable penjelas secara serentak . Pengujian
secara serentak tersebut dilakukan dengan teknik analisis of variance (ANOVA) melalui pengujian nilai
F hitung yang dibandingksn dengan nilai F tabel disebut Uji F
Teknik ANOVA digunakan untuk menguji distribusi
atau variansi means dalam variable
penjelas apakah secara proporsional telah signifikan menjelaskan variansi dari
variable yang dijelaskan. Untuk memastikan jawabanya , maka perlu dihitung
rasio antara variansi means ( variance between means ) yang dibandingkan dengan
vairiansi didalam kelompok variable ( variance between grup ). Hasil
pembandingan keduanya itu menghasilkan nilai F hitung yang kemudian
dibandingkan dengan nilai F tabel .
Secara ringkas dapat dituliskan sebagai berikut
:
F ≤ diterima
F>berarti signifikan atau ditolak
diterima atau ditolak
merupakan suatu keputusan jawaban terhadap hipotesis yang terkait dengan uji F
. Karena uji F membandingkan nilai F hitung dengan nilai F tabel maka penting
untuk mengetahui bagaimana mencari nilai F hitung maupun nilai F tabel . Nilai
F hitung dapat dicari menggunakan rumus :
F =
Sedangkan nilai F tabel telah ditentukan dalam
nilai tabel. Yang penting untuk
diketahui adalah bagaimana cara membaca tabelnya.
Arti dari tulisan tersebut
adalah :
·
Simbol menjelaskan tingkat
signifikansi (level of significance ) (apakah
·
Simbol
(k-1) menunjukkan degrees of freedom for
numerator .
·
Simbol
(n-k) menunjukkan degrees of freedom for denominator.
B.
SIMPULAN
Regresi
linier berganda yaitu jumlah variable X yang lebih dari satu .
Analisis ini untuk mengetahui arah hubungan antara variabel independen dengan
variabel dependen apakah berhubungan positif atau negatif dan untuk memprediksi
nilai dari variabel dependen apabila nilai variabel independen mengalami
kenaikan atau penurunan. Koefisien determinasi R2 digunakan untuk mengkur goodness of
fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk
prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel
yang dijelaskan (Y).
Koefisien determinasi dapat dicari melalui
hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap explained
sum of square (ESS) atau variasi yang dijelaskan Y. Uji Koefisien Regresi Secara Simultan (Uji F) Uji ini digunakan
untuk mengetahui apakah variabel independen (X1,X2….Xn)
secara bersama-sama berpengaruh secara signifikan terhadap variabel dependen
(Y). Atau untuk mengetahui apakah model regresi dapat digunakan untuk
memprediksi variabel dependen atau tidak.
C.
PERTANYAAN
a.
Coba jelaskan apa yang dimaksud dengan regresi linier berganda !
Jawab : Regresi Linier Berganda adalah Anaalisis
regresi dimana variabel X (Variabel independent) lebih dari satu variabel.
b.
Coba Tuliskan Model Regresi Linier Berganda !
Jawab
:
Y = a + b1X1+ b2X2+…..+
bnXn + e
c. Coba uraikan
arti dari notasi atas model yang anda tuliskan !
Jawab:
Y’ = Variabel dependen (nilai yang diprediksikan)
X1 dan X2 =
Variabel independen
a = Konstanta (nilai Y’ apabila X1, X2…..Xn
= 0)
b = Koefisien regresi (nilai peningkatan ataupun
penurunan)
e = Error
d. Jelaskan informasi apa yang diungkap pada konstanta
!
Jawab :
Nilai konstanta dalam
regresi digunakan untuk menentukan letak titik potong garis pada sumbu Y. Jika
nilai a > 0 maka letak titik potong pada garis regresi pada sumbu Y akan
berada di atas origin (0), apabila nilai a < 0 maka titik potongnya berada
di bawah origin.
e. Jelaskan informasi apa yang diungkap pada koefisien
regresi !
Jawab :
Koefisien
regresi (nilai peningkatan ataupun penurunan)
Koefisien regresi berfungsi untuk menetukan tingkat
kemiringan garis regresi. Semakin rendah nilai b maka derajat kemiringan garis regresi terhadap sumbu X semakin
rendah pula dan sebaliknya.
f. Coba sebutkan perbedaan-perbedaan antara model
regresi linier sederhana dengan model regersi linier berganda !
Jawab :
Analisis regresi linier
sederhana adalah analisis regresi yang hanya melibatkan hubungan secara linier
antara satu variabel dependen atau variabel tergantung dan satu variabel
independen atau variabel bebas.
Analisis
regresi linier berganda adalah analisis regresi yang melibatkan lebih dari dua
variabel, yaitu 1 (satu) variabel dependen atau variabel tergantung dan lebih
dari 1 (satu) variabel independen atau bebas.
g. Jelaskan mengapa rumus untuk mencari nilai b pada
model regersi linier berganda berbeda dengan model regresi linier sederhana !
Jawab :
Karena
dalam model regresi linier berganda memiliki variabel lebih dari dua
h. Coba jelaskan apakah pencarian nilai t juga
mengalami perubahan! Kenapa?
Jawab :
Mengalami
perubahan karena variable independen lebih dari satu
i. Coba
uraikan bagaimana menentukan nilai t yang signifikan!
Jawab :
Cara
menentukan signifikan tidaknya nilai t yaitu melalui
pembandingan antara nilai t hitung dengan nilai t tabel. Derajat
signifikansi yang digunakan adalah 0,05. Jika nilai t hitung > t tabel maka
signifikan. Jika nilai t hitung <t tabel maka tidak signifikan.
j. Jelaskan apa kegunaan nilai F !
Jawab :
Digunakan
untuk pengujian tingkat signifikansi variabel tidak hanya secara individual
saja tetapi dapat pula diakukan pengujian signifikansi semua variabel penjelas
secara bersama-sama.
k. Bagaimana menentukan nilai F yang signifikan!
Jawab :
Jika nilai F
hitung lebih besar dibanding nilai F tabel, maka secara serentak seluruh
variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat
Y. Sebaliknya, jika nilai F hitung lebih kecil dibandingkan dengan nilai F
tabel, maka tidak secara serentak seluruh variabel penjelas yang ada dalam
model signifikan mempengaruhi variabel terikat Y.
l. Jelaskan apakah rumus dalam mencari koefisien
determinasi pada model regresi linier berganda berbeda dengan regresi linier
sederhana! Kenapa?
Jawab :
Berbeda, karena menguji
determinasi seluruh variabel penjelas yang ada dalam model regresi
m. Jelaskan bagaimana variabel penjelas dapat dianggap
sebagai prediktor terbaik dalam
menjelaskan Y !
Jawab :
Nilai koefisien ini antara 0 dan 1, jika hasil
lebih mendekati angka 0 berarti kemampuan variabel-variabel independen dalam
menjelaskan variasi variabel amat terbatas. Tapi jika hasil mendekati angka 1
berarti variabel-variabel independen memberikan hampir semua informasi yang
dibutuhkan untuk memprediksi variasi variabel dependen.
BAB 5
UJI ASUMSI KLASIK
A. RANGKUMAN
1.
Uji Asumsi Klasik
Munculnya
kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus
regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data
dapat diperlakukan dengan regresi, Jika data yang diregresi tidak memenuhi
asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan akan
menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi
asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE
(Best, Linier, Unbiased, Estimator), maksudnya,
·
Hasil Regresi dikatakan
Best, jika garis regresi yang dihasilkan guna melakukan estimasi atau peramalan
dari sebaran data, menghasilkan error (perbedaan antara nilai observasi dan
nilai yang diramalkan oleh garis regresi) yang terkecil. Jika garis regresi
telah Best dan disertai pula oleh kondisi tidak bias (unbiased), maka estimator
regresi akan efisien.
·
Linier, ada dua yaitu
Linier dalam model yang digunakan dalam analisis regresi telah sesuai dengan
kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan
Linier dalam parameter menjelaskan parameter yang dihasilkan merupakan fungsi
linier dari sample.
·
Unbiased (Tidak
bias), Jika nilai harapan dari estimator b sama dengan nilai yang benar dari b.
Artinya nilai rata-rata b = b, Bila rata-rata b tidak sama dengan b, maka
selisihnya disebut dengan bias.
·
Estimator, sifat
estimator efisien dapat ditemukan apabila ketiga kondisi diatas telah tercapai.
Secara teoretis
model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih
bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas,
dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik
tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best,
linear, unbias, efficient of estimation (BLUE).
2.
Uji Autokorelasi
Autokorelasi adalah keadaan dimana variabel gangguan
pada periode tertentu berkorelasi dengan variabel variabel gangguan pada
periode lain. Masalah autokorelasi lebih sering muncul pada data time series (runtut waktu), karena sifat
data time series ini lekat dengan
kontinyuitas dan adanya sifat ketergantungan antar data. Sementara pada data Cross section hal itu kecil kemungkinan
terjadi.
Asumsi terbebasnya autokorelasi ditunjukkan oleh niali
e yang mempunyai rata-rata nol, dan variannya konstan. Asumsi variance yang tidak konstan menunjukkan
adanya pengaruh perubahan nilai suatu observasi berdampak pada observasi lain.
Jika
terdapat ketergantungan, dalam bahasa matematisnya dituliskan sebagai berikut :
E (ui,uj) ≠ 0: i≠j,
Sebaliknya,
jika tidak terdapat ketergantungan, maka masalah autokorelasi tidak akan
muncul, Dalam matematisnya dituliskan sebagai berikut :
E (ui,uj) = 0: i≠j
·
Sebab-sebab
Autokorelasi
1.
Kesalahan dalam
pembentukan model yang tidak didukung oleh teori-teori yang relevan dan
mendukung.
2.
Tidak memasukkan
variabel yang penting yang signifikan mempengaruhi variabel Y.
3.
Manipulasi Data
4.
Menggunakan data yang
tidak empiris, terkesan bahwa data tersebut tidak didukung oleh realita.
·
Akibat Autokorelasi
Meskipun ada autokorelasi, nilai parameter estimator
(b1,b2...,bn) model regresi tetap linier dan
tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance
tidak minimum dan standard error (Sb1,Sb2) akan bias.
Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t
diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias
maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
·
Pengujian Autokorelasi
a. Uji Durbin – Watson (DW
Test)
Uji
Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya serial
korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan
Watson.
Rumus : d= ( 1- Ʃ et – et-1
)
e2t
Dalam
DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
-
Terdapat intercept dalam
model regresi.
-
Variabel penjelasnya
tidak random(nonstochastics).
-
Tidak ada unsur lag
dari variabel dependen di dalam model.
-
Tidak ada data yang
hilang.
-
vt = pvt-1
+ Ɛt
Langkah-langkah
pengujian menggunakan DW test dimulai dengan menetukan hipotesis (H0)
biasanya menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik
positif maupun negatif, dan perlu mengujinya karena hipotesis sendiri merpakan
jawaban sementara yang masih perlu diuji. Terdapat beberapa standar keputusan
DW test :
DW < dL = terdapat atokorelasi positif
dL< DW
<dU = tidak dapat
disimpulkan (inconclusive)
dU > DW
>4-dU = tidak
terdapat autokorelasi
4-dU < DW <4-dL =
tidak dapat disimpulkan (inconclusive)
DW > 4-dL = terdapat autokorelasi negatif
Dimana
DW = Nilai
Durbin-Watson d statistik
dU = Nilai
batas atas (didapat dari tabel)
dL = Nilai
batas bawah (didapat dari tabel)
b. Metode LaGrange
Multiplier (LM)
Tehnik regresi yang memasukkan variabel tambahan yang
dimasukkan ke dalam model. Variabel tersebut adalah data lag dari variabel
dependen, dengan model:
Y = ß0 + ß1X1
+ ß2X2 + ß3Yt-1 + ß4Yt-2
+ Ɛ
Variabel Yt-1 merupakan variabel lag 1
dari Y
Variabel Yt-2 merupakan variabel lag 2 dari
Y
Sebagai kunci untuk mengetahui pada lag berapa
autokorelasi muncul, dapat dilihat dari signifikan tidaknya variabel lag
tersebut. Ukuran yang digunakan adalah nilai t masing-masing variabel lag yang
dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya. Misalnya
variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat
masalah autokorelasi atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya.
Jika ini terjadi, maka untuk perbaikan hasil regresi perlu dilakukan regresi
ulang dengan merubah posisi data untuk disesuaikan dengan kurun waktu lag
tersebut. Terdapat
beberapa alat uji lain untuk
mendeteksi autokorelasi seperti uji Breusch-Godfrey, Uji Run, Uji Statistik Q:
Box-Pierce dan Ljung Box, dan lainlain,
- UJI NORMALITAS
Tujuan melakukan uji normalitas adalah untuk menguji
apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian
normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.
Jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang
mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada
nilai t hitung dan nilai F hitung dapat dihindari.
Sebaliknya, bila dilakukan analisis regresi terlebih
dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan
normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi
harus diulang lagi. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya
diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
Cara
melakukan Uji Normalitas :
1.
Menggunakan metode
numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan
nilai mean. Data dikatakan normal (simetris) jika perbandingan antara mean dan
median menghasilkan nilai yang kurang lebih sama. Atau apabila nilai mean
jika dikurangi nilai median menghasilkan angka nol. Cara ini disebut
ukuran tendensi sentral (Kuncoro, 2001: 41).
2.
Menggunakan formula
Jarque Bera (JB test).
Rumus : JB= n [S2 + (K-3)2]
6 24
3.
Mengamati
sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data
observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran
data, dengan menghitung standar deviasi. Rumus : SD = Ʃ(
Dv-Dv)
n
Standar deviasi ini digunakan untuk menentukan rentang
deviasi dari posisi simetris data. Untuk mempermudah, kita dapat memberinya
nama:
ü SD1 yang berarti rentang pertama, di sebelah kiri dan
sebelah kanan dari posisi tengah-tengah (simetris).
ü SD2 yang berarti rentang kedua di sebelah kiri dan
sebelah kanan posisi tengahtengah (simetris)
ü SD3 yang berarti rentang ketiga di sebelahn kiri dan
sebelah kanan posisi tengah-tengah (simetris).
Dalam pengujian
normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal atau
tidak normal. Apabila data telah berdistribusi normal maka tidak ada masalah
karena uji t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila data tidak
normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang out
liers, memperbesar sampel, atau melakukan transformasi data. Data yang
tidak normal juga dapat dibedakan dari
tingkat kemencengannya (skewness).
Jika data cenderung menceng ke kiri disebut positif skewness, dan jika
data cenderung menceng ke kanan disebut negatif skewness. Data dikatakan
normal jika datanya simetris
4. UJI HETEROSKEDASTISITAS
Residual harus
homoskedastis, artinya, variance residual harus memiliki variabel yang
konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena
jika variancenya tidak sama, model akan menghadapi masalah
heteroskedastisitas. Heteroskedastisitas
muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki
varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112).
Padahal rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error)
atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang
lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut
dikatakan tidak homoskedastik atau mengalami heteroskedastisitas (Setiaji,
2004: 17).
·
Konsekuensi
Heteroskedastisitas
Analisis regresi linier
yang berupa variance residual yang sama, menunjukkan bahwa standar error (Sb)
masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias.,
Jika asumsi ini tidak terpenuhi,
sehingga variance residualnya berubah-ubah sesuai perubahan observasi,
maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi
bias.
Adanya kesalahan dalam
model yang dapat mengakibatkan nilai b meskipun tetap linier dan tidak bias,
tetapi nilai b bukan nilai yang terbaik. Munculnya masalah heteroskedastisitas
yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai
F yang menjadi tidak dapat ditentukan.
Karena nilai t
dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka
nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin
mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi
signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t
yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan.
Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
·
Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada
tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji
grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji
Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18)21.
Pengujian heteroskedastisitas
menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara
nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya
akan tertera berupa sebaran data pada scatter plot.
Pengujian
heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan
regresi atas residual, dengan model yang dapat dituliskan e2 = a + By2 + u.
Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan
jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan nilai chi-square
(x2) pada derajat kesalahan tertentu. Dengan df=1 (ingat, karena
hanya memiliki satu variabel bebas). Jika R2 x N lebih besar dari chi-square
(x2) tabel, maka standar error mengalami
heteroskedastisitas. Sebaliknya, jika R2 x N lebih kecil dari chi-square (x2)
tabel, maka standar error telah bebas dari masalah heteroskedastisitas,
atau telah homoskedastis.
5. UJI MULTIKOLINIERITAS
Multikolinieritas adalah suatu keadaan dimana terjadi
korelasi linear yang ”perfect” atau eksak di antara variabel penjelas
yang dimasukkan ke dalam model. Tingkat kolinear dikatakan lemah apabila
masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama.
Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan
serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya
terhadapY, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau
sempurna. Sedangkan Tidak berkolinear jika antara variabel penjelas tidak
mempunyai sama sekali kesamaan.
·
Konsekuensi multikolinearitas
Apabila belum terbebas
dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b)
masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung
bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan
berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Dari formula OLS akan
menghasilkan bilangan pembagian, b1= 0/0 sehingga nilai b1
hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb akan
menjadi sangat besar, yang tentu akan memperkecil nilai t.
·
Pendeteksian multikolinearitas
Pengujian
multikolinearitas menggunakan angka korelasi dimaksudkan untuk menentukan ada
tidaknya multikolinearitas. Dengan demikian, dapat disimpulkan bahwa apabila
angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas dari
masalah multikolinearitas. Dalam kaitan adanya kolinear yang tinggi sehingga
menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas,
dengan mempertimbangkan sifat data dari cross section, maka bila tujuan
persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat
ditolerir, sepanjang nilai t signifikan.
B. KESIMPULAN
Jika
hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang
diperoleh akan bersifat BLUE (Best, Linier, Unbiased, Estimator). Serupa dengan
asumsi-asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat
penerapan OLS,18 yaitu:
-
Asumsi 1: Linear
regression Model. Model regresi merupakan hubungan linear dalam parameter. Y
= a + bX +e Untuk model regresi Y = a + bX + cX2 + e Walaupun variabel X
dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga
OLS masih dapat diterapkan.
-
Asumsi 2: Nilai X
adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling).
Tepatnya bahwa nilai X adalah nonstochastic (tidak random). Asumsi 3:
Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).
Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja
terdapat error yang berada di atas garis regresi atau di bawah garis
regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
-
Asumsi 4:
Homoskedastisitas, atau variabel pengganggu e memiliki variance yang
sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap
X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut
heteroskedastisitas
-
Asumsi 5: Tidak ada
otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
-
Asumsi 6: Variabel X
dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan
pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh
keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y).
Asumsi ini pasti terpenuhi jika X adalah variabel non random atau non
stochastic.
-
Asumsi 7: Jumlah
observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi.
Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar.
Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan
regresi tidak akan bisa diestimasi.
-
Asumsi 8: Variabel X
harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak
bisa dilakukan regresi.
-
Asumsi 9: Model regresi
secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias,
karena semuanya telah terekomendasi atau sesuai dengan teori.
-
Asumsi 10. Tidak ada
multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas
tidak boleh sempurna atau tinggi.
UJI ASUMSI KLASIK,terdiri dari :
1.
Uji Autokorelasi
2.
Uji Normalitas
3.
Uji Heteroskedastisitas
4.
Uji Multikoliniearitas
C. PERTANYAAN
a.
Jelaskan apa yang
dimaksud Asumsi Klasik !
Jawab : Asumsi
klasik adalah syarat-syarat yang harus dipenuhi pada model regresi linear OLS
agar model tersebut menjadi valid sebagai alat penduga.
b.
Sebutkan apa saja
asumsi-asumsi yang ditetapkan !
Jawab :
-
Asumsi 1 : Linear regression Model. Model
regresi merupakan hubungan linear dalam parameter. Y = a + bX +e Untuk model
regresi Y = a + bX + cX2 + e.
-
Asumsi 2 : Nilai X adalah tetap dalam sampling
yang diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai
X adalah nonstochastic (tidak random).
-
Asumsi 3 : Variabel pengganggu e memiliki
rata-rata nol (zero mean of disturbance).
-
Asumsi 4 : Homoskedastisitas,
-
Asumsi 5 : Tidak ada otokorelasi antara variabel
e pada setiap nilai xi dan ji (No autocorrelation between the
disturbance).
-
Asumsi 6 : Variabel X dan disturbance e
tidak berkorelasi.
-
Asumsi 7 : Jumlah observasi atau besar sampel
(n) harus lebih besar dari jumlah parameter yang diestimasi.
-
Asumsi 8 : Variabel X harus memiliki
variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa
dilakukan regresi.
-
Asumsi 9 : Model regresi secara benar telah
terspesifikasi.
-
Asumsi 10 :Tidak ada multikolinearitas antara
variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh
sempurna atau tinggi.
Untuk memenuhi asumsi-asumsi di atas, maka estimasi
regresi hendaknya dilengkapi dengan uji-uji
yang diperlukan, seperti uji normalitas,
autokorelasi, heteroskedastisitas, atupun multikolinearitas.
c.
Coba
Jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
Jawab :
Karena tidak
semua data dapat diperlakukan dengan regresi, Jika data yang diregresi tidak
memenuhi asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan akan
menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi
asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE (Best, Linier, Unbiased, Estimator).
Penyimpangan masing-masing asumsi tidak mempunyai
impak yang sama terhadap regresi.
d.
Jelaskan apa yang
dimaksud Autokorelasi !
Jawab :
Autokorelasi adalah keadaan dimana variabel gangguan
pada periode tertentu berkorelasi dengan variabel variabel gangguan pada
periode lain.
e.
Jelaskan kenapa
autokorelasi timbul !
Jawab :
1.
Kesalahan dalam
pembentukan model yang tidak didukung oleh teori-teori yang relevan dan
mendukung.
2.
Tidak memasukkan variabel
yang penting yang signifikan mempengaruhi variabel Y.
3.
Manipulasi Data
4.
Menggunakan data yang
tidak empiris, terkesan bahwa data tersebut tidak didukung oleh realita.
f.
Bagaimana cara
mendeteksi maslalah Autokorelasi !
Jawab :
1.
Uji Durbin – Watson (DW
Test)
Dalam DW test ini
terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
-
Terdapat intercept dalam
model regresi.
-
Variabel penjelasnya
tidak random(nonstochastics).
-
Tidak ada unsur lag
dari variabel dependen di dalam model.
-
Tidak ada data yang hilang.
-
vt = pvt-1
+ Ɛt
Dimulai dengan menetukan hipotesis (H0)
biasanya menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik
positif maupun negatif, dan perlu mengujinya karena hipotesis sendiri merpakan
jawaban sementara yang masih perlu diuji.
2.
Metode LaGrange
Multiplier (LM)
Tehnik regresi yang memasukkan variabel tambahan yang
dimasukkan ke dalam model, variabel tersebut dalah data lag dari variabel
dependen
Sebagai kunci untuk mengetahui pada lag berapa
autokorelasi muncul, dapat dilihat dari signifikan tidaknya variabel lag
tersebut. Ukuran yang digunakan adalah nilai t masing-masing variabel lag yang
dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya. Misalnya
variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah
autokorelasi atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya.
Jika ini terjadi, maka untuk perbaikan hasil regresi perlu dilakukan regresi
ulang dengan merubah posisi data untuk disesuaikan dengan kurun waktu lag
tersebut.
g.
Apa konsekuensi dari
masalah Autokorelasi dalam model !
Jawab :
1.
Estimator yang dihasilkan masih unbiased, konsisten,
dan asymptotical normally distributed. Tetapi tidak lagi efisien->varians
tidak minimum (tidak BLUE)
2.
Estimasi standard error dan varian koefisien regresi
yang didapat akan ‘underestimate’.
3.
Pemerikasaan terhadap residualnya akan menemui
permasalahan.
4.
Autokorelasi yang kuat dapat pula menyebabkan dua
variabel yang tidak berhubungan menjadi berhubungan. Biasa disebut
spourious regression. Hal ini terlihat dari R2
h.
Jelasakan apa yang
dimaksud Heteroskedastisitas !
Jawab :
Uji yang muncul apabila kesalahan atau residual dari
model yang diamati tidak memiliki varians yang konstan dari satu observasi ke
observasi lain
i.
Jelaskan kenapa
heteroskedastisitas timbul!
Jawab :
Apabila terjadi varian e tidak konstan, maka kondisi
tersebut dikatakan tidak homoskedastik.
j.
Bagaimana cara
mendeteksi masalah Heteroskedastisitas!
Jawab :
Dengan uji grafik, uji Park, Uji Glejser, uji Spearman’s
Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier. Pengujian
heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan
membandingkan sebaran antara nilai prediksi variabel terikat dengan
residualnya, yang output pendeteksiannya akan tertera berupa sebaran
data pada scatter plot.
Pengujian heteroskedastisitas menggunakan uji Arch,
dilakukan dengan cara melakukan regresi atas residual, dengan model yang dapat
dituliskan e2 = a + By2
+ u. Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi
dikalikan dengan jumlah sampel (R2 x N). Hasil perkalian ini kemudian
dibandingkan dengan nilai chi-square (x2) pada derajat
kesalahan tertentu. Dengan df=1 (ingat, karena hanya memiliki satu variabel bebas).
Jika R2 x N lebih besar dari chi-square (x2)
tabel, maka standar error mengalami heteroskedastisitas. Sebaliknya,
jika R2 x N lebih kecil dari chi-square (x2) tabel, maka standar
error telah bebas dari masalah heteroskedastisitas, atau telah
homoskedastis
k.
Apa konsekuensi dari
adanya masalah heteroskedastisitas dalam model !
Jawab :
Munculnya masalah heteroskedastisitas yang
mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F
yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi
antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar.
Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi
karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar,
maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi
ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat
menjadikan hasil riset yang mengacaukan.
l.
Jelaskan apa yang
dimaksud Multikolinieritas !
Jawab :
Multikolinieritas adalah suatu keadaan dimana terjadi
korelasi linear yang ”perfect”atau eksak di antara variabel penjelas
yang dimasukkan ke dalam model.
m.
Jelaskan kenapa
multikoliniearitas timbul!
Jawab :
Tingkat kolinear dikatakan lemah apabila masing-masing
variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara
variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga
hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadapY, maka tingkat
kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan
Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
n.
Bagaimana cara
medeteksi masalah multikoliniearitas!
Jawab :
Cara mendeteksi ada tidaknya multikolinieritas dengan
menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho
Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro,
2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson
Correlation. Selain itu metode ini lebih mudah dan lebih sederhana
tetapi tetap memenuhi syarat untuk dilakukan.
o.
Apa konsekuensi dari
adanya masalah multikoliniearitas dalam model !
Jawab :
Apabila belum terbebas dari masalah multikolinearitas
akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan
nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat
ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t.
Dari formula OLS akan menghasilkan bilangan pembagian, b1= 0/0
sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada
standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai
t.
p.
Jelaskan apa yang
dimaksud normalitas !
Jawab :
Uji Normalitas adalah untuk menguji apakah variabel
penganggu (e) memiliki distribusi normal atau tidak
q.
Jelaskan kenapa
normalitas timbul !
Jawab :
Pengujian normalitas yang dilakukan sebelum tahapan regresi
lebih efisien dalam waktu. Jika asumsi normalitas data telah dipenuhi terlebih
dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan
data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya,
bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru
diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata
hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian
normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya
diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
r.
Bagaimana cara
mendeteksi masalah normalitas !
Jawab :
a.
Menggunakan metode
numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan
nilai mean. Data dikatakan normal (simetris) jika perbandingan antara mean dan
median menghasilkan nilai yang kurang lebih sama. Atau apabila nilai mean
jika dikurangi nilai median menghasilkan angka nol. Cara ini disebut
ukuran tendensi sentral (Kuncoro, 2001: 41).
b.
Menggunakan formula
Jarque Bera (JB test). Rumus .......
c.
Mengamati sebaran data,
dengan melakukan hitungan-hitungan berupa prosentase data observasi dan berada
di area mana. Untuk menentukan posisi normal dari sebaran data, dengan
menghitung standar deviasi Standar
deviasi ini digunakan untuk menentukan rentang deviasi dari posisi simetris
data
s.
Apa
konsekuensi dari adanya masalah normalitas dalam model !
Jawab :
Pengujian normalitas ini berdampak pada
nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa
data Y atau e berdistribusi normal.
t.
Bagaimana cara
menangani jika data ternayata tidak normal !
Jawab :
Karena data berdistribusi tidak normal, maka
diperlukan upaya untuk mengatasi seperti : memotong data yang out liers, memperbesar sample atau
melakukan transformasi data. Untuk
menormalkan sebaran data dapat dilakukan dengan merubah data dengan nilai
absolut ke dalam bilangan logaritma, yang akan memperkecil error sehingga kemungkinan timbulnya masalah heteroskedastisitas
juga menjadi sangat kecil.
Referensi
: Bp Supawi Pawenang 2017, Tugas Ekonometrikawww.uniba.ac.id
Pak, ada gak perhitungan manual koefisien regresi untuk masalah data panel Model Fixed Effect dgn Dummy Variabel ?? terima kasih mohon Balasannya
BalasHapus