Salah satu asumsi dalam model regresi linear klasik adalah tidak adanya autokorelasi. Apa itu autokorelasi ? Autokorelasi adalah kondisi dimana terdapat korelasi atau hubungan antar pengamatan (observasi), baik itu dalam bentuk observasi deret waktu (time series) atau observasi cross-section.
Misalnya untuk data deret waktu. Kita ingin membentuk regresi antara tingkat bunga dan investasi. Data yang digunakan adalah data kuartalan. Maka, kita berasumsi bahwa tingkat bunga pada suatu kuartal (misalnya kuartal I) hanya akan mempengaruhi investasi pada kuartal I tersebut, dan tidak mempengaruhi investasi kuartal berikutnya.
Begitu juga, untuk data cross-section. Misalnya kita ingin meregresikan antara pendapatan dan konsumsi. Data yang digunakan misalnya adalah data pendapatan dan konsumsi keluarga pada suatu periode waktu. Maka yang kita harapkan adalah konsumsi keluarga A hanyalah dipengaruhi oleh pendapatan keluarga A tersebut, tidak oleh pendapatan keluarga B. Jadi, jika terjadi peningkatan pendapatan keluarga B, maka tidak mempengaruhi konsumsi keluarga A.
Kalau misalnya pendapatan keluarga B meningkat, sehingga mempengaruhi konsumsinya (misalnya dia beli TV baru). Lalu karena melihat tetangganya beli TV baru, walaupun pendapatan keluarga A tidak meningkat, tetapi si A ini juga beli TV baru, maka itu namanya iri (eh salah, autokorelasi)
Dalam konteks regresi, tidak adanya autokorelasi tersebut dirumuskan sebagai berikut:
Cov (ui,uj) = E[ui – E(ui)][uj – E(uj)]
= E(uiuj)
= 0 i ≠ j
Dimana i dan j adalah dua pengamatan yang berbeda dan cov berarti kovarians. Secara kata-kata ini berarti bahwa gangguan ui dan uj tidak berkorelasi.
Lalu apa yang terjadi jika kita tetap menerapkan OLS dalam menaksir regresi ketika terjadi autokorelasi ? Konsekuensinya dalah sebagai berikut:
• Penaksir menjadi tidak efisien (tidak lagi mempunyai varians minimum)
• Uji t dan uji F tidak lagi sah, dan jika diterapkan dapat memberikan kesimpulan yang menyesatkan mengenai arti statistik dari koefisien regresi yang ditaksir
• Penaksir memberikan gambaran yang menyimpang dari nilai populasi yang sebenarnya. Dengan kata lain, penaksir menjadi sensitif terhadap fluktuasi penyampelan
Mengingat seriusnya konsekuensi autokorelasi tersebut, maka dalam penaksiran regresi perlu dilakukan pendeteksian apakah ada atau tidaknya autokorelasi dalam model yang dibangun. Selain itu, sebagai catatan meskipun autokorelasi dapat terjadi pada data cross sectional, tetapi masalah autokorelasi biasanya lebih umum terjadi pada data time-series.
Dalam konteks data time-series, banyak metode untuk mendeteksi autokorelasi. Namun demikian, dalam tulisan ini (yang akan dibahas pada sesi tulisan berikutnya) akan dilihat hanya dua metode yang umum digunakan yaitu metode grafik dan metode Durbin-Watson.
Lihat tulisan terkait berikut : Manual: Deteksi Autokorelasi dg Grafik
Misalnya untuk data deret waktu. Kita ingin membentuk regresi antara tingkat bunga dan investasi. Data yang digunakan adalah data kuartalan. Maka, kita berasumsi bahwa tingkat bunga pada suatu kuartal (misalnya kuartal I) hanya akan mempengaruhi investasi pada kuartal I tersebut, dan tidak mempengaruhi investasi kuartal berikutnya.
Begitu juga, untuk data cross-section. Misalnya kita ingin meregresikan antara pendapatan dan konsumsi. Data yang digunakan misalnya adalah data pendapatan dan konsumsi keluarga pada suatu periode waktu. Maka yang kita harapkan adalah konsumsi keluarga A hanyalah dipengaruhi oleh pendapatan keluarga A tersebut, tidak oleh pendapatan keluarga B. Jadi, jika terjadi peningkatan pendapatan keluarga B, maka tidak mempengaruhi konsumsi keluarga A.
Kalau misalnya pendapatan keluarga B meningkat, sehingga mempengaruhi konsumsinya (misalnya dia beli TV baru). Lalu karena melihat tetangganya beli TV baru, walaupun pendapatan keluarga A tidak meningkat, tetapi si A ini juga beli TV baru, maka itu namanya iri (eh salah, autokorelasi)
Dalam konteks regresi, tidak adanya autokorelasi tersebut dirumuskan sebagai berikut:
Cov (ui,uj) = E[ui – E(ui)][uj – E(uj)]
= E(uiuj)
= 0 i ≠ j
Dimana i dan j adalah dua pengamatan yang berbeda dan cov berarti kovarians. Secara kata-kata ini berarti bahwa gangguan ui dan uj tidak berkorelasi.
Lalu apa yang terjadi jika kita tetap menerapkan OLS dalam menaksir regresi ketika terjadi autokorelasi ? Konsekuensinya dalah sebagai berikut:
• Penaksir menjadi tidak efisien (tidak lagi mempunyai varians minimum)
• Uji t dan uji F tidak lagi sah, dan jika diterapkan dapat memberikan kesimpulan yang menyesatkan mengenai arti statistik dari koefisien regresi yang ditaksir
• Penaksir memberikan gambaran yang menyimpang dari nilai populasi yang sebenarnya. Dengan kata lain, penaksir menjadi sensitif terhadap fluktuasi penyampelan
Mengingat seriusnya konsekuensi autokorelasi tersebut, maka dalam penaksiran regresi perlu dilakukan pendeteksian apakah ada atau tidaknya autokorelasi dalam model yang dibangun. Selain itu, sebagai catatan meskipun autokorelasi dapat terjadi pada data cross sectional, tetapi masalah autokorelasi biasanya lebih umum terjadi pada data time-series.
Dalam konteks data time-series, banyak metode untuk mendeteksi autokorelasi. Namun demikian, dalam tulisan ini (yang akan dibahas pada sesi tulisan berikutnya) akan dilihat hanya dua metode yang umum digunakan yaitu metode grafik dan metode Durbin-Watson.
Lihat tulisan terkait berikut : Manual: Deteksi Autokorelasi dg Grafik
No comments:
Post a Comment