METODE PENELITIAN
G. Alat Analisis
1. Stasioneritas
Sebelum melakukan uji statistik maka dilakukan uji stasioneritas terlebih dahalu. Dengan tujuan mengetahui apakah data yang kita pakai ini aman untuk digunakan atau tidak.
2. Statistik
Winarno (2010:3) mengatakan bahwa statistik mempunyai dua makna, yaitu data statistik dan metodologi statistik. Data statistik merupakan kumpulan dari fakta-fakta pengamatan tentang aspek-aspek suatu objek tertentu. Sedangkan statistik sebagai metodologi berarti metode tentang cara pengumpulan data, analisis data dan pengambilan kesimpulan.
a. Uji T-test (uji secara individu)
Uji ini menurut Bawono (2006:89) digunakan untuk melihat tingkat signifikansi variabel independen mempengaruhi variebel dependen secara individu atau sendiri-sendiri. Pengujian ini dilakukan secara parsial atau individu, dengan menggunakan uji t statistik untuk masing- masing variabel bebas, dengan tingkat kepercayaan tertentu.
Langakah-langkah pengujian: 1) Menentukan hipotesis
52
H0: β1 = 0, = artinya variabel independen (Xi) tidak berpengaruh
tehadap variabel dependen (Y).
H0: β1 ≠ 0, = artinya variabel independen (Xi) berpengaruh terhadap
variabel dependen (Y). 2) Menentukan t tabel
Untuk menentukan t tabel dengan menggunakan tingkat α 5% dan
derajat kebebasan (dk) = n – 1 – k. Dimana:
n: jumlah data
k: jumlah variabel yang dipakai 3) Rumus untuk mencari t hitung:
Mencari r hitung dengan cara:
=
Setelah mendapatkan r hitung berikutnya dapat mencari t hitung, dengan cara: t hitung = 4) Pengambilan keputusan rxy n(∑XY) –(∑X) (∑Y) [√{n. ∑X2–(∑X)2}] {n. ∑Y2–(∑Y)2 } r√n-2 √n-r2
Jika t hitung < t tabel, maka H0 diterima. Artinya tidak ada pengaruh
yang signifikan antara variabel independen dengan variabel dependen. Jika t hitung ≥ t tabel, maka H0 ditolak. Artinya ada pengaruh yang
signifikan antara veriabel independen dengan dependen.
Disamping membandingkan t hitung dengan t tabel agar bisa menentukan H0 diterima atau tidak, dapat pula dengan melihat nilai
signifikasinya apakah lebih atau kurang dari 5%. b. Uji F test (uji secara serempak)
Uji ini dilakukan untuk mengetahui seberapa jauh semua variabel X1, X2, X3 ... (independen) secara bersama-sama dapat memengaruhi
variabel (dependen).
Langkah pengujiannya sebagai berikut: 1) Menentukan Hipotesis
H0: β1, β2 ... βn = 0, artinya variabel independen (X1, X2, X3 ...) secara
bersama-sama tidak berpengaruh terhadap variabel dependen (Y). 2) Menentukan F tabel
Untuk menentukan F tabel digunakan taraf signifikasi α = 5% dan
derajat kebebasan (dk) = (n - k). 3) Rumus untuk mencari F hitung
F hitung =
Dimana: R2 = koefisien determinasi R2 / (K - 1) (1 – R2) / (n - K)
54
K = banyaknya variabel independen
n = jumlah sampel yang diteliti
4) Pengambilan keputusan
Jika F hitung < F tabel. Maka H0 diterima artinya tidak ada
pengaruh yang signifikan antara variabel independen secara bersama- sama (X1, X2, X3 ...) terhapat variael dependen (Y).
Jika F hitung≥ F tabel, maka H0 ditolak artinya ada pengaruh yang
signifikan antara variabel independen secara bersama-sama (X1, X2,
X3...) terhadap variabel dependen (Y).
Disamping dengan membandingkan F hitung dengan F tabel untuk menentukan H0 diterima atau tidak dapat dengan melihat nilai
signifikasinya apakah lebih atau kurang dari 5%. 3. Uji asumsi klasik
Uji asumsi klasik perlu dilakukan guna melengkapi uji statistik yang sudah dilakukan. Uji asumsi klasik terdiri dari multikolinearitas, heterokedasitas, autokorelasi, normalitas, dan linear.
a. Pengujian multikolinearitas 1) Pengertian Uji Multikolinearitas
Menurut pendapat Sumanto (2014:165) uji multikolinearitas dimaksutkan untuk mengetahui ada tidaknya hubungan (korelasi) yang signifikan antara variabel bebas. Jika terdapat hubungan yang cukup tinggi (signifikan), berarti ada aspek yang sama diukur pada variabel
bebas. Hal ini layak digunakan untuk menentukan konstribusi secara bersama-sama variabel bebas terhadap variabel terikat.
2) Pendeteksian Uji Multikolinearitas
Ada cara menurut Bawono (2006:116) yang digunakan untuk mendeteksi ada atau tidaknya multicollinearity di dalam model, yaitu nilai R2 (misalnya antara 0,7 - 1) dan F hitung yang dihasilkan dari suatu estimasi sangat tinggi, tetapi secara individu variabel-variabel independen banyak yang tidak signifikan dalam mempengaruhi variabel dependen, berati ini ada indikasi terdapat multicollinearity.
3) Teknik perbaikan pada Uji Multikolinearitas
Salah satu teknik untuk mengahadapi penyakit multikolinearitas yaitu dengan membuang variabel yang berkolerasi. Misal persamaan sebelumnya:
Yi = β0+ β1X1+ β2X2 + U1
Kalau ternyata setelah kita deteksi antara variabel X1 dan X2
berkolerasi yang cukup tinggi, maka untuk menghilangkan penyakit multikolinearitas dapat kita buang salah satu variabel. Tetapi langkah ini dapat menimbulkan bias spesifikasi, kalau kita kurang berhati-hati dalam memilih variabel mana yang layak untuk dibuang. Karena kadang kala sering terjadi sebuah variabel itu memang berkolerasi cukup tinggi, tetapi secara teori dan empiris dinyatakan bahwa kedua variabel tersebut sangat berpengaruh terhadap satu variabel (Y), maka
56
kedua variabel tadi (X1 dan X2) jika salah satu dihilangkan akan
menyebabkan bias spesifik. b. Heteroskedasitas
1) Pengertian Heteroskedasitas
Heteroskedasitas terjadi apabila varian dari variabel pengganggu tidak sama untuk semua observasi, akibat yang timbul apabila terjadi heteroskedasitas adalah penaksiran tidak bias tetapi tidak efisien lagi baik dalam sampel besar maupun sampel kecil, serta uji F test, T test
akan menyebabkan kesimpulan yang salah. 2) Teknik pendeteksian heteroskedasitas
Untuk melihat ada tidaknya gejala penyakit heteroskedasitas dengan grafik scetterplot, yaitu dengan melihat grafik scetterplot antara ZPRED (nilai prediksi variabel dependen) dan SRESID (residualnya). Untuk mendeteksi grafik scetterplot tersebut, yaitu dengan melihat pola pergerakan grafik tersebut, kalau polanya beraturan (gelombangnya melebar dan menyempit) hal ini cenderung ada gejala penyakit heteroskendastisitas. Tetapi jika polanya tidak beraturan, cenderung tidak ada penyakit heteroskendastisitas.
3) Teknik perbaikan penyakit heteroskendastisitas
Ketika regresi yang kita lakukan ternyata data dari variabel yang kita gunakan terdapat penyakit heteroskendastisitas, akan menyebabkan di samping penaksiran tidak lagi efisien. Kondisi dimana penaksir tidak efisien ini membuat prosedur pengujian hipotesis, nilainya diragukan.
Salah satu cara untuk perbaikan dari penyakit heteroskendastisitas dengan membagi persamaan regresi dengan salah satu variabel independen.
Yi= β0+ β1X1+ β2X2 + U1
Sebagai misal persamaan ini kita bagi dengan X1, maka hasilnya
sebagai berikut:
Yi= β0+ β1X1+ β2X2 + U1
X1
c. Uji Autokorelasi 1) Pengertian autokorelasi
Autokorelasi adalah korelasi (hubungan) yang terjadi antara anggota-anggota dari serangkaian pengamatan yang tersusun dalam rangkaian waktu (time series). Autokorelasi ini menunjukan hubungan antara nilai-nilai yang berurutan dari variabel-variabel yang sama. 2) Teknik pendeteksian autokorelasi
Dengan menggunakan uji durbin watson, sedangkan kriteria pengujian sebagai berikut:
d > du = tidak ada autokorelasi positif d < dl = ada autokorelasi positif
0 < d < dl = ada autokorelasi positif 4 – dl < d < 4 = ada autokorelasi negative du < d < 4 – du= tidak ada autokorelasi positif / negative
58
du ≤ d ≤ 4 – dl = tidak ada autokorelasi negative 4. Regresi
Pengertian regresi menurut Sarwono (2009:91) regresi digunakan untuk mengukur besarnya pengaruh variabel bebas terhadap variabel tergantung dan memprediksi variabel tergantung dengan menggunakan variabel bebas.
Di dalam menganalisis data dengan regresi menurut Bawono (2006:84) biasanya kita dihadapkan pada dua kemungkinan, dua kemungkinan itu adalah:
a. Regresi sederhana
Regresi ini sering digunakan untuk analisis yang sederhana. Pada prinsipnya yang disebut dengan regresi sederhana adalah bahwa data yang kita analisa hanya terdiri dari satu variabel dependen dan satu variabel independen, atau kalau kita wujudkan dalam suatu persamaan dapat sebagi berikut:
Y = β0+ β1X + E
Di mana:
Y = Estimasi variabel dependen βo = Konstanta dari persamaan regresi
β1 = Koefisien dari variabel independen
X = Variabel independen
Jadi dengan kondisi persamaan diatas, bisa dilihat kesederhanaan analisisnya. Disebut sederhana karena faktor yang menyebabkan perubahan variabel dependen dalam hal ini Y, hanya semata-mata disebabkan oleh variabel independen X saja. Dengan kata lain naik turunnya variabel Y hanya disebabkan oleh variabel X saja.
b. Regresi berganda
Regresi ini digunakan untuk menganalisa data yang bersifat
multivariate. Analisa ini digunakan untuk meramalkan nilai variabel dependen (Y), dengan variabel independen yang lebih dari satu (minimal dua), sehingga analisa regresi berganda sering disebut analisa
multivariate, karena variabel yang mempengaruhi naik turunnya variabel dependen (Y) lebih dari satu variabel independen (X). Kondisi variabel independen (X) dalam mempengaruhi variabel dependen (Y) bervariasi bisa positif bisa negatif, atau beraneka ragam kondisi yang mempengaruhi. Sehingga regresi berganda ini lebih real dengan kenyataan dilapangan, bahwa suatu hal dipengaruhi oleh banyak hal. Sedangkan untuk membuktikan ada atau tidaknya hubungan fungsional atau hubungan kausal antara beberapa variabel independen (X1, X2 ...)
mempengaruhi variabel dependen (Y) dapat dilakukan dengan diuji dengan uji statistik. Persamaan regresi berganda dapat berupa sebagai berikut:
Y = β0+ β1X1+ β2X2+ β3X3 + E
60
Βo = Konstanta dari persamaan regresi
Β1,2,3 = Koefisien dari variabel independen X1,2,3
X1,2,3 = Variabel independen X1,2,3
E = Residual atau prediction error
Dalam analisis regresi yang menjadi pusat perhatian adalah apa yang dikenal dengan ketergantungan diantara variabel yang bersifat statistik. Variabel yang bersifat statistik merupakan variabel random (acak), ini juga sering disebut dengan variabel stokhastik, yaitu variabel yang memiliki distribusi probabilitas. Berbeda dengan variabel yang bersifat fungsional (bersifat fungsi) atau deterministik, variabel ini tidak bersifat random atau stokhastik.
Didalam penelitian ini analisis yang digunakan adalah analisis regresi berganda (multivariate), karena pada penelitian ini variabel independen (X) yang digunakan berjumlah empat, yaitu CAR, NPF, FDR, dan BOPO.
61