BAB III METODE PENELITIAN
3.5 Metode Analisis Data
Sebelum melakukan uji hipotesis, terlebih dahulu dilakukan uji statistik
umum yang berupa statistik deskriptif. Analisis deskriptif merupakan pengolahan
diinterprestasikan. Program SPSS digunakan dalam melakukan analisis deskriptif
untuk mengetahui distribusi data yang menjadi sampel penelitian.
3.5.2 Analisis Regresi
Analis regresi yang digunakan dalam penelitian ini adalah regresi
berganda. Analisis regresi beganda digunakan untuk mengetahui adanya
hubungan antara variabel dependen dan variabel independennya. Dimana
variabel-variabel bebas yaitu, penambahan PKP, SPT Masa PPN yang
dilaporkan, dan SSP PPN yang dilaporkan terhadap varibel terikat yaitu
penerimaan Pajak Pertambahan Nilai.
Persamaan regresi yang dikembangkan dalam penelitian ini adalah:
Y= α + β1X1 + β2X2 + β3X3 + e
Keterangan
Y(PPN) = Penerimaan Pajak Pertambahan Nilai/bulan
α = Jumlah Y bila X = 0 (harga konstan)
X1 (PKP) = penambahan Pengusaha Kena Pajak Terdaftar/bulan
X2 (SPT) = Surat PemberitahuanMasa PPN/bulan
X3 (SSP) = Jumlah Surat Setoran Pajak PPN/bulan
βl, β2, β3 = Koefisien regresi variabel X1, X2, X3
e = Variabel pengganggu
Sehingga: PPN = α + β1PKP + β2SPT + β3SSP + e
Menurut (Ghozali, 2006) untuk mengetahui apakah model regresi benar-
benar menunjukkan hubungan yang signifikan, representative, dan merupakan
model yang memenuhi kriteria BLUE (Best Linear Unbiased Estimator) maka
dilakukan adalah uji normalitas, heteroskedastisitas, multikolinieritas, dan
Autokorelasi.
1. Normalitas
Uji normalitas bertujuan untuk menguji apakah dalam model
regresi, variabel pengganggu atau residual memiliki distribusi normal
(Ghozali, 2006). Model regresi yang baik adalah memiliki distribusi
normal atau mendekati normal. Untuk mendeteksi apakah residual
berdistribusi normal atau tidak dapat dilakukan dengan memperhatikan
penyebaran data (titik-titik) pada sumbu diagonal dari grafik normal plot.
Dasar pengambilan keputusannya adalah :
a. Jika data menyebar disekitar garis diagonal dan mengikuti arah
garis diagonal maka model regresi berdistribusi normal.
b. Jika data menyebar jauh dintara garis diagonal dan/atau tidak
mengikuti arah garis diagonal, maka model regresi tidak
berdistribusi normal.
Pengujian model regresi yang berdistribusi normal dapat juga
dilakukan Kolmogorov-Swirnov (K-S), yaitu dengan cara menentukan
hipotesis pengujian. Jika probability value > 0,05 maka Ho diterima
(berdistribusi normal) dan jika probability value < 0,05 maka Ho ditolak
(tidak berdistribusi normal).
2. Heteroskedastisitas
Uji heterokedastisitas bertujuan untuk mengetahui apakah model
regresi terjadi ketidaksamaan varians dari residual satu pengamatan ke
pengamatan yang lain tetap, maka disebut homokedastisitas dan jika
berbeda disebut heterokedastisitas. Model regresi yang baik adalah yang
homokedastisitas atau tidak terjadi heterokedastisitas. Untuk mendeteksi
ada atau tidaknya heteroskedastisitas dapat menggunakan uji Glejser,
yaitu:
Keterangan :
I e I = nilai absolut dari residual yang dihasilkan dari regresi model
X2 = variabel penjelas
Bila variabel penjelas secara statistik signifikan mempengaruhi residual
maka dapat dipastikan model ini memiliki masalah heterokedastisitas.
Selain itu untuk mendeteksi ada atau tidaknya heteroskedastisitas dapat
juga dengan menggunakan grafik scatterplot. Jika pola titik-titik pada
grafik tersebut membentuk pola tertentu yang teratur (bergelombang atau
melebur kemudian menyempit) maka terjadi heterokedastisitas.
3. Multikolinieritas
Uji Multikolinieritas bertujuan untuk menguji apakah model
regresi ditemukan adanya korelasi antar variabel bebas (independen).
Model regresi yang baik seharusnya tidak terjadi korelasi di antara
variabel bebas (Ghozali, 2006). Jika variabel independen saling
berkorelasi, maka variabel-variabel ini tidak ortogonal. Variabel ortogonal
adalah variabel independen yang nilai korelasi antar sesame variabel
dengan mengkorelasikan antar variabel bebas dan apabila korelasinya
signifikan antar variabel bebas tersebut maka terjadi multikolinieritas.
4. Autokorelasi
Uji autokolerasi bertujuan menguji apakah dalam model regresi
linier ada korelasi antara kesalahan pengganggu pada peride t dengan
kesalahan pengganggu pada periode t-1 (sebelumnya) (Ghozali, 2006).
Model regresi yang baik adalah regresi bebas dari autokolerasi. Jika terjadi
korelasi, maka dinamakan ada problem autokorelasi. Autokorelasi muncul
karena observasi yang berurutan sepanjang waktu berkaitan satu sama
lainnya. Masalah ini timbul karena residual (kesalahan pengganggu) tidak
bebas dari satu observasi ke observasi lainnya. Hal ini sering ditemukan
pada runtut waktu (time series) karena gangguan pada seseorang individu /
kelompok cenderung mempengaruhi gangguan pada individu/kelompok
yang sama pada periode berikutnya.
Untuk mengetahui ada atau tidaknya autokorelasi dapat dilakukan
dengan menggunakan uji Durbin-Watson (DW test). Pengambilan
keputusan ada tidaknya autokorelasi bisa didasarkan pada tabel sebagai
Tabel 3.1: Tabel Pengujian Autokorelasi
Hipotesis Nol Keputusan Jika
Tidak ada autokorelasi positif
Tidak ada autokorelasi positif
Tidak ada korelasi negatif
Tidak ada korelasi negatif
Tidak ada autokorelasi positif atau negatif Tolak No decision Tolak No decision Tidak ditolak 0 < d < dl dl ≤ d ≤ du 4 – dl < d < 4 4 –du ≤ d ≤ 4 - dl du < d < 4 - du Sumber : Ghozali (2006)
Dari tabel pengujian autokotelasi dapat disimpulkan bahwa tidak
ada autokorelasi apabila nilai d adalah du < d < 4 – du dengan batas du 1,76 (Ghozali, 2006) atau 1,76 < d < 2,24.
3.5.3 Uji Hipotesis
3.5.3.1 Uji Signifikansi Parameter Individual (Uji Statistik t)
Uji statistik t digunakan untuk menunjukkan pengaruh variabel
independen secara individual terhadap variabel dependen. Uji statistik t
dilakukan dengan cara melihat nilai t hitung terhadap t tabel. Apabila t
hitung > nilai t tabel, maka Ho ditolak atau Ha diterima (terdapat pengaruh
secara parsial) dan apabila nilai t hitung < nilai t tabel, maka Ho diterima
atau Ha ditolak (tidak terdapat pengaruh secara parsial).
Uji statistik t juga dapat dilakukan dengan melihat probability
value. Apabila probability value < 0,05, maka Ho ditolak atau Ha diterima
(terdapat pengaruh secara parsial) dan apabila probability value > 0,05,
3.5.3.2 Uji Signifikansi Simultan (Uji Statistik F)
Uji statistik F digunakan untuk menunjukkan apakah semua variabel independen atau bebas yang dimasukkan dalam model
mempunyai pengaruh secara bersama-sama terhadap variabel dependen.
Uji statistik F dilakukan dengan cara melihat nilai F hitung terhadap F
tabel. Apabila F hitung > nilai F tabel, maka Ho ditolak atau Ha diterima
(terdapat pengaruh secara simultan) dan apabila nilai F hitung < nilai F
tabel, maka Ho diterima atau Ha ditolak (tidak terdapat pengaruh secara
simultan).
Uji statistik F juga dapat dilakukan dengan melihat probability
value. Apabila probability value < 0,05, maka Ho ditolak atau Ha diterima
(terdapat pengaruh secara simultan) dan apabila probability value > 0,05,
maka Ho diterima atau Ha ditolak (tidak terdapat pengaruh secara
simultan).
3.5.3.3 Uji Koefisien Determinasi
Koefisien determinasi (R2) pada intinya mengukur seberapa jauh
kemampuan model dalam menerangkan variasi variabel dependen. Nilai
koefisien determinasi adalah antara nol dan satu. Nilai R2 yang kecil
berarti kemampuan variasi variabel-variabel independen dalam
menjelaskan variabel dependen sangat terbatas. Nilai yang mendekati satu
berarti variabel-variabel ondependen memberikan hampir semua informasi
yang dibutuhkan untuk memprediksi variasi variabel dependen.
Kelemahan mendasar peggunaan koefisien determinasi adalah bias
Oleh karena itu, banyak peneliti menganjurkan untuk menggunakan nilai
Adjusted R2 pada saat mengevaluasi mana model regresi terbaik.
Menurut Ghozali (2006) jika dalam uji empiris didapat nilai Adjusted R2
negatif, maka nilai Adjusten R2 dianggap bernilai nol. Secara sistematis
jika nilai R2 = 1, maka adjusted R2 = R2 = 1 sedangkan jika R2= 0, maka