• Tidak ada hasil yang ditemukan

BAB III METODE PENELITIAN

3.6. Metode Analisis Data

Data yang telah dikumpulkan, kemudian akan dianalisis untuk dapat memberikan jawaban atas apa yang dibahas didalam penelitian ini. Dalam menganalisis data, peneliti menggunakan program SPSS 16.0. Adapun metode analisis data yang digunakan dalam penelitian ini adalah :

1) Model Analisis

Alat analisis data yang digunakan dalam penelitian ini adalah Regresi Linear Berganda. Regresi Linear Berganda ditujukan untuk

menentukan hubungan Linear antara beberapa variabel bebas yang disebut X1,X2,X3 dan seterusnya, dengan variabel terikatyang disebut Y.

Dalam penelitian ini terdapat enam variabel independen atau variabel bebas yaitu : ukuran perusahaan, Debt to asset Ratio, Arus Kas Operasi, Perputaran Modal Kerja, Return Spread, Perputaran Piutang serta memiliki satu variabel dependen atau variabel terikat yaitu likuiditas yang diduga saling mempengaruhi dengan variabel independen.

Adapun model regresi linear berganda yang digunakan adalah sebagai berikut :

Y = b0 + b1X1 + b2X2 + b3X3 + b4X4 + b5X5 + b6X6 + e

Keterangan :

Y = Likuiditas

X1 =Ukuran Perusahaan

X2 = Debt to asset Ratio

X3 = Arus Kas Operasi

X4 = Perputaran Modal Kerja

X5 = Return Spread

e = Tingkat Kesalahan Pengganggu (Disturbance Error)

2) Uji Asumsi Klasik

Uji asumsi klasik yang dilakukan meliputi : uji normalitas, uji autokorelasi, uji heteroskedastisitas dan uji multikolinearitas.

a. Pengujian Normalitas

Menurut Situmorang dkk.(2008 : 55), tujuan uji normalitas adalah ingin mengetahui apakah distribusi sebuah data mengikuti atau mendekati distribusi normal, data yang baik adalah data yang mempunyai pola distibusi normal, yakni distribusi data tersebut tidak menceng ke kiri atau menceng ke kanan. Salah satu pendekatan yang dapat digunakan untuk menguji atau memastikan apakah data berdistribusi normal maka dilakukan uji kolmogrov Smirnov dengan melihat data residualnya apakah berdistribusi normal atau tidak.

Kriteria pengambilan keputusan adalah apabila nilai signifikan lebih besar dari 0,05 maka variabel residual berdistribusi normal, dan apabila nilai signifikan lebih kecil dari 0,05 maka variabel residual tidak berdistribusi normal. Dasar pengambilan keputusan dalam uji normalitas menurut Ghozali (2005 : 110) adalah sebagai berikut :

1. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau grafik histogramnya menunjukkan pola distribusi normal, maka model regresi memenuhi asumsi normalitas.

2. Jika data menyebar jauh dari diagonal dan /atau tidak mengikuti arah garis diagonal atau grafik histogram tidak menunjukkan pola distribusi normal, maka model regresi tidak memenuhi asumsi normalitas.

b. Pengujian Autokorelasi

Menurut Situmorang dkk.(2008 : 78), uji autikorelasi bertujuan untuk menguji apakah dalam model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada periode sebelumnya. Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lainnya. Masalah ini timbul karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke observasi lainnya. Cara yang dapat dilakukan untuk mendeteksi ada atau tidaknya autokorelasi adalah dengan melakukan pengujian Durbin Watson (DW) atau percobaan d dari Durbin Watson.

Kriteria pengambilan keputusan dalam pengujian autokorelasi adalah sebagai berikut :

Hipotesis Nol Keputusan Jika

Tidak ada autokorelasi positif Tolak 0 < d < dl Tidak ada autokorelasi positif No Decision dl ≤ d ≤ du

Tidak ada Korelasi negatif Tolak 4 – dl < d < 4 Tidak ada Korelasi negatif No Decision 4 – du ≤ d ≤ 4 - dl Tidak ada autokorelasi positif

atau negatif

c. Pengujian Heteroskedastisitas

Uji Heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terdapat ketidaksamaan variance dari residual satu pengamatan kepengamatan lainnya. Jika variance dari satu residual satu pengamatan ke pengamatan lainnya tetap maka terjadi homoskedastisitas, jika berbeda maka disebut heteroskedastisitas. Model regresi yang baik adalah yang tidak terjadi heteroskedastisitas (Situmorang dkk, 2008 : 65).

Dasar analisis untuk menentukan ada atau tidaknya heteroskedastisitas menurut Ghozali (2005 : 110) yaitu :

1. Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka mengindikasikan telah terjadi heteroskedastisitas.

2. Jika tidak ada pola yang jelas, serta titik-titik menyebar diatas dan dibawah angka nol pada sumbu Y, maka tidak terjadi heteroskedastisitas.

d. Pengujian Multikolinearitas

Menurut Situmorang dkk (2008 : 96 ) pada mulanya multikolinearitas ini berarti adanya hubungan linear yang “sempurna” atau pasti, diantara beberapa atau semua variabel yang menjelaskan dari model regresi, atau dapat diartikan sebagai hubungan linear antara variabel dari suatu model regresi adalah sempurna.

Kaidah umum yang digunakan untuk mendeteksi multikolinearitas adalah sebagai berikut :

1. Koefisien determinasi tinggi dan signifikansi nilai statisktik t rendah. Jika koefisien determinasi tinggi, maka nilai statistik F tinggi maka hipotesis yang menyatakan bahwa koefisien slope individu nol tidak ditolak, tetapi uji statistik t menunjukkan bahwa koefisien slope sedikit yang signifikan.

2. Koefisien korelasi antara variabel eksplanatoris tinggi. Meskipun korelasi derajat nol yang tinggi mungkin mengusulkan kolinieritas dalam satu kasus spesifik. Untuk meletakkan persoalan agar secara teknik, korelasi derajat nol yang tinggi merupakan kondisio yang cukup tapi tidak perlu adanya kolinieritas karena hal ini dapat terjadi meskipun melalui korelasi derajat nol atau sederhana relatif rendah.

3. Nilai koefisien koralasi parsial tinggi. Sebagai hasilnya disarankan bahwa orang seharusnya melihat tidak hanya pada korelasi derajat nol, tetapi juga pada koefisien korelasi parsial. Meskipun suatu penelitian korelasi parsial mungkin berguna, tidak ada jaminan bahwa korelasi akan memberikan petunjuk yang tidak mungkin salah untuk multikolinieritas, karena mungkin saja terdapat R² & semua korelasi parsial cukup tinggi.

4. Auxiliary regression. Multiukolinieritas timbul sebagai akibat kombinasi linier dari satu atau lebih variabel regressor, maka variabel regressor yang mengalami kombinasi linier dengan variabel regressor lainnya diregresikan untuk menghitung R²j, regresi ini disebut auxiliary regression.

5. Untuk mendiagnosa multikolinieritas dapat digunakan eigen value dan condition index.

6. Tolerance adn variance inflation factor. Nilai VIF yang semakin besar menunjukkan masalah multikolinier yang semakin serius.

Nilai VIF (variance inflation factor) dan tolerance merupakan uji yang sering digunakan untuk melihat ada tidaknya multikolinearitas dalam model regresi. Nilai tolerance (1 - R²) menunjukkan variasi variabel independen dijelaskan oleh variabel indpenden lainnya dalam model regresi dengan mengabaikan variabel dependen. Sedangkan nilai VIF merupakan kebalikan dari nilai tolerance karena VIF = 1/tolerance. Jadi semakin tinggi korelasi antar variabel independen maka semakin rendah nilai tolerance

(mendekati 0) dan semakin tinggi nilai VIF. Pedoman umum untuk batasan nilai VIF dan tolerance agar model regresi terbebas dari persoalan multikolinearitas adalah dibawah 10% untuk VIF dan diatas 10% untuk

tolerance ( Ghozali, 2005 ).

3.7Pengujian Hipotesis

Dokumen terkait