• Tidak ada hasil yang ditemukan

METODE PENELITIAN

4.6. Metode Analisis Data

Tobin’s Q = (CP x S) + TL TA CP = Current Price S = Jumlah lembar saham TL = Total Liabilities TA = Total Assets Rasio Perputaran Aset (X)

Perputaran aset adalah ukuran yang digunakan untuk

mengukur efektifitas perusahaan dalam menggunakan aset yang dimilikinya. Parameter yang dipakai adalah Total Assets Turnover (TATO).

TS TATO =

ATA TS = Total Sales

ATA = Average Total Assets

Rasio

Profitabilitas (M)

Kemampuan perusahaan untuk menghasilkan laba dari setiap aset yang digunakan. Parameter yang dipakai adalah

Basic Earnings Power Ratio

(BEPR).

EBIT BEPR =

ATA EBIT = Earnings Before Interest and tax

ATA = Average Total Assets

Rasio

4.6. Metode Analisis Data

Metode analisis yang digunakan untuk menguji hipotesis dalam penelitian ini adalah analisis regresi linier (linear regression analysis). Analisis ini

digunakan untuk mengetahui besarnya pengaruh variabel bebas terhadap variabel terikat yang akan diteliti. Penelitian ini menggambarkan pola hubungan yang mengungkapkan pengaruh seperangkat variabel terhadap variabel lainnya baik secara langsung maupun tidak langsung melalui variabel lain sebagai variabel mediating. Teknik analisis data dalam penelitian ini menggunakan alat bantu software SPSS

(Statistical Package Social Science).

Pengujian asumsi klasik yang dilakukan dalam penelitian adalah sebagai berikut:

a. Uji Normalitas

Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel bebas dan variabel terikat kedua-duanya mempunyai distribusi normal atau tidak. Model regresi yang baik adalah model yang memiliki distribusi data normal atau mendekati normal. Data yang baik adalah data yang mempunyai pola seperti distribusi normal, yakni distribusi data tersebut tidak menceng ke kiri atau menceng ke kanan (Situmorang, et al., 2010). Jika variabel tidak terdistribusi secara normal (menceng ke kiri atau menceng ke kanan) maka hasil uji statistik akan terdegradasi. Menurut Santosa dan Ashari (2005), distribusi data disebut berbentuk distribusi normal apabila data memusat pada nilai rata-rata dan median.

Uji normalitas berguna untuk mengetahui apakah variabel dependen dan variabel independen yang digunakan dalam penelitian mempunyai distribusi normal atau tidak (Umar, 2003). Menurut Gozhali (2009), uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel penggangu atau residual memiliki distribusi normal dan untuk mendeteksi apakah residual berdistribusi normal atau

tidak. Model regresi yang baik dan layak digunakan dalam penelitian adalah model yang memiliki distribusi normal atau mendekati normal. Ada dua cara yang bisa digunakan untuk uji normalitas yaitu dengan analisis grafik dan uji statistik.

Dengan analisis grafik, uji normalitas residual dapat dilakukan dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal (Ghozali, 2009) dan ini merupakan cara termudah untuk melihat apakah data berdistribusi normal atau tidak. Namun demikian apabila hanya melihat histogram, hal ini dapat menyesatkan khususnya untuk jumlah sampel yang kecil. Metode yang lebih handal adalah dengan melihat normal probability plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk satu garis lurus diagonal dan ploting data residual akan dibandingkan dengan garis diagonal. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau grafik histogramnya menunjukkan pola distribusi normal maka model regresi memenuhi asumsi normalitas. Sebaliknya jika data menyebar jauh dari diagonal dan/atau tidak mengikuti arah garis diagonal atau grafik histogramnya tidak menunjukkan pola distribusi normal, maka model regresi tidak memenuhi asumsi normalitas.

Dengan analisis statistik, uji statistik sederhana dapat dilakukan dengan melihat nilai skewness dan kurtosis dari residual. Skewness berhubungan dengan simetri dengan simetri distribusi, sementara kurtosis distribusi, sementara kurtosis berhubungan dengan berhubungan dengan puncak dari suatu distribusi. Skewed variable (variabel menceng) adalah variabel yang nilai mean-nya tidak di

tengah-tengah distribusi. Jika variabel terdistribusi secara normal maka nilai skewness dan kurtosis sama dengan nol.

Uji statistik lain yang dapat digunakan untuk menguji normalitas residual adalah uji statistik non-parametrik Kolmogorov-Smirnov (K-S). Apabila nilai signifikan dari variabel penelitian lebih kecil dari 0,05 berarti distribusi data tidak normal, sebaliknya apabila nilai signifikan dari masing-masing variabel lebih besar dari atau sama dengan 0,05 berarti distribusi data normal.

Jika sebuah variabel mempunyai sebaran data yang tidak normal, maka perlakuan yang dimungkinkan agar menjadi normal (Santoso, 2010) adalah:

(i) Menambah jumlah data.

(ii) Menghilangkan data yang dianggap sebagai penyebab tidak normalnya data. (iii) Dilakukan transformasi data misalnya mengubah data ke logaritma atau ke bentuk

natural atau bentuk lainnya, kemudian dilakukan pengujian ulang.

(iv) Data diterima apa adanya, memang dianggap tidak normal dan tidak perlu dilakukan berbagai treatment.

Data yang tidak terdistribusi secara normal dapat ditransformasi agar menjadi normal (Gozhali, 2009). Untuk menormalkan data harus diketahui terlebih dahulu bagaimana bentuk grafik histogram dari data yang ada apakah moderate positive skewness, substansial positive skewness, atau severe positive skewness dengan bentuk L dan sebagainya. Dengan mengetahui bentuk grafik histogram data, maka dapat ditentukan bentuk transformasinya. Tabel 4.3. berikut menjelaskan bentuk transformasi yang dapat dilakukan sesuai dengan grafik histogram.

Tabel 4.3. Bentuk Transformasi Data

Bentuk Grafik Histogram Bentuk Transformasi

Moderate positive skewness SQRT (x) atau akar kuadrat

Subtansial positive skewness LG10 (x) atau logaritma 10 atau LN

Severe positive skewness dengan bentuk L 1/x atau inverse

Moderate negative skewness SQRT (k - x)

Subtansial negative skewness LG10 (k – x)

Severe negative skewness dengan bentuk J 1/(k – x)

Sumber: Gozhali, 2009

Setelah melakukan transformasi untuk mendapatkan untuk mendapatkan normalitas data, langkah berikutnya adalah melakukan screening untuk mendeteksi adanya data outlier. Outlier adalah kasus atau data yang memiliki karakteristiik unik yang terlihat sangat berbeda jauh dari observasi-observasi lainnya dan muncul dalam bentuk nilai ekstrim baik untuk sebuah variabel tunggal atau variabel kombinasi. Menurut Gozhali (2009), ada empat penyebab timbulnya data outlier, yaitu:

(i) Kesalahan dalam mengentri data.

(ii) Gagal menspesifikasi adanya missing value dalam program komputer. (iii) Outlier bukan merupakan anggota populasi yang kita ambil sebagai sampel.

(iv) Outlier berasal dari populasi yang kita ambil sebagai sampel tetapi distribusi dari variabel dalam populasi tersebut memiliki nilai ekstrim dan tidak terdistribusi secara normal.

b. Uji Heterokedastisitas

Uji homoskedastisitas pada prinsipnya ingin menguji apakah sebuah grup mempunyai varians yang sama di antara anggota grup tersebut. Jika varians sama, dan ini yang seharusnya terjadi, maka dikatakan ada homoskedastisitas. Sedangkan jika varians tidak sama dikatakan terjadi heterokedatisitas. Ada beberapa cara untuk mendeteksi ada tidaknya heteroskedastisitas antara lain melalui uji grafik. Dengan melihat grafik plot antara prediksi variabel terikat yaitu ZPRED dengan residualnya SRESID (Ghozali, 2006). Deteksi ada tidaknya heteroskesdatisitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah Y yang telah diprediksi, dan sumbu X adalah residual (Y prediksi – Y sesungguhnya).

c. Uji Autokorelasi

Uji autokorelasi merupakan pengujian asumsi dalam regresi dimana variabel dependen tidak berkorelasi dengan dirinya sendiri. Maksud korelasi dengan diri sendiri adalah bahwa nilai dari variabel dependen tidak berhubungan dengan nilai variabel itu sendiri baik nilai periode sebelumnya atau nilai periode sesudahnya (Santosa dan Ashari, 2005). Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lainnya. Masalah ini timbul karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke observasi lainnya. Hal ini

biasanya terjadi pada data time series karena gangguan pada satu data cenderung mengganggu data lainnya (Situmorang, et al., 2010).

Untuk menguji keberadaan autokorelasi dalam penelitian ini digunakan Uji Durbin Watson (DW test) dimana angka‐angka yang diperlukan dalam metode tersebut adalah dl, du, 4 – dl, dan 4 – du (Ghozali, 2006). Jika nilainya mendekati 2 maka tidak terjadi autokorelasi, sebaliknya jika mendekati 0 atau 4 terjadi autokorelasi

(+/‐). Posisi angka Durbin

Watson test dapat digambarkan dalam gambar 4.1. di

bawah.

Autokorelasi Daerah keragu- Tidak ada Daerah keragu- Autokorelasi Positif raguan autokorelasi raguan negatif

DW

0 dl du 2 4-du 4-dl 4

Gambar 4.1 Posisi Angka Durbin Watson

d. Uji Multikolinieritas

Salah satu pengujian untuk analisis regresi adalah uji multikolinearitas. Uji ini merupakan bentuk pengujian untuk asumsi dalam analisis regresi berganda. Asumsi multikolinearitas menyatakan bahwa variabel independen harus terbebas dari gejala

multikolinearitas (Santosa dan Ashari, 2005). Gejala multikolinearitas adalah gejala korelasi antarvariabel independen. Gejala ini ditunjukkan dengan korelasi yang signifikan antarvariabel independen. Apabila terjadi gejala multikolinearitas, salah satu langkah untuk memperbaiki model adalah dengan menghilangkan variabel dari model regresi sehingga bisa dipilih model yang paling baik. Untuk mendeteksi ada tidaknya multikolinieritas yaitu dengan melihat Tolerance Value dan Variance Inflation Factor (VIF). Multikolinieritas terjadi jika nilai tolerance kurang dari 0,10 dan VIF lebih besar dari 10 atau jika antar variabel independen ada korelasi yang cukup tinggi umumnya di atas 0,9 (Ghozali, 2009).

Untuk menguji kesahihan penelitian, uji determinan digunakan untuk menjelaskan seberapa besar perubahan atau variasi suatu variabel bisa dijelaskan oleh perubahan atau variasi pada variabel yang lain. Untuk memperoleh nilai koefisien determinasi (R2) bisa dihitung dengan mengkuadratkan koefisien korelasi (R). Nilai koefisien determinasi berada pada antara nilai 0 dan 1 (0 ≤ R2 ≤ 1). Nilai koefisien determinasi yang kecil berarti kemampuan variabel-variabel independen dalam menjelaskan variabel-variabel dependen adalah sangat terbatas. Nilai yang mendekati satu berarti variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variabel-variabel dependen. Menurut Gozhali (2009), secara umum koefisien determinasi untuk data silang (cross section) relatif rendah karena adanya variasi yang besar antara masing-masing pengamatan sedangkan untuk data runtut waktu (time series) biasanya mempunyai nilai koefisien determinasi yang tinggi.

Untuk menguji apakah hipotesis yang diajukan diterima atau ditolak, digunakan statistik t (uji t). Uji t digunakan untuk menguji hipotesis tentang koefisien-koefisien slope regresi secara individual. Uji t menjelaskan perbedaan-perbedaan unit-unit pengukuran variabel-variabel dan deviasi standar dari koefisien-koefisien yang diestimasi. Uji t adalah uji yang tepat untuk digunakan apabila nilai-nilai residunya terdistribusi secara normal dan apabila varian dari distribusi itu harus diestimasi (Sarwoko, 2005).

Bentuk pengujian hipotesis untuk uji statistik t adalah sebagai berikut : (i) Merumuskan hipotesis:

Secara parsial variabel-variabel independen maupun variabel mediating berpengaruh terhadap variabel dependen.

(ii) Menentukan tingkat signifikansi:

Hipotesis ini diuji dengan menggunakan tingkat signifikansi sebesar 95%. (iii) Menentukan kriteria pengujian hipotesis:

 Jika tsig < 0,05 artinya secara parsial variabel-variabel independen maupun variabel mediating berpengaruh terhadap variabel dependen.

 Jika tsig > 0,05 artinya secara parsial variabel-variabel independen maupun variabel mediating tidak berpengaruh terhadap variabel dependen.

Untuk menguji pengaruh variabel independen terhadap variabel dependen digunakan analisis regresi sederhana. Untuk menguji pengaruh variabel independen terhadap variabel dependen melalui variabel mediating, ada empat tahap pendekatan yang harus dilakukan dengan menggunakan analisis regresi. Setiap tahap yang dilakukan di atas dimaksudkan untuk menguji masing-masing pengaruh dan

signifikansi dari satu variabel ke variabel yang lain (Baron dan Kenny, 1986). Ke empat tahap yang dimaksud adalah:

Tahap 1. Membuat analisis regresi sederhana untuk melihat pengaruh variabel independen (X) terhadap variabel dependen (Y). Persamaan regresinya adalah :

Y = a1 + b1X + e ... (Persamaan Regresi 1).

Tahap 2. Membuat analisis regresi sederhana untuk melihat pengaruh variabel independen (X) terhadap variabel mediating (M). Persamaan regresinya adalah:

M = a2 + b2X + e ... (Persamaan Regresi 2).

Tahap 3. Membuat analisis regresi sederhana untuk melihat pengaruh variabel mediating (M) terhadap variabel dependen (Y). Persamaan regresinya adalah:

Y = a3 + b3M + e ... (Persamaan Regresi 3).

Tahap 4. Membuat analisis regresi berganda untuk melihat pengaruh variabel independen (X) dan variabel mediating (M) bersama-sama terhadap variabel dependen (Y). Persamaan regresinya adalah :

Y = a4 + b4X + b5M + e ... (Persamaan Regresi 4).

dimana: a1, a2, a3, a4 adalah konstanta, b1, b2, b3, b4, b5 adalah koefisien regresi, dan e adalah error.

Hubungan atau pengaruh dari masing-masing variabel ini digambarkan dalam Gambar 4.2. berikut:

b2 b3 b5 b1 b4 Profitabilitas (M) Nilai Perusahaan (Y) Perputaran Aset (X)

Gambar 4.2. Model Jalur Pengaruh Perputaran Aset terhadap Nilai Perusahaan dengan Profitabilitas sebagai Variabel Mediating

Tahap 1 sampai dengan tahap 3 dilakukan untuk menentukan besar masing-masing pengaruh dari suatu variabel ke variabel yang lain. Jika salah satu atau lebih dari ketiga tahap di atas memperlihatkan bahwa hubungan atau pengaruh (b1, b2, dan b3) adalah tidak signifikan, maka variabel mediating dikatakan tidak dapat memediasi pengaruh variabel independen terhadap variabel dependen. Namun apabila ketiga tahapan di atas memperlihatkan pengaruh yang signifikan (b1, b2, dan b3 adalah signifikan) maka variabel mediating dikatakan dapat memediasi pengaruh variabel independen terhadap variabel dependen dan tahap 4 dapat dilanjutkan. Apabila pengujian tahap 4 menunjukkan bahwa pengaruh variabel independen terhadap variabel dependen atau koefisien b4 adalah signifikan maka mediasi ini disebut partial mediation. Namun apabila tahap 4 menunjukkan bahwa pengaruh variabel independen terhadap variabel dependen atau koefisien b4 tidak signifikan dan koefisien b4 lebih kecil dari b1, maka mediasi ini disebut full mediation. Kriteria penentuan partial mediation atau full mediation ataudapat diringkas sebagai berikut:

a. Jika koefisien b1, b2, b3, b4, dan b5 adalah signifikan maka disebut partial mediation.

b. Jika koefisien b1, b2, b3, dan b5 adalah signifikan, tetapi koefisien b4 adalah tidak signifikan dan koefisien b4 lebih kecil dari b1, maka disebut full mediation.

Hubungan atau pengaruh langsung terjadi jika satu variabel mempengaruhi variabel lainnya tanpa ada variabel ketiga yang memediasi hubungan kedua variabel tadi. Hubungan atau pengaruh tidak langsung terjadi jika ada variabel ketiga yang memediasi hubungan kedua variabel ini.

Ada dua cara yang dapat dilakukan untuk menghitung pengaruh tidak langsung. Cara pertama yaitu menghitung selisih antara dua koefisien dari dua persamaan regresi (Judd dan Kenny, 1981 dan Preacher dan Hayes, 2008). Persamaan regresi yang dimaksud adalah:

Model 1 : Y = a1 + b1X + e, dan Model 2 : Y = a4 + b4X + b5M + e.

Hubungan kedua persamaan regresi ini digambarkan pada Gambar 4.3. di bawah. b1 Y X b5 b4 M Y X

Gambar 4.3. Ilustrasi Pengaruh Tidak Langsung dengan Menghitung Selisih antara Dua Koefisien Regresi

Koefisien regresi b1 adalah merupakan total pengaruh dan koefisien regresi b4 merupakan pengaruh langsung ketika regresi secara bersama-sama dilakukan terhadap nilai perusahaan sehingga pengaruh tidak langsung dapat dihitung dengan rumus: bindirect = btotal – bdirect atau bindirect = b1 – b4.

Cara kedua yaitu dengan cara mengalikan dua koefisien dari dua persamaan regresi (Sobel, 1982). Persamaan regresi yang dimaksud adalah:

Model 1 : Y = a4 + b4X + b5M + e, dan Model 2 : M = a2 + b2X + e.

Pengaruh tidak langsung dihitung dengan rumus: bindirect = b2 x b5. Hubungan kedua persamaan regresi ini digambarkan sebagai berikut:

b2 b5 b4

M

Y X

Gambar 4.4. Ilustrasi Pengaruh Tidak Langsung dengan Mengalikan Dua Koefisien Regresi

Dengan diketahuinya besar pengaruh langsung dan tidak langsung, maka total pengaruh dapat dihitung dengan menjumlahkan pengaruh langsung dan tidak langsung dan diringkas sebagai berikut:

Cara 1 Cara 2

Pengaruh langsung = b4 b4

Pengaruh tidak langsung = b1 – b4 b2 x b5

--- + --- +

Total pengaruh = b1 b4 + (b2 x b5)

BAB V

Dokumen terkait