• Tidak ada hasil yang ditemukan

BAB 3 METODE PENELITIAN

F. Metode Analisis Data

Data penelitian yang telah dikumpulkan diolah, kemudian akan dianalisis untuk memperoleh jawaban atas permasalahan yang timbul dalam penelitian ini. Dalam penelitian ini, metode analisis data yang dilakukan adalah dengan analisis

Variabel Dependen

Variabel Definisi Pengukuran Skala

Data Sumber Data Pengungkapan informasi sosial Data yang diungkap oleh perusahaan berkaitan dengan aktivitas sossialnya

Jumlah skor pengungkapan sosial

Jumlah skor maksimal

Indeks Annual Report Variabel Independen Profitabilitas Kemampuan perusahaan untuk menghasilkan laba

Laba Bersih Setelah Pajak Total Aktiva Rasio Financial Report Audited Ukuran Perusahaan Menunjukkan besar kecilnya suatu perusahaan

LN (Total Aktiva) Rasio Financial

Report Audited

statistik yang mengunakan regresi linier berganda dan menggunakan software SPSS 16. Metode dan teknik analisis dilakukan dengan tahapan sebagai berikut:

1. Uji Asumsi Klasik

Peneliti melakukan uji asumsi klasik sebelum melakukan uji hipotesis. Dikarenakan data yang digunakan adalah data sekunder, maka untuk menetapkan ketepatan model perlu dilakukan pengujian atas beberapa asumsi klasik yang mendasari model regresi.

a. Uji Normalitas

Sebelum dilakukan analisis terhadap hasil regresi perlu dilakukan pengujian terhadap kenormalan data dari penelitian yang dilakukan. Hal ini dilakukan untuk memenuhi syarat dari pengujian parametrik dimana data harus berdistribusi normal. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Menurut Ghozali (2005;115) untuk menguji apakah data berdistribusi normal atau tidak, digunakan uji stastik Kolmogorov-Smirnov Test (K-S). Uji ini dilakukan untuk memastikan secara statistik apakah data disepanjang garis diagonal berdistribusi normal. Data dikatakan normal apabila hasil pengujian menunjukkan nilai siginifikan diatas 0.05, sebaliknya jika nilai signifikan lebih kecil dari 0.05 maka distribusi data adalah tidak normal.

b. Uji Multikolinearitas

Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas (independen) dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara variabel-variabel

bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya (dependen) menjadi terganggu. Pengujian multikolineritas dilakukan dengan melihat nilai tolerance dan lawannya Variance Inflation factor (VIF) antar variabel independen. Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variavel independen lainnya. Batasan umum yang dipakai untuk menunjukkan adanya multikolinearitas adalah nilai tolerance < 0,1 atau VIF > 10.

c. Uji Heteroskedastisitas

Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas. sementara itu, untuk varians yang berbeda disebut heteroskedastisitas. Model regresi yang baik adalah tidak terjadi heterokedastisitas. Untuk melihat ada tidaknya heterokedastisitas dapat dilakukan dengan melihat grafik scatterpol antara standardized predicted value (ZPRED) dengan studentized residual (SRESID). Ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah Y yang telah diprediksi dan sumbu X adalah residual (Y prediksi - Y sesungguhnya). Dasar pengambilan keputusan yaitu :

a. Jika ada pola tertentu, seperti titik-titik yang ada membentuk suatu pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka terjadi heteroskedastisitas.

b. Jika tidak ada pola yang jelas, seperti titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas.

d. Uji Autokorelasi

Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode saat ini (t) dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi dilakukan untuk melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. Jika terjadi korelasi, maka terdapat problem autokorelasi. Autokorelasi muncul karena ada observasi yang berurutan sepanjang waktu berkaitan satu sama lain. Pengujian autokorelasi dilakukan dengan menggunakan uji Durbin-Watson (D-W). Menurut Singgih Santoso (2000), jika angka D-W diantara -2 sampai +2, berarti tidak ada autokorelasi. Berikut ini adalah kriteria untuk penilaian terjadinya autokorelasi.

a. Angka D-W di bawah -2 berarti ada autokorelasi positif.

b. Angka D-W di antara -2 sampai +2 berarti tidak ada autokorelasi. c. Angka D-W di atas +2 berarti ada autokorelasi negatif.

2. Pengujian Hipotesis

Analisis statistik untuk pengujian hipoteis dilakukan dengan model regresi linier berganda yang digunakan untuk menganalisis pengaruh variabel independen terhadap variabel dependen. Model regresi linier berganda adalah hubungan secara linear antara dua atau lebih variabel independen (X1, X2) dengan variabel dependen (Y). Analisis ini untuk mengetahui arah hubungan antara variabel independen dengan variabel dependen apakah masing-masing variabel independen berhubungan positif atau negatif dan untuk memprediksi nilai dari variabel dependen apabila nilai variabel independen mengalami kenaikan atau penurunan. Model regresi linier berganda dikatakan model yang baik jika model tersebut memenuhi asumsi normalitas data dan terbebas dari asumsi – asumsi klasik statistik baik multikolinearitas, heterokedastisitas dan autokorelasi. Model regresi linier berganda yang digunakan sebagai berikut.

Y = a + b1X1 + b2X2 + e

Keterangan:

Y = Indeks Pengungkapan Informasi Sosial a = Konstanta

b1,b2 = Koefisien Regresi X1 = Ukuran Perusahaan X2 = Profitabilitas e = Error (pengganggu)

a. Uji Koefisien Determinasi (R2)

Koefisien determinasi (R2) adalah perbandingan antara variasi Y (dependen) yang dijelaskan oleh x1 dan x2 (independen) secara bersama-sama dibanding dengan variasi total Y. Tidak ada ukuran yang pasti berapa besarnya R2 untuk mengatakan bahwa suatu pilihan variabel sudah tepat. Nilai koefisien determinasi berada diantara nol dan satu. Jika R2 semakin besar atau mendekati 1, maka model makin tepat karena variable independen (X) memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variasi variable dependen (Y). Sebaliknya, R2 semakin kecil (mendekati nol) maka dapat dikatakan kemampuan variable-variabel independen (X) dalam menjelaskan variable dependen (Y) amat terbatas.

b. Uji Regresi Parsial (Uji t)

Uji Regresi Parsial (Uji t) dilakukan untuk mengetahui hubungan yang signifikan dari masing-masing variabel bebas terhadap variabel terikatnya. Pengujian melalui uji t dilakukan dengan membandingkan t-hitung dengan t-tabel. Kriteria pengujian adalah sebagai berikut.

1. Apabila t-hitung < t-tabel, pada α > 0,05 maka hipotesis ditolak (koefisien regresi tidak signifikan) yang berarti bahwa secara parsial variabel independen tersebut tidak mempunyai pengaruh yang signifikan terhadap variabel dependen.

2. Apabila t-hitung > t-tabel, pada α < 0,05 maka hipotesis diterima (koefisien regresi signifikan) yang berarti bahwa secara parsial variabel

independen tersebut mempunyai pengaruh yang signifikan terhadap variabel dependen.

c. Uji Regresi Simultan (Uji F)

Menurut Ghozali (2005) uji statistik F pada dasarnya menunjukkan apakah semua variable bebas yang dimaksudkan dalam model mempunyai pengaruh secara simultan terhadap variable dependen. Pengujian melalui uji F dilakukan dengan membandingkan F-hitung dengan F-tabel pada derajat signifikan 95% (α = 0,05). Kriteria pengujian adalah sebagai berikut.

1. Apabila Fhitung < Ftabel, pada α > 0.05 maka hipotesis ditolak

(koefisisen regresi tidak signifikan). Ini berarti bahwa secara simultan kelima variabel independen tersebut tidak mempunyai pengaruh yang signifikan terhadap variabel dependen.

2. Apabila Fhitung > Ftabel, pada α < 0,05 maka hipotesis diterima

(koefisien regresi signifikan). Hal ini berarti secara simultan kelima variabel independen tersebut mempunyai pengaruh yang signifikan terhadap variabel dependen.

Dokumen terkait