• Tidak ada hasil yang ditemukan

METODE PENELITIAN 3.1 Desain Penelitian

3.6 Metode Analisis Data

3.6.2 Pengujian Asumsi Klasik

Peneliti melakukan uji asumsi klasik terlebih dahulu sebelum melakukan pengujian hipotesis, hal ini disebabkan karena data yang digunakan dalam penelitian sering bersifat bias dan tidak efisien. Untuk memperoleh nilai yang tidak bias dan efisien (Best Linear Unbiased Estimator / BLUE) dari model persamaan linear maka haruslah memenuhi asumsi klasik yang mendasari model linear. Setelah data memenuhi asumsi klasik maka data layak dianalisis lebih lanjut untuk pengujian hipotesis dengan analisis pengujian linear. Pengujian asumsi klasik yang dilakukan terdiri atas uji normalitas, uji multikolinearitas, uji heteroskedasitas, dan uji autokorelasi.

Menurut Ghozali (2005 : 123) asumsi klasik yang harus dipenuhi adalah: a) berdistribusi normal,

b) non-multikolinearitas, artinya antara variabel independen dalam model regresi tidak memiliki korelasi atau hubungan secara sempurna atau mendekati sempurna,

c) non-autokorelasi, artinya kesalahan penggangu dalam model regresi tidak saling berkorelasi,

d) homoskedastitas, artinya variance variabel independen dari satu pengamatan ke pengamatan lain adalah konstan atau sama.

3.6.2.1 Uji Normalitas

Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Kalau nilai residual

tidak mengikuti distribusi normal, uji statistik menjadi tidak valid untuk jumlah sampel kecil. Uji ini ditujukan untuk mendapatkan kepastian terpenuhinya syarat normalitas yang akan menjamin dapat dipertanggungjawabkannya langkah-langkah analisis statisik sehingga kesimpulan yang diambil dapat dipertanggungjawabkan. Cara yang digunakan untuk mendeteksi apakah residual berdistribusi normal atau tidak dapat didasarkan pada analisis grafik dan analisis statistik. Analisis grafik dilakukan dengan melihat grafik histogram yang membandingkan data observasi dengan distribusi yang mendekati distribusi normal atau mengikuti kurva berbentuk lonceng dan grafik normal probability plot yang membandingkan distribusi kumulatif dari distribusi normal.

Dasar pengambilan keputusan normal probability plot menurut Ghozali (2005 : 110) adalah sebagai berikut:

a) Jika data menyebar sekitar garis diagonal dan mengikuti arah garis diagonal atau grafis histogramnya menunjukkan pola distribusi normal, maka model regresi memenuhi asumsi normalitas,

b) Jika menyebar jauh dari garis diagonal dan atau tidak mengikuti arah garis diagonal atau grafis histogramnya tidak menunjukkan pola distribusi normal, maka model regresi tidak memenuhi asumsi normalitas.

Sedangkan analisis statistik dilakukan dengan uji statistik nonparametrik Kolmogorov-Smirnov (K-S) yang dijelaskan oleh Ghozali (2005 : 155). Uji K-S dibuat dengan membuat hipotesis:

Ho : Data residual berdistribusi normal Ha : Data residual tidak berdistribusi normal

Bila signifikansi > 0,05 dengan α = 5% berarti distribusi data normal dan H0 diterima, sebaliknya bila nilai signifikan < 0,05 berarti distribusi data tidak normal

dan Ha diterima. Menurut Jogiyanto (2004 : 172), distribusi yang melanggar asumsi normalitas dapat dijadikan menjadi bentuk yang normal dengan beberapa cara sebagai berikut :

a) Transformasi data

Transformasi data dapat dilakukan dengan logaritma natural (Ln), Log 10, SQRT maupun akar kuadrat. Jika ada data yang bernilai negatif, transformasi data dengan logaritma akan menghilangkannya sehingga jumlah sampel (n) akan berkurang.

b) Trimming

Trimming adalah memangkas atau membuang observasi yang bersifat outlier.

c) Winsorizing

Winsorizing mengubah nilai-nilai outlier menjadi nilai-nilai minimum atau maksimum yang diizinkan supaya distribusinya menjadi normal.

3.6.2.2 Uji Multikolinearitas

Multikolinearitas adalah situasi adanya korelasi variabel-variabel independen antara yang satu dengan yang lainnya. Dalam hal ini kita sebut variabel-variabel bebas tidak ortogonal. Variabel-variabel bebas yang bersifat ortogonal adalah variabel bebas yang memiliki nilai korelasi diantara sesamanya sama dengan nol.

Uji multikolinearitas bertujuan untuk menguji apakah pada model regresi ditemukan adanya korelasi diantara variabel independen. Model regresi yang baik seharusnya menunjukkan tidak terjadinya korelasi diantara variabel independen. Multikolinearitas adalah situasi adanya korelasi variabel-variabel independen antara yang satu dengan yang lainnya. Dalam hal ini kita sebut variabel-variabel

bebas tidak ortogonal. Variabel-variabel bebas yang bersifat ortogonal adalah

variabel bebas yang memiliki nilai korelasi diantara sesamanya sama dengan nol. Untuk mendeteksi ada tidaknya multikolinearitas di dalam model regresi menurut Ghozali (2005) dapat dilihat dari :

• Nilai Tolerance dan lawannya

• VIF (Variance Inflation Factor)

Kedua ukuran ini menunjukkan setiap variabel independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih tidak dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance yang rendah sama dengan VIF yang tinggi (karena VIF = 1/Tolerance). Nilai cutoff yang umum dipakai untuk menunjukkan adanya multikolinearitas adalah nilai Tolerance < 0,10 atau sama dengan nilai VIF > 10.

Cara untuk mengatasi masalah jika terjadi multikolinearitas adalah : a) Menggabungkan data cross section dan time series (pooling data).

b) Mengeluarkan satu atau lebih variabel independen yang mempunyai korelasi tinggi dari model-model regresi dan identifikasikan variabel independen lainnya untuk membantu prediksi.

c) Transformasi variabel merupakan salah satu cara mengurangi hubungan linear diantara variabel independen. Transformasi dapat dilakukan dalam bentuk logaritma natural.

3.6.2.3 Uji Heteroskedastisitas

Heteroskedastisitas merupakan situasi dimana dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Jika variance dari residual satu pengamatan ke pengamatan lain tetap, maka disebut homoskedasitas dan jika berbeda disebut heteroskedasitas. Model regresi yang baik adalah yang homoskedasitas atau tidak terjadi heteroskedasitas.

Kebanyakan data cross section mengandung situasi heteroskedasitas karena data ini menghimpun data yang mewakili berbagai ukuran (kecil, sedang, dan besar).

Untuk mendeteksi ada tidaknya heteroskedasitas, menurut Ghozali (2005:105) dapat dilihat dari grafik Scatterplot antara nilai prediksi variabel dependen yaitu ZPRED dengan residualnya SRESID. Jika ada pola tertentu seperti titik-titik yang ada membentuk pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka telah terjadi heteroskedasitas. Sebaliknya jika tidak ada pola yang jelas serta titik-titik yang menyebar di atas dan di bawah angka 0 pada sumbu Y maka tidak terjadi heterokedastisitas atau terjadi homoskedastisitas.

3.6.2.4 Uji Autokorelasi

Uji autokorelasi bertujuan untuk menguji apakah dalam suatu model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode t-1 atau sebelumnya. Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lain. Masalah ini timbul karena residual atau kesalahan pengganggu tidak bebas dari satu observasi ke observasi lainnya. Hal ini paling sering ditemukan pada data runtut waktu (time series) karena “gangguan” pada seorang individu/kelompok cenderung mempengaruhi “gangguan” pada individu/kelompok yang sama pada periode berikutnya. Model regresi yang baik adalah model regresi yang bebas dari autokorelasi.

Untuk mengetahui adanya autokorelasi dapat dideteksi dengan menggunakan Durbin Watson. Penentuan ada tidaknya autokorelasi dapat dilihat dalam tabel 3.3.

Tabel 3.3

Uji Statistik Durbin-Watson

Durbin-Watson Kesimpulan

< 1.10 Ada Autokorelasi 1.11 - 1.54 Tanpa Kesimpulan 1.55 - 2.46 Tidak Ada Autokorelasi 2.47 - 2.90 Tanpa Kesimpulan

> 2.91 Ada Autokorelasi

Sumber: Algifari (2000) 3.6.3 Pengujian Hipotesis Penelitian

Dalam menentukan hubungan yang berlaku antara informasi laba akuntansi dan arus kas dari aktivitas operasi terhadap harga saham pada perusahaan perbankan yang terdaftar di Bursa Efek Indonesia, maka digunakan analisis statistik berikut:

3.6.3.1 Analisis Regresi Berganda

Analisis regresi digunakan untuk memperkirakan atau meramalkan hubungan antara dua variabel dengan membuat asumsi ke dalam suatu bentuk fungsi tertentu (fungsi linear). Dimana variabel dependen dapat diprediksi melalui variabel independen secara individual, sehingga dapat digunakan untuk memutuskan apakah naik atau turunnya variabel dependen dapat dilakukan dengan menaikkan atau menurunkan variabel independen.

Sedangkan menurut Ghozali (2005) “Analisis Regresi merupakan studi mengenai ketergantungan variabel dependen (terikat) dengan satu atau lebih variabel independen (variabel penjelas atau bebas) dengan tujuan mengestimasi dan atau memprediksi rata-rata populasi atau nilai rata-rata variabel dependen

berdasarkan nilai variabel independen yang diketahui”. Dalam penelitian ini digunakan model analisis regresi berganda (multiple regresion), karena variabel independen lebih dari satu yaitu 2 variabel berupa laba akuntansi dan arus kas dari aktivitas operasi. Model regresi linear yang digunakan adalah sebagai berikut:

Y = a + b1X

1

+ b2X

2

+ e

Keterangan:

Y = Harga Saham a = Konstanta

X1 = Variabel independen I yaitu nilai laba akkuntansi per lembar saham

X2 = Variabel independen II yaitu nilai arus kas dari aktivitas operasi per lembar saham

b1 = Koefisien regresi X1 b2 = Koefisien regresi X2

e = Error (tingkat kesalahan pengganggu)

3.6.3.2 Uji Signifikansi

Uji signifikansi antara variabel bebas terhadap variabel terikat, baik secara simultan (serentak) maupun parsial dilakukan dengan menggunakan uji statistik t dan uji statistik F.

1. Uji t (uji secara parsial)

Uji secara parsial untuk menguji setiap variabel bebas atau independent variable (X) apakah mempunyai pengaruh atau tidak terhadap variabel tidak bebas atau dependent variable (Y). Bentuk pengujiannya adalah:

• Ho : b1 = b2 = 0, artinya informasi laba akuntansi dan arus kas dari aktivitas operasi secara parsial tidak mempunyai pengaruh terhadap harga saham pada perusahaan perbankan yang terdaftar di BEI.

• Ha : b1≠ b2 ≠ 0, artinya informasi laba akuntansi dan arus kas dari aktivitas operasi secara parsial mempunyai pengaruh terhadap harga saham pada perusahaan perbankan yang terdaftar di BEI.

Dengan menggunakan tingkat signifikan (alpha) 5% dan derajat kebebasan (df) ≥ 20, kemudian dibandingkan ttabel dengan thitung untuk menguji signifikansi pengaruh. Apabila nilai thitung > ttabel, maka H0 ditolak.

2. Uji F (uji secara serentak)

Uji F dilakukan untuk melihat seberapa besar pengaruh variabel independen secara bersama-sama terhadap variabel dependen. Bentuk pengujiannya adalah:

• H0 : b1 = b2 = 0 artinya informasi laba akuntansi dan arus kas dari aktivitas operasi secara bersama-sama tidak mempunyai pengaruh terhadap harga saham pada perusahaan perbankan yang terdaftar di BEI.

• Ha : b1≠ b2≠ 0 artinya informasi laba akuntansi dan arus kas dari aktivitas operasi secara bersama-sama mempunyai pengaruh terhadap harga saham pada perusahaan perbankan yang terdaftar di BEI.

Pengujian signifikansi dilakukan dengan mengamati Fhitung pada nilai signifikan (alpha) 5%. Apabila nilai Fhitung lebih besar daripada Ftabel, maka H0 ditolak.

BAB IV

HASIL PENELITIAN DAN PEMBAHASAN

Dokumen terkait