• Tidak ada hasil yang ditemukan

BAB III METODE PENELITIAN

H. Teknik Pengujian Instrumen

I. Teknik Analisis Data

2. Uji Hipotesis

Uji persyaratan analisis diperlukan guna mengetahui apakah analisis data untuk pengujian hipotesis dapat dilanjutkan atau tidak. Beberapa teknik analisis data menuntut uji persyaratan analisis. Analisis varian mempersyaratkan bahwa data berasal dari populasi yang berdistribusi normal dan linier.

1) Pengujian Normalitas

Uji normalitas digunakan untuk mengetahui apakah data yang terjaring berdistribusi normal atau tidak. Pengujian dilakukan dengan menggunakan uji satu sampel dari Kolmogrov-Smirnov, yaitu tingkat kesesuaian antara distribusi harga satu sampel (skor yang diobservasi) dengan distribusi teoritis tertentu. Dengan rumus sebagai berikut (Sugiyono, 2004:150):

D = maksimum

Keterangan:

D = Deviasi atau penyimpangan

Sn2 (X) = Distribusi frekuensi yang diobservasi Kriteria penerimaan:

Jika nilai Kolmogorov- Smirnov lebih besar dari nilai

probabilitas (ρ = 0,05) maka H0 diterima.

Jika nilai Kolmogorov- Smirnov lebih kecil dari nilai

probabilitas (ρ = 0,05) maka H0 ditolak. Hipotesis:

H0 = berdistribusi normal

Ha = berdistribusi tidak normal

Kriteria pengujian hipotesis:

Jika prob ( ) ≥α maka H0 diterima Jika prob ( ) ≤α maka H0 ditolak

Dengan kata lain bila probabilitas ( ) yang diperoleh melalui perhitungan lebih besar dari taraf signifikan 5%, berarti sebaran data variabel normal. Apabila probabilitas ( ) yang diperoleh melalui perhitungan lebih kecil dari taraf 5% berarti sebaran data variabel tidak normal.

2) Uji Linieritas

Uji linieritas dilakukan untuk mengetahui apakah masing- masing variabel bebas mempunyai hubungan linier atau tidak dengan variabel terikatnya. Uji linieritas ini digunakan dengan analisis varians dengan menggunakan rumus F. Rumus yang digunakan untuk mencari nilai F adalah sebagai berikut (Sudjana, 1989:332)

S

S

G TG F 2 2 Keterangan:

F = Bilangan untuk linieritas

S2TG = Varian tuna cocok S2G = Varian kekeliruan Kriteria pengujian linieritasnya yaitu:

Jika nilai Fhitung lebih kecil dari Ftabel pada taraf signifikasi 5% dengan derajat kebebasan (dk) = (k-2) dan (n-k) maka hubungan variabel bebas dengan variabel terikat bersifat linear. Jika nilai Fhitung lebih besar dari Ftabel pada taraf signifikasi 5% dengan derajat kebebasan (dk) = (k-2) dan (n-k) maka hubungan variabel bebas dengan variabel terikat tidak bersifat linear.

b. Uji Asumsi Klasik

Menurut, Sudrajat 1988 dalam bukunya, Priyanto, 1012:59, Pengujian asumsi klasik dipergunakan untuk mengetahui apakah hasil estimasi regresi yang dilakukan benar-benar bebas dari adanya gejala multikolinearitas, heteroskedastisitas, dan autokorelasi. Model regresi akan dapat dijadikan alat estimasi yang tidak bias jika telah memenuhi persyaratan BLUE (Best Linear Unbiased Estimator) yakni tidak terdapat multikolinearitas, heteroskedastisitas, dan autokorelasi.

Jika terdapat heteroskedastisitas, maka varian tidak konstan sehingga dapat menyebabkan biasnya standar error. Jika terdapat multikolinearitas, maka akan sulit untuk mengisolasi pengaruh-pengaruh individual dari variabel, sehingga tingkat signifikansi koefisien regresi menjadi rendah. Dengan adanya autokorelasi mengakibatkan penaksir masih tetap bias dan masih tetap konsisten hanya saja menjadi tidak efisien. Oleh karena itu, uji asumsi klasik perlu dilakukan.

1) Uji Multikolinearitas

Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi anatara variabel bebas (independen). Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel independen. Jika variabel independen saling berkorelasi, maka variabel tersebut tidak memiliki korelasi sama

terdiri dari dua atau lebih variabel bebas, untuk mengukur pengaruh variabel bebas tersebut melalui besaran koefisien korelasi (r).

Untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi penulis menggunakan rumus:

R2j merupakan R2 yang diperoleh dari regresi auxiliary antara variabel independen dengan variabel independen sisanya (k-1).VIF merupakan variance inflation factor. Jika R2j mendekati 1 maka ada kolinearitas antar variabel independen, maka VIF akan naik dan mendekati tak terhingga jika nilai R2j = 1. Dengan demikian VIF bisa digunakan untuk mendeteksi masalah multikolinearitas dalam sebuah regresi berganda.Jika nilai VIF semakin membesar maka diduga ada multikolinearitas.

Dasar pengambilan keputusan:

Jika semakin kecil nilai Tolerance dan semakin besar nilai VIF maka semakin mendekati terjadinya masalah multikolinearitas. Jika tolerance lebih dari 0,1 dan VIF kurang dari 10 maka tidak terjadi multikolinearitas

Pengujian multikoliniearitas data dalam penelitian ini didasarkan pada (1) variance inflation factor (VIF)(2) nilai tolerance

2) Heteroskedastisitas

Uji Heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan variance dan residual satu pengamatan ke pengamatan lain. Model regresi yang baik adalah yang tidak terjadi heteroskedastisitas.

Untuk mendeteksi ada atau tidaknya heteroskedastisitas, digunakan uji dengan metode korelasi Spearman adalah sebagai berikut:

= 1 – 6

Dimana d adalah perbedaan rank antara residual (

)

dengan variabel independen x dan n adalah jumlah observasi. Metode deteksi

heteroskedastisitas dengan korelasi Spearman. Pengujian

heteroskedastisitas pada penelitian ini menggunakan program SPSS for windows versi 16.

3) Uji Autokorelasi

Uji autokorelasi bertujuan untuk menguji apakah dalam model regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada periode t-1. Jika terjadi korelasi maka dinamakan autokorelasi. Untuk mendeteksi ada tidaknya

autokorelasi dapat diuji dengan jalan menghitung “ The Durbin-

Watson, d” dengan rumus sebagai berikut:

Keterangan:

d = statistik durbin watson

e = gangguan estimasi

i = observasi terakhir

i-1 = observasi sebelumnya

Untuk memperoleh kesimpulan apakah ada masalah autokorelasi atau tidak, hasil hitungan statistik d harus dibandingkan dengan tabel statistik d. pemilihan angka tabel d harus memperhatikan banyaknya parameter (=k), dan jumlah observasi (=n), pada tingkat

signifikansi (=α) tertentu.Hipotesis yang dapat disimpulkan adalah: H0 : ≤ 0 (tidak ada autokorelasi positif)

HA : > 0 (ada autokorelasi positif)

Bila nilai DW lebih besar daripada batas atas (upper bound, U), maka koefisien autokorelasi sama dengan nol. Artinya, tidak ada autokorelasi positif.

Bila nilai DW lebih rendah daripada batas bawah (lower bound, L), maka koefisien autokorelasi lebih besar daripada nol. Artinya, ada autokorelasi positif.

Bila nilai DW terletak di antara batas atas dan batas bawah, maka koefisien autokorelasi tidak dapat disimpulkan.

Durbin-Watson telah berhasil mengembangkan uji statistik yang disebut uji statistik d, sehingga berhasil menurunkan nilai kritis batas bawah (dL) dan batas atas (dU) sehingga jika nilai d terletak di luar nilai kritis maka ada tidaknya autokorelasi baik positif atau negatif dapat diketahui.

Penentuan ada tidaknya autokorelasi dapat dilihat dengan jelas dalam gambar Statistik Durbin-Watson d di bawah ini:

Autokorelasi Ragu-ragu Tidak Ada Ragu-ragu Autokorelasi

Positif Autokorelasi Negatif

Tabel III.16

Uji Statistik Durbin-Watson

c. Analisis Regresi Berganda

Analisis regresi berganda merupakan pengembangan dari analisis regresi sederhana. Analisis regresi digunakan untuk melakukan prediksi, bagaimana perubahan nilai variabel dependen bila nilai variabel independen dinaikan atau diturunkan nilainya (dimanipulasi). Pada analisis ini, variabel independen X yang diperhitungkan jumlahnya lebih dari 2. Analisis ini digunakan untuk meneliti pengaruh dari beberapa variabel independen X terhadap variabel dependen Y.

Untuk melihat apakah ada kontribusi variabel independen X terhadap variabel dependen Y yaitu dengan melihat hasil regresi berganda pada output SPSS dengan melihat tabel Coefficients pada Kolom

Standardized Coefficients yaitu dengan melihat nilai Beta (β).

Nilai Statistik d Hasil

0 < d < dL dL ≤ d ≤ dU 4 – dL< d < 4 4 – du ≤ d ≤ 4 – dL du< d < 4 -du

Menolak hipotesis nol; ada autokorelasi positif Daerah keragu-raguan; tidak autokorelasi positif Menolah hipotesis nol, tidak ada korelasi negatif Daerah keragu-raguan; tidak ada keputusan Menolak hipotesis nol, tidak ada autokorelasi positif dan negatif.

Penggunaan standardized coefficients beta dikarenakan unit ukuran variabel bebas tidak sama. Keuntungan penggunaan standardized coefficients beta adalah mampu mengeliminasi perbedaan unit ukuran pada variabel bebas.

Dengan melakukan regresi dengan standardized variabel adalah agar dapat membandingkan secara langsung antar variabel independen, dalam pengaruhnya masing-masing terhadap variabel dependen. Variabel independen mana yang berpengaruh lebih besar terhadap variabel dependen dapat dilihat dari besar kecilnya masing-masing koefisien (beta) regressor.

Rumusan Hipotesis:

1) Sinetron

Ho = Sinetron tidak berkontribusi secara signifikan terhadap gaya hidup.

Ha = Sinetron berkontribusi secara signifikan terhadap gaya hidup. 2) Iklan

Ho = Iklan tidak berkontribusi secara signifikan terhadap gaya hidup Ha = Iklan berkontribusi secara signifikan terhadap gaya hidup. 3) Lingkungan Pergaulan

Ho = Lingkungan Pergaulan tidak berkontribusi secara signifikan terhadap gaya hidup.

Ha = Lingkungan Pergaulan berkontribusi secara signifikan terhadap gaya hidup.

4) Sinetron, Iklan, dan Lingkungan Pergaulan (secara bersama-sama) Ho = Sinetron, Iklan, dan Lingkungan Pergaulan secara bersama-sama

tidak berkontribusi secara signifikan terhadap gaya hidup

Ha = Sinetron, Iklan, dan Lingkungan Pergaulan secara bersama-sama berkontribusi secara signifikan terhadap gaya hidup.

Berdasarkan tabel pada taraf signifikansi 5%, dengan db pembilang = k dan db penyebut = n-k-1, maka dapat disimpulkan sebagai berikut

Kriteria Pengujian Hipotesis:

a) Jika Fhitung ≤ Ftabel , maka Ho diterima dan Ha ditolak b) Jika Fhitung ≥ Ftabel , maka Ho ditolak dan Ha diterima

Atau bisa juga melihat signifikansinya, dengan melihat kolom Sig (ρ):

a) Jika Sig ≤ 0,05 , maka Ho ditolak dan Ha diterima b) Jika Sig ≥ 0,05 , maka Ho diterima dan Ha ditolak d. Analisis Koefisien Determinasi

Analisis (Adjusted R Square) atau koefisien determinasi digunakan untuk mengetahui seberapa besar prosentase sumbangan pengaruh variabel independen secara bersama-sama terhadap variabel dependen. (Priyanto, 2012:55).

Dokumen terkait