• Tidak ada hasil yang ditemukan

HASIL PENELITIAN

4.5 Hasil Uji Validasi dan Realibiltas

4.7.1 Uji Normalitas

Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal.

Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian.

Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar

63

berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median relatif dekat.

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis, Uji Jarque Berra atau uji Liliefors yang berdasarkan pada uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi pada uji Liliefors yang berdasarkan pada Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri. Sebenarnya uji normalitas bukan termasuk dalam uji asumsi klasik, tetapi diperlukan dalam satistik parametrik dan juga regresi linear.

Uji Normalitas adalah sebuah uji yang dilakukan dengan tujuan untuk menilai sebaran data pada sebuah kelompok data atau variabel, apakah sebaran data tersebut berdistribusi normal ataukah tidak. Uji Normalitas berguna untuk menentukan data yang telah dikumpulkan berdistribusi normal atau diambil dari populasi normal. Terlihat pada tabel 4.49 berikut ini.

64

Gambar 4.49 Hasil Uji Normalitas

Hasil uji tabel 12 tes Kolmogorov Smirnov pada tabel 4.49 diperoleh nilai Z sebesar 0.968 dan 0.626 dengan probabilitas sebesar 0,307 dan 0.828 (p> 0,05) yang berarti telah memenuhi distribusi kurva normal.

Tabel 4.12 One-Sample Kolmogorov-Smirnov Test

One-Sample Kolmogorov-Smirnov Test Penggunaan_Ge

dget

Perkembangan_

Sosial

Perkembangan_

Emosional

N 53 53 53

Normal Parametersa Mean 14.28 21.42 35.15

Std. Deviation 2.990 4.176 4.040

Most Extreme Differences Absolute .123 .133 .086

Positive .123 .133 .065

Negative -.104 -.098 -.086

Kolmogorov-Smirnov Z .893 .967 .626

Asymp. Sig. (2-tailed) .403 .307 .828

a. Test distribution is Normal.

Model Summaryb

Model R R Square Adjusted R Square Std. Error of the Estimate

1 .814a .663 .511 .672

a. Predictors: (Constant), Sulit_Berkomunikasi, Penentuan_akses_gedget, Kapan_menggunakan_gedget, Dampingan_orangtua_gedget, Sering_Emosi, Mudah_Pasif, Lama_menggunakan_gedget,

Sosialisasi_Terhambat

b. Dependent Variable: Sosial_Emosional

65

Kapan_menggunakan_gedget -.224 .176 -.184 -1.270 .219

Lama_menggunakan_gedget -.077 .188 -.078 -.412 .685

Akses_Saat_gedget .163 .194 .145 .838 .412

Penentuan_akses_gedget -.267 .165 -.321 -1.615 .122

Dampingan_orangtua_gedget -.279 .175 -.290 -1.600 .125

Sering_Emosi .071 .141 .077 .502 .621

Sosialisasi_Terhambat -.300 .170 -.342 -1.759 .094

Mudah_Pasif .337 .168 .398 2.000 .059

66

Cara yang sering digunakan dalam menentukan apakah suatu model berdistribusi normal atau tidak hanya dengan melihat pada histogram residual apakah memiliki bentuk seperti “lonceng” atau tidak. Cara ini menjadi fatal karena pengambilan keputusan data berdistribusi normal atau tidak hanya berpatok pada pengamatan gambar saja. Ada cara lain untuk menentukan data berdistribusi normal atau tidak dengan menggunakan rasio skewness dan rasio kurtosis. Rasio skewness dan rasio kurtosis dapat dijadikan petunjuk apakah suatu data berdistribusi normal atau tidak. Rasio skewness adalah nilai skewnes dibagi dengan standard error skewness; sedang rasio kurtosis adalah nilai kurtosis dibagi dengan standard error kurtosis. Sebagai pedoman, bila rasio kurtosis dan skewness berada di antara –2 hingga +2, maka distribusi data adalah normal (Santoso, 2000: 53).

Tabel 4.15 Descriptive Statistics

N Minimum Maximum Mean Std. Deviation Skewness Kurtosis

Statistic Statistic Statistic Statistic Statistic Statistic

Std. distribusi data adalah normal.

4.7.2 Uji Autokorelasi

Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi

67

dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah. Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi. Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier atau dengan Box Pierce dan Ljung Box.

Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel lagi dari variabel terikatnya menjadi variabel bebas, sehingga data observasi menjadi berkurang 1.

Ada beberapa cara yang dapat digunakan untuk mendeteksi ada tidaknya Keputusan ada tidaknya autokorelasi adalah:

1. Bila nilai DW berada di antara dU sampai dengan 4 - dU maka koefisien autokorelasi sama dengan nol. Artinya, tidak ada autokorelasi.

2. Bila nilai DW lebih kecil daripada dL, koefisien autokorelasi lebih besar daripada nol. Artinya ada autokorelasi positif.

3. Bila nilai DW terletak di antara dL dan dU, maka tidak dapat disimpulkan.

4. Bila nilai DW lebih besar daripada 4 - dL, koefisien autokorelasi lebih besar daripada nol. Artinya ada autokorelasi negatif.

68 menggunakan derajat kepercayaan 5%, sampel (n) yang kita miliki sebanyak 30 observasi, dan variabel penjelas sebanyak 10 maka dapatkan nilai dL dan dU sebesar 0.672 dan 2.121. Pada Tabel 4.16 Dengan estimasi Durbin Watson sebesar 2.121 yang artinya bahwa nilai DW tersebut lebih besar dari dL dan koefisien autokorelasi lebih besar daripada nol maka dapat disimpulkan bahwa model ini memiliki gejala autokorelasi negatif.

4.7.3 Uji Multikolinearitas

Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja.

Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja. Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index (CI). Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:

a. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.

b. Menambah jumlah observasi.

69

c. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first difference delta.

Uji multikolinearitas ini dimaksudkan untuk menguji apakah terdapat korelasi yang tinggi atau sempurna antara variabel bebas atau tidak dalam model regresi.

Untuk mendeteksi adanya korelasi yang tinggi antar variabel independen dapat dilakukan dengan bebera cara salah satunya dengan menggunakan Tolerance dan Variance Inflation Factor (VIF). Menurut Ghazali (2017: 36) tolerance mengukur variabilitas variabel independen terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi, tolerance yang rendah sama dengan nilai VIF yang tinggi.

Asumsi dari Tolerance dan Variance Inflation Factor (VIF) dapat dinyatakan sebagai berikut: 1. Jika VIF > 10 dan nilai Tolerance < 0.10 maka terjadi multikolinearitas. 2.

Jika VIF < 10 dan nilai Tolerance > 0.10 maka tidak terjadi multikolinearitas.

Tabel 4.17 Coefficients

Pada Tabel 4.17 dapat dilihat bahwa seluruh variabel penjelas memiliki nilai VIF lebih kecil 10 maka dapat disimpulkan bahwa model regresi ini tidak memiliki masalah Multikolinieritas.

Dokumen terkait