• Tidak ada hasil yang ditemukan

Teknik analisis data adalah upaya menggambarkan rencana penelitian tentang bagaimana data diolah dan diinterpretasikan sehingga dapat menghasilkan kesimpulan. Menurut Sugiyono (2009: 147) disebutkan bahwa “Teknik analisis data dalam penelitian kuantitatif menggunakan statistik. Terdapat dua macam statistik yang digunakan untuk

analisis data dalam penelitian, yaitu statistik deskriptif dan statistik inferensial.” Teknik analisis data deskriptif adalah statistik yang digunakan untuk menganalisa data dengan cara mendeskripsikan atau menggambarkan data yang telah terkumpul sebagaimana adanya tanpa bermaksud membuat kesimpulan yang berlaku untuk umum atau generalisasi. Sementara itu statistik inferensial yang disebut juga statistik induktif atau statistik probabilitas adalah teknik statistik yang digunakan untuk menganalisa data sampel dan hasilnya diberlakukan untuk populasi. (Sugiyono,2009:147-149). Ciri analisis data inferensial adalah digunakannya rumus statistik tertentu (misalnya uji t, uji F dan lainnya).

Penelitian ini penulis menggunakan kedua teknik analisis tersebut di atas, yaitu teknik analisis statistik data deskriptif dan teknik analisis data inferensial. Analisis statistik digunakan untuk mengolah data atau menguji data yang diperoleh dari responden lewat daftar pernyataan untuk mengetahui pengaruh yang signifikan antara media komunikasi terhadap kinerja Bhabinkamtibmas Polres Pekalongan dengan menggunakan pengujian hipotesis dengan urutan sebagai berikut ini:

3.6.1 Uji Asumsi Dasar / Normalitas Dan Asumsi Klasik

Model regresi yang baik adalah yang memenuhi asumsi normalitas dan terbebas dari asumsi klasik. “Model regresi linear sederhana dapat disebut sebagai model yang baik jika model tersebut memenuhi asumsi normalitas data dan terbebas dari asumsi-asumsi klasik (multikolinearitas, heteroskedastisitas, dan auto korelasi)”.(Sujianto,2009:79).

3.6.1.1 Uji Normalitas

“Uji normalitas bertujuan untuk menguji apakah dalam model regresi variabel pengganggu atau residual memiliki distribusi normal” (Imam Ghozali,2006). Pengujian ini bertujuan untuk mengetahui apakah variabel independen dan variabel dependen pada persamaan regresi yang dihasilkan, dapat terdistribusikan normal atau tidak. Model regresi yang baik adalah yang memiliki data normal atau mendekati normal.

Untuk mengetahui apakah variabel independen dan variabel dependen pada persamaan regresi yang dihasilkan, dapat terdistribusikan normal atau tidak, dapat menggunakan dua cara, yaitu: analisis grafik dan uji statistik. Menurut Imam Ghozali (2009) dalam Setiadi (2012:73) “Ada dua cara untuk mendeteksi apakah residual terdistribusi normal atau tidak, yaitu dengan menggunakan analisis grafik dan uji statistik”. Dalam uji normalitas, uji menggunakan analisis grafik dilakukan dengan Uji P-P Plots, dan uji statistik dilakukan dengan uji parametrik Kolmogorov – Smirnov (K-S).

Sujianto (2009:83) berpendapat bahwa untuk menentukan distribusi data normal atau tidak digunakan angka probabilitas (asym sig (2-tailed)) yang dibandingkan dengan 0,05 (dalam kasus ini menggunakan taraf signifikansi atau α = 5%) untuk pengambilan keputusan. Angka probabilitas (asym sig (2-tailed)) diperoleh dari hasil pengolahan SPSS. Lebih lanjut Sujianto juga memberikan pedoman, yaitu:

- Nilai Sig. atau signifikansi atau nilai probabilitas < 0,05 distribusi data tidaklah normal. - Nilai Sig. atau signifikansi atau nilai probabilitas > 0,05 distribusi data normal.

(Sujianto,2009:83)

Penelitian ini penulis menggunakan teknik uji parametrik P-P Plots dan Kolmogorov – Smirnov (K-S). Yaitu dengan membandingkan angka probabilitas (asym sig (2-tailed)) yang dengan 0,05.

3.6.1.2 Uji Multikolinearitas

Priyatno (2010) dalam Setiadi (2012:74) menjelaskan bahwa “model regresi beranda yang baik seharusnya tidak terjadi korelasi sempurna atau mendekati sempurna diantara variabel bebasnya”. Sedangkan menurut Sukestiyarno (2012:82) menjelaskan “Uji multikoliniearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi

yang tinggi antar variabel bebas (independen), uji multikolinieritas terjadi hanya pada regresi berganda. Model regresi yang baik seharusnya tidak terjadi korelasi yang tinggi diantara variabel independen”.

Ada tidaknya multikolinearitas dapat dilihat dengan nilai tolerance dan inflation factor (VIF). Singgih Santoso (2000) dalam Novi dan Amri (2012:53) menjelaskan “Untuk mendeteksi suatu model regresi terjadi multikolinieritas atau tidak yaitu dengan melihat nilai VIF (Variance Inflation Factor) dan angka tolerance. Suatu model regresi dinyatakan terbebas dari multikolinieritas apabila nilai VIF di sekitar angka 10 dan tolerance mendekati 0,1”.

3.6.1.3 Uji Heteroskedastisitas

“Regresi yang baik seharusnya tidak terjadi heteroskedastisitas. Heteroskedastisitas adalah varian residual yang tidak sama pada semua pengamatan di dalam model regresi” (Duwi Priyatno, 2009:160). “Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain” (Imam Ghozali, 2006: 125). Uji heteroskedastisitas dapat dilakukan dengan menggunakan teknik uji koefisien korelasi Spearman’s rho.

Pengujian heteroskedastitas dengan menggunakan teknik uji koefisien korelasi

Spearman’s rho, yaitu mengkorelasikan variabel independen dengan residualnya.

Pengujian menggunakan tingkat signifikansi 0,05 dengan uji dua sisi. Jika korelasi antara variabel independen dengan residual memberikan signifikansi lebih dari 0,05, maka dapat dikatakan bahwa tidak terjadi problem heteroskedasitas. (Duwi Priyatno, 2009:160).

Penelitian ini, penulis melakukan uji heteroskedastisitas dengan program SPSS, sehingga hasil analisa uji heteroskedastisitas ditampilkan pada output olahan SPSS melalui grafik Scatter Plot antara Z prediction (ZPRED) dengan residualnya (SRESID), dengan dasar analisisnya adalah:

Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola yang teratur (bergelombang, melebar kemudian menyempit), maka mengindikasikan telah terjadi heteroskedastisitas. Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan dibawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas. (Imam Ghozali,2009 dalam Setiadi 2012:76)

3.6.2 Uji Hipotesis Regresi Linear Berganda

MenurutPriyatno (2010) dalam Aris (2012:55) “jika menggunakan lebih dari satu variabel independen maka disebut analisis linier berganda (Multiple Regression)”. Analisis regresi linier berganda adalah hubungan secara linier antara dua atau lebih variabel independen (X1, X2, ...Xn) dengan variabel dependen (Y). Analisis ini untuk memprediksi nilai dari variabel dependen apabila nilai variabel independen mengalami kenaikan atau penurunan dan untuk mengetahui arah hubungan antar variabel independen dengan variabel dependen apakah masing-masing variabel independen berhubungan positif atau negatif dengan variabel dependen (Duwi Priyatno, 2010: 61). Adapun persamaan regresi adalah sebagai berikut :

Y = a + b1x1 + b2x2 + ...+ bnxn

Di mana :

Y : Variabel dependen (nilai yang diprediksi)

a : konstanta (nilai Y apabila X1, X2, Xn = 0)

X : Variabel independen

Pengujian hipotesis menggunakan analisa regresi dan korelasi digunakan program pengolah data komputer program SPSS for windows versi 23.0 (Statistical Product and Service

Solution), yaitu untuk mengetahui berapa besar pengaruh variabel bebas terhadap variabel

terikat dengan persamaan regresi.

3.6.2.1 Uji F (Uji Koefisien Regresi Secara Simultan)

Uji F bertujuan untuk mengetahui pengaruh semua variabel independen (secara bersama-sama) terhadap variabel dependen.pengujian ini digunakan untuk mengetahui apakah variabel independen (X1, X2, ..., Xn) secara bersama-sama berpengaruh secara signifikan terhadap variabel dependen (Y) (Duwi Priyatno, 2010: 67). Menurut Imam Ghozali (2009) dalam Aris (2012:57) untuk menguji hipotesis ini digunakan statistik F dengan kriteria pengambilan keputusan sebagai berikut :

(1) Quick Look : bila nilai F lebih besar daripada 4, maka Ho dapat ditolak pada derajat kepercayaan 5%. Dengan kata lain kita menerima hipotesis alternatif yang menyatakan bahwa semua variabel independen secara serentak dan signifikan mempengaruhi variabel dependen.

(2) membandingkan nilai F hasil penghitungan dengan nilai F menurut tabel, bila nilai F lebih besar dari nilai F tabel, maka Ho ditolak dan menerima Ha, di mana F tabel = df 1(jumlah variabel – 1), df 2(n-k-1) dengan signifikansi 0,05:2 (0,025) dalam uji 2 sisi.

3.6.2.2 Uji t (Uji Koefisien Regresi Secara Parsial)

Menurut Imam Ghazali (2006:83), “Uji ststistik t pada dasarnya menunjukan seberapa jauh pengaruh satu variabel penjelas/independen secara individual dalam menerangkan variasi variabel dependen.” Menurut Imam Ghozali (2006:83) cara melakukan uji t adalah sebagai berikut:

(1) Quick Look: bila jumlah degree of freedom (df) adalah 20 atau lebih, dan derajat kepercayaan sebesar 5%, maka Ho yang menyatakan bi = 0 dapat ditolak bila nilai t lebih besar dari 2 (dalam nilai absolut). Dengan kata lain kita menerima hipotesis alternatif, yang menyatakan bahwa suatu variabel independen secara individual mempengaruhi variabel dependen.

(2) Membandingkan nilai statistik t dengan titik kritis menurut tabel, apabila nilai statistik t hasil penghitungan lebih besar dibandingkan nlai t tabel, kita menerima hipotesis alternatif yang menyatakan bahwa suatu variabel independen secara individual mempengaruhi variabel dependen. Sehingga Ho ditolak dan Ha diterima, di mana t tabel = df (n-k-1) dengan signifikansi 0,05.

3.6.2.3 Koefisien Determinasi

Imam Ghozali (2006:127) menyatakan bahwa “koefisien determinasi (R2) pada intinya mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel dependen”. Nilai koefisien determinasi adalah antara nol sampai satu. Dijelaskan lebih lanjut bahwa nilai R2 yang kecil berarti kemampuan variabel-variabel independen dalam menjelaskan variasi variabel dependen amat terbatas.

Koefisien determinasi bertujuan untuk mengetahui seberapa besar variabel independen dalam menjelaskan hubungannya dengan variabel dependen. Dengan menggunakan program SPSS ver 23.0 untuk menghitung, maka nilai dari koefisien determinasi ini akan berkisar antara 0 sampai dengan 1. Apabila R Square semakin mendekati 1, maka hal itu berarti bahwa variabel independen dapat menjelaskan variabel dependen secara akurat.

Namun jika sebaliknya yaitu semakin mendekati 0, maka hasilnya juga sebaliknya yaitu tidak akurat.

HASIL PENELITIAN DAN PEMBAHASAN