• Tidak ada hasil yang ditemukan

BAB V: ANALISIS DATA DAN PEMBAHASAN

METODE PENELITIAN

K. Teknik Analisis Data

1. Analisis Regresi Linier Berganda

Teknik analisis data yang digunakan dalam penelitian ini adalah analisis regresi linier berganda. Analisis regresi berganda adalah analisis tentang hubungan antara satu dependent variabel dengan dua atau lebih

independent variabel. Rumus regresi berganda sebagai berikut:

3 3 2 2 1 1X b X b X b a Y   

Untuk mencari persamaan a, b1, b2, b3 digunakan persamaan simultan sebagai berikut: a.

22

1

23

1

3 1 1 1Y b X b X X b X X X b.

 

23

 

2 3 2 2 2 1 1 2Y b X X b X b X X X c.

 

 

2 3 3 3 2 2 2 1 1 3Y b X X b X X b X X 3 3 2 2 1 1X b X b X b Y a   

Dengan keterangan :

Y = Variabel motivasi kerja a = Nilai konstanta

b1 = Koefisien regresi variabel Gaya Kepemimpinan

b2 = Koefisien regresi variabel Kemampuan Mengelola Stres b3 = Koefisien regresi variabel Tingkat Kepercayaan Diri X1= Variabel gaya kepemimpinan

X2= Variabel kemampuan mengelola stres X3= Variabel tingkat kepercayaan diri 2. Asumsi Klasik OLS dalam Regresi Berganda

a. Kenormalan

Regresi linear normal klasik mengasumsikan bahwa tiap ui

didistribusikan secara normal dengan

uiN(0,2

)

Di mana berarti “didistribusikan sebagai” dan di mana N berarti “didistribusikan normal”, unsur dalam tanda kurung menyatakan dua parameter distribusi normal yaitu rata-rata dan varians.

Dalam asumsi keabnormalan, penaksiran OLS ˆ0, ˆ1, dan ˆ2

mempunyai sifat-sifat statistik berikut: 1. Penaksiran tadi tidak bisa

2. Penaksiran tadi mempunyai varians yang minimum. Digabungkan dengan 1, ini berarti penaksiran tadi tidak bisa dengan varians yang minimum, atau penaksiran yang efisien.

3. Konsisten yaitu dengan meningkatnya ukuran sampel secara tak terbatas, penaksiran mengarah ke (coverage) nilai populasi yang sebenarnya.

4. ˆ0 didistribusikan secara normal dengan βˆ ~ N(βˆ ,σ2 )

β0 0 0 5. 1 ˆ

 didistribusikan secara normal dengan βˆ ~N(βˆ ,σ2 )

β1 1 1

6. (N2)ˆ2didistribusikan secara distribusi X2(chi-kuadrat) dengan derajat kebebasan (df)N-2.

7. (βˆ0,βˆ1)didistribusikan secara bebas dari ˆ2. 8. ˆ0 dan

1 ˆ

 mempunyai varians minimum dalam seluruh kelas penaksir tak bisa, baik linier maupun bukan.

Asumsi kenormalan memungkinkan kita untuk memperoleh distribusi probabilitas dari ˆ0 (normal),

1 ˆ

 (normal), dan ˆ2 (chi-kuadrat), hal ini menyederhanakan tugas dalam menetapkan selang keyakinan dan pengujian hipotesis (secara statistik).

b. Multikolinearitas

Digunakan untuk menunjukkan adanya hubungan linier di antara variabel-variabel bebas dalam model regresi. Bila variabel-variabel bebas berkorelasi dengan sempurna, maka disebut multikolinieritas sempurna.

Bila asumsi tidak terpenuhi konsekuensi yang akan diperoleh adalah:

2. Rentang dan tingkat keyakinan menjadi semakin lebar, sehingga probabilitas menerima hipotesa pada hal hipotesa itu salah semakin besar.

3. Jika koefisien determinasi tinggi, tetapi tidak ada atau hanya sedikit sekali koefisien regresi yang signifikan, maka variabel bebas tersebut berpengaruh terhadap y.

Ada beberapa yang bisa dilakukan untuk mendeteksi ada tidaknya kolinieritas ganda antar variabel bebas, yaitu:

1) Dengan melihat besarnya koefisien determinasi.

2) Dengan melihat koefisien korelasi sederhana antar variabel. 3) Dengan melihat koefisien korelasi parsial.

4) Dengan melakukan regresi atau membuat regresi terhadap variabel bebas.

Untuk mengatasi adanya kolinieritas ganda yang dilakukan adalah:

1) Menggabungkan data time series dengan data cross section yang disebut denganpooling data.

2) Membuang atau menghilangkan salah satu atau lebih variabel bebas.

3) Transformasi variabel.

4) Mencari informasi sebelumnya mengenai variabel yang berkolinieritas ganda.

c. Autokorelasi

Autokorelasi adalah korelasi (hubungan) yang terjadi di antara anggota-anggota dari serangkaian pengamatan yang tersusun dalam rangkaian waktu (seperti pada data runtun waktu atau time series data) atau yang tersusun dalam rangkaian ruang (seperti pada data silang waktu atau cross-sectional data). Dalam model regresi klasik mensyaratkan tidak ada Autokorelasi antara ei dan ej. Jika terjadi Autokorelasi maka konsekuensinya adalah estimator masih tidak efisien dan varian kesalahan penggangu menjadi underestimate yang pada akhirnya penggunaan uji t dan F tidak lagi bisa digunakan.

Ada beberapa cara yang bisa ditempuh untuk mendeteksi adanya Autokorelasi adalah:

1) Dengan metode grafik.

2) Uji Durbin Watson, dengan rumus:

  n 1 t 2 n 2 t 2 1 t t e ) e (e d

Untuk mengatasi adanya Autokorelasi dilakukan dengan jalan melakukan regresi atau et sebagai variabel terikat dan c sebagai variabel bebas dengan tidak memasukkan intersep sehingga persamaan regresiei= ret+ ut

Tabel III.1

Uji statistik Durbin – Watson d

Nilai Statistik d Hasil

0< d < dL Menolak hipotesis nol, ada autokorelasi positif. dL≤d≤dU Daerah keragu – raguan, tidak ada keputusan. dU< d≤4-dU Menerima hipotesis nol, tidak ada autokorelasi

positif/negatif.

4-dU≤d≤4-dL Daerah keragu – raguan, tidak ada keputusan. 4-dL≤d≤4 Menolak hipotesis nol, ada autokorelasi negatif.

Sumber: Widarjono (2007). Ekonometri, Yogyakarta: Ekonosia d. Heteroskedastisitas

Asumsi lain yang penting dari model regresi linier klasik adalah kesalahan pengganggu mempunyai varian sama untuk semua pengamatan. Jika asumsi ini tidak terpenuhi maka sekalipun sampel diperbesar standar error tidak lagi minimum. Sehingga estimasi OLS tidak lagi efisien dan kita akan membuat kesimpulan yang tidak tepat.

Cara mendeteksi kondisi heteroskedastisitas bisa dilakukan dengan membuat grafik dari residu yang digunakan sebagai sumbu tegak dan variabel bebas sebagai sumbu mendatar. Cara yang kedua dengan uji park dalam bentuk.

v i B i 2 2 i s x e s 

Cara ketiga adalah dengan uji korelasi Rank Spearman, dengan rumus sebagai berikut.

          

1) n(n d 6 1 r 2 2 i s

Cara termudah untuk mengatasi heteroskedastisitas adalah dengan mentransformasi persamaan regresi ke dalam bentuk logaritma.

e. Uji Signifikansi 1. Uji F

Uji F digunakan untuk menguji ada tidaknya pengaruh signifikan variabel bebas secara simultan terhadap variabel terikat. Bila Fhitung  Ftabel, maka secara simultan variabel bebas berpengaruh terhadap variabel terikat, sebaliknya bila Fhitung < Ftabel, maka secara simultan variabel bebas tidak berpengaruh terhadap variabel terikat. F= ) 1 ( ) 1 /( 2 2 R k k n R    Dengan keterangan: n = ukuran sampel R2 = koefisien determinasi k = banyaknya variabel bebas

Kriteria yang digunakan untuk mencari Ftabel df = N-1 dengan tingkat signifikansi 5%.

Hoditerima:

Apabila Fhitung < Ftabel pada =0,05 atau Fhitung pada Pvalue > 0,05 secara simultan gaya kepemimpinan, kemampuan mengelola stres, dan tingkat kepercayaan diri tidak berpengaruh terhadap motivasi kerja.

Apabila Fhitung  Ftabel pada =0,05 atau Fhitung pada Pvalue < 0,05 secara simultan gaya kepemimpinan, kemampuan mengelola stres, dan tingkat kepercayaan diri berpengaruh terhadap motivasi kerja. f. Uji t

Uji t digunakan untuk menguji ada tidaknya pengaruh variabel X secara parsial terhadap Y, jika Variabel X yang lain tetap. Bila thitung  ttabel maka ada pengaruh variabel bebas terhadap variabel terikat, sebaliknya apabila thitung < ttabel maka tidak ada pengaruh variabel bebas terhadap variabel terikat, maka dilakukan uji t.

Langkah – langkah pengujian sebagai berikut : 1) Pendefinisian hipotesis pada uji t dua sisi.

Ho:b1;b2;b3 = 0 H1:b1;b2;b3 ≠0

2) Menghitung nilai t hitung dan mencari nilai t kritis dari tabel distribusi t. Nilai thitungdicari dengan formula sebagai berikut :

) 1 ˆ ( 1 1 ˆ    Se t

3) Bandingkan nilai t hitung untuk masing-masing estimator dengan t tabel.

Keputusan menolak atau menerima Hosebagai berikut:

Jika nilai thitung> nilai ttabelmaka Hoditolak atau menerima Ha. Jika nilai thitung< nilai ttabelmaka Hoditerima atau menolak Ha

BAB IV

Dokumen terkait