26
MODUL 4 REGRESI LAPORAN PRAKTIKUM STATISTIK SHIFT : 01 KELOMPOK : 14 NAMA DAN NIM : 1. IBNU FAKHRUDIN 120421100007 2. ZAINUDDIN ROMADHON 120421100025 ASISTEN : Katon Muhammad LABORATORIUM MANAJEMEN INDUSTRI TEKNIK INDUSTRI FAKULTAS TEKNIK UNIVERSITAS TRUNOJOYO MADURA

Chapter 4 Regresi

Embed Size (px)

Citation preview

Page 1: Chapter 4 Regresi

MODUL 4 REGRESI

LAPORAN PRAKTIKUM

STATISTIK

SHIFT : 01

KELOMPOK : 14

NAMA DAN NIM :

1. IBNU FAKHRUDIN 120421100007

2. ZAINUDDIN ROMADHON 120421100025

ASISTEN : Katon Muhammad

LABORATORIUM MANAJEMEN INDUSTRI

TEKNIK INDUSTRI

FAKULTAS TEKNIK

UNIVERSITAS TRUNOJOYO MADURA

Page 2: Chapter 4 Regresi

145

BAB I

PENDAHULUAN

1.1 Latar Belakang

Regresi merupakan salah satu teknik analisis data dalam statistika yang

seringkali digunakan untuk mengkaji hubungan antara beberapa variabel dan meramal

suatu variabel, mengkaji hubungan antara beberapa variabel menggunakan analisis

regresi, terlebih dahulu peneliti menentukan satu variabel yang disebut dengan variabel

tidak bebas dan satu atau lebih variabel bebas. Jika ingin dikaji hubungan atau pengaruh

satu variabel bebas terhadap variabel tidak bebas, maka model regresi yang digunakan

adalah model regresi linier sederhana. Kemudian Jika ingin dikaji hubungan atau

pengaruh dua atau lebih variabel bebas terhadap variabel tidak bebas, maka model

regresi yang digunakan adalah model regresi linier berganda (multiple linear regression

model). (Kutner et.al, 2004).

Pada analisis regresi ada beberapa asumsi-asumsi klasik yang harus dipenuhi

yaitu : variabel pengganggu atau residual memiliki distribusi normal. (berdistribusi

normal), data yang digunakan berskala interval atau rasio, model regresi harus linier

dalam parameter, tidak terdapat heteroskedastistas, multikolinearitas dan autokorelasi

(Norusis,1993)

Pada praktikum modul 4 ini kami mereview dan menganalisis skripsi peneliti

terdahulu dan setelah skripsi dirasa sesuai oleh asisten praktikum maka kemudian data

tersebut dianalisis meliputi uji validitas dan realibilitas, uji asumsi klasik, analisis

regresi berganda, dan uji signifikansi koefisien regresi yaitu dengan Uji T dan Uji F.

1.2 Tujuan Praktikum

1. Dapat memahami data kualitatif dan data kuantitatif.

2. Mampu memahami penggunakan data kualitatif maupun kuantitatif pada

Analisis regresi.

3. Dapat memahami dan mengetahui teknik pembuatan simple dan multiple linear

regression untuk menjelaskan hubungan antara 2 jenis variabel.

4. Dapat melakukan hypothesis test dan interval test pada simple linear regression.

5. Dapat menentukan koefisien korelasi dan determinasi beserta analisisnya.

6. Dapat menentukan persamaan regresi linear baik simple maupun multiple

dengan bantuan software dan mengaplikasikannya pada kehidupan nyata.

Page 3: Chapter 4 Regresi

146

7. Mengetahui batasan-batasan, asumsi, dan bahaya dari teknik regresi

8. Dapat menggunakan SPSS dengan teknik regresi.

Page 4: Chapter 4 Regresi

147

BAB II

TINJAUAN PUSTAKA

2.1 Analisis Regresi

Analisis regresi merupakan salah satu alat dalam pengambilan keputusan yang

banyak digunakan dalam pembangunan model matematis, karena model regresi dapat

digunakan untuk mengukur kekuatanhubungan antara variabel respons dan variabel

prediktor, mengetahui pengaruh suatu atau beberapa variabel prediktor terhadap

variabel respons, dan berguna untuk memprediksi pengaruh suatu variabel atau

beberapa variable respons (Iriawan dan Astuti, 2006).

Analisis regresi bertujuan untuk menunjukkan hubungan matematis antara

variabel terikat dengan variabel bebas, tujuan utama dalam penggunaan analisis ini

adalah untuk meramalkan nilai dari suatu variabel dalam hubungannya dengan variabel

lainnya yang dapat diketahui melalui persamaan regresi.

2.2 Regresi Linier Berganda

Analisis regresi linier berganda adalah sebuah pendekatan yang digunakan untuk

mendefinisikan hubungan matematis antara variabel output/dependen (y) dengan

beberapa variabel input/independen (x). Hubungan matematis digunakan sebagai suatu

model regresi yang digunakan untuk meramalkan atau memprediksi nilai output (y)

berdasarkan nilai input (x) tertentu. Dengan analisis regresi, akan diketahui variabel

independen yang benar-benar signifikan mempengaruhi variabel dependen dan dengan

variabel independen yang signifikan tadi dapat digunakan untuk memprediksi nilai

variabel dependen. Model regresi linier sesungguhnya mengasumsikan bahwa terdapat

hubungan linier antara variabel dependen dengan setiap variabel independen. Hubungan

linier ini secara matematis digambarkan dalam rumus sebagai berikut:

Y = b0 + b1X1 + b2X2 + b3X3 +.......+ bnXn + ℮ ............................. (1.1)

Dimana :

b0 = intercept

b1, b2, b3, bn = koeficient regresi

X1, X2, X3, Xn = variabel independen

Y = variabel dependen

℮ = error/residu

Page 5: Chapter 4 Regresi

148

2.3 Uji Kualitas Data

2.3.1 Uji Validitas

Secara umum uji validitas adalah mengukur apa yang seharusnya diukur.

Validitas berasal dari kata validity yang mempunyai arti sejauh mana ketepatan dan

kecermatan suatu instrumen pengukur (tes) dalam melakukan fungsi ukurnya. (Azwar,

2003).

Menurut Ghozali (2001), mengatakan bahwa Uji validitas digunakan untuk

mengukur sah atau tidaknya satu kuesioner. Satu kuesioner dinyatakan valid jika

pertanyaan pada pertanyaan kuesioner mampu mengungkapkan sesuatu yang akan

diukur oleh kuesioner tersebut. Tingkat validitas dapat diukur dengan cara

membandingkan nilai hitung r (correlation item total correlation) dengan nilai tabel r

dengan ketentuan untuk degree of freedom (df) = n-k, dimana n adalah jumlah sampel

dan k adalah jumlah variabel independen.

Validitas didefinisikan sejauh mana ketepatan dan kecermatan suatu instrumen

pengukur (test) dalam melakukan fungsi ukurnya. Apabila data valid, dilanjutkan

dengan pengujian reliabilitas. Apabila data tidak valid, maka perlu ditinjau ulang pada

penyusunan kuesionernya.

2.3.2 Uji Reliabilitas

Sebuah scale atau instrument pengukur data dan data yang dihasilkan tersebut

reliable atau terpecaya apabila instrument itu secara konsisten memunculkan hasil

yang sama setiap kali dilakukan pengukuran. Misalnya sebuah alat pengukur tinggi

badan digunakan untuk mengukur berapa tinggi orang yang sama. Hasil pengukuran

tinggi pada hari pertama adalah 155 cm, hari kedua adalah 155 cm, hari ketiga 155 cm,

hari keempat juga 155 cm maka data tersebut disebut sebagai scale yang reliable

karena itu data yang didapat juga terpercaya (Norusis, 1993).

Uji reliabilitas digunakan untuk mengukur kuesioner yang merupakan

indikator dari variabel. Kuesioner dikatakan reliabel atau handal jika masing masing

pertanyaan dijawab responden secara konsisten atau stabil dari waktu ke waktu Suatu

kuesioner dikatakan handal jika nilai Cronbach Alpha lebih besar dari 0,600

(Ghozali, 2001).

Page 6: Chapter 4 Regresi

149

2.4 Asumsi-asumsi Klasik

2.4.1 Uji Multikonelinieritas

Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi

antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada

korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara

variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi,

adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan

kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa

model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan

kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi

dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan

dengan kepuasan kerja.

Alat statistik yang sering dipergunakan untuk menguji gangguan

multikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearson

antara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index

(CI). Nilai R2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi,

tetapi secara individual variabel independen banyak yang tidak signifikan

mempengaruhi variabel dependen. Dilihat dari nilai tolerance dan lawannya variance

inflation faktor (VIF), untuk menunjukkan ada tidaknya multikolinearitas adalah nilai

tolerance < 0.10 dan VIF > 10.

Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah

sebagai berikut:

1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.

2. Menambah jumlah observasi.

3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural,

akar kuadrat atau bentuk first difference delta. Dalam tingkat lanjut dapat

digunakan metode regresi bayessian yang masih jarang sekali digunakan.

2.4.2 Uji Autokolerasi

Autokorelasi adalah terjadinya korelasi antara satu variabel error dengan

variabel error yang lain. Autokorelasi seringkali terjadi pada data time series dan dapat

juga terjadi pada data cross section tetapi jarang (Widarjono, 2007).

Adapun dampak dari adanya autokorelasi dalam model regresi adalah sama

dengan dampak dari heteroskedastisitas yang telah diuraikan di atas, yaitu walaupun

Page 7: Chapter 4 Regresi

150

estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi yang

minimum dan menyebabkan perhitungan standard error metode OLS tidak bisa

dipercaya kebenarannya.

Selain itu interval estimasi maupun pengujian hipotesis yang didasarkan pada

distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil regresi. Akibat dari

dampak adanya autokorelasi dalam model regresi menyebabkan estimator OLS tidak

menghasilkan estimator yang BLUE dan hanya menghasilkan estimator OLS yang

LUE (Widarjono, 2007).

Selanjutnya untuk mendeteksi adanya autokorelasi dalam model regresi linier

berganda dapat digunakan metode Durbin-Watson. Durbin-Watson telah berhasil

mengembangkan suatu metode yang digunakan untuk mendeteksi adanya masalah

autokorelasi dalam model regresi linier berganda menggunakan pengujian hipotesis

dengan statistik uji yang cukup populer seperti pada persamaan (1.2) berikut.

........................................................................... (1.2)

2.4.3 Uji Heteroskedastisitas

Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan

varians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang

memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu

pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan

memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model

yang baik didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul

di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian

menyempit. Uji statistik yang dapat digunakan adalah uji Glejser, uji Park atau uji

White.

Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas

adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat

dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan membagi

semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.

Page 8: Chapter 4 Regresi

151

2.4.4 Uji Kenormalan

Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal

atau tidak. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi

normal. Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada

nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas

dilakukan pada masing-masing variabel. Hal ini tidak dilarang tetapi model regresi

memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel

penelitian.

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi

Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang

paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik

sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga

penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun

tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian

dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi

Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang

mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat

dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming

data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam

bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari

bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau

menyebar ke samping kanan dan kiri.

Untuk menguji suatu data berdistribusi normal atau tidak, dapat diketahui pula

dengan menguji menggunakan grafik normal plot (Ghozali,2005:112). Pada grafik

normal plot, dengan asumsi:

1. Apabila data menyebar disekitar garis diagonal dan mengikuti arah garis

diagonal atau grafik histogramnya menunjukkan pola distribusi normal, maka

model regresi memenuhi asumsi normalitas.

2. Apabila data menyebar jauh dari diagonal atau tidak mengikuti arah garis

diagonal atau grafik histogram tidak menunjukkan pola distribusi normal, maka

model regresi tidak memenuhi uji asumsi normalitas.

Page 9: Chapter 4 Regresi

152

2.5 Uji Signifikansi Koefisien Regresi

2.5.1 Uji T

Uji statistik t pada dasarnya menunjukkan seberapa jauh pengaruh satu variabel

independen secara individual dalam menerangkan variabel dependen. Hipotesis nol

(H0) yang hendak diuji adalah apakah suatu parameter (1) sama dengan nol, atau H0 :

1 = 0 yang artinya adalah apakah suatu variabel independen bukan merupakan

penjelas yang signifikan terhadap variabel dependen. Hipotesis alternatifnya (H1),

parameter suatu variabel tidak sama dengan nol, atau H0 : 1 ≠ 0 yang artinya adalah

variabel tersebut merupakan penjelas yang signifikan terhadap variabel dependen

(Kuncoro, 2001)

Pengambilan keputusan dengan tingkat signifikansi (α) = 0,05 ditentukan

sebagai berikut:

a. Jika tingkat signifikansi t hitung > 0,05 atau t hitung < t tabel, maka H0 diterima.

b. Jika tingkat signifikansi t hitung < 0,05 atau t hitung > t tabel, maka H0 ditolak.

(Sumber : Oldy Ardhana, 2010)

2.5.2 Uji F

Uji statistik F pada dasarnya menunjukkan apakah semua variabel bebas yang

dimasukkan dalam model mempunyai pengaruh secara bersama-sama terhadap

variabel terikat. Hipotesis nol (H0) yang hendak diuji adalah apakah semua parameter

dalam model sama dengan nol atau H0 : = 1 =……= k = 0 yang artinya adalah

apakah semua variabel independen bukan merupakan penjelas yang signifikan

terhadap variabel dependen. Hipotesis alternatifnya (H1), tidak semua parameter

simultan sama dengan nol, atau H0 : 1 ≠ 2 ≠……≠ k ≠ 0 yang artinya adalah semua

variabel independen secara simultan merupakan penjelas yang signifikan terhadap

variabel dependen (Kuncoro, 2001)

Kriteria pengujian :

a. Jika tingkat signifikansi F > 0,05 atau F hitung < F tabel, maka H0 diterima.

b. Jika tingkat signifikansi F < 0,05 atau F hitung > F tabel, maka H0 ditolak.

(Sumber : Oldy Ardhana, 2010)

Page 10: Chapter 4 Regresi

153

BAB III

METODELOGI PENELITIAN

3.1 Prosedur Praktikum

Pada praktikum ini, mahasiswa Teknik Industri diinstruksikan untuk mengamati

skripsi yang telah dibuat oleh peneliti-peneliti sebelumnya dan diharapkan dalam skripsi

tersebut terdapat data mentah yang nantinya akan kami analisa dengan analisis regresi

linier berganda dan pada kelompok kami mendapatkan judul skripsi “Analisis faktor-

faktor yang mempengaruhi keputusan beli konsumen sepeda motor honda Studi

kasus : dealer surya agung motor bangkalan” kemudian data yang didapat dari

skripsi tersebut dilakukan pengolahan data yang meliputi :

1. Uji validitas bertujuan untuk mengukur sah atau tidak sahnya suatu kuesioner

dan uji realibilitas bertujuan untuk mengukur konsistensi dari suatu variabel.

2. Uji asumsi klasik, meliputi :

a) Uji Multikolinieritas bertujuan untuk menguji apakah model regresi

ditemukan adanya korelasi antar variabel bebas. Model regresi yang baik

seharusnya tidak terjadi korelasi diantara variabel bebas, karena jika

terdapat multikolinearitas, maka akan sulit untuk mengisolasi pengaruh-

pengaruh individual dari variabel, sehingga tingkat signifikansi koefisien

regresi menjadi rendah.

b) Analisa heterokedestisitas bertujuan untuk menguji apakah dalam model

regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke

pengamatan yang lain, karena jika terdapat heteroskedastisitas, maka varian

tidak konstan sehingga dapat menyebabkan biasnya standar error.

c) Analisa Autokolerasi bertujuan untuk melihat apakah dalam model regresi

linear ada korelasi antara kesalahan pengganggu pada periode t dengan

kesalahan pengganggu pada periode t-1 (sebelumnya).

d) Analisa kenormalan bertujuan untuk melihat apakah nilai residual

terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki

nilai residual yang terdistribusi normal.

3. Penentuan variabel signifikan

4. Pembuatan model-model regresi, yang meliputi Single Factor dan Multi Factor

5. Uji signifikansi koefisien regresi yaitu dengan uji t dan uji F.

Page 11: Chapter 4 Regresi

154

3.2 Flowchart Praktikum

Berikut flowchart praktikum statistik industri II modul analisis regresi.

Start

Reseacrh skripsi peneliti

terdahulu

Kesesuain data

skripsi

Melakukan uji kualitas data dengan uji

validitas dan uji reabiltas

Uji asumsi klasik

Penentuan varibel signifikan

Kesimpulan

Finish

Tahap Pengumpulan data

Tahap Analisa

pengolahan data

Tahap penarikan kesimpulan

Merekap data mentah dari skripsi

Pembuatan model-model regresi

Uji signifikasi koefisiensi regresi

1. UJI T

2. UJI F

Tidak Lolos

Tidak Sesuai

Lolos

Sesuai

Tahap Persiapan

Gambar 4.3.1 Flowchart Modul 4 Regresi

Page 12: Chapter 4 Regresi

155

BAB IV

ANALISIS DAN PEMBAHASAN

4.1 Identifikasi dan Definisi Operasional Variabel Dependent & Independent serta

Korelasi Empiris-nya

Dari skripsi dengan judul Analisis Faktor-faktor Yang Mempengaruhi

Keputusan Beli Konsumen Sepeda Motor Honda. Untuk memudahkan pemahaman

mengenai rangkaian dari laporan modul 4 ini, dapat diidentifikasi bahwa variabel

dependent dan independent sebagai berikut :

Y = a + b1X1 + b2X2 + b3X3 + b4X4 + e

Dimana :

Y = keputusan beli konsumen sepeda motor honda

X1= kebudayaan

X2= sosial

X3= kepribadian

X4= psikologis atau kejiwaan

e = error/ residu

Secara umum korelasi atau hubungan yang terjadi antar variabel dalam kasus ini

yaitu :

Keputusan beli (Y)

Kebudayaan (X1)

Sosial (X2)

Kepribadian (X3)

Psikologis/

Kejiwaan (X4)

Gambar 4.4.2 Bagan korelasi antar variabel

Page 13: Chapter 4 Regresi

156

4.2 Uji Validitas dan Reliabilitas Instrumen Penelitian

4.2.1 Uji Validitas

Uji validitas adalah ketepatan atau kecermatan suatu instrumen dalam

mengukur apa yang ingin diukur, uji validitas dilakukan untuk mengetahui

tingkat kesahihan instrumen yang digunakan.

Hipotesis :

H0 = Ada hubungan antar variabel, berarti variabel tersebut valid

H1 = Tidak ada hubungan antar variabel, berarti variabel tersebut tidak valid.

Pengambilan keputusan berdasarkan nilai probabilitas (sig) :

a. Jika probabilitas (nilai sig) < 0,05 maka terima H0

b. Jika probabilitas (nilai sig) ≥ 0,05maka tolak H0

Tabel 4.4.1 Data Uji Validitas

no question sig α keputusan

1 x1_Kebudayaan_1 0,000 0,05 valid

2 x1_Kebudayaan_2 0,000 0,05 valid

3 x1_Kebudayaan_3 0,000 0,05 valid

4 x1_Kebudayaan_4 0,000 0,05 valid

5 x2_Sosial_1 0,003 0,05 valid

6 x2_Sosial_2 0,001 0,05 valid

7 x2_Sosial_3 0,000 0,05 valid

8 x2_Sosial_4 0,000 0,05 valid

9 x3_Kepribadian_1 0,000 0,05 valid

10 x3_Kepribadian_2 0,000 0,05 valid

12 x3_Kepribadian_4 0,003 0,05 valid

13 x3_Kepribadian_5 0,001 0,05 valid

14 x4_Psikologis_1 0,004 0,05 valid

15 x4_Psikologis_2 0,000 0,05 valid

16 x4_Psikologis_3 0,003 0,05 valid

17 x4_Psikologis_4 0,000 0,05 valid

Dari tabel diatas dapat diketahui bahwa semua pernyataan menghasilkan nilai

sig yang kurang dari 0,05, maka terima H0 hal tersebut menyatakan bahwasanya ada

hubungan antar variabel, berarti variabel tersebut valid.

4.2.2 Uji Reliabilitas

Uji reliabilitas adalah pengukuran yang memiliki reabilitas yang tinggi

maksudnya adalah pengukuran yang dapat menghasilkan data yang realibel

(konsisten, stabil, terandal), sejauh mana hasil suatu pengukuran dapat

dipercaya.

Page 14: Chapter 4 Regresi

157

Hipotesa:

H0 = Data reliable

H1 = Data tidak reliable

Pengambilan keputusan:

a. Jika Rtabel < Cronbach’s Alpha maka terima H0

b. Jika Rtabel > Cronbach’s Alpha maka tolak H0

Tabel 4.4.2 Data Uji Reabilitas

R tabel keterangan cronbach's alpha analisa kesimpulan

0,2542 < 0,807 terima H0 reliabel

Dari nilai Cronbach’s alpha 0,807 diatas dapat kami nyatakan bahwa nilai

Cronbach’s alpha lebih besar dari Rtabel maka terima H0, berarti data kuesioner yang

yang didapat realible.

4.3 Uji Asumsi Klasik

4.3.1 Analisis Multikolinieritas

Uji multikolinearitas bertujuan untuk menguji apakah model regresi

ditemukan adanya korelasi antar variabel bebas. Model regresi yang baik

seharusnya tidak terjadi korelasi diantara variabel bebas.

Hipotesis :

H0 = terdapat multikolinieritas

H1 = tidak terdapat multikolinieritas

Pengambilan keputusan :

Toleransi ≤ 0.1, maka terima H0

Toleransi > 0.1, maka tolak H0

Atau

VIF < 10, maka tolak H0

VIF > 10, maka terima H0

Page 15: Chapter 4 Regresi

158

Tabel 4.4.3 Data analisi Multikolinieritas

Tolerance VIF

(Constant)

X1 0.563604675 1.774293304

X2 0.625046378 1.599881281

X3 0.671910861 1.488292656

X4 0.768131011 1.301861252

a. Dependent Variable: y

Collinearity StatisticsModel

Dari tabel diatas dapat diketahui bahwa VIF dari uji multikolinieritas semua

bernilai < 10, maka tolak H0 dengan hipotesis tidak terdapat multikolinieritas antara

variabel x dan y dengan toleransi > 0.1.

4.3.2 Analisis Heterokedastisitas

Untuk menguji sebuah model regresi, terjadi ketidaksamaan varian dari

residual dari satu pengamatan ke pengamatan yang lain. Jika varian dari residual

dari satu pengamatan ke pengamatan yang lain tetap, maka disebut

homokedastisitas. Dan jika varians berbeda disebut heterokedastisitas. Model

regresi yang baik adalah tidak terjadi heterokedastisitas.

Hipotesis :

H0 : variabel tidak bersifat heterokedastisitas

H1 : variabel bersifat heterokedastisitas

Pengambilan keputusan

Jika sig.2-tailed ≥ 0,05 maka terima H0

Jika sig.2-tailed < 0,05 maka tolak H0

Tabel 4.4.4 Data analisis Heterokedastisitas

Variabel Sig.2-Tailed

X1_Kebudayaan 0.773817327

X2_Sosial 0.503638904

X3_Kepribadian 0.862948972

X4_Psikologis 0.679087643

Dari tabel diatas dapat diketahui bahwa sig (2 tailed) semua bernilai ≥ 0.05 maka

terima H0, sehingga kesimpulan yang diambil adalah variabel tidak bersifat

heterokedastisitas.

Page 16: Chapter 4 Regresi

159

Gambar 4.4.3 Scatterplot untuk analisis Heterokedastisitas

Dari gambar diatas dapat dilihat data yang digambarkan dengan titik-titik tidak

mengumpul pada satu titik atau dapat dikatakan data menyebar. Karena data menyebar

maka data-data tersebut tidak terjadi heterokedastisitas.

4.3.3 Analisis Autokorelasi

Tujuan Uji Autokolerasi yaitu untuk melihat pengaruh antara variabel

bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi

dengan data observasi sebelumnya.

Pengambilan keputusan :

du ≤ DW ≤ (4 – du) maka tidak terdapat autokorelasi

Tabel 4.4.5 Analisis Durbin-Watson

Model Durbin-Watson

1 2.135

Page 17: Chapter 4 Regresi

160

Dari tabel diatas dapat diketahui bahwa Durbin-Watson model 1 dari uji

autokolerasi bernilai 2.135 dimana 1.7274 ≤ 2.135 ≤ 2.227 sehingga dapat disimpulkan

bahwa nilai du ≤ DW ≤ (4 – du) maka tidak terdapat autokorelasi.

4.3.4 Analisis Kenormalan

Uji kenormalan bertujuan untuk menguji apakah data yang akan

digunakan dalam model regresi berdistribusi normal atau tidak. Untuk menguji

suatu data berdistribusi normal atau tidak, dapat diketahui dengan menguji

kolmogorof smirnov.

Hipotesis:

H0 = Nilai residual berdistribusi normal

H1 = Nilai Residual tidak berdistribusi normal

Pengambilan keputusan:

Sig ≥ 0.05, maka terima H0

Sig < 0.05, maka tolak H0

Tabel 4.4.6 Analisa kenormalan

Statistic df Sig. Statistic df Sig.

RES_2 0.124 54 0.057 0.928 54 0.054

Tests of Normality

Kolmogorov-Smirnov Shapiro-Wilk

Dari uji kenormalan menggunakan software SPSS diperoleh nilai sig (2-

tailed) 0.057. Pengambilan keputusan 0,057 > 0,05 maka terima H0. Sehingga data

tersebut berdistribusi normal.

Page 18: Chapter 4 Regresi

161

Gambar 4.4.4 Histogram anilisis kenormalan

Dari histogram diatas dapat disimpulkan bahwa data tersebut beridistribusi

normal, hal ini dikarenakan data yang ada pada histogram tersebut berada di sekitar

kurva melengkung.

Page 19: Chapter 4 Regresi

162

Gambar 4.4.5 Normal P-P plot regression

Dari gambar dapat dilihat data-data yang digambarkan dengan scatter

diagram, jika ditarik satu garis lurusmaka sebaran titik-titik mengikuti disekitar garis

atau berada tidak jauh dari garis tersebut. Sehingga dapat diketahui bahwa data-data

tersebut berdistribusi normal.

4.4 Penentuan Variabel Signifikan

Untuk mengetahui variabel terbaik dapat dilihat dari variabel-variabel yang

lolos uji asumsi. Rekap variabel yang lolos uji asumsi dapat dilihat pada tabel di

bawah ini:

Tabel 4.4.7 Signifikan variabel

Model Variables Entered Variables Removed Method

1 X4, X2, X3, X1 . Enter

2 . X1 Backward

3 . X4 Backward

Variables Entered/Removed(b)

Dari tabel diatas didapatkan kesimpulan bahwa pada metode enter semua

variabel X mempengaruhi variabel Y. Sedangkan pada metode backward ada dua

variabel yang harus dihapus karena variabel tersebut tidak mempengaruhi variabel

dependen (Y) yaitu X1 dan X4.

Page 20: Chapter 4 Regresi

163

Tabel 4.4.8 Variabel SIgnifikan

Model

1 B Std. Error

(Constant) 15.719 7.246

X2 0.266 0.395

X3 0.069 0.398 0.028

Unstandardized Coefficients Standardized Coefficients

Beta

0.114

Dari tabel diatas dapat dilihat bahwa pada model 1 nilai B pada variabel konstan

sebesar 15,719, pada variabel X2 sebesar 114 pada variabel X3 sebesar 0,028.

4.5 Pembuatan Model-Model Regresi

4.5.1 Single Factor

4.5.1.1 Regresi Y dengan X2

Tabel 4.4.9 Sample faktor regresi Y dengan X2

Model Unstandardized Coefficients Standardized Coefficients

1 B Std. Error

(Constant) 13.838 5.128

X2_sosial 0.181 0.305

Beta

0.078

Dari tabel diatas didapatkan hasil perhitungan nilai koefisien regresi pada variabel

X2_Sosial sebesar 0,181. Berdasarkan hasil tersebut dapat diartikan bahwa untuk setiap

kali penambahan atribut sosial akan meningkatkan variabel Y (Keputusan Beli) sebesar

0,181 sehingga didapatkan persamaan regresinya adalah Y= 13,383 + 0,181 X2.

4.5.1.2 Regresi Y dengan X3

Tabel 4.4.10 Sample faktor regresi Y dengan X3

Model Unstandardized Coefficients Standardized Coefficients

1 B Std. Error

(Constant) 15.506 5.342

X3_kepribadian 0.082 0.32

Beta

0.034

Dari tabel diatas didapatkan hasil perhitungan nilai koefisien regresi pada variabel

X3_Kepribadian sebesar 0,082. Berdasarkan hasil tersebut dapat diartikan bahwa untuk

setiap kali penambahan atribut kepribadian akan meningkatkan variabel Y (Keputusan

Beli) sebesar 0,082 sehingga didapatkan persamaan regresinya adalah Y= 15,506 +

0,082 X3.

Page 21: Chapter 4 Regresi

164

4.6 Multi Factors

Pada multi factor ini dilakukan pengujian antara variabel independen dan

dependen secara keseluruhan untuk mengetahui hubungan variabel dependen dengan

semua variabel independen.

Tabel 4.4.11 Multi factors X2 dan X3 terhadap Y

Model Variables Entered Variables Removed Method

1 X3, X2a . Enter

Variables Entered/Removed(b)

Dari tabel diatas telihat bahwa semua variabel yaitu X2 dan X3 berpengaruh

terhadap Y dan merupakan variabel yang signifikan.

Tabel 4.4.12 Multi factors R-square terhadap variabel X2 dan X3

Model R R Square Adjusted R Square

1 .112a 0.013 -0.022

Dari tabel di atas diketahui nilai R 0,112, R square 0,013 dan nilai adjusted R

square 0,022 atau 2.2%. Artinya variabel X2 dan X3 menjelaskan pengaruh keputusan

pembelian konsumen terhadap honda sebesar 2,2%.

Tabel 4.4.13 Multi factors anova

ModelSum of

Squaresdf Mean Square

1 Regression 1.444959 2 0.722479377

Residual 113.2884 57 1.987515344

Total 114.7333 59

Variabel Y dan variabel X dilakukan pengujian ANOVA dengan software SPSS

yang menghasilkan nilai sum of squares pada regression yaitu 1.444959 dan mean

square 0.722. Sedangkan pada residual menghasilkan nilai sum of squares 113.288 dan

mean square 1.987.

Tabel 4.4.14 Multi factors model

Model Unstandardize

d Coefficients

Standardized

Coefficients

Std. Error Beta

1 (Constant) 17.16672068 2.05665317

X2 0.099285282 0.11779195 0.126476683

X3 0.063777711 0.123204764 0.077675246

Coefficientsa

Dari tabel diatas didapatkan hasil perhitungan nilai koefisien regresi pada

variabel X2_Sosial sebesar 0,099 dan X3_Kepribadian sebesar 0,063. Berdasarkan hasil

tersebut dapat diartikan bahwa untuk setiap kali penambahan atribut sosial dan

Page 22: Chapter 4 Regresi

165

kepribadian akan meningkatkan variabel Y (Keputusan Beli) sebesar 0,099 dan 0,063

sehingga didapatkan persamaan regresinya adalah Y= 17,166 + 0,099 X2 + 0,063 X3.

4.7 Uji Signifikasi Koefisien Regresi

4.7.1 Uji T

Uji statistik t pada dasarnya menunjukkan seberapa jauh pengaruh satu

variabel independen secara individual dalam menerangkan variabel dependen.

Hipotesis nol (H0) yang hendak diuji adalah apakah suatu parameter (1) sama

dengan nol, atau H0 : 1 = 0 yang artinya adalah apakah suatu variabel independen

bukan merupakan penjelas yang signifikan terhadap variabel dependen.

Hipotesis:

H0 : koefisien regresi tidak signifikan sehingga variabel atau konstanta independen

mempengaruhi variabel dependen.

H1 : koefisien regresi signifikan sehingga variebel atau konstanta independen

mempengaruhi variabel dependen.

Pengambilan keputusan:

Jika t hitung ≤ t tabel, maka terima H0

Jika t hitung > t tabel, maka tolak H0

Tabel 4.4.15 Hasil SPSS Uji T

model t

(Constant) 2.169

X2 0,673

X3 0,173

Dari tabel diatas diketahui nilai Uji T masing-masing variabel adalah X1= -0,289 ,

X2= 0,673 , X3= 0,173 dan X4= -0,416, Jika t hitung > t tabel, maka tolak H0, dan nilai

dari t tabel = 2,00171 maka dapat simpulkan koefisien regresi signifikan sehingga

variebel atau konstanta independen mempengaruhi variabel dependen.

Page 23: Chapter 4 Regresi

166

4.7.2 Uji F

Uji statistik F pada dasarnya menunjukkan apakah semua variabel bebas yang

dimasukkan dalam model mempunyai pengaruh secara bersama-sama terhadap

variabel terikat. Hipotesis nol (H0) yang hendak diuji adalah apakah semua

parameter dalam model sama dengan nol atau H0 : = 1 =……= k = 0 yang artinya

adalah apakah semua variabel independen bukan merupakan penjelas yang

signifikan terhadap variabel dependen.

Hipotesis:

H0 : semua variabel independent mempengaruhi variabel dependent secara serentak

H1: minimal satu variabel independent tidak mempengaruhi variabel dependent

secara serentak.

Pengambilan keputusan:

Jika F hitung ≤ F tabel maka terima H0

Jika F hitung > F tabel maka tolak H0

Tabel 4.4.16 Hasil SPSS Uji F

model F

Regression 0.172

Dari tabel diatas diketahui nilai Uji F adalah 0,172, dan nilai F tabel = 1,985

karena Jika F hitung ≤ F tabel maka terima H0, yang artinya semua variabel independent

mempengaruhi variabel dependent secara serentak.

Page 24: Chapter 4 Regresi

167

BAB V

KESIMPULAN DAN SARAN

5.1 Kesimpulan

Dari praktikum modul 4 regresi ini dapat diambil beberapa kesimpulan antara

lain sebagai berikut :

1. Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan

adanya korelasi antar variabel bebas. Dari pengujian miltikolineritas didapatkan

hasil bahwa VIF dari uji multikolinieritas semua bernilai < 10 hal ini berarti tidak

terdapat multikolinieritas antara variabel x dan y dengan toleransi > 0.1.

2. Pengujian heterokedastisitas bertujuan untuk menguji sebuah model regresi, terjadi

ketidaksamaan varian dari residual dari satu pengamatan ke pengamatan yang lain.

Dari hasil pengujian heterokedastisitas dapat diketahui bahwa sig (2 tailed) dari

semua variabel bernilai ≥ 0.05 maka terima H0, sehingga kesimpulan yang diambil

adalah variabel tidak bersifat heterokedastisitas.

3. Uji kenormalan bertujuan untuk menguji apakah data yang akan digunakan dalam

model regresi berdistribusi normal atau tidak. Dari hasil uji kenormalan diperoleh

nilai sig (2-tailed) 0.057. Sehingga pengambilan keputusan 0,057 > 0,05 maka

terima H0, sehingga data tersebut dapat dikatakan berdistribusi normal.

4. Tujuan Uji Autokolerasi yaitu untuk melihat pengaruh antara variabel bebas

terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data

observasi sebelumnya. Dari pengujian autokorelasi dapat dikeahui bahwa Durbin-

Watson bernilai 2.135 dimana 1.7274 ≤ 2.135 ≤ 2.227 sehingga dapat disimpulkan

bahwa nilai du ≤ DW ≤ (4 – du) maka tidak terdapat autokorelasi.

5. Pada penentuan variabel signifikan dengan menggunakan metode backward ada dua

variabel yang harus dihapus karena variabel tersebut tidak mempengaruhi variabel

dependen (Y) yaitu X1: Kebudayaan dan X4: Psikologi/ Kejiwaan.

Page 25: Chapter 4 Regresi

168

5.2 Saran

Ada beberapa hal yang ingin kami sampaikan pada laporan praktikum ini

semoga saran ini bisa membantu dan saling membangun baik dari sisi praktikan ataupun

asisten sehingga ada real output yang diperoleh:

1. Saran dari kami adalah dalam penyampaian data-data dimodul diharapkan lebih

jelas sehingga praktikan bisa cepat paham dan mengerti.

2. Dan saat penyampaian pun disampaikan dengan benar-benar detail karena data

akan diolah cukup rumit dan saling berhubungan.

3. Dan yang terakhir pemenuhan hak dan tanggung jawab dikedua sisi harap bisa

sama-sama diinteropeksi sehingga tidak ada saling timpang tindih.

Page 26: Chapter 4 Regresi

169

DAFTAR PUSTAKA

Ardhana, Oldy. (2010) Analisa regresi. http://eprints.undip.ac.id/22960/1/Skripsi.PDF

diakses pada jam 23:54, tanggal 21 Mei 2014.

Azwar, Saifuddin. 2003. Reliabilitas Dan Validitas. Yogyakarta: Pustaka Pelajar.

Ghozali, Imam. 2001. Aplikasi Analisis Multivariate Dengan Program SPSS.

Badan Penerbitan Universitas Diponegoro : Semarang.

Iriawan, N.S., P. Astuti. 2006. Mengolah Data Statistik dengan Mudah Menggunakan

Minitab 14. Andi, Yogyakarta.

Kutner, M.H., C.J. Nachtsheim., dan J. Neter. 2004. Applied Linear Regression Models.

4th ed. New York: McGraw-Hill Companies, Inc.

Norusis, Marija J. 1993. SPSS for Windows Professional Statistics Release 6,0.

Chicago: Marketing Department SPSS Inc.