Upload
ibnu-fakhrudin
View
28
Download
5
Tags:
Embed Size (px)
Citation preview
MODUL 4 REGRESI
LAPORAN PRAKTIKUM
STATISTIK
SHIFT : 01
KELOMPOK : 14
NAMA DAN NIM :
1. IBNU FAKHRUDIN 120421100007
2. ZAINUDDIN ROMADHON 120421100025
ASISTEN : Katon Muhammad
LABORATORIUM MANAJEMEN INDUSTRI
TEKNIK INDUSTRI
FAKULTAS TEKNIK
UNIVERSITAS TRUNOJOYO MADURA
145
BAB I
PENDAHULUAN
1.1 Latar Belakang
Regresi merupakan salah satu teknik analisis data dalam statistika yang
seringkali digunakan untuk mengkaji hubungan antara beberapa variabel dan meramal
suatu variabel, mengkaji hubungan antara beberapa variabel menggunakan analisis
regresi, terlebih dahulu peneliti menentukan satu variabel yang disebut dengan variabel
tidak bebas dan satu atau lebih variabel bebas. Jika ingin dikaji hubungan atau pengaruh
satu variabel bebas terhadap variabel tidak bebas, maka model regresi yang digunakan
adalah model regresi linier sederhana. Kemudian Jika ingin dikaji hubungan atau
pengaruh dua atau lebih variabel bebas terhadap variabel tidak bebas, maka model
regresi yang digunakan adalah model regresi linier berganda (multiple linear regression
model). (Kutner et.al, 2004).
Pada analisis regresi ada beberapa asumsi-asumsi klasik yang harus dipenuhi
yaitu : variabel pengganggu atau residual memiliki distribusi normal. (berdistribusi
normal), data yang digunakan berskala interval atau rasio, model regresi harus linier
dalam parameter, tidak terdapat heteroskedastistas, multikolinearitas dan autokorelasi
(Norusis,1993)
Pada praktikum modul 4 ini kami mereview dan menganalisis skripsi peneliti
terdahulu dan setelah skripsi dirasa sesuai oleh asisten praktikum maka kemudian data
tersebut dianalisis meliputi uji validitas dan realibilitas, uji asumsi klasik, analisis
regresi berganda, dan uji signifikansi koefisien regresi yaitu dengan Uji T dan Uji F.
1.2 Tujuan Praktikum
1. Dapat memahami data kualitatif dan data kuantitatif.
2. Mampu memahami penggunakan data kualitatif maupun kuantitatif pada
Analisis regresi.
3. Dapat memahami dan mengetahui teknik pembuatan simple dan multiple linear
regression untuk menjelaskan hubungan antara 2 jenis variabel.
4. Dapat melakukan hypothesis test dan interval test pada simple linear regression.
5. Dapat menentukan koefisien korelasi dan determinasi beserta analisisnya.
6. Dapat menentukan persamaan regresi linear baik simple maupun multiple
dengan bantuan software dan mengaplikasikannya pada kehidupan nyata.
146
7. Mengetahui batasan-batasan, asumsi, dan bahaya dari teknik regresi
8. Dapat menggunakan SPSS dengan teknik regresi.
147
BAB II
TINJAUAN PUSTAKA
2.1 Analisis Regresi
Analisis regresi merupakan salah satu alat dalam pengambilan keputusan yang
banyak digunakan dalam pembangunan model matematis, karena model regresi dapat
digunakan untuk mengukur kekuatanhubungan antara variabel respons dan variabel
prediktor, mengetahui pengaruh suatu atau beberapa variabel prediktor terhadap
variabel respons, dan berguna untuk memprediksi pengaruh suatu variabel atau
beberapa variable respons (Iriawan dan Astuti, 2006).
Analisis regresi bertujuan untuk menunjukkan hubungan matematis antara
variabel terikat dengan variabel bebas, tujuan utama dalam penggunaan analisis ini
adalah untuk meramalkan nilai dari suatu variabel dalam hubungannya dengan variabel
lainnya yang dapat diketahui melalui persamaan regresi.
2.2 Regresi Linier Berganda
Analisis regresi linier berganda adalah sebuah pendekatan yang digunakan untuk
mendefinisikan hubungan matematis antara variabel output/dependen (y) dengan
beberapa variabel input/independen (x). Hubungan matematis digunakan sebagai suatu
model regresi yang digunakan untuk meramalkan atau memprediksi nilai output (y)
berdasarkan nilai input (x) tertentu. Dengan analisis regresi, akan diketahui variabel
independen yang benar-benar signifikan mempengaruhi variabel dependen dan dengan
variabel independen yang signifikan tadi dapat digunakan untuk memprediksi nilai
variabel dependen. Model regresi linier sesungguhnya mengasumsikan bahwa terdapat
hubungan linier antara variabel dependen dengan setiap variabel independen. Hubungan
linier ini secara matematis digambarkan dalam rumus sebagai berikut:
Y = b0 + b1X1 + b2X2 + b3X3 +.......+ bnXn + ℮ ............................. (1.1)
Dimana :
b0 = intercept
b1, b2, b3, bn = koeficient regresi
X1, X2, X3, Xn = variabel independen
Y = variabel dependen
℮ = error/residu
148
2.3 Uji Kualitas Data
2.3.1 Uji Validitas
Secara umum uji validitas adalah mengukur apa yang seharusnya diukur.
Validitas berasal dari kata validity yang mempunyai arti sejauh mana ketepatan dan
kecermatan suatu instrumen pengukur (tes) dalam melakukan fungsi ukurnya. (Azwar,
2003).
Menurut Ghozali (2001), mengatakan bahwa Uji validitas digunakan untuk
mengukur sah atau tidaknya satu kuesioner. Satu kuesioner dinyatakan valid jika
pertanyaan pada pertanyaan kuesioner mampu mengungkapkan sesuatu yang akan
diukur oleh kuesioner tersebut. Tingkat validitas dapat diukur dengan cara
membandingkan nilai hitung r (correlation item total correlation) dengan nilai tabel r
dengan ketentuan untuk degree of freedom (df) = n-k, dimana n adalah jumlah sampel
dan k adalah jumlah variabel independen.
Validitas didefinisikan sejauh mana ketepatan dan kecermatan suatu instrumen
pengukur (test) dalam melakukan fungsi ukurnya. Apabila data valid, dilanjutkan
dengan pengujian reliabilitas. Apabila data tidak valid, maka perlu ditinjau ulang pada
penyusunan kuesionernya.
2.3.2 Uji Reliabilitas
Sebuah scale atau instrument pengukur data dan data yang dihasilkan tersebut
reliable atau terpecaya apabila instrument itu secara konsisten memunculkan hasil
yang sama setiap kali dilakukan pengukuran. Misalnya sebuah alat pengukur tinggi
badan digunakan untuk mengukur berapa tinggi orang yang sama. Hasil pengukuran
tinggi pada hari pertama adalah 155 cm, hari kedua adalah 155 cm, hari ketiga 155 cm,
hari keempat juga 155 cm maka data tersebut disebut sebagai scale yang reliable
karena itu data yang didapat juga terpercaya (Norusis, 1993).
Uji reliabilitas digunakan untuk mengukur kuesioner yang merupakan
indikator dari variabel. Kuesioner dikatakan reliabel atau handal jika masing masing
pertanyaan dijawab responden secara konsisten atau stabil dari waktu ke waktu Suatu
kuesioner dikatakan handal jika nilai Cronbach Alpha lebih besar dari 0,600
(Ghozali, 2001).
149
2.4 Asumsi-asumsi Klasik
2.4.1 Uji Multikonelinieritas
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi
antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada
korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara
variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi,
adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan
kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa
model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan
kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi
dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan
dengan kepuasan kerja.
Alat statistik yang sering dipergunakan untuk menguji gangguan
multikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearson
antara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index
(CI). Nilai R2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi,
tetapi secara individual variabel independen banyak yang tidak signifikan
mempengaruhi variabel dependen. Dilihat dari nilai tolerance dan lawannya variance
inflation faktor (VIF), untuk menunjukkan ada tidaknya multikolinearitas adalah nilai
tolerance < 0.10 dan VIF > 10.
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah
sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural,
akar kuadrat atau bentuk first difference delta. Dalam tingkat lanjut dapat
digunakan metode regresi bayessian yang masih jarang sekali digunakan.
2.4.2 Uji Autokolerasi
Autokorelasi adalah terjadinya korelasi antara satu variabel error dengan
variabel error yang lain. Autokorelasi seringkali terjadi pada data time series dan dapat
juga terjadi pada data cross section tetapi jarang (Widarjono, 2007).
Adapun dampak dari adanya autokorelasi dalam model regresi adalah sama
dengan dampak dari heteroskedastisitas yang telah diuraikan di atas, yaitu walaupun
150
estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi yang
minimum dan menyebabkan perhitungan standard error metode OLS tidak bisa
dipercaya kebenarannya.
Selain itu interval estimasi maupun pengujian hipotesis yang didasarkan pada
distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil regresi. Akibat dari
dampak adanya autokorelasi dalam model regresi menyebabkan estimator OLS tidak
menghasilkan estimator yang BLUE dan hanya menghasilkan estimator OLS yang
LUE (Widarjono, 2007).
Selanjutnya untuk mendeteksi adanya autokorelasi dalam model regresi linier
berganda dapat digunakan metode Durbin-Watson. Durbin-Watson telah berhasil
mengembangkan suatu metode yang digunakan untuk mendeteksi adanya masalah
autokorelasi dalam model regresi linier berganda menggunakan pengujian hipotesis
dengan statistik uji yang cukup populer seperti pada persamaan (1.2) berikut.
........................................................................... (1.2)
2.4.3 Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan
varians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang
memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu
pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan
memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model
yang baik didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul
di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian
menyempit. Uji statistik yang dapat digunakan adalah uji Glejser, uji Park atau uji
White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas
adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat
dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan membagi
semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.
151
2.4.4 Uji Kenormalan
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal
atau tidak. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi
normal. Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada
nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas
dilakukan pada masing-masing variabel. Hal ini tidak dilarang tetapi model regresi
memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel
penelitian.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi
Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang
paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik
sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga
penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun
tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian
dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi
Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang
mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat
dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming
data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam
bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari
bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau
menyebar ke samping kanan dan kiri.
Untuk menguji suatu data berdistribusi normal atau tidak, dapat diketahui pula
dengan menguji menggunakan grafik normal plot (Ghozali,2005:112). Pada grafik
normal plot, dengan asumsi:
1. Apabila data menyebar disekitar garis diagonal dan mengikuti arah garis
diagonal atau grafik histogramnya menunjukkan pola distribusi normal, maka
model regresi memenuhi asumsi normalitas.
2. Apabila data menyebar jauh dari diagonal atau tidak mengikuti arah garis
diagonal atau grafik histogram tidak menunjukkan pola distribusi normal, maka
model regresi tidak memenuhi uji asumsi normalitas.
152
2.5 Uji Signifikansi Koefisien Regresi
2.5.1 Uji T
Uji statistik t pada dasarnya menunjukkan seberapa jauh pengaruh satu variabel
independen secara individual dalam menerangkan variabel dependen. Hipotesis nol
(H0) yang hendak diuji adalah apakah suatu parameter (1) sama dengan nol, atau H0 :
1 = 0 yang artinya adalah apakah suatu variabel independen bukan merupakan
penjelas yang signifikan terhadap variabel dependen. Hipotesis alternatifnya (H1),
parameter suatu variabel tidak sama dengan nol, atau H0 : 1 ≠ 0 yang artinya adalah
variabel tersebut merupakan penjelas yang signifikan terhadap variabel dependen
(Kuncoro, 2001)
Pengambilan keputusan dengan tingkat signifikansi (α) = 0,05 ditentukan
sebagai berikut:
a. Jika tingkat signifikansi t hitung > 0,05 atau t hitung < t tabel, maka H0 diterima.
b. Jika tingkat signifikansi t hitung < 0,05 atau t hitung > t tabel, maka H0 ditolak.
(Sumber : Oldy Ardhana, 2010)
2.5.2 Uji F
Uji statistik F pada dasarnya menunjukkan apakah semua variabel bebas yang
dimasukkan dalam model mempunyai pengaruh secara bersama-sama terhadap
variabel terikat. Hipotesis nol (H0) yang hendak diuji adalah apakah semua parameter
dalam model sama dengan nol atau H0 : = 1 =……= k = 0 yang artinya adalah
apakah semua variabel independen bukan merupakan penjelas yang signifikan
terhadap variabel dependen. Hipotesis alternatifnya (H1), tidak semua parameter
simultan sama dengan nol, atau H0 : 1 ≠ 2 ≠……≠ k ≠ 0 yang artinya adalah semua
variabel independen secara simultan merupakan penjelas yang signifikan terhadap
variabel dependen (Kuncoro, 2001)
Kriteria pengujian :
a. Jika tingkat signifikansi F > 0,05 atau F hitung < F tabel, maka H0 diterima.
b. Jika tingkat signifikansi F < 0,05 atau F hitung > F tabel, maka H0 ditolak.
(Sumber : Oldy Ardhana, 2010)
153
BAB III
METODELOGI PENELITIAN
3.1 Prosedur Praktikum
Pada praktikum ini, mahasiswa Teknik Industri diinstruksikan untuk mengamati
skripsi yang telah dibuat oleh peneliti-peneliti sebelumnya dan diharapkan dalam skripsi
tersebut terdapat data mentah yang nantinya akan kami analisa dengan analisis regresi
linier berganda dan pada kelompok kami mendapatkan judul skripsi “Analisis faktor-
faktor yang mempengaruhi keputusan beli konsumen sepeda motor honda Studi
kasus : dealer surya agung motor bangkalan” kemudian data yang didapat dari
skripsi tersebut dilakukan pengolahan data yang meliputi :
1. Uji validitas bertujuan untuk mengukur sah atau tidak sahnya suatu kuesioner
dan uji realibilitas bertujuan untuk mengukur konsistensi dari suatu variabel.
2. Uji asumsi klasik, meliputi :
a) Uji Multikolinieritas bertujuan untuk menguji apakah model regresi
ditemukan adanya korelasi antar variabel bebas. Model regresi yang baik
seharusnya tidak terjadi korelasi diantara variabel bebas, karena jika
terdapat multikolinearitas, maka akan sulit untuk mengisolasi pengaruh-
pengaruh individual dari variabel, sehingga tingkat signifikansi koefisien
regresi menjadi rendah.
b) Analisa heterokedestisitas bertujuan untuk menguji apakah dalam model
regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke
pengamatan yang lain, karena jika terdapat heteroskedastisitas, maka varian
tidak konstan sehingga dapat menyebabkan biasnya standar error.
c) Analisa Autokolerasi bertujuan untuk melihat apakah dalam model regresi
linear ada korelasi antara kesalahan pengganggu pada periode t dengan
kesalahan pengganggu pada periode t-1 (sebelumnya).
d) Analisa kenormalan bertujuan untuk melihat apakah nilai residual
terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki
nilai residual yang terdistribusi normal.
3. Penentuan variabel signifikan
4. Pembuatan model-model regresi, yang meliputi Single Factor dan Multi Factor
5. Uji signifikansi koefisien regresi yaitu dengan uji t dan uji F.
154
3.2 Flowchart Praktikum
Berikut flowchart praktikum statistik industri II modul analisis regresi.
Start
Reseacrh skripsi peneliti
terdahulu
Kesesuain data
skripsi
Melakukan uji kualitas data dengan uji
validitas dan uji reabiltas
Uji asumsi klasik
Penentuan varibel signifikan
Kesimpulan
Finish
Tahap Pengumpulan data
Tahap Analisa
pengolahan data
Tahap penarikan kesimpulan
Merekap data mentah dari skripsi
Pembuatan model-model regresi
Uji signifikasi koefisiensi regresi
1. UJI T
2. UJI F
Tidak Lolos
Tidak Sesuai
Lolos
Sesuai
Tahap Persiapan
Gambar 4.3.1 Flowchart Modul 4 Regresi
155
BAB IV
ANALISIS DAN PEMBAHASAN
4.1 Identifikasi dan Definisi Operasional Variabel Dependent & Independent serta
Korelasi Empiris-nya
Dari skripsi dengan judul Analisis Faktor-faktor Yang Mempengaruhi
Keputusan Beli Konsumen Sepeda Motor Honda. Untuk memudahkan pemahaman
mengenai rangkaian dari laporan modul 4 ini, dapat diidentifikasi bahwa variabel
dependent dan independent sebagai berikut :
Y = a + b1X1 + b2X2 + b3X3 + b4X4 + e
Dimana :
Y = keputusan beli konsumen sepeda motor honda
X1= kebudayaan
X2= sosial
X3= kepribadian
X4= psikologis atau kejiwaan
e = error/ residu
Secara umum korelasi atau hubungan yang terjadi antar variabel dalam kasus ini
yaitu :
Keputusan beli (Y)
Kebudayaan (X1)
Sosial (X2)
Kepribadian (X3)
Psikologis/
Kejiwaan (X4)
Gambar 4.4.2 Bagan korelasi antar variabel
156
4.2 Uji Validitas dan Reliabilitas Instrumen Penelitian
4.2.1 Uji Validitas
Uji validitas adalah ketepatan atau kecermatan suatu instrumen dalam
mengukur apa yang ingin diukur, uji validitas dilakukan untuk mengetahui
tingkat kesahihan instrumen yang digunakan.
Hipotesis :
H0 = Ada hubungan antar variabel, berarti variabel tersebut valid
H1 = Tidak ada hubungan antar variabel, berarti variabel tersebut tidak valid.
Pengambilan keputusan berdasarkan nilai probabilitas (sig) :
a. Jika probabilitas (nilai sig) < 0,05 maka terima H0
b. Jika probabilitas (nilai sig) ≥ 0,05maka tolak H0
Tabel 4.4.1 Data Uji Validitas
no question sig α keputusan
1 x1_Kebudayaan_1 0,000 0,05 valid
2 x1_Kebudayaan_2 0,000 0,05 valid
3 x1_Kebudayaan_3 0,000 0,05 valid
4 x1_Kebudayaan_4 0,000 0,05 valid
5 x2_Sosial_1 0,003 0,05 valid
6 x2_Sosial_2 0,001 0,05 valid
7 x2_Sosial_3 0,000 0,05 valid
8 x2_Sosial_4 0,000 0,05 valid
9 x3_Kepribadian_1 0,000 0,05 valid
10 x3_Kepribadian_2 0,000 0,05 valid
12 x3_Kepribadian_4 0,003 0,05 valid
13 x3_Kepribadian_5 0,001 0,05 valid
14 x4_Psikologis_1 0,004 0,05 valid
15 x4_Psikologis_2 0,000 0,05 valid
16 x4_Psikologis_3 0,003 0,05 valid
17 x4_Psikologis_4 0,000 0,05 valid
Dari tabel diatas dapat diketahui bahwa semua pernyataan menghasilkan nilai
sig yang kurang dari 0,05, maka terima H0 hal tersebut menyatakan bahwasanya ada
hubungan antar variabel, berarti variabel tersebut valid.
4.2.2 Uji Reliabilitas
Uji reliabilitas adalah pengukuran yang memiliki reabilitas yang tinggi
maksudnya adalah pengukuran yang dapat menghasilkan data yang realibel
(konsisten, stabil, terandal), sejauh mana hasil suatu pengukuran dapat
dipercaya.
157
Hipotesa:
H0 = Data reliable
H1 = Data tidak reliable
Pengambilan keputusan:
a. Jika Rtabel < Cronbach’s Alpha maka terima H0
b. Jika Rtabel > Cronbach’s Alpha maka tolak H0
Tabel 4.4.2 Data Uji Reabilitas
R tabel keterangan cronbach's alpha analisa kesimpulan
0,2542 < 0,807 terima H0 reliabel
Dari nilai Cronbach’s alpha 0,807 diatas dapat kami nyatakan bahwa nilai
Cronbach’s alpha lebih besar dari Rtabel maka terima H0, berarti data kuesioner yang
yang didapat realible.
4.3 Uji Asumsi Klasik
4.3.1 Analisis Multikolinieritas
Uji multikolinearitas bertujuan untuk menguji apakah model regresi
ditemukan adanya korelasi antar variabel bebas. Model regresi yang baik
seharusnya tidak terjadi korelasi diantara variabel bebas.
Hipotesis :
H0 = terdapat multikolinieritas
H1 = tidak terdapat multikolinieritas
Pengambilan keputusan :
Toleransi ≤ 0.1, maka terima H0
Toleransi > 0.1, maka tolak H0
Atau
VIF < 10, maka tolak H0
VIF > 10, maka terima H0
158
Tabel 4.4.3 Data analisi Multikolinieritas
Tolerance VIF
(Constant)
X1 0.563604675 1.774293304
X2 0.625046378 1.599881281
X3 0.671910861 1.488292656
X4 0.768131011 1.301861252
a. Dependent Variable: y
Collinearity StatisticsModel
Dari tabel diatas dapat diketahui bahwa VIF dari uji multikolinieritas semua
bernilai < 10, maka tolak H0 dengan hipotesis tidak terdapat multikolinieritas antara
variabel x dan y dengan toleransi > 0.1.
4.3.2 Analisis Heterokedastisitas
Untuk menguji sebuah model regresi, terjadi ketidaksamaan varian dari
residual dari satu pengamatan ke pengamatan yang lain. Jika varian dari residual
dari satu pengamatan ke pengamatan yang lain tetap, maka disebut
homokedastisitas. Dan jika varians berbeda disebut heterokedastisitas. Model
regresi yang baik adalah tidak terjadi heterokedastisitas.
Hipotesis :
H0 : variabel tidak bersifat heterokedastisitas
H1 : variabel bersifat heterokedastisitas
Pengambilan keputusan
Jika sig.2-tailed ≥ 0,05 maka terima H0
Jika sig.2-tailed < 0,05 maka tolak H0
Tabel 4.4.4 Data analisis Heterokedastisitas
Variabel Sig.2-Tailed
X1_Kebudayaan 0.773817327
X2_Sosial 0.503638904
X3_Kepribadian 0.862948972
X4_Psikologis 0.679087643
Dari tabel diatas dapat diketahui bahwa sig (2 tailed) semua bernilai ≥ 0.05 maka
terima H0, sehingga kesimpulan yang diambil adalah variabel tidak bersifat
heterokedastisitas.
159
Gambar 4.4.3 Scatterplot untuk analisis Heterokedastisitas
Dari gambar diatas dapat dilihat data yang digambarkan dengan titik-titik tidak
mengumpul pada satu titik atau dapat dikatakan data menyebar. Karena data menyebar
maka data-data tersebut tidak terjadi heterokedastisitas.
4.3.3 Analisis Autokorelasi
Tujuan Uji Autokolerasi yaitu untuk melihat pengaruh antara variabel
bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi
dengan data observasi sebelumnya.
Pengambilan keputusan :
du ≤ DW ≤ (4 – du) maka tidak terdapat autokorelasi
Tabel 4.4.5 Analisis Durbin-Watson
Model Durbin-Watson
1 2.135
160
Dari tabel diatas dapat diketahui bahwa Durbin-Watson model 1 dari uji
autokolerasi bernilai 2.135 dimana 1.7274 ≤ 2.135 ≤ 2.227 sehingga dapat disimpulkan
bahwa nilai du ≤ DW ≤ (4 – du) maka tidak terdapat autokorelasi.
4.3.4 Analisis Kenormalan
Uji kenormalan bertujuan untuk menguji apakah data yang akan
digunakan dalam model regresi berdistribusi normal atau tidak. Untuk menguji
suatu data berdistribusi normal atau tidak, dapat diketahui dengan menguji
kolmogorof smirnov.
Hipotesis:
H0 = Nilai residual berdistribusi normal
H1 = Nilai Residual tidak berdistribusi normal
Pengambilan keputusan:
Sig ≥ 0.05, maka terima H0
Sig < 0.05, maka tolak H0
Tabel 4.4.6 Analisa kenormalan
Statistic df Sig. Statistic df Sig.
RES_2 0.124 54 0.057 0.928 54 0.054
Tests of Normality
Kolmogorov-Smirnov Shapiro-Wilk
Dari uji kenormalan menggunakan software SPSS diperoleh nilai sig (2-
tailed) 0.057. Pengambilan keputusan 0,057 > 0,05 maka terima H0. Sehingga data
tersebut berdistribusi normal.
161
Gambar 4.4.4 Histogram anilisis kenormalan
Dari histogram diatas dapat disimpulkan bahwa data tersebut beridistribusi
normal, hal ini dikarenakan data yang ada pada histogram tersebut berada di sekitar
kurva melengkung.
162
Gambar 4.4.5 Normal P-P plot regression
Dari gambar dapat dilihat data-data yang digambarkan dengan scatter
diagram, jika ditarik satu garis lurusmaka sebaran titik-titik mengikuti disekitar garis
atau berada tidak jauh dari garis tersebut. Sehingga dapat diketahui bahwa data-data
tersebut berdistribusi normal.
4.4 Penentuan Variabel Signifikan
Untuk mengetahui variabel terbaik dapat dilihat dari variabel-variabel yang
lolos uji asumsi. Rekap variabel yang lolos uji asumsi dapat dilihat pada tabel di
bawah ini:
Tabel 4.4.7 Signifikan variabel
Model Variables Entered Variables Removed Method
1 X4, X2, X3, X1 . Enter
2 . X1 Backward
3 . X4 Backward
Variables Entered/Removed(b)
Dari tabel diatas didapatkan kesimpulan bahwa pada metode enter semua
variabel X mempengaruhi variabel Y. Sedangkan pada metode backward ada dua
variabel yang harus dihapus karena variabel tersebut tidak mempengaruhi variabel
dependen (Y) yaitu X1 dan X4.
163
Tabel 4.4.8 Variabel SIgnifikan
Model
1 B Std. Error
(Constant) 15.719 7.246
X2 0.266 0.395
X3 0.069 0.398 0.028
Unstandardized Coefficients Standardized Coefficients
Beta
0.114
Dari tabel diatas dapat dilihat bahwa pada model 1 nilai B pada variabel konstan
sebesar 15,719, pada variabel X2 sebesar 114 pada variabel X3 sebesar 0,028.
4.5 Pembuatan Model-Model Regresi
4.5.1 Single Factor
4.5.1.1 Regresi Y dengan X2
Tabel 4.4.9 Sample faktor regresi Y dengan X2
Model Unstandardized Coefficients Standardized Coefficients
1 B Std. Error
(Constant) 13.838 5.128
X2_sosial 0.181 0.305
Beta
0.078
Dari tabel diatas didapatkan hasil perhitungan nilai koefisien regresi pada variabel
X2_Sosial sebesar 0,181. Berdasarkan hasil tersebut dapat diartikan bahwa untuk setiap
kali penambahan atribut sosial akan meningkatkan variabel Y (Keputusan Beli) sebesar
0,181 sehingga didapatkan persamaan regresinya adalah Y= 13,383 + 0,181 X2.
4.5.1.2 Regresi Y dengan X3
Tabel 4.4.10 Sample faktor regresi Y dengan X3
Model Unstandardized Coefficients Standardized Coefficients
1 B Std. Error
(Constant) 15.506 5.342
X3_kepribadian 0.082 0.32
Beta
0.034
Dari tabel diatas didapatkan hasil perhitungan nilai koefisien regresi pada variabel
X3_Kepribadian sebesar 0,082. Berdasarkan hasil tersebut dapat diartikan bahwa untuk
setiap kali penambahan atribut kepribadian akan meningkatkan variabel Y (Keputusan
Beli) sebesar 0,082 sehingga didapatkan persamaan regresinya adalah Y= 15,506 +
0,082 X3.
164
4.6 Multi Factors
Pada multi factor ini dilakukan pengujian antara variabel independen dan
dependen secara keseluruhan untuk mengetahui hubungan variabel dependen dengan
semua variabel independen.
Tabel 4.4.11 Multi factors X2 dan X3 terhadap Y
Model Variables Entered Variables Removed Method
1 X3, X2a . Enter
Variables Entered/Removed(b)
Dari tabel diatas telihat bahwa semua variabel yaitu X2 dan X3 berpengaruh
terhadap Y dan merupakan variabel yang signifikan.
Tabel 4.4.12 Multi factors R-square terhadap variabel X2 dan X3
Model R R Square Adjusted R Square
1 .112a 0.013 -0.022
Dari tabel di atas diketahui nilai R 0,112, R square 0,013 dan nilai adjusted R
square 0,022 atau 2.2%. Artinya variabel X2 dan X3 menjelaskan pengaruh keputusan
pembelian konsumen terhadap honda sebesar 2,2%.
Tabel 4.4.13 Multi factors anova
ModelSum of
Squaresdf Mean Square
1 Regression 1.444959 2 0.722479377
Residual 113.2884 57 1.987515344
Total 114.7333 59
Variabel Y dan variabel X dilakukan pengujian ANOVA dengan software SPSS
yang menghasilkan nilai sum of squares pada regression yaitu 1.444959 dan mean
square 0.722. Sedangkan pada residual menghasilkan nilai sum of squares 113.288 dan
mean square 1.987.
Tabel 4.4.14 Multi factors model
Model Unstandardize
d Coefficients
Standardized
Coefficients
Std. Error Beta
1 (Constant) 17.16672068 2.05665317
X2 0.099285282 0.11779195 0.126476683
X3 0.063777711 0.123204764 0.077675246
Coefficientsa
Dari tabel diatas didapatkan hasil perhitungan nilai koefisien regresi pada
variabel X2_Sosial sebesar 0,099 dan X3_Kepribadian sebesar 0,063. Berdasarkan hasil
tersebut dapat diartikan bahwa untuk setiap kali penambahan atribut sosial dan
165
kepribadian akan meningkatkan variabel Y (Keputusan Beli) sebesar 0,099 dan 0,063
sehingga didapatkan persamaan regresinya adalah Y= 17,166 + 0,099 X2 + 0,063 X3.
4.7 Uji Signifikasi Koefisien Regresi
4.7.1 Uji T
Uji statistik t pada dasarnya menunjukkan seberapa jauh pengaruh satu
variabel independen secara individual dalam menerangkan variabel dependen.
Hipotesis nol (H0) yang hendak diuji adalah apakah suatu parameter (1) sama
dengan nol, atau H0 : 1 = 0 yang artinya adalah apakah suatu variabel independen
bukan merupakan penjelas yang signifikan terhadap variabel dependen.
Hipotesis:
H0 : koefisien regresi tidak signifikan sehingga variabel atau konstanta independen
mempengaruhi variabel dependen.
H1 : koefisien regresi signifikan sehingga variebel atau konstanta independen
mempengaruhi variabel dependen.
Pengambilan keputusan:
Jika t hitung ≤ t tabel, maka terima H0
Jika t hitung > t tabel, maka tolak H0
Tabel 4.4.15 Hasil SPSS Uji T
model t
(Constant) 2.169
X2 0,673
X3 0,173
Dari tabel diatas diketahui nilai Uji T masing-masing variabel adalah X1= -0,289 ,
X2= 0,673 , X3= 0,173 dan X4= -0,416, Jika t hitung > t tabel, maka tolak H0, dan nilai
dari t tabel = 2,00171 maka dapat simpulkan koefisien regresi signifikan sehingga
variebel atau konstanta independen mempengaruhi variabel dependen.
166
4.7.2 Uji F
Uji statistik F pada dasarnya menunjukkan apakah semua variabel bebas yang
dimasukkan dalam model mempunyai pengaruh secara bersama-sama terhadap
variabel terikat. Hipotesis nol (H0) yang hendak diuji adalah apakah semua
parameter dalam model sama dengan nol atau H0 : = 1 =……= k = 0 yang artinya
adalah apakah semua variabel independen bukan merupakan penjelas yang
signifikan terhadap variabel dependen.
Hipotesis:
H0 : semua variabel independent mempengaruhi variabel dependent secara serentak
H1: minimal satu variabel independent tidak mempengaruhi variabel dependent
secara serentak.
Pengambilan keputusan:
Jika F hitung ≤ F tabel maka terima H0
Jika F hitung > F tabel maka tolak H0
Tabel 4.4.16 Hasil SPSS Uji F
model F
Regression 0.172
Dari tabel diatas diketahui nilai Uji F adalah 0,172, dan nilai F tabel = 1,985
karena Jika F hitung ≤ F tabel maka terima H0, yang artinya semua variabel independent
mempengaruhi variabel dependent secara serentak.
167
BAB V
KESIMPULAN DAN SARAN
5.1 Kesimpulan
Dari praktikum modul 4 regresi ini dapat diambil beberapa kesimpulan antara
lain sebagai berikut :
1. Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan
adanya korelasi antar variabel bebas. Dari pengujian miltikolineritas didapatkan
hasil bahwa VIF dari uji multikolinieritas semua bernilai < 10 hal ini berarti tidak
terdapat multikolinieritas antara variabel x dan y dengan toleransi > 0.1.
2. Pengujian heterokedastisitas bertujuan untuk menguji sebuah model regresi, terjadi
ketidaksamaan varian dari residual dari satu pengamatan ke pengamatan yang lain.
Dari hasil pengujian heterokedastisitas dapat diketahui bahwa sig (2 tailed) dari
semua variabel bernilai ≥ 0.05 maka terima H0, sehingga kesimpulan yang diambil
adalah variabel tidak bersifat heterokedastisitas.
3. Uji kenormalan bertujuan untuk menguji apakah data yang akan digunakan dalam
model regresi berdistribusi normal atau tidak. Dari hasil uji kenormalan diperoleh
nilai sig (2-tailed) 0.057. Sehingga pengambilan keputusan 0,057 > 0,05 maka
terima H0, sehingga data tersebut dapat dikatakan berdistribusi normal.
4. Tujuan Uji Autokolerasi yaitu untuk melihat pengaruh antara variabel bebas
terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data
observasi sebelumnya. Dari pengujian autokorelasi dapat dikeahui bahwa Durbin-
Watson bernilai 2.135 dimana 1.7274 ≤ 2.135 ≤ 2.227 sehingga dapat disimpulkan
bahwa nilai du ≤ DW ≤ (4 – du) maka tidak terdapat autokorelasi.
5. Pada penentuan variabel signifikan dengan menggunakan metode backward ada dua
variabel yang harus dihapus karena variabel tersebut tidak mempengaruhi variabel
dependen (Y) yaitu X1: Kebudayaan dan X4: Psikologi/ Kejiwaan.
168
5.2 Saran
Ada beberapa hal yang ingin kami sampaikan pada laporan praktikum ini
semoga saran ini bisa membantu dan saling membangun baik dari sisi praktikan ataupun
asisten sehingga ada real output yang diperoleh:
1. Saran dari kami adalah dalam penyampaian data-data dimodul diharapkan lebih
jelas sehingga praktikan bisa cepat paham dan mengerti.
2. Dan saat penyampaian pun disampaikan dengan benar-benar detail karena data
akan diolah cukup rumit dan saling berhubungan.
3. Dan yang terakhir pemenuhan hak dan tanggung jawab dikedua sisi harap bisa
sama-sama diinteropeksi sehingga tidak ada saling timpang tindih.
169
DAFTAR PUSTAKA
Ardhana, Oldy. (2010) Analisa regresi. http://eprints.undip.ac.id/22960/1/Skripsi.PDF
diakses pada jam 23:54, tanggal 21 Mei 2014.
Azwar, Saifuddin. 2003. Reliabilitas Dan Validitas. Yogyakarta: Pustaka Pelajar.
Ghozali, Imam. 2001. Aplikasi Analisis Multivariate Dengan Program SPSS.
Badan Penerbitan Universitas Diponegoro : Semarang.
Iriawan, N.S., P. Astuti. 2006. Mengolah Data Statistik dengan Mudah Menggunakan
Minitab 14. Andi, Yogyakarta.
Kutner, M.H., C.J. Nachtsheim., dan J. Neter. 2004. Applied Linear Regression Models.
4th ed. New York: McGraw-Hill Companies, Inc.
Norusis, Marija J. 1993. SPSS for Windows Professional Statistics Release 6,0.
Chicago: Marketing Department SPSS Inc.