Upload
others
View
40
Download
0
Embed Size (px)
Citation preview
i
LAPORAN
PENELITIAN DOSEN PEMULA
Perbandingan Metode Regresi Robust yakni Metode Least Trimmed Squares
(LTS) dengan metode Estimator-MM (Estimasi-MM)
(Studi Kasus Data Ujian Tulis Masuk Terhadap Hasil IPK Mahasiswa UPGRIS)
Oleh :
Ali Shodiqin, S.Si. M.Si. NPP. 108101286
Aurora Nur Aini, S.Si., M.Sc. NPP. 148701449
Maya Rini Rubowo, S.Pd. M.Si. NPP. 107401289
LEMBAGA PENELITIAN DAN PENGABDIAN KEPADA MASYARAKAT
UNIVERSITAS PGRI SEMARANG
2018
iii
RINGKASAN
Regresi linear ganda merupakan salah satu metode statistik yang
dugunakan untuk memodelkan dan menyelidiki hubungan antar satu variabel
dependen dengan dua atau lebih variabel inedependen. . Ordinary Least Squares
(OLS) merupakan metode yang sering digunakan untuk mengestimasi parameter
model regresi. Namun metode ini mempunyai kelemahan ketika outlier hadir
dalam data. Estimator OLS bukan merupakan prosedur regresi yang robust terhadap
adanya outlier, sehingga estimasinya menjadi tidak sesuai meskipun hanya satu
kehadiran outlier. Regresi robust merupakan alat yang penting untuk menganalisis data
yang terdeteksi sebagai data outlier.
Tujuan dari penelitian ini adalah mengetahui Pencilan (outlier)
mengganggu persamaan regresi linier, mengetahui hasil penaksir regresi robust
dengaan metode penaksir LTS (Least Trimmed Squares), mengetahui hasil
penaksir regresi robust dengaan metode penaksir MM (MM–Estimator), serta
mengetahui perbandingan antara dua penaksir regresi robust tersebut dengan
melihat nilai dan residual masing-masing metode.
Data yang digunakan dalam penelitian ini dari nilai ujian penerimaan
mahasiswa baru dari Prodi Pendidikan Matematika di Universitas PGRI
Semarang. Data ini terdiri merupakan data diskrit yang meliputi 3 (tiga) variabel
yaitu nilai Tes (X1), Tes Psikologi (X2) sebagai variabel independen dan IPK
(Y) sebagai variabel dependent.
Sebelum dilakukan analisis dengan regresi robust, dilakukan pendeteksian
outlier untuk mengindetifikasi adanya oulier atau tidak. Metode pendeteksian
oulier dilakukan dengan beberapa, antara lain metode boxplot, Cook’s Distance,
dan metode DfFIT (Difference In fit Standardized). Pada metode yang pertama
dalam regresi robust Least Trimmed square (LTS) dihasilkan model regresi
dan ∑
0,127. Untuk persamaan
regresi rebust dengan metode MM-Estimation diperoleh persamaan, yaitu
dan ∑
=0,89304. Regresi robust merupakan
metode yang sesuai untuk pendugaan parameter Penduga Least Trimmed Square (LTS)
lebih efisien daripada metode MM-estimation. Hal ini didasarkan pada kriteria nilai
dan residualnya, hal ini disebabakan adanya pemangkasan (trimmed) terhadap data yang
mempunyai residual besar.
Kata Kunci: Regresi ganda, Outlier, Estimation, LTS, MM-Estimation
iv
PRAKATA
Puji dan syukur kehadirat ALLAH SWT Yang Maha Pengasih dan Maha
Penyayang, atas berkat kasih karunai, rahmat dan hidayah serta lindungannya-Nya
kepada kami, sehingga penulis dapat menyelesaikan laporan penelitian ini.
Penelitian kami berjudul Perbanding Dua Metode Regresi Robust yakni
Metode Least Trimmed Squares (LTS) dengan metode Estimator-MM (Estmasi-
MM) (Studi Kasus Data Ujian Tulis Masuk Terhadap Hasil IPK Mahasiswa
UPGRIS), laporan ini bentuk tanggung jawab kami yang telah mendapatkan
pendanaan dari LPPM Universitas PGRI Semarang.
Pada kesempatan ini, penulis menyampaikan terima kasih yang tak
terhingga kepada semua pihak yang telah memberikan bantuan dan dorongan serta
bimbingan kepada penulis, sehingga laporan ini dapat penulis selesaikan.
Penulis menyadari bahwa tanpa bantuan dri berbagai pihak maka laporan
ini tidak akan pernah terwujut. Pada kesempatan ini penulis ingin menyampaikan
terima kasih kepada :
1. Dr. Muhdi, M.Hum, selaku Rektor Universitas PGRI Semarang.
2. Ir. Suwarno, M.Si. selaku ketua Lembaga Penelitian dan Pengabdian Pada
Masyarakat di Universitas PGRI Semarang
3. Dra Intan Indiati, M.Pd. selaku Dekan FPMIPATI yang telah memberikan
bimbingan, pengarahan, kebijaksanaan dan pengetahuan hingga
terselesaikannya laporan ini.
4. Rekan kerja di Pendidikan Matematika Universitas PGRI Semarang.
5. Semua pihak yang telah membantu terselesaikannya penulisan ini yang tidak
dapat disebutkan satu persatu.
Meskipun masih banyak kelemahan dan kekurangan dalam penulisan
laporan ini, penulis berharap semoga laporan penelitian ini berguna dan
bermanfaat bagi pengembangan bidang pendidikan.
Semarang, April 2018
Penulis
v
DAFTAR ISI
HALAMAN SAMPUL.……………………………………….…... i
HALAMAN PENGESAHAN…………………………………….. ii
RINGKASAN ................................................................................. iii
PRAKATA ...................................................................................... iv
DAFTAR ISI………………………………………………………. v
DAFTAR LAMPIRAN…………………………………………….. vii
BAB 1 PENDAHULUAN……......……………………………….. 1
1.1 Latar Belakang …………………………………………….. 1
1.2. Rumusan Masalah …………………………………………….. 2
1.3. Tujuan Penelitian ………………………………………….. 2
1.4. Batasan Masalah …………………………………………….. 3
1.5. Manfaat Peneletian...……………………………………….... 3
BAB II TINJAUAN PUSTAKA …………………………………. 4
2.1.Regresi Linear ……………………………………………...... 4
2.2.Pencilan (Outlier ) ………………………………………….. 5
2.3. Regresi Robust ……………….…………………………….. 8
2.4. SPSS ……………………………………………................... 13
2.5. Kerangka Berfikir …………………………………………….. 15
BAB III METODE PENELITIAN …………………….......…….. 16
3.1.Menentukan Masalah ……………………………………….. 16
3.2 Studi Pustaka ……………………………………………...... 16
3.3 Analisis Pemecahan Masalah ……………………………….. 16
3.4 Tahapan Penelitian …………………………………………….. 17
3.5 Lokasi Penelitian …………………………………………….. 17
3.6 Rancangan Penelitian ……………………………………….. 18
3.7 Hipotesis Penelitian ………………………………………….. 18
BAB IV HASIL DAN PEMBAHASAN …………………………. 19
4.1 Regresi Robust Estimasi LTS dan Estimasi-MM
untuk Permasalahan Outlier pada OLS …………………….. 19
vi
4.2 Analisis Regresi Robus dalam studi kasus ………………….. 24
4.3 Pendeteksian Outlier ……………………………....………….. 25
4.4 Analisis Regresi Robust dengan metode LTS dan MM-Estimastion 29
4.5 Pembahasan ……………………………………………........... 32
BAB V KESIMPULAN DAN SARAN
5.1 Simpulan ……………………………………………........ 35
5.2 Saran ……………………………………………............. 35
DAFTAR PUSTAKA.……………..………………………... 36
vii
DAFTAR LAMPIRAN
Lampiran Halaman
1. Biodata Peneliti………………………………....……………...... 27
2. Data Ujian PMB dan IPK dari Mahasiswa …………………....... 48
3. Niali Cook’s Distance ……..……………………….................. .. 50
4. Nilai DfFITS …………………………………………….......... . 52
5. Iterasi 1 (LTS) …………………………………......…….......... .. 54
6. Iterasi 2 (LTS) …………………………………………............ .. 56
7. Estimation S (MM-Estimation) ………………...………............ 57
8. Iterasi 1 (MM-Estimation) ……………………………............. . 59
9. Iterasi 2 (MM-Estimation) ……………………………............... 61
10. Output Iterasi 1 (LTS) …………………………………............. 63
11. Output Iterasi 2 (LTS) …………………………………............. 64
12. Output Estimation S ……………………………………........... . 65
13. Output Iterasi 1 (MM-Estimation) …………………………..... . 66
14. Output Iterasi 2 (MM-Estimation) ………………………….... .. 67
1
BAB I
PENDAHULUAN
1.1. Latar Belakang
Regresi robust diperkenalkan oleh Andrews (1972) dan merupakan
metode regresi yang digunakan ketika distribusi error tidak normal dan atau
adanya beberapa outlier yang berpengaruh pada model (Ryan, 1997).
Metode ini merupakan alat penting untuk menganalisis data yang dipengaruhi
oleh outlier (pencilan) sehingga dihasilkan model yang robust atau resistance
terhadap outlier. (Barnett dan lewis, 1994) menyebutkan bahwa outlier
merupakan objek yang secara numerik berbeda dengan data lainnya. Selain itu,
(Hair, et al, 1995) juga menyatakan bahwa outlier adalah data yang muncul
memiliki karakteristik unik yang terlihat sangat jauh berbeda dari observasi
lainnya dan muncul dalam bentuk nilai ekstrim baik untuk sebuah variabel
tunggal ataupun variabel kombinasi. Definisi lain dari outlier adalah objek yang
terletak jauh atau berbeda jauh dari pola distribusinya (Moore dan McCabe,
1999).
Salah satu asumsi penting dalam analisis regresi yang berkaitan dengan
inferensia model adalah asumsi sebaran normal. Asumsi normalitas seringkali
dilanggar saat data mengandung pencilan. Jika terdapat pencilan dalam data,
maka bentuk sebaran data tidak lagi simetris tetapi cenderung menjulur ke arah
pencilan sehingga melanggar asumsi normalitas. Dalam hal ini, analisis regresi
robust merupakan metode yang cocok digunakan.
Di dalam regresi robust banyak metode yang bisa digunakan, seperti :
Least Median Squares (LMS) yaitu metode penduga parameter regresi robust
dengan meminimumkan median dari kuadrat sisaan. Least Trimmed Squares
(LTS) yaitu metode pendugaan parameter regresi robust untuk meminimumkan
jumlah kuadrat h residual (fungsi objektif), penaksir M (M–Estimator) adalah
penduga parameter regresi robust untuk meminimumkan fungsi galat, dsb.
Dalam mengatasi permasalahan data yang mengandung pencilan, metode-
metode penduga regresi robust tersebut memiliki kelebihan dan kelemahan
masing- masing. Regresi robust dengan metode pendugaan parameter LTS lebih
2
efisien dibanding LMS, karena LTS memiliki fungsi objektif yang lebih smooth
(halus) sehingga akan lebih sensitif terhadap efek lokal dan mempunyai nilai
breakdown yang paling tinggi (Yaffee, 2002). Sedangkan S–Estimator tidak
selalu lebih baik dari LTS dan LMS, terutama untuk data yang sedikit. Akan
tetapi jika data banyak, kadang S– Estimator lebih baik dari LTS dan LMS
(Rousseeuw dan Leory, 1987). Secara umum, metode LMS sangat efisien
dibanding metode M dalam menaksir koefisien garis jika data mengandung
outlier, dan secara khusus, jika model linier kurang sesuai dengan data meskipun
data mengandung outlier maka metode LMS menjadi tidak efisien dibanding
metode M dalam menaksir koefisien regresi (Sugiarti, 2010).
Dari uraian di atas, maka dalam penelitian ini peneliti akan
membandingkan metode regresi robust yaitu metode Least Trimmed Squares
dan penaksir MM dalam mengatasi permasalahan data pencilan, dengan studi
kasus data penerimaan masuk di Universitas PGRI Semarang.
1.2. Rumusan Masalah
Berdasarkan latar belakang yng telah diuraikan diatas, maka permasalah
yang timbul adalah:
1. Bagaimana pencilan (outlier) akan mengganggu persamaan regresi
linier?
2. Bagaimana hasil penaksir regresi robust dengaan metode penaksir
LTS?
3. Bagaimana hasil penaksir regresi robust dengaan metode penaksir
MM?
4. Bagaimana perbandingan antara dua penaksir regresi robust yakni
penaksir LTS dan penaksir MM, untuk mengatasi pencilan sekaligus
mendapatkan sejauh mana perbedaan regresi robust dengan
persamaan regresi liniernya?
1.3. Tujuan Penelitian
Tujuan dari penelitian ini adalah :
1. Mengetahui Pencilan (outlier) mengganggu persamaan regresi linier.
3
2. Untuk mengetahui hasil penaksir regresi robust dengaan metode
penaksir LTS (Least Trimmed Squares)?
3. Untuk mengetahui hasil penaksir regresi robust dengaan metode
penaksir MM (MM–Estimator)?
4. Untuk mengetahui perbandingan antara dua penaksir regresi robust
yakni penaksir LTS dan penaksir MM, dalam mengatasi pencilan
sekaligus mendapatkan sejauh mana perbedaan regresi robust dengan
persamaan regresi liniernya
1.4. Batasan Masalah
Masalah dalam penelitian ini dibatasi sebagi berikut
1. Pada data sekunder yang berhubungan dengan masalah pencilan
(outlier)
2. Model regresi yang dipakai adalah model regresi linear.
3. Kemudian metode regresi robust yang digunakan yaitu LTS dan MM-
Estimator.
1.5. Manfaat Penelitian Kontribusi yang diberikan dari penelitian ini diharapkan dapat menambah
dan meningkatkan wawasan dalam penerapan ilmu statistika dengan metode
regresi robust dalam mengatasi permasalahan pencilan, dapat mempermudah
pembaca dalam menambah ilmu pengetahuan mengenai metode regresi robust
dan sebagai referensi baik di prodi maupun di perpustakaan, serta membantu para
peneliti yang melakukan penelitian mengenai permasalahan pencilan (outlier).
4
BAB II
TINJAUAN PUSTAKA
2.1 Regresi Linear
Analisis regresi adalah suatu metode yang berguna untuk menentukan
hubungan suatu variabel yang disebut variabel dependen dengan satu atau lebih
variabel yang menerangkan atau sering disebut variabel independen. Salah satu
tujuan analisis adalah menentukan model regresi yang baik, sehingga model dapat
digunakan menerangkan dan memprediksi hal-hal yang berhubungan dengan
variabel-variabel yang terkait dalam model regresi.
2.1.1 Model Regresi Linear Sederhana
Dengan variabel terikat maka regresi dinamakn regresi sederhana dengan
model : Y = α + β X + ε
Keterangan : α, β = koefisien garis regresi
Y = variabel terikat
X = variabel bebas
ε = error / galat
Menurut Sembiring (1995: 32), “model regresi adalah model yang
memberikan gambaran mengenai hubungan antara variabel bebas dengan
variabel terikat”. Jika analisis dilakukan untuk satu variabel bebas
2.1.2. Model Regresi Linear Berganda
Beberapa permasalahan regresi dapat mencakup lebih dari satu variabel
bebas. Model-model regresi yang menggunakan lebih dari satu variabel bebas
disebut model regresi linier berganda.
Menurut Supranto (2009) bentuk umum regresi linier berganda dapat
dinyatakan secara statistik sebagai berikut:
ikikiiii XXXXY ...3322110 (3.1)
Dengan:
error gangguan / variabel
parameter ,...,,
bebas variabel
terikat variabel
21
i
k
ki
i
X
Y
5
Penjabaran dari bentuk umum diatas adalah:
nnkknnn
kk
kk
XXXy
XXXy
XXXy
...
...
...
22110
2222221102
1112211101
Persamaan-persamaan diatas dapat ditulis dengan menggunakan
persamaan matriks berikut:
XY (3.2)
matriks
vektor,, dimana
X
Y
2.1.3. Asumsi Model Regresi Linear
Asumsi –asumsi yang harus dipenuhi agar OLS dapat menghasilakan
estimasi yang baik pada model regresi yaitu sebagai berikut :
(1) Nilai rata-rata dari kesalahan pengganggu sama dengan nol,
E(εi) = 0, untuk i=1, 2, ...n
(2) Tidak ada autokorelasi antara kesalahan pengganggu yang satu dengan
yang lainnya. E(εi εj) = 0, untuk i≠j
(3) Semua kesalahan pengganggu mempunyai varian sama atau disebut dengan
homoskedastisitas
(4) Arabel bebas X adalah himpunan bilangan yang tetap dan bebas terhadap
kesalahan penggnggu εi.
(5) Tidak terdapat hubungan natar variabel bebas X atau tidak multikolinearitas
antar variabel bebas X.
(6) Gangguan berdistribusi normal dengan rata-rata nol dan varians
2.2 Pencilan (Outlier )
Outlier adalah kasus atau data yang memiliki karakteristik unik yang
terlihat sangat berbeda jauh dari observasi-observasi lainnya dan muncul dalam
bentuk nilai ekstrim, baik untuk sebuah variabel tunggal maupun variabel
kombinasi”. (Ghozali, 2009: 40).
Menurut Hampel, Rousseaw dan Stahel, sebagaimana dikutip oleh Olive
6
(2006:4). Mendefinisikan outlier adalah observer yang menyimpang dari pola
yang terbentuk oleh sebagian besar data. Menurut Ghozali (2009: 40), terdapat
empat penyebab timbulnya data outlier antara lain : kesalahan dalam
memasukkan data, gagal dalam spesifikasi, adanya mising value di program
komputer, outlier bukan merupakan anggota populasi yang di ambil sebagai
sampel, dan outlier berasal dari populasi yang diambil sebagai sampel, tetapi
distribusi dalam populasi tersebut memiliki nilai ekstrim serta tidak berdistribusi
secara normal.
Pada analisis regresi terdapat 3 tipe outlier yang berpengaruh terhadap
estimasi Orinary Least Square (OLS). Roessew dan Leroy (1987) sebagai mana
dikutip oleh Crux (2008: 2), mengenalkan 3 (tiga) jenis outlier tersebut sebagi
vertikal outlier, good leverage dan bad leverage points.
Menurut Soemartini (2007: 14), kombinasi residu robust dan jarak robust
mencirikan empat model titik yaitu:
(1) Obervasi biasa yaitu suatu titik yang memiliki residu robust kecil dan nilai
jarak robust kecil;
(2) Vertica outlier yaitu suatu titik yang memiliki nilai residu robust besar dan
jarak robust kecil;
(3) Good leverage points yaitu suatu titik yang memiliki nilai residu robust kecil
dan nilai jarak robust besar; dan
(4) Bad leverge point yaitu suatu titik yang memiliki residu robust dan nilai
jarak robust besar.
Outlier berpengaruh terhadap proses analisis data, misalnya terhadap nilai
mean dan standar deviasi. Oleh karena itu, kebaradaan outlier dalam suatu pola
data harus dihindari. Outlier dapat menyebabkan varians pada data menjadi lebih
besar, interval dan range menjadi lebar, mean tidak dapat menunjukkan nilai yang
sebenarnya (bias) dan pada beberapa analisis inferensi, outlier dapat
menyebabkan kesalahan dalam pengambilan keputusan dan kesimpulan.
Dalam statistik ruang, data outler harus dilihat terhadap posisi dan sebaran
data yang lainnya sehingga akan dievaluasi apakah data oulier tersebut perlu
dihilangkan atau tidak. Ada beberapa cara yang dapat digunakan untuk
mendeteksi adanya data outlier yang berpengaruh dalam koefisien regresi
7
diantaranya adalah metode grafis, boxplot, laverage values, DfTITS, Cook’s
distantance, DfBETA(s). Namun dalam penelitian ini pendeteksian outlier yang
dibahas menggunakan metode grafis, metode Cook’s Distance dan Metode
DfFITS.
2.2.1 Metode Grafis
Untuk melihat apakah terdapat data outlier pada data, dapat dilakukan
dengan memplot anatar data dengan observasi ke-i ( ), jika sudah
didapatkan model regresi maka dapat dilakukan dengan memplot antara residual
(error) dengan nilai prediksi Y( ). Jika terdapat data yang letaknya jauh dari pola
yang terbentuk dari keseluruhan data, maka data tersebut merupakan data outlier.
Kelemahan dalam metode ini yakni keputusan yang memperlihatkan data
tersebut merupakan outlier atau tidak bergantung pada kebijakan penelitian,
karena pengamatannya dilakukan hanya dengan visualisasi gambar.
2.2.2 Cook’s Distance
Cook’s Distance merupakan salah satu metode pendeteksian outlier
dengan cara menampilkan nilai jarak cook atau dengan kata lain menunjukkan
besarnya pengaruh adanya data outlier terhadap semua estimator koefisien
regresi. Perhitungan Cook’s Distance di rumuskan sebagai berikut :
(Cook’s Distance =*
+ *
+
Dimana adalah nilai pengaruh untuk kasus ke-i
Suatu data yang mempunyai nilai jarak cook lebih besar dari F(0,5; k;n-k)
maka didefinikan sebagai outlier, dengan k banyaknya variabel independen dan n
banyaknya observasi (Soemartini: 2007).
2.2.3 Metode DfFits (Difference fitted value FITS)
Difference fitted value FITS merupakan metode yang menampilkan nilai
perubahan dalam harga yang diprediksi bilamana kasus tertentu dikeluarkan,
yang sudah distandarkan. Perhitungan DfFITS dirumuskan sebagai berikut :
(
)
Dimana t, adalah stundentized deleted residual untuk kasus ke-i dan adalah
nilai pengaruh untuk kasus ke-i. dengan,
8
√
adalah residual ke-i dan JKG aalah jumlah kuaadrat galat.
Suatu data yang mempunyai nilai absolute DfFITS lebih besar dari
√
maka didefiniskan sebagai outlier, dengan k banyaknya variabel
independen dan n banyaknya observasi (soemartini: 2007).
2.3 Regresi Robust
Regesi robust diperkenalkan oleh oleh Anrews (1972). “ Regresi robust
merupakan metode regresi yang digunakan ketika berdistribusi dari error tidak
normal dan atau adanya beberapa outlier yang berpengaruh pada model ”.
Metode regresi robust terus berkembang dan banyak digunakan dalam
meneliti berbagai permalasahan, seperti : pengoptimalan kekuatan torque pada
lampu TL yaitu menggunakan metode penduga parameter LTS, dengan alasan
terdapat pencilan pada data kekuatan torque (Akbar dan Maftukhah, 2007).
Menurut Chen (2002 1) terdapat 3 kelas masalah yang dapat menggunakan
teknik robust yaitu:
(1) Masalah dengan outlier yang terdapat pada peubah (respon);
(2) Masalah dengan outlier yang terdapat pada peubah (levergae point);
dan
(3) Masalah dengan outlier yang terdapat pada keduanya yaitu pada peubah
y (respoon dan peubah x (penjelas).
Banyak metode yang dikembangkan dalam regresi robust untuk mengatasi
masalah outlier. Dalam regresi robust terdapat beberapa esimasi yaitu :
2.3.1. Estimasi –M
Wilcon (2005: 51) menjelaskan “estimasi –M pertama kali
diperkenalkan oleh Huber pada tahun 1973 dan merupakan penggambaran
dari suatu percobaan yang menggabungkan sifat efisiensi Ols dan
ketahanan dari estimasi LAV (LAD)”. LAV merupakan estimasi yang
meminimumkan jumlah nilai mutlak dari residu.
9
2.3.2. Least Median Square (LMS)
Metode LMS merupakan metode High Breakdwn Value yang
diperkenalkan oleh Rousseuw pada tahun 1984. Wilcox (2005: 51)
menjelaskan “metode LMS adalah suatu metode estimasi parameter
regresi robust dengan meminimumkan suatu median kuadrat residual “,
LMS sangat robust terhadap outlier pada variabel X dan Y. Metode LMS
mengganti jumlah kuadrat residual merupakan karakteristik OLS dengan
median kuadrat residual.
Ide untuk mengganti penjumlahan dengan median menghasikan
estimasi yang resisten terhadap outliers. Walau hasil ini dicapai (LMS
mempunyai breakdown point = 0.5), akan tetapi LMS mempunyai
kelemahan ketika pembatas itu digunakan. LMS mempunyai efisiensi
sebesar 37%.
2.3.3. Least Trimmed Squares (LTS)
Sama halnya metode LMS, Metode LTS juga merupakan metode
High Breakdown Value yang diperkenalkan oleh Rousseeuw pada tahun
1984. Metode LTS adalah suatu metode estimasi parameter regresi robust
dengan untuk meminimumkan jumlah kuadarat h residual.
2.3.4. Estimator-S
Metode robust S merupakan metode high Breakdown Value yang
diperkenalan pertama oleh Rousseeuw pada tahun 1984. Menurut Wilcon
(2005 : 55), “Estimasi-S merupakan solusi dengan kemugkinan terkecil
penyebaran residual”. Selain meminimumkan varians dari residual,
Estimasi-S juga meminimumkan skala residual dari estimasi-M.
2.3.5. Estimasi –MM
Wilcox (2005:5) menjelaskan “metode estimasi–MM dikenalkan oleh
Yohai (1987) yang menggabungkan suatu high breakdown point (50%)
dengan efisiensi tinggi (mencapai 95%)”. Estimasi MM dimulai dengan
mecari estimasi S yang sangat trobust dan resisten yang meminimumkan
suatu skala residual. Selajutnya skala residual teta konstan dan di akhiri
dengan menetapan parameter-parameter regresi menggunakan estimasi-M.
10
Estimasi-MM mempunyai breakdown point = 0.5, menjelakan bahwa
banyaknya outlier hingga separoh data pengamatan tidak berpengaruh
terhadap estimas-MM.
Estimasi MM didefinikan sebagai berikut.
∑ (
)
∑ .
∑
/
Estimasi S sebagai permulaan dengan nilai breadown yang tinggi dan
di akhiri dengan estimasi-M membuat estimasi mempunyai efisiensi yang
tinggi. Pada umumnya di gunkan fungsi Tukey Bisquare baik pada
estimasi-S maupun estimasi-M.
Prosedure estimasi-MM dapat diuraikan sebagai berikut.
6 Mengestimasi koefisien , sehingga diperoleh yang diambil dari
regresi robust dengan high breakdown point.
7 Residual pada langkah pertama digunakan untuk menghitung skala residual
Estimasi-M, dan menghitung pula bobot awal
.
8 Residual
dan skala residual dari langkah (2) digunakan dalam iterasi
awal dengan metode WLS untuk menghitung koefisien regresi.
∑
(
)
Dimana menggunakan pembobot Huber atau Tukey bisquare.
9 Menghitung bobot baru
menggunakan residual dari iterasi awal WLS
(langkah 3).
10 Langkah 2, 3, 4 diulang (reiterasi dengan skala residual tetap konstan) sampai
∑ | |
konvergen, yaitu selisih dengan
kurang dari ,
dengan m adalah banyaknya iterasi.
Dari kelima metode di atas, peneliti memilih dua metode robust,
yaitu metote LTS dan metode robust estimasi-MM karena kedua metode
salah satu metode populer digunakan, dan peneliti ingin membandingkan
kedua estimasi robust tersebut. Perbandingan dari kelima metode tersebut
dapat dilihat pada Tabel 1.1 (Wilcox, 2005:58).
11
Tabel 1.1 Perbandingan Estimasi Regresi Robust
Estimasi Breakdown Point Efisiensi
M (Huber, biweigt) 0 95%
LMS 0,5 37%
LTS 0,5 8%
S 0,5 33%
MM 0,5 95%
Fungsi Pembobot Rukey Bisque
Menurut Cranmer (2005:12)”Fungsi tukey memiliki perbedaan dari pada
fungsi Huber. Khususunya tingkat residual yang besar”.
Fungsi pembobot yang disarankan oleh Tukey memakai fungsi obyektif
{
2 [ (
)
]
3 | |
| |
Sehingga untuk nilai mutlak skala residual yang lebih besar daripada c,
tidak meningkat. Hal ini berarti pengaruh dari residual dibatasi.
{ [ (
)
]
| |
| |
Dan fungsi pembobot
{ [ (
)
]
| |
| |
Secara ringkas, fungsi obyektif dan fungsi pembobot dari estimasi
Huber, dan Tukey bisquare dapat dilihat tabel 1.2 (fox, 2002:3). Fungsi
Huber memberikan pembobot sebesar 1 untuk | | dan mengecil pada
| | . Pada fungsi Tukey bisquares, diberikan pembobot nol ketika
| | pembobotnya mengecil dengan segera setelah beranjak dari
nol.
12
Tabel 1.2 perbandingan Fungsi Huber dan Fungsi Tukey bisquare
Metode Huber Tukey bisquare Interval
Fungsi
objektif
{
| |
{
2 [ (
)
]
3
| |
| |
Fungsi
Pembobot {
| | { [ (
)
]
| |
| |
Nilai c untuk estimasor huber dan tukey disebut tuning constan. Semakin
kecil nilai c menghasilkan lebih esisten terhadap outlier. Estimasi-M mempunyai
effisiensi sekitar 95 % ketika residual berdistribuso normal.
Pada penelitian Sugiarti (2010) mengenai tingkat efisiensi penaksir M
terhadap penaksir LMS dalam menaksir koefisien garis regresi, menyebutkan
bahwa efisiensi dari dua penaksir tersebut adalah rasio dari ukuran sampel yang
diperlukan untuk mendapatkan keakuratan yang sama. Dalam penelitian tersebut,
juga disimpulkan bahwa secara umum metode LMS memberikan penaksir
koefisien garis regresi yang tidak jauh berbeda dengan metode M. Dalam hal data
tidak mengandung outlier, metode LMS kurang efisien dibanding metode M
dalam menaksir koefisien garis regresi, namun metode LMS sangat efisien
dibanding metode M dalam menaksir koefisien garis regresi jika data
mengandung outlier. Secara khusus, jika model tidak sesuai dengan data
meskipun data mengandung outlier maka metode LMS menjadi tidak efisien
dibanding metode M dalam menaksir koefisien garis regresi.
Selanjutnya, (Ardiyanti, 2011) menyebutkan dalam penelitiannya bahwa
proses analisis tingkat keefektifan Estimasi-M dan Estimasi-MM dimulai dengan
menggunakan metode kuadrat terkecil, identifikasi outlier, dan analisis dua
metode robust yakni Estimasi-M dan Estimasi-MM. Apabila standar error
13
yang dihasilkan metode regresi robust lebih kecil dari OLS, maka regresi robust
dapat menganalisis data tanpa membuang outlier dan menghasilkan estimasi
yang resisten terhadap outlier. Dalam penelitiannya menyimpulkan bahwa
baik Estimasi-M maupun Estimasi-MM mempunyai keefektifan yang sama
dalam mengatasi outlier pada OLS, karena keduanya dapat mengecilkan standar
eror yang dihasilkan outlier.
2.3.6 Estimasi Parameter
Untuk meminimumkan (fungsi obyektif) dari resdualnya, dicari turunan parsial
pertamanya dari terhadap disama dengankan 0. Ini memberika
sistem persamaan
∑ 0 ∑
1
Dengan dan merupakan fungsi influence yang digunakan dalam
memperoleh bobot, adalah observasi ke-i pada regesi ke-j dan .
Didefinikan fungsi pembobot:
0 ∑
1
∑
Dan , maka persamaan diatas dapat ditulis
∑ [ ∑
]
Menurut Montgomery & Peck (1992), estimasi pada reresi robust yang dilakukan
dengan estimasi Itertively Reweighted Least Square (IRLS) membutuhkan proses
itersasi dimana akan berubah nilainya disetiap itersi. Iterasi akan berhenti
sampai didapatkan nilai yang kovergen yaitu selisih
dan
mendekati 0.
2.4. SPSS
Menurut sukestiyarno (2013: 8) program aplikasi statistik SPSS
(Statistical Package for Social Sciences) merupakan salah satu program yang
14
relatif populer saat ini. Pada perkembangan sekarang SPSS sudah meluas
penggunaannya tidak hanya dibidang sosial saja tetapi juga lebih digunakan
dalam bidang eksak.
SPSS memuat perangkat-perangkat statistik dasar, sehingga cukup baik
dipergunakan untuk memahami sifat-sifat suatu data dan pengolahan data secara
sederhana. SPSS mempunyai variasi analisnya sangat luas. SPSS merupakan
software yang dapat digunakan untuk mengolah data dalam statistik. Ada
berberpa pilihan menu yang ada pada SPSS, diantaranya menu File, Edite, View,
Data, Tranlate, Analyze, Graphs, Utilitis, Add-Ons, Windows dan Help. Untuk
menganilis regresi dengan bantun SPSS menu yang digunkan adalah Analyze,
lalu Regresion pilih Linear. Setelah itu input variabel dependent, variabel
independentdan bobot yang terlibat didalamnya.
Gambar 2.1 Regresi Linear dengan SPSS V.21
15
Gambar 2. 2 : Mencari Persamaan Regresi Ganda
2.5.Kerangka Berfikir
Berdasakan tinjauan pustaka dapat dibuat kerangka berfikir bahwa dalam
analisis regresi hubungan yang sebenarnya tidak dapat diketahui secara pasti,
tetapi model hubungan model tersebut dapat diestimasi berdasarkan data
pengamatan yang diperoleh. Menurut Sembiring (1995) adanya Outlier dalam
data dapat mengakibatakan estimator koefisien regresi yang kekar terhadap
Outlier, yaitu estimasi regresi robust dengan metode Least Trimmed Square
(LTS), Estimasi regresi robust metode Least Trimmed Square (LTS) merupakan
metode yang diperkenankan oleh Rouseeeuw pada tahun 1984. Least Trimmed
Square (LTS) adalah suatu metode estimasi parameter regresi robust dengan
menggunakan konsep pengepasan OLS untuk meinimumkan jumlah kuadrat
sisaan. Selain metode Least Trimmed Square (LTS), metode MM-Estimation juga
merupakan metode yang mampu mengatasi data outlier, dengan mencari
estimator S terlebih dahulu, kemudian menetapkan parameter-parameter regresi
menggunakan estimasi M. Kedua metode ini aka dibandingkan dengan melihat
nilai dan residualnya yang diperoleh dengan menggunakan rumus atau
dengan menggunakan software Mocrosoft Excel dan SPSS 21 untuk mencari
metode mana yang paling efektif untuk mengatasi adanya data outlier.
16
BAB III
METODOLOGI PENELITIAN
Metode Penelitian merupakan salah satu langkah yang dilakukan penulis
dalam meneliti sehingga data yang diperoleh semakin lengkap untuk
memecahkan masalah yang dihadapi. Metode penelitian yang digunakan dalam
penelitian ini adalah metode kajian pustaka yaitu mempelajari buku-buku, jurnal-
jurnal dan bahan-bahan literatur yang berhubungan dengan penelitian, kemudian
dianalisis dan dibandingkan, dengan beberapa tahapan, yaitu:
3.1 Menentukan Masalah
Menentukan masalah dimulai dari studi pustaka merupakan penelaahan dari
beberapa sumber yang releven untuk mengumpulkan informasi yang diperlukan
dalam penelitian ini. Setelah beberapa sumber pustaka terkumpul, maka akan
dilanjutkan penelaahan isi dari sumber-sumber pustaka tersebut. Dari penelaahan
tersebut akan muncul ide-ide yang kemudian dijadikan landasan teori. Permasalah
yang dikaji adalah tentang regresi robust yang menggunakan metode MM-
Estimasi dan Least Trimmed Square (LTS) dengan studi kasus pada pengambilan
data dari nilai IPK Mahasiswa. Perumusan masalah ini bertujuan untuk membatasi
permasalahan agar diperoleh kajian yang jelas
3.2 Studi Pustaka
Pada tahap ini dilakukan kajian sumber-sumber pustaka dengan cara
mengumpulkan data serta informasi dari buku, jurnal serta dari internet yang
berkaitan dengan permasalahan yang timbul yaitu persamaan regresi robust
dengan metode MM-Estimasi dan Least Trimmed Square (LTS). Pada tahapan ini
dilakukan pengumpulan konsep pendukung seperti definisi serta teorema-teorema
yang mendukung menyelesaikan permasalahan yang muncul, sehingga diperoleh
cara mengenai pemecahan masalah terkait dengan metode MM-Estimation dan
Metode Least Trimmed Square (LTS).
3.3 Analisis Pemecahan Masalah
Dari beberapa sumber pustaka yang menjadi kajian dalam penulisan ini,
diperoleh suatu pemecahan dari masalah yang muncul. Analisis dan pemecahan
masalah dari permasalahan yang muncul adalah:
17
Pendeteksian adanya data outlier menggunakan metode Cook’s Distance
dengan kriteria nilai cook’s > F(0.5;k, n-k) dan DfFITS dengan kriteria nilai
DfFITS > 2√
. Untuk mendapatkan nilai Cook’s Distance dan DfFITS dapat
menggunakan bantuan SPSS 21.
3.4 Tahapan Penelitian
Adapun langkah-langkahnya sebagai berikut :
a. Mengambil data dari hasil pengamatan di kampus
b. Menguji data kemudian menggunakan dua metode regresi robust yakni
penaksir least trimmed squares dan penaksir MM untuk mengatasi
outlier.
c. Mengolah data menggunakan bantuan software SPSS versi 21.
d. Membandingkan hasil penyelesaian dan pengolahan data antara kedua
metode.
e. Menyimpulkan hasil perbandingan.
3.5 Lokasi Penelitian
Pengambilan data untuk simulasi regresi robust diperoleh dari nilai IPK dari
Mahasiswa pendidikan Matematika dipengaruhi nilai ujian masuk mahasiswa di
Universitas PGRI Semarang.
18
3.6 Rancangan Penelitian
Rancangan Penelitian
Bagan 1: Kerangka Penelitian
3.7 Hipotesis Penelitian
Dari kerangka berpikir di atas dapat dibuat hipotesis penelitain yaitu regresi
robust dapat mengatasi permasalahan OLS terhadap data atau observasi yang
terdapat outlier dan regresi robust Least Trimmed Square (LTS) lebih baik daripada
Penduga MM.
Data Penelitian
Pedeteksi Outlier
Regresi Robust
Estimasi LTS Estimasi-MM
Melakukan Iterasi sampai didapat
fungsi bobot yang konvergen
Melakukan Iterasi sampai
didapat fungsi bobot yang
konvergen
Estimasi OLS
Nilai 𝑅 terbesar dan
Residual Terkecil
Estimasi
Selesai
Tidak ada Outlier
Ada Outlier
19
BAB VI
HASIL DAN PEMBAHASAN
4.1 Regresi Robust Estimasi LTS dan Estimasi-MM untuk Permasalahan
Outlier pada OLS
Estimasi parameter regresi linear bertujuan untuk menjelaskan pengaruh
satu atau lebih variabel terhadap variabel respon . Metode estimasi yang
sering digunakan oleh Ordinary Leas Square (OLS). Akan tetapi OLS sangat
sensitif terhadap outlier. Terdapatnya outlier dalam suatu data pengamatan
mengakibatkan koefisien garis regresi yang dihasilkan oleh OLS tidak tepat.
Sehingga secara gampang untuk membuang outlier, kemudian menganalisis
kembali tanpa oulier. Akan tetapi, pengikut sertakan atau penyisihan outlier
bukan masalah sederhana, tetapi butuh pertimbangan yang sangan hati-hati.
Oulier dapat dibuang apabila setelah ditelusuri data oulier tersebut bukan bagian
representatif dari pengamatan (data oulier diperoleh dari kesalahan teknis peneliti
dalam mencatat data). Namun secara statistik, membuang oulier bukanlah
tindakan yang bijaksana, karena suatu oulier dapat memberikan informasi yang
cukup berarti. Oleh karena itu, diperlukan suatu alternatif terhadap keberadaan
oulier, yaitu dengan regresi robust.
Sebelum dilakukan analisis dengan regresi robust, sebaiknya dilakukan
pendeteksian outlier untuk mengindetifikasi adanya oulier atau tidak. Metode
pendeteksian oulier dilakukan dengan beberapa, antara lain metode boxplot,
Cook’s Distance, dan metode DfFIT (Difference In fit Standardized). Jika
dideteksi terdapat data oulier, maka dapat digunakan regresi robust.
Regresi robust merupakan metode yang dapat menganalisis data yang
mengandung oulier dan menghasilkan estimasi model yang resisten terhadap
oulier. Dalam regresi robust terdapat beberapa metode estimasi, antara lain
adalah Estimasi-M, Least Median of Square (LMS), Least Trimmed Square
(LTS), Estimasi-S, dan Estimasi-MM. Kelima metode regresi robust tersebut
mempunyai kelemahan dan kelebihan masing-masing. Estimasi-M mempunyai
efisinsi yang tinggi, tetapi nilai breadown point 0. LMS, LTS dan Esimasi-S
mempunyai breadown yang tinggi (BDP=0,5), akan tetapi efisiensinya sangat
20
rendah. Sedangkan estimasi-MM merupakan gabungan efisiensi tinggi dari
estimasi-M dengan bredown point tinggi dari Estimasi-S.
Efisiensi dan breakdown point digunakan untuk menjelaskan ukuran robust
dari tehnik robust. Efisiensi menjelaskan seberapa besar baiknya suatu robust
sebanding dengan Least Square tanpa outlier. Breakdown point adalah suatu
ukuran kestabilan dari estimator ketika data observasi mengandung outlier dalam
jangka besar. Semakin tinggi effisiensi dan breakdown point dari suatu estimator
maka semakin robust (resisten) terhadap outlier. Pada penelitian ini, penulis
hanya menggunkan motode robust dengan estimasi LTS dan estimasi-MM.
Dalam membandingkan keefektifan kedua metode regresi robust tersebut,
penulis membandingkan kedua metode robust dengan OLS. Secara statistik,
apabila regresi robust dapat mengecilkan standar error yang dihasilkan dengan
OLS dengan adanya outlier, maka dapat disimpulkan regresi robust dapat
menghasilkan model yang resisten terhadap pengaruh outlier. Sehingga metode
regresi robust dapat menjadi solusi permasalahan OLS terhadap data observasi
yang terdapat outlier. Alternatif lain juga bisa dilakukan dengan membandingkan
kedua metode regresi robust tersebut dengan OLS tanpa outlier.
Perbandingan Estimasi LTS dan Estimasi-MM dilihat dari nilai breakdown
point nya sebagai berikut.
4.1.1 Breakdown Point Estimasi-LTS
Sama dengan metode LMS, Metode LTS juga merupakan metode
High Breakdown Value yang diperkenalkan oleh Rousseeuw pada tahun
1984. Metode LTS adalah suatu metode estimasi parameter regresi robust
dengan untuk meminimumkan jumlah kuadarat residual.
∑
Dengan
Keterangan : = Kuadrat residual yang diurutkan dari terkecil keterbesar.
n= Banyaknya pengamatan
k = Parameter regresi
21
Jumlah h menunjukkan sejumlah subset data dengan kuadrat fungsi objektif
terkecil. Nilai pada persamaan akan membangun breakdown point sebesar
0,5.
LTS mempunayi rasistensi yang paling tinggi terhadap outlier, akan tetapi LTS
sangat tidak efisien (efisiensi relatif 8 %) dan dapat mengakibatkan kesalahan
dalam penggambaran model data jika dinilai dari outlier, atau jika jumlah data
relatif kecil. Meskipun demikian, LTS masih mempunyai hubungan dalam
perhitungan dengan estimasi lain. Antara lain MM estimasi yang diajukan oleh
Coakley dan Hettmansperger (1993) mempergunkan LTS untuk memperoleh
taksiran nilai dari residula. Residul LTS juga dapat dipergunkan secara efektif
paa plot diagnostik outlier.
Prosedur estimasi LTS dapat diuraikan sebagai berikut.
(1) Menghitung estimasi parameter .
(2) Menentukan residual ∑
yang sesuai dengan ,
kemudian menghitung *
+ *
+ pengamatan dengan nilai
terkecil.
(3) Menghitung ∑
(4) Melakukan estimasi parameter dari h pengamatan.
(5) Menentukan n kuadrat residual yang baru yang bersesuai dengan
kemudian menghitung sejumlah pengamatan dengan nilai
terkecil.
(6) Menghitung ∑
dan mengulang langkah 4 sampai 6 untuk
mendapatkan fungsi obyektif yang kecil dan kovergen.
4.1.2 Breakdown Point Estimasi-MM
Estimasi-MM mempunyai sifat Fungsi antara lain:
(1) dan fungsi kontinu
(2) Symmetric, = ;
(3) berakibat ;
(4) Ambil a= sup , maka dan
(5) Jika dan , maka .
22
Breakdown point adalah fraksi terkecil atau persentase dari outlier yang dapat
menyebabkan nilai estimator menjadi besar. Breakdown point untuk sebuah
estimator T di F didefinikan sebagai:
{ }
dengan .
Untuk menghitung breakdown point berubungan dengan maximum bias
dengan | |.
Ambil { | }
{ | }
Sehingga { }
Akibatnya merupakan titik kontinu . Fungsi lokasi
Estimasi-MM didefinisikan
∫
Karena Estimasi-MM merupakan gabungan dari Estimasi-M dan suatu skala
estimator maka persamaan untuk estimasi-MM adalah pasangan dari statistik
(T, S) yang didefinikan ke dalam dua bentuk persamaan:
∫
∫
Sehingga
∫
dan ∫
Karena monoton, maka dengan
{ | }
{ | },
Anggota terbesar dari himpunan adalah kebalikan distribusi
Dimana untuk
, untuk
Dengan nilai tetap diperoleh
23
Ambil { } adalah sebuah barisan e outlier dan
sehingga , S(F) .
Asumsikan bahwa
dan
Pertama dan S(F) menjadi
∫ (
) ∫ (
)
∫ (
) ∫ (
)
Jika koefisien dari s di ganti dengan dan maka
∫ (
)
∫ (
)
Maka
dan
Didefinisikan = { | } dan = { | }
Sedangkan = { | } dan = { | }
Menurut Huber (1981:53) symmetric
Sehingga = =
Dalam persamaan limit menjadi
Penggunaan sifat dan yang monoton dan simetris maka persamaan di
atas menjadi (
) (
)
Sehingga
.
/ .
/
24
Akibatnya = =
Dan breakdown point =
Karena dan ,
Perlu diperhatikan jika , dan
Maka dapat disimpulkan dan ,
persamaan merupakan solusi breakdown point Estimasi-
MM dihasilkan breakdown point sebesar
Dengan ,
-
Berdasarkann teorema 4.1 nilai breakdown terbaik sebesar
jika
dan jika tidak dibatasi (unbounded) maka .
Karena Estimasi-MM fungsi (fungsi pengaruh) dibatasi (bounded) maka
.
2
3
{ }
Jadi breakdown point Estimasi-MM sebesar 0,5. Karena breakdown point
sebesar 0 maka Estimasi –M resisten terhadap outlier pada variabel respon,
tetapi tidak resisten terhadap variabel prediktor.
4.2 Analisis Regresi Robus dalam studi kasus
Dalam penelitian ini mengambil simulasi pada suatu kasus dengan
menggunakan data dari Tes Masuk Penerimaan Mahasiswa Baru Pendidikan
Matematika UPGRIS tahun 2017 yakni dari tes tulis dan tes psikologi
sebagai variabel independen, sedangkan variabel dependennya adalah nilai
IPK setelah masuk perkuliahan. Data dapat dilihat pada lampiran 1.
Proses analisis regresi robust dimulai dengan regresi kuadrat terkecil
terlebih dahulu, kemudian pengidentifikasi outlier dan selanjutanya dengan
metode regresi robust estimasi LTS dan estimasi-MM. Pengolahan data
25
komputasi yang digunakan sebagai alat batu adalah program SPSS.
4.2.1 Metode Kuadrat Terkecil
Analisis dimulai dengan menganalisis regresi bisa menggunakan
kuadarat terkecil. Berdasarkan hasil output pada data lampiran 1, diperoleh
model regresi antara variabel independen dan variabel dependen data PMB
UPGRI tahun 2015 sebagai berikut
Dengan Y= Indeks Prestasi Kumulatif (IPK)
X1= Nilai Tes
X2= Nilai Psikologi
Model refresi teresebut mempunyai nilai R^2 sebesar 0,1709 = 17, 09
%, tahap selanjutanya adalah melakukan pendeteksian outlier untuk
mengetahui ada atau tidaknya outlier dalam data observasi.
4.3 Pendeteksian Outlier
Suatu data diduga dan dinyatakan sebagai suatu outlier dapat
dilakukan dengan berbagai macam metode. Beberapa metode diantaranya
sebagai berikut:
4.3.1. Metode Boxplot
Metode boxplot ini disajikan dalam bentuk perhitungan manual
maupun dengan bantuan sofware komputer. Hasil Boxplot dengan program
SPSS dapat dilihat pada Gambar 4.1 dengan perthitungan manual dapat
dilihat pada Tabel 4.2. Dengan metode boxplot, suatu data dikatan outlier
jika nilai data pengamatan lebih kecil dari Q1-(1,5*IQR) atau lebih besar
dari Q3+(1,5*IQR).
26
Gambar 4.1 Gambar Boxplot
Dari ketiga tampilan boxplot di atas dapat terlihat bahwa data ke 4
dan data ke-9 merupakan outlier.
4.3.2 Metode Cook’s Distance
Hasil diagnosis metode cook’s distance pada tiap observasi terhadap
data juga dapat dilihat Tabel 4.1 maupun Gambar 4.2. suatu observasi
diduga sebagai outlier apabila nilai Cook’s distance >(4/n), dengan n adalah
banyaknya data.
` Tabel 4.1 Cook’s Distance dan Jenis Data
NO
NILAI
TES
(X1)
Tes
Psikologi
(X2) IPK (Y) COOK'S JENIS DATA
1 32 30 3,6 0,06313 Bukan
2 28 72 3,64 0,01718 Bukan
3 44 69 3,45 0,00784 Bukan
4 36 91 3,83 0,08203 Outlier
5 36 69 3,76 0,02433 Bukan
6 30 65 3,38 0,00197 Bukan
7 24 52 3,55 0,01358 Bukan
8 40 60 3,1 0,04352 Bukan
9 22 28 2,83 0,13905 Bukan
10 24 30 3,07 0,02106 Bukan
27
NO
NILAI
TES
(X1)
Tes
Psikologi
(X2) IPK (Y) COOK'S JENIS DATA
11 28 61 3,38 0,00056 Bukan
12 40 60 3,43 0,00108 Bukan
13 26 42 3,6 0,02699 Bukan
14 42 50 3,31 0,00731 Bukan
15 30 53 3,31 0,00119 Bukan
16 32 50 3,38 0,00002 Bukan
17 30 45 3,05 0,01885 Bukan
18 24 65 3,36 0,00204 Bukan
19 36 45 3,36 0,0002 Bukan
20 34 34 3,3 0,0002 Bukan
21 22 32 3,73 0,18429 Bukan
22 32 41 3,46 0,00356 Bukan
23 48 52 3,3 0,02966 Bukan
24 26 60 3 0,05846 Bukan
25 32 65 3,6 0,00531 Bukan
26 54 50 3,58 0,00442 Bukan
27 34 45 3,04 0,02315 Bukan
28 46 60 3,58 0,00149 Bukan
29 24 56 3,31 0,00147 Bukan
30 38 60 3,4 0,00148 Bukan
31 42 62 3,55 0,00047 Bukan
32 30 29 2,93 0,07896 Outlier
33 32 67 3,83 0,04456 Bukan
34 42 40 3,61 0,02535 Bukan
35 32 56 3,53 0,00192 Bukan
36 34 45 3,08 0,01798 Bukan
37 24 35 3,28 0,00015 Bukan
38 34 45 3,21 0,00569 Bukan
39 38 61 3,64 0,00597 Bukan
40 48 64 3,46 0,00793 Bukan
41 38 42 3,64 0,02195 Bukan
42 46 35 3,7 0,10196 Bukan
43 18 67 3,3 0,01024 Bukan
44 24 55 3,26 0,00422 Bukan
45 24 53 3,46 0,00375 Bukan
46 24 52 3,3 0,00091 Bukan
47 42 67 3,59 0,00116 Bukan
48 35 61 3,41 0,00067 Bukan
28
NO
NILAI
TES
(X1)
Tes
Psikologi
(X2) IPK (Y) COOK'S JENIS DATA
49 16 50 3,3 0,00006 Bukan
50 26 32 3,64 0,08665 Outlier
51 38,33 65 3,46 0,00072 Bukan
52 38,33 52 3,44 0 Bukan
Selanjutnya disajikan gambar scatter plot yang menyajikan Cook’s
Distance dan variabel Unstandaized Predicted Value.
Gambar 4.2. Scatter Plot antara Cook’s Distance Vs Unstandaized
Predicted Value
Berdasarkan hasil yang diperoleh pada Tabel 4.1 nilai Cook’s
distance pada data ke-1. 4 dan 9 diduga sebagai outlier karena memiliki nilai
Cook’s disance yang lebih besar dari nilai (4/n)= 0,07692.
4.3.3 Metode DfFTS
Deteksi outlier selanjutnya adalah melihat nilai DfFIT (Difference In fit
Standardized). Sebelumnya akan disajikan gambar scatter plot yang menyajikan
DfFITS dan variabel Unstandaized Predicted Value.
29
Gambar 4.3 Scatter Plot antara DfFIS vs Unstandaized Predicted Value
Pada plot di atas dapat dilihat bahwa ada titik yang menjauh dari titik
lainnya, hal ini menunjukkan bahwa ada data yang terindentifikasi sebagai
outlier. Sehingga perlu pengecekan data tersebut.
Pada tahap selanjutnya pada hasil pengolahan data menggunakan metode
DfFIS untuk masing-masing data seperti pada lampiran. Dengan ketentuan jika
nilai DfFIT masing-masing data yang lebih dari √
maka dikategorikan
sebagai outlier. Batas nilai penentuan berdasarkan DfFIT> 0,4803 merupakan data
outlier. Dari data pada lampiran 3 terlihat data yang mempunyai nilai DfFIT
>0,4803, data yang mendekati outlier data ke-4. Selajutanya dilakukan analsisi
regresi menggunakan metode robust untk data yang mengandung outlier, aar hasil
regresi yang dihasilan lebih tepat.
4.4 Analisis Regresi Robus dengan metode robust Least Trimmed Square
(LTS) dan metode MM-Estimastion.
Langkah selanjutnya adalah melakukan analisis regresi untuk mendapatkan
nila estimasi parameter dari data tersebut menggunakan metode robust Least
Trimmed Square (LTS) dan metode MM-Estimastion. Selanjutnya dapat
dibandingkan metode mana yang lebih efektif digunakan untuk menyelesaikan
masalah regresi, perbandingan metode dengan melihat dan residuanya.
.
30
4.4.1 Regresi Robust Estimasi Least Trimmed Square
Penerapan metode Least Trimmed Square (LTS) memerlukan beberapa
iterasi untuk mendapatkan model terbaik. Pada iterasi 1 diperoleh persamaan
model
Karena *
+ *
+ , maka pada iterasi selanjutnya
digunakan data sebanyak 28 dengan mengambil yang terkecil. Estimasi
dilakukan dengan menggunakan batuan software Microsoft Excel dan SPSS,
dapat dilihat pada lampiran 4. Dalam litersi dengan 28 data, diperoleh persamaan
model
dan ∑
0,127,
Jika di tulis dalam satu tabel, penyelesaian menggunakan metode Least
Trimmed Square (LTS) di peroleh penaksiran robust sebagai berikut:
Tabel 4.2. Hasil iterasi Least Trimmed Square (LTS)
Tahap N H
∑
1 52 28 2,9338 0,0062 0,00518 2,2204
2 28 16 3,015 0,007 0,003 0,127
4.4.2. Regresi Robust Estimasi-MM
Sama halnya dengan metode Least Trimmed Square (LTS), pada metode
MM-Estimator memerlukan beberapa interasi dalam pengerjaannya. Pada metode
MM-Estimator, peneliti menggunakan pembobot tukey, maka c= 4,685. Karena
metode MM-Estimation merupakan gabunagn dari metode M-Estimation dan S-
Estimation, maka untuk menyelesaikan langkah pertama yaitu mencari estimator
S, kemudian menetapkan parameter-parameter regresi menggunakan metode M-
estimation.
Pada intersi 1, diperoleh parameter dari S-Estimation seperti pada Tabel 4.3.
31
Tabel 4.3. Parameter S-Estimator
Parameter Nilai
2,934
0,006
0,005
Dari perhitungan parameter dari S-estimator tersebut di gunakan mencari
nilai residual
selanjutnya digunakan untuk memperoleh nilai pembobot
.
Besarnya
pada interasi 2 digunakan sebagai nilai WLS pada iterasi 3, untuk
mendapatkan persamaan regresi robusnya. Dengan bantuan software SPSS
diperoleh output seperti di Lampiran 9.
Dari tabel perhitungan di peroleh persamaan
. Dengan persamaan tersebut diperoleh
nilai
∑
=0,78904. Selanjutanya lakukan interasi dengan
sebagai WLS dan
diperoleh output seperti pada Lampiran 7.
` Hasil perhitungan dengan SPSS diperoleh persamaan yang sama dengan
interasi sebelumnya, ini berarti iterasinya cukup sebanyak dua kali. Dengan
persamaan yang dipakai adalah persamaan regresi yang terakhir, yaitu
dan ∑
=0,89304.
Dengan kata lain, untuk data tersebut diperoleh penaksiran robust sebagai
berikut:
Tabel 4.4. Hasil iterasi MM-Estimation
Tahap N
∑
1 52 2,934 0,0062 0,00518 0,7890
2 52 2,932 0,006 0,005 0,78904
3 52 2,932 0,006 0,005 0,89304
Berdasarkan Tabel 4.4 jelas terlihat ∑
sudah konvergen. Sehingga
32
persamaan yang paling terakhir yang paling baik yang diperoleh menggunakan
metode MM-Estimation adalah
4.4.3 Pemilihan Model Regresi Terbaik
Tahapan pemilihan model regresi terbaik dimulai dengan melihat nilai
dan nilai residual dari model regresinya.
Tabel 4.5 Perbandingan Nilai dari metode LTS dan metode MM-Estimation
NO Motode
Regresi
∑
1 LTS 3,015 0,007 0,003 0,127 0,560
2 MM-
Estimation
2,932 0,006 0,005 0,89304 0,172
Dari Tabel 4.5 dapat dilihat bahwa pada model regresi pada model Least
Trimmed Square nilai nya adalah 0,560. Sedangkan pada metode MM-
Estimation nilai nya adalah 0, 172. Ini berarti model regresi pada model Least
Trimmed Square memberikan pengaruh yang lebih besar yaitu sebesar 56,0%
dibandingkan dengan metode MM-Estimation yang hanya memberikan pengaruh
sebanyak 17,2,. Dilihat dari nilai residualnya model Least Trimmed Square lebih
kecil sebesar 0,127 sedangkan MM-Estimation nilai residualnya sebesar 0,89304.
Dengan demikian, model Least Trimmed Square (LTS) merupakan metode
terbaik untuk mengestimasi parameter pada saat data terdeteksi mengandung
outlier karena yang lebih banyak dan residual terkecil.
4.5 Pembahasan
Berdasarkan hasil penelitian, diketahui bahwa data yang diperoleh dari
nilai Ujian PMB UPGRIS dengan nilai IPK Mahasiswa Universitas PGRI
Semarang dari Prodi Pendidikan Matematika, merupakan data diskrit yang
meliputi 3 (tiga) variabel yaitu Nilai Tes (X1), Tes Psikologi (X2) dan IPK (Y).
Setelah memenuhi semua asumsi dalam regresi ganda, dilakukan
33
pengecekan outlier didata tersebut. yakni dilakukan dengan berbagai macam
metode. Beberapa metode diantaranya sebagai berikut:
Metode boxplot ini disajikan dalam bentuk perhitungan manual maupun
dengan bantuan sofware komputer. Hasil Boxplot Dengan metode boxplot, suatu
data dikatan outlier jika nilai data pengamatan lebih kecil dari Q1-(1,5*IQR) atau
lebih besar dari Q3+(1,5*IQR). Dari kertiga tampilan boxplot di atas dapat
terlihat bahwa data ke 4 dan data ke-9 merupakan outlier.
Dengan metode Cook’s Distance Hasil diagnosis metode cook’s distance
pada tiap observasi terhadap data juga dapat dilihat tabel 4.1 maupun gambar 4.2.
suatu observasi diduga sebagai outlier apabila nilai Cook’s distance >(4/n),
dengan n adalah banyaknya data. Berdasarkan hasil yang diperoleh pada tabel 4.1
nilai Cook’s distance pada data ke-1. 4 dan 9 diduga sebagai outlier karena
memiliki nilai Cook’s disance yang lebih besar dari nilai (4/n)= 0,07692.
Selanjutnya pada hasil pengolahan data menggunakan metode DfFIS untuk
masing-masing data seperti pada lampiran. Dengan ketentuan jika nilai DfFIT
masing-masing data yang lebih dari √
maka dikategorikan sebagai outlier.
Batas nilai penentuan berdasarkan DfFIT> 0,4803 merupakan data outlier. Dari
data pada lampiran 3 terlihat data yang mempunyai nilai DfFIT >0,4803, data
yang mendekati outlier data ke-4.
Selajutanya dilakukan analisis regresi menggunakan metode robust untuk
data yang mengandung outlier, agar hasil regresi yang dihasilan lebih tepat.
Langkah selanjutnya adalah melakukan analisis regresi untuk mendapatkan nila
estimasi parameter dari data tersebut menggunakan metode robust Least Trimmed
Square (LTS) dan metode MM-Estimastion. Selanjutnya dapat dibandingkan
metode mana yang lebih efektif digunakan untuk menyelesaikan masalah regresi,
perbandingan metode dengan melihat dan residuanya. Pada metode yang
pertama dalam regresi robust Least Trimmed square (LTS) dihasilkan model
regresi dan ∑
0,127. Persamaan
tersebut diperoleh dari beberapa iterasi, yakni terjadi pada iterasi yang ke-2. Hal
ini terjadi karena pada iterasi ke-3, data outlier tidak termasuk didalamnya, hal ini
tidak sesuai dengan konsep regresi robust yaitu tetap mengikuti sertakan data
outlier dalam menemukan model persamaan regresi. Pada model Least Trimmed
34
Square (LTS) juga terjadi pemangkasan sejumlah data sebesar h, dimana nilai h
didapat dari rumusan *
+ *
+. Inilah yang menyebabkan nilai jumlah
kuadrat residualnya pada metode ini semakin kecil dari itersi 1 sampai iterasi
terakhir. Nilai yang didapatkan dalam metode ini adalah 0,560. Hal ini
menunjukkan bahwa variabel independent akan memberikan pengaruh yang
cukup besar terhadap variabel dependent.
Selanjutnya dalam perhitungan regresi yang menggunakan metode MM-
Estimation diperoleh hasil model .
Pada model ini yang menggunakan metode MM-Estimation juga mengalami 2
iterasi untuk sampai pada model regresi terbaik. Nilai residual yang didapat dari
metode ini didapat yakni ∑
0,89304. Sedangkan nilai yang didapat
dalam metode ini adalah 0,172. Ini menunjukkkan bahwa model regresi yang
diperoleh tadi lemah atau kurang baik digunakan untuk memprediksi.
Pada penelitian ini peneliti membandingkan nilai dari masing-masing
model regresi pada metode pada metode Least Trimmed Square dan metode
MM-Estimation. Karena nilai dari metode Least Trimmed Square lebih besar
dibandingkan metode MM-Estimation, maka metode Least Trimmed Square lebih
efektif jika dibandingkan metode MM_Estimation. Untuk nilai residual, jika
nilai residualnya semakin besar atau dengan kata lain menjauhi nol (0), maka
persamaan yang dihasilkan kurang baik.
Tabel 4.6 Nilai residul metode LTS dan metode MM-Estimation
NO Motode Regresi
∑| |
1 LTS 1,58062 0,560
2 MM-Estimation 8,403 0,172
Dari Tabel 4.6 terlihat bahwa metode Least Trimmed Square (LTS)
mempunyai nilai residual yang lebih kecil, hal ini disebabkan adanya
pemangkasan (trimmed) data. Jadi, sama halnya dengan nilai , nilai metode
Least Trimmed Square (LTS) juga lebih baik jika dibandingkan dengan metode
MM-Estimation.
35
BAB V
SIMPULAN DAN SARAN
5.1 Simpulan
Berdasarkan hasil penelitian dan pembahasan dapat disimpulkan sebagai
berikut.
1. Sebelum dilakukan analisis dengan regresi robust, dilakukan pendeteksian
outlier untuk mengindetifikasi adanya oulier atau tidak. Metode pendeteksian
oulier dilakukan dengan beberapa, antara lain metode boxplot, Cook’s
Distance, dan metode DfFIT (Difference In fit Standardized). Berdasarkan
hasil perhitungan diperoleh nilai Cook’s distance pada data ke-1. 4 dan 9
diduga sebagai outlier karena memiliki nilai Cook’s disance yang lebih besar
dari nilai (4/n)= 0,07692. Sedangkan untuk nilai penentuan berdasarkan
DfFIT> 0,4803, data yang mendekati outlier data ke-4. Sehingga data terlihat
terdapat data outlier, maka dapat digunakan regresi robust.
2. Pada metode yang pertama dalam regresi robust Least Trimmed square
(LTS) dihasilkan model regresi dan
∑
0,127.
3. Untuk persamaan regresi rebust dengan metode MM-Estimation diperoleh
persamaan, yaitu dan ∑
=0,89304.
4. Regresi robust merupakan metode yang sesuai untuk pendugaan parameter
Penduga Least Trimmed Square (LTS) lebih baik daripada Penduga MM. Hal ini
didasarkan pada kriteria nilai dan residualnya, hal ini disebabakan adanya
pemangkasan (trimmed) terhadap data yang mempunyai residual besar.
5.2 Saran
1. Apabila menjumpai data outlier dalam data observasi. Tidak perlu
membuang outlier tersebut, karena regresi robust dapat menghasilkan model
regresi yang risisten terhadap outlier.
2. Sebaiknya mencoba lagi metode-metode estimasi regresi robust yang lain
sebagai alternatif untuk mengatasai permasalahan outlier yang tidak adapat
diselesaikan dengan OLS
36
DAFTAR PUSTAKA
Chen, C., (2002), Robust Regression and Outlier Detection with the ROBUSTREG
Procedure, SAS Institute Inc. Cary NC Paper, 265(27), hal 1-13.
Draper, N.R dan Smith, H., (1992), Analisis Regresi Terapan, Diterjemahkan oleh
Bambang Sumantri, Gramedia, Jakarta.
Fox, J. 2002. Robust Regression. Appendix to An R and S-PLUS Companion to
Applied Regression.
Hogg, R.V,dkk. 2005. Introduction to Mathematical Statistics, USA: Pearson
Prentice Hall.
Hubert, M, Rousseeuw, P.J, Aelst, S.V. 2008. High-Breakdown Robust
Multivariate Methods. Statistical Science. Vol.23.No.1.92-119.
Iswarini, T.H., (2011), Perbandingan Robust Least Median Square (LMS) dan Robust-
MM sebagai Metode Pendugaan Parameter pada Regresi Robust Linier
Berganda, Skripsi, Universitas Brawijaya Malang. Indonesia.
Rousseeuw, P. J and Yohai, V. J., (1984), Robust Regression by Means of S Estimator
in Robust and Nonlinier Time Series Analysis,edited by J. Franke, W, Hardle,
and R.D. Martin, Lecture Notes in Statistics 26, Springer Verlag, New York, hal.
256-272.
Ryan, T.P., (1997), Modern Regression Models, John Wiley & Sons, New York.
Yohai, V. J., (1987), High Breakdown Point and High Efficiency Robust
Estimates for Regression, Annals of Statistics, 15(20), hal 642-656.
Soemartini. 2007. Pencilan (Outlier). Universitas Padjadjaran, Bandung. Melalui
http://resources.unpad.ac.id/unpad-content/uploads/publikasi_dosen/
OUTLIER(PENCILAN).pdf
Subali, S.B.W. 2004. Estimasi Robust dengan Least Median Squares and Least Trimmed
Squares Pada Model Regresi Linier Parametrik. Tesis. 2004. ITS. Surabaya.
37
Lampiran 1
Biodata Peneliti
I. Biodata Ketua Peneliti
A. Identitas Diri
1 Nama Lengkap (dengan gelar) Ali Shodiqin, S.Si., M.Si.
2 Jenis Kelamin Laki-laki
3 Jabatan Fungsional Asisten Ahli /IIIb
4 NIP/NIK/Identitas lainnya 108101286
5 NIDN 0603108102
6 Tempat dan Tanggal Lahir Grobogan, 03 Oktober 1981
7 Alamat Rumah Jl. Sedayo Indah No. 29 RT 11 RW.02
Banget Ayu Wetan, Kec. Genuk Kota
Semarang
8 Nomor Telepon/Faks/ HP HP 08560018701
9 Alamat e-mail [email protected]
10 Lulusan yang Telah Dihasilkan S-1 = - Orang; S-2= - Orang; S-3
11 Mata Kuliah yg Diampu 1. Kalkulus
2. Komputasi
3. Statistika Matematika
B. Riwayat Pendidikan
S-1 S-2
Nama Perguruan
Tinggi
UNNES IPB
Bidang Ilmu Matematika Matematika Terapan
Th Masuk-Lulus 2000 – 2005 2007 – 2009
Judul Skripsi/ Thesis/
Disertasi
Penarikan Rasio pada Sampel
berstrata.
Studi strategi untuk
mendapatkan besar
dividen yang optimal dari
38
proses surplus
Nama Pembimbing/
Promotor
Dra. Nurkaromah, M.Si
Drs. Walid, M.Si
Dr. I.Gusti Putu
Purnaba DEA
Ir. Retno Bidiarti, M.S
C. Pengalaman Penelitian Dalam 5 Tahun Terakhir
(Bukan Skripsi, Tesis, maupun Disertasi)
No. Tahun Judul Riset Pe ndanaan
Sumber Jumlah
(Juta)
1. 2007 Pembelajaran Matematika dengan Bantuan
Software Mathematica untuk
Meningkatkan Hasil Belajar Matematik
Mahasiswa Calon Guru Matematika (Studi
Eksperimen Pada Mahasiswa Calon Guru
Matematika di IKIP PGRI Semarang).
IKIP
PGRI
5
2. 2008 Analisis Proses Berpikir Mahasiswa
Pendididikan Matematika dalam
Menyelesaikan Masalah pada Mata Kuliah
Kalkulus II.
IKIP
PGRI
6
3. 2009 Proses Berfikir Siswa Berkemampuan
Tinggi Kelas IX-1 SMA Negeri 1
Grobogan dalam Memecahkan Masalah
Matematika
IKIP
PGRI
5
4. 2009 Pembelajaran dengan media Software
Mathematica melalui pendekatan Open-
Ended dalam meningkatkan Kemampuan
Penalaran dan Pemahaman Kalkulus
IKIP
PGRI
6
5 2011 Peluang Kebangkrutan Perusahaan
Asuransi pada Waktu kedatangan Klaim
menyebar Eksponensial
IKIP
PGRI
8
6 2012 Peluang Kebangkrutan Perusahaan
Asuransi pada Waktu kedatangan Klaim
berdistribusi Gamma (2, )
IKIP
PGRI
6
7 2012 Pengembangan Bahan Ajar Matematika
SMA Berbasis Software Mathematica
dengan Pendekatan Matematika Realistik
Dikti 49,125
39
D. Pengalaman Pengabdian Kepada Masyarakat Dalam 5 Tahun Terakhir
No. Tahun
Judul
Pendanaan
Sumber Jumlah
(Juta)
1 2010 Pelatihan penggunaan Software
Mathematica dalam pembelajaran
matematika bagi Guru SMA di Kota
Semarang
IKIP
PGRI
Semarang
5
2 2011 Penyusunan Perangkat Pembelajaran
Berbasis Pendidikan Karakter Nagi
Guru Madrasah Aliyah Se-Kota
Semarang
IKIP
PGRI
Semarang
5
3 2012 Pelatihan Pendidikan Karakter Bangsa
bagi Guru Madrasah Tsanawiyyah
Husnul Khatimah Kota Semarang
dengan Melalui Penyusunan Perangkat
Pembelajaran Berbasis Pendidikan
Karakter
IKIP
PGRI
6
4 2013 Pengabdian dengan Judul IbM MGMP
Guru Matematika SMK Kabupaten
Grobogan
IKIP
PGRI
6
E. Pengalaman Penulisan Artikel Ilmiah dalam Jurnal dalam 5 Tahun Terakhir
No Judul Artikel Ilmiah Volume/Nomor/
Tahun
Nama
Jurnal
8 2012 Kesalahan Proses Berpikir Siswa Kelas VII
Sekolah Menengah Pertama (SMP) Dalam
Memecahkan Masalah Matematika
Dikti 41,375
9 2013 Pengembangan Buku Ajar Matematika
SMP dengan Pendekatan Metakognitif
Berbasis Software Mathematica Untuk
Pembelajaran Pada Kurikulum 2013
Dikti 26
40
1 Pembelajaran Matematika dengan Bantuan
Software Mathematica untuk Meningkatkan
Hasil Belajar Matematik Mahasiswa Calon
Guru Matematika (Studi Eksperimen Pada
Mahasiswa Calon Guru Matematika di IKIP
PGRI Semarang).
ISSN : 2086-
2725 , Vol.2,
No. 1 Maret
2010,
Aksioma
IKIP
PGRI
Semaran
F. Pengalaman Penyampaian Makalah Secara Oral Pada Pertemuan / Seminar
Ilmiah Dalam 5 Tahun Terakhir
No Nama Pertemuan Ilmiah /
Seminar
Judul Artikel Ilmiah Waktu dan
Tempat
1 Seminar Nasional“Peningkatan
Kontribusi Penelitian dan
Pembelajaran Matematika dalam
Upaya Pembentukan Karakter
Bangsa”
Strategi untuk
Mendapatkan Besar
Dividen yang Optimal
dari Proses Surplus
27 November
2010 di UNY
2 Seminar Nasional Lesson Study Penerapan Lesson Study
dalam Pembelajaran
Matematika untuk
Membentuk Pendidikan
yang Berkarakter
2 Maret 2011
di IKIP PGRI
Semarang
3 Seminar Nasional Matematika “
Matematika dan Pendidikan
Matematika Berbasis Riset”
Peluang Kebangkrutan
Perusahaan Asuransi
dimana Waktu Antar
Kedatangan Klaim
Menyebar Eksponensial
6 Oktober
2012 di UNS
4 Seminar Matematika di UNNES Pembelajaran dengan
Media Software
Mathematica Melalui
Pendekatan Open-
Ended dalam
Meningkatkan
Kemampuan Penalaran
dan Pemahaman
Kalkulus
November
2013 di
UNNES
5 Seminar Matematika di UNESA Peluang Bertahan
Perusahaan Asuransi
dari Kebangkrutan pada
Waktu kedatangan
Klaim Berdistribusi
Gamma (2, )
18 Mei 2013 di
FMIPA Unesa
42
II. Biodata Anggota Peneliti I
A. Identitas Diri
1 Nama lengkap (dengan gelar) : Aurora Nur Aini, S.Si., M.Sc.
2 Pangkat/ Golongan : Penata Muda Tk. I/ IIIb
3 Jabatan Akademik : Asisten Ahli
4 NPP : 148701449
5 NIDN : 0626088701
6 Tempat dan Tanggal Lahir : Kebumen, 26 Agustus 1987
7 Alamat rumah : Jl. Dliwang, Rt. 5/ Rw. 3 Ungaran,
Ungaran Barat, Kab. Semarang
8 Nomor Telepon/Fax/ Hp : 085640833960
9 Alamat Kantor : Jl. Sidodadi Timur no.24/ Dr. Cipto
Semarang
10 Nomor Telepon/ Fax : (024) 8316377 / (024) 8448217
11 Alamat e-mail : [email protected]
12 Lulusan yang telah dihasilkan : S-1= 8 orang, S-2= - orang, S-3=
- orang
13 Mata Kuliah Yang Diampu 1. Algoritma Pemrograman
2. Metode Numerik
B. Riwayat Pendidikan
S-1 S-2
Nama Perguruan Tinggi Universitas Diponegoro Universitas Gadjah
Mada
Bidang Ilmu Matematika Matematika
Tahun Masuk-Lulus 2005-2009 20011-2014
Judul Skripsi/ Thesis/
Disertasi
Kode Lexicographic untuk
membangun kode Hamming
(7, 4, 3) dan Perluasan Kode
Golay (24, 12, 8)
Analisis dan Bifurkasi
Model Penyakit
Dengue dengan Dua
Strain Virus
Nama
Pembimbingan/Promotor
Bambang Irawanto, M.Si
Dr. Fajar Adi
Kusumo, M.Si.
C. Pengalaman Penelitian Dalam 5 Tahun Terakhir (Bukan Skripsi, Tesis,
maupun Disertasi)
44
II. Anggota Peneliti (2)
1. Identitas Diri
1 Nama Lengkap (dengan gelar) Maya Rini Rubowo, S.Pd, M.Si
2 Jenis Kelamin Perempuan
3 Jabatan Fungsional Tenaga Pengajar
4 NIP/NIK/Identitas lainnya 107401289
5 NIDN 0621057404
6 Tempat dan Tanggal Lahir Semarang, 21 Mei 1974
7 E-mail [email protected]
8 Nomor Telepon / HP 0246714438 / 08122921664
9 Alamat Kantor Jl. Sidodadi Timur No 24 Semarang
10 Nomor Telepon/Faks 024-8316377/ 024-8448217
11 Lulusan yang telah dihasilkan S1 = 25 orang
12 Mata kuliah yang diampu 1. Teori Peluang
2. Statistika Dasar
3. Aljabar Linear 1 dan 2
4. StrukturAljabar 1 dan 2
5. Analisis Kompleks
2. Riwayat Pendidikan
S-1 S-2
Nama Perguruan
Tinggi
IKIP Semarang Universitas Gadjah Mada
Yogyakarta
Bidang Ilmu Pendidikan Matematika Matematika
Tahun Masuk-
Lulus
1992-1997 1999-2002
Judul
Skripsi/Thesis/Dise
rtasi
Studi Empiris dan
Simulasi Hampiran
Bootstrap Sisa pada
Penaksir Kuadrat
Terkecil Parameter
Regresi Linier
Sederhana
Aplikasi Invers
Tergeneralisasi Matriks pada
Penyelesaian Beberapa
Macam Sistem Persamaan
Linear Matriks
NamaPembimbing/
Promotor
Drs. Dwijanto, MS Prof. Drs. Setiadji, MS
45
Drs. Sugiman, M.Si
3. Pengalaman Penelitian dalam 5 Tahun Terakhir
NO Tahun Judul Penelitian
Pendanaan
Sumber Jumlah
(juta)
1 2011 Pembelajaran dengan Strategi
Kombinasi Langsung-Tidak Langsung
pada mata kuliah Kalkulus 2 untuk
Meningkatkan Pemahaman Konsep dan
Kemampuan Luar Akademik soft skill
Mahasiswa di Jurusan Pendidikan
Matematika IKIP PGRI Semarang.
APBI
IKIP
PGRI
4
2 2012 Eksperimentasi Metode Diskusi
Termodifikasi pada Mata Kuliah
Strategi Pembelajaran Matematika
Ditinjau Dari Gaya Kognitif Mahasiswa
APBI
IKIP
PGRI
6
3 2013 Efektivitas Pembelajaran dengan
Pendekatan Konstruktivisme Berbasis
Berpikir Analisis pada Materi Analisis
Kompleks Semester VII
APBI
IKIP
PGRI
5
4 2014 One Stay – The Rest Stray untuk
Meningkatkan Kemampuan Komunikasi
Matematis Mahasiswa Pendidikan
Matematika FPMIPA IKIP PGRI
Semarang pada Mata Kuliah Aljabar
Linear 2
APBI
IKIP
PGRI
6.5
5 2014 Pengembangan Perangkat Pembelajaran
Matematika Berbasis Scientific
Learning untuk Membentuk Pola
Berpikir Analisis dan Budaya Santun
Mahasiswa pada Mata Kuliah
Trigonometri
Hibah
APBI
Universita
s PGRI
7,5
6 2015 Pengembangan Modul Teori Ring untuk
Meningkatkan Kemampuan Berpikir
Kritis dan Karakter Mahasiswa
Matematika Universitas PGRI
Semarang pada Mata Kuliah Struktur
Aljabar 2
APBI
Universita
s PGRI
6,75
46
4. Pengalaman Pengabdian Kepada Masyarakat Dalam 5 Tahun
Terakhir
No Tahun Judul Pengabdian kepada
Masyarakat
Pendanaan
Sumber Jumlah
(Juta)
1 2012 Pelatihan dan Workshop Pembelajaran
Matematika dengan e-Learning bagi
Guru SMP di Kota Semarang
APBI IKIP
PGRI
5
2 2012 Pelatihan Pembuatan Pupuk Kompos di
Kelurahan Mlatibaru Kecamatan
Semarang Timur Program KKN
Posdaya dalam Mewujudkan Kota
Layak Anak
APBI IKIP
PGRI
4,2
3 2013 Pelatihan untuk Meningkatkan Kinerja
Guru Matematika SMP Se Kabupaten
Pati Melalui Pembelajaran Kreatif dan
Inovatif
APBI IKIP
PGRI
6,25
4 2014 IbM bagi Guru MGMP SMA Mata
Pelajaran Matematika Se-Kabupaten
Kudus
APBI
Universitas
PGRI
6
5. Pemakalah Seminar Ilmiah (Oral Presentation) dalam 5 Tahun
Terakhir
No Nama Pertemuan
Ilmiah/Seminar Judul Artikel Ilmiah Waktu dan Tempat
1 Seminar Hasil-
hasilPenelitian
LPPM IKIP PGRI
Semarang
Pembelajaran dengan Strategi
Kombinasi Langsung-Tidak
Langsung pada Mata Kuliah
Kalkulus 2 untuk Meningkatkan
Pemahaman Konsep dan
Kemempuan Luar Akademik (Soft
Skill) Mahasiswa di Jurusan
Pendidikan Matematika. Prosiding
Seminar Hasil-hasil Penelitian
LPPM IKIP PGRI Semarang
ISBN : 978-602-8047-50-0.
Semarang, 2012
48
Lampiran 2
Data Ujian PMB dan IPK dari Mahasiswa Prodi Pendidikan Matematika Universitas
PGRI Semarang yak berupa nilai Tes (X1), Tes Psikologi (X2) dan IPK (Y)
NO NPM NO TEST NILAI Tes Psikologi IPK
1 15310001 1115311500140 32 30 3,6
2 15310003 1115313300004 28 72 3,64
3 15310004 1115314200198 44 69 3,45
4 15310005 1115313200323 36 91 3,83
5 15310006 1115311200349 36 69 3,76
6 15310007 1115314100343 30 65 3,38
7 15310008 1115123100139 24 52 3,55
8 15310011 1115312200008 40 60 3,1
9 15310013 1115316700243 22 28 2,83
10 15310015 1115342200133 24 30 3,07
11 15310016 1115314100447 28 61 3,38
12 15310017 1115314100287 40 60 3,43
13 15310020 1115313300334 26 42 3,6
14 15310021 1115314100043 42 50 3,31
15 15310022 1115313400398 30 53 3,31
16 15310025 1115313200093 32 50 3,38
17 15310027 1115313400055 30 45 3,05
18 15310031 1115313300128 24 65 3,36
19 15310032 1215314200908 36 45 3,36
20 15320001 1115326400177 34 34 3,3
21 15320002 1115123200123 22 32 3,73
22 15320003 1115323500162 32 41 3,46
23 15320013 1215324200847 48 52 3,3
24 15320015 1215326700724 26 60 3
25 15320017 1215123200665 32 65 3,6
26 15320018 1215321200753 54 50 3,58
27 15320019 1215324100633 34 45 3,04
28 15320021 1215323100659 46 60 3,58
29 15320022 1215321100638 24 56 3,31
30 15320023 1215321200969 38 60 3,4
31 15320024 1215326400701 42 62 3,55
32 15320025 1215321200798 30 29 2,93
33 15320026 1215326800865 32 67 3,83
34 15320027 1215323100446 42 40 3,61
35 15330001 1115334200131 32 56 3,53
36 15330002 1115334200110 34 45 3,08
37 15330004 1115331200291 24 35 3,28
38 15330006 1115331200229 34 45 3,21
39 15330008 1115331200081 38 61 3,64
49
40 15330010 1115333100365 48 64 3,46
41 15330012 1215333200836 38 42 3,64
42 15330013 1215331200896 46 35 3,7
43 15340002 1115123700313 18 67 3,3
44 15340003 1115416700235 24 55 3,26
45 15340004 1115374100138 24 53 3,46
46 15340005 1215376900781 24 52 3,3
47 15340006 1215376700728 42 67 3,59
48 15410004 1115412200340 35 61 3,41
49 15410005 1115411200459 16 50 3,3
50 15410006 1115413200125 26 32 3,64
51 15410007 1115414200399 38,33 65 3,46
52 15410008 1115411500335 38,33 52 3,44
50
Lampiran 3
Nilai Cook’s Distance
NO NILAI TES Tes Psikologi IPK COOK'S JENIS DATA
1 32 30 3,6 0,06313 Bukan
2 28 72 3,64 0,01718 Bukan
3 44 69 3,45 0,00784 Bukan
4 36 91 3,83 0,08203 Outlier
5 36 69 3,76 0,02433 Bukan
6 30 65 3,38 0,00197 Bukan
7 24 52 3,55 0,01358 Bukan
8 40 60 3,1 0,04352 Bukan
9 22 28 2,83 0,13905 Outlier
10 24 30 3,07 0,02106 Bukan
11 28 61 3,38 0,00056 Bukan
12 40 60 3,43 0,00108 Bukan
13 26 42 3,6 0,02699 Bukan
14 42 50 3,31 0,00731 Bukan
15 30 53 3,31 0,00119 Bukan
16 32 50 3,38 0,00002 Bukan
17 30 45 3,05 0,01885 Bukan
18 24 65 3,36 0,00204 Bukan
19 36 45 3,36 0,0002 Bukan
20 34 34 3,3 0,0002 Bukan
21 22 32 3,73 0,18429 Outlier
22 32 41 3,46 0,00356 Bukan
23 48 52 3,3 0,02966 Bukan
24 26 60 3 0,05846 Bukan
25 32 65 3,6 0,00531 Bukan
26 54 50 3,58 0,00442 Bukan
27 34 45 3,04 0,02315 Bukan
28 46 60 3,58 0,00149 Bukan
29 24 56 3,31 0,00147 Bukan
30 38 60 3,4 0,00148 Bukan
31 42 62 3,55 0,00047 Bukan
32 30 29 2,93 0,07896 Outlier
33 32 67 3,83 0,04456 Bukan
34 42 40 3,61 0,02535 Bukan
35 32 56 3,53 0,00192 Bukan
36 34 45 3,08 0,01798 Bukan
37 24 35 3,28 0,00015 Bukan
38 34 45 3,21 0,00569 Bukan
39 38 61 3,64 0,00597 Bukan
40 48 64 3,46 0,00793 Bukan
41 38 42 3,64 0,02195 Bukan
51
42 46 35 3,7 0,10196 Outlier
43 18 67 3,3 0,01024 Bukan
44 24 55 3,26 0,00422 Bukan
45 24 53 3,46 0,00375 Bukan
46 24 52 3,3 0,00091 Bukan
47 42 67 3,59 0,00116 Bukan
48 35 61 3,41 0,00067 Bukan
49 16 50 3,3 0,00006 Bukan
50 26 32 3,64 0,08665 Outlier
51 38,33 65 3,46 0,00072 Bukan
52 38,33 52 3,44 0 Bukan
Outlier = Nilai Cook > (4/52)
= Nilai Cook > 0,07692
52
Lampiran 4
Nilai DfFITS
NO NILAI TES Tes Psikologi IPK DfFIT Abs [DfFIT] Jenis Data
1 32 30 3,6 0,02536 0,02536 Bukan
2 28 72 3,64 0,01345 0,01345 Bukan
3 44 69 3,45 -0,00875 0,00875 Bukan
4 36 91 3,83 0,04506 0,04506 Bukan
5 36 69 3,76 0,01276 0,01276 Bukan
6 30 65 3,38 -0,00338 0,00338 Bukan
7 24 52 3,55 0,0089 0,0089 Bukan
8 40 60 3,1 -0,01456 0,01456 Bukan
9 22 28 2,83 -0,04407 0,04407 Bukan
10 24 30 3,07 -0,01563 0,01563 Bukan
11 28 61 3,38 -0,0017 0,0017 Bukan
12 40 60 3,43 -0,0023 0,0023 Bukan
13 26 42 3,6 0,01222 0,01222 Bukan
14 42 50 3,31 -0,00667 0,00667 Bukan
15 30 53 3,31 -0,0019 0,0019 Bukan
16 32 50 3,38 -0,00022 0,00022 Bukan
17 30 45 3,05 -0,00825 0,00825 Bukan
18 24 65 3,36 -0,00439 0,00439 Bukan
19 36 45 3,36 -0,0009 0,0009 Bukan
20 34 34 3,3 -0,00126 0,00126 Bukan
21 22 32 3,73 0,04632 0,04632 Bukan
22 32 41 3,46 0,00403 0,00403 Bukan
23 48 52 3,3 -0,01847 0,01847 Bukan
24 26 60 3 -0,01874 0,01874 Bukan
25 32 65 3,6 0,00527 0,00527 Bukan
26 54 50 3,58 0,00953 0,00953 Bukan
27 34 45 3,04 -0,00909 0,00909 Bukan
28 46 60 3,58 0,00368 0,00368 Bukan
29 24 56 3,31 -0,00307 0,00307 Bukan
30 38 60 3,4 -0,00246 0,00246 Bukan
31 42 62 3,55 0,00173 0,00173 Bukan
32 30 29 2,93 -0,02913 0,02913 Bukan
33 32 67 3,83 0,01647 0,01647 Bukan
34 42 40 3,61 0,01533 0,01533 Bukan
35 32 56 3,53 0,00236 0,00236 Bukan
36 34 45 3,08 -0,00802 0,00802 Bukan
37 24 35 3,28 0,00117 0,00117 Bukan
38 34 45 3,21 -0,00451 0,00451 Bukan
39 38 61 3,64 0,00506 0,00506 Bukan
40 48 64 3,46 -0,00966 0,00966 Bukan
41 38 42 3,64 0,01126 0,01126 Bukan
53
42 46 35 3,7 0,04062 0,04062 Bukan
43 18 67 3,3 -0,01322 0,01322 Bukan
44 24 55 3,26 -0,00512 0,00512 Bukan
45 24 53 3,46 0,00471 0,00471 Bukan
46 24 52 3,3 -0,00231 0,00231 Bukan
47 42 67 3,59 0,00299 0,00299 Bukan
48 35 61 3,41 -0,00158 0,00158 Bukan
49 16 50 3,3 0,00094 0,00094 Bukan
50 26 32 3,64 0,02883 0,02883 Bukan
51 38,33 65 3,46 -0,00199 0,00199 Bukan
52 38,33 52 3,44 0 0 Bukan
54
Lampiran 5 ( Metode LTS)
Iterasi 1
NO NILAI TES (X1) Tes Psikologi
(X2) IPK (Y)
Y^ e e^2
1 32 30,0 3,60
3,29 0,312 0,098
2 28 72,0 3,64
3,48 0,160 0,025
3 44 69,0 3,45
3,56 -0,114 0,013
4 36 91,0 3,83
3,63 0,202 0,041
5 36 69,0 3,76
3,51 0,246 0,060
6 30 65,0 3,38
3,46 -0,077 0,006
7 24 52,0 3,55
3,35 0,198 0,039
8 40 60,0 3,10
3,49 -0,393 0,154
9 22 28,0 2,83
3,22 -0,385 0,148
10 24 30,0 3,07
3,24 -0,168 0,028
11 28 61,0 3,38
3,42 -0,043 0,002
12 40 60,0 3,43
3,49 -0,063 0,004
13 26 42,0 3,60
3,31 0,287 0,083
14 42 50,0 3,31
3,45 -0,143 0,021
15 30 53,0 3,31
3,39 -0,084 0,007
16 32 50,0 3,38
3,39 -0,011 0,000
17 30 45,0 3,05
3,35 -0,303 0,092
18 24 65,0 3,36
3,42 -0,059 0,004
19 36 45,0 3,36
3,39 -0,030 0,001
20 34 34,0 3,30
3,32 -0,021 0,000
21 22 32,0 3,73
3,24 0,494 0,244
22 32 41,0 3,46
3,34 0,115 0,013
23 48 52,0 3,30
3,50 -0,201 0,040
24 26 60,0 3,00
3,41 -0,406 0,165
25 32 65,0 3,60
3,47 0,131 0,017
26 54 50,0 3,58
3,53 0,052 0,003
27 34 45,0 3,04
3,38 -0,338 0,114
28 46 60,0 3,58
3,53 0,050 0,003
29 24 56,0 3,31
3,37 -0,063 0,004
30 38 60,0 3,40
3,48 -0,080 0,006
31 42 62,0 3,55
3,52 0,035 0,001
32 30 29,0 2,93
3,27 -0,340 0,116
33 32 67,0 3,83
3,48 0,351 0,123
34 42 40,0 3,61
3,40 0,209 0,044
35 32 56,0 3,53
3,42 0,108 0,012
36 34 45,0 3,08
3,38 -0,298 0,089
37 24 35,0 3,28
3,26 0,016 0,000
38 34 45,0 3,21
3,38 -0,168 0,028
39 38 61,0 3,64
3,49 0,155 0,024
40 48 64,0 3,46
3,56 -0,103 0,011
55
41 38 42,0 3,64
3,39 0,253 0,064
42 46 35,0 3,70
3,40 0,300 0,090
43 18 67,0 3,30
3,39 -0,092 0,009
44 24 55,0 3,26
3,37 -0,108 0,012
45 24 53,0 3,46
3,36 0,103 0,011
46 24 52,0 3,30
3,35 -0,052 0,003
47 42 67,0 3,59
3,54 0,049 0,002
48 35 61,0 3,41
3,47 -0,057 0,003
49 16 50,0 3,30
3,29 0,008 0,000
50 26 32,0 3,64
3,26 0,379 0,144
51 38,33 65,0 3,46
3,51 -0,048 0,002
52 38,33 52,0 3,44
3,44 -0,001 0,000
Jumlah
177,31
177,3454 -0,035 2,2204
h0 = 28
56
Lampiran 6 ( Metode LTS)
Iterasi 2
NO NILAI TES
(X1)
Tes Psikologi
(X2) IPK (Y)
Y^ e e^2
1 38,33 52,0 3,44
3,44 0,001 0,000
2 16 50,0 3,30
3,28 0,023 0,001
3 32 50,0 3,38
3,39 -0,009 0,000
4 24 35,0 3,28
3,29 -0,008 0,000
5 34 34,0 3,30
3,36 -0,055 0,003
6 36 45,0 3,36
3,40 -0,042 0,002
7 42 62,0 3,55
3,50 0,055 0,003
8 28 61,0 3,38
3,39 -0,014 0,000
9 38,33 65,0 3,46
3,48 -0,018 0,000
10 42 67,0 3,59
3,51 0,080 0,006
11 46 60,0 3,58
3,52 0,063 0,004
12 24 52,0 3,30
3,34 -0,039 0,002
13 54 50,0 3,58
3,54 0,037 0,001
14 35 61,0 3,41
3,44 -0,033 0,001
15 24 65,0 3,36
3,38 -0,018 0,000
16 40 60,0 3,43
3,48 -0,045 0,002
17 24 56,0 3,31
3,35 -0,041 0,002
18 30 65,0 3,38
3,42 -0,040 0,002
19 38 60,0 3,40
3,46 -0,061 0,004
20 30 53,0 3,31
3,38 -0,074 0,005
21 18 67,0 3,30
3,34 -0,042 0,002
22 24 53,0 3,46
3,34 0,118 0,014
23 48 64,0 3,46
3,54 -0,083 0,007
24 24 55,0 3,26
3,35 -0,088 0,008
25 32 56,0 3,53
3,41 0,123 0,015
26 44 69,0 3,45
3,53 -0,080 0,006
27 32 41,0 3,46
3,36 0,098 0,010
28 32 65,0 3,60
3,43 0,166 0,028
Jumlah
95,62
95,64662 -0,027 0,127
57
Lampiran 7 (Metode MM-Estimation)
NO NILAI TES
(X1) Tes Psikologi (X2) IPK (Y)
Y^ e e^2
1 32 30,0 3,60
3,276 0,3240 0,105
2 28 72,0 3,64
3,462 0,1780 0,032
3 44 69,0 3,45
3,543 -0,0930 0,009
4 36 91,0 3,83
3,605 0,2250 0,051
5 36 69,0 3,76
3,495 0,2650 0,070
6 30 65,0 3,38
3,439 -0,0590 0,003
7 24 52,0 3,55
3,338 0,2120 0,045
8 40 60,0 3,10
3,474 -0,3740 0,140
9 22 28,0 2,83
3,206 -0,3760 0,141
10 24 30,0 3,07
3,228 -0,1580 0,025
11 28 61,0 3,38
3,407 -0,0270 0,001
12 40 60,0 3,43
3,474 -0,0440 0,002
13 26 42,0 3,60
3,300 0,3000 0,090
14 42 50,0 3,31
3,436 -0,1260 0,016
15 30 53,0 3,31
3,379 -0,0690 0,005
16 32 50,0 3,38
3,376 0,0040 0,000
17 30 45,0 3,05
3,339 -0,2890 0,084
18 24 65,0 3,36
3,403 -0,0430 0,002
19 36 45,0 3,36
3,375 -0,0150 0,000
20 34 34,0 3,30
3,308 -0,0080 0,000
21 22 32,0 3,73
3,226 0,5040 0,254
22 32 41,0 3,46
3,331 0,1290 0,017
23 48 52,0 3,30
3,482 -0,1820 0,033
24 26 60,0 3,00
3,390 -0,3900 0,152
25 32 65,0 3,60
3,451 0,1490 0,022
26 54 50,0 3,58
3,508 0,0720 0,005
27 34 45,0 3,04
3,363 -0,3230 0,104
28 46 60,0 3,58
3,510 0,0700 0,005
29 24 56,0 3,31
3,358 -0,0480 0,002
30 38 60,0 3,40
3,462 -0,0620 0,004
31 42 62,0 3,55
3,496 0,0540 0,003
32 30 29,0 2,93
3,259 -0,3290 0,108
33 32 67,0 3,83
3,461 0,3690 0,136
34 42 40,0 3,61
3,386 0,2240 0,050
35 32 56,0 3,53
3,406 0,1240 0,015
36 34 45,0 3,08
3,363 -0,2830 0,080
37 24 35,0 3,28
3,253 0,0270 0,001
38 34 45,0 3,21
3,363 -0,1530 0,023
39 38 61,0 3,64
3,467 0,1730 0,030
40 48 64,0 3,46
3,542 -0,0820 0,007
58
41 38 42,0 3,64
3,372 0,2680 0,072
42 46 35,0 3,70
3,385 0,3150 0,099
43 18 67,0 3,30
3,377 -0,0770 0,006
44 24 55,0 3,26
3,353 -0,0930 0,009
45 24 53,0 3,46
3,343 0,1170 0,014
46 24 52,0 3,30
3,338 -0,0380 0,001
47 42 67,0 3,59
3,521 0,0690 0,005
48 35 61,0 3,41
3,449 -0,0390 0,002
49 16 50,0 3,30
3,280 0,0200 0,000
50 26 32,0 3,64
3,250 0,3900 0,152
51 38,33 65,0 3,46
3,489 -0,0290 0,001
52 38,33 52,0 3,44
3,424 0,0160 0,000
Jumlah
177,31
176,521 0,7890 2,233
59
Lampiran 8 (MM-Estimation)
Iterasi 1
No
NILAI TES (X1)
Tes Psikologi
(X2) IPK (Y) Y^
1 32 30,0 3,60 3,276 0,324 1,5527 0,3209 0,20668
2 28 72,0 3,64 3,462 0,18 0,8530 0,1775 0,20807
3 44 69,0 3,45 3,543 -0,09 -0,4457 -0,0929 0,20851
4 36 91,0 3,83 3,605 0,23 1,0783 0,2240 0,20771
5 36 69,0 3,76 3,495 0,27 1,2699 0,2633 0,20734
6 30 65,0 3,38 3,439 -0,06 -0,2827 -0,0590 0,20860
7 24 52,0 3,55 3,338 0,21 1,0160 0,2111 0,20782
8 40 60,0 3,10 3,474 -0,37 -1,7923 -0,3692 0,20602
9 22 28,0 2,83 3,206 -0,38 -1,8019 -0,3712 0,20599
10 24 30,0 3,07 3,228 -0,16 -0,7572 -0,1576 0,20820
11 28 61,0 3,38 3,407 -0,03 -0,1294 -0,0270 0,20866
12 40 60,0 3,43 3,474 -0,04 -0,2109 -0,0440 0,20863
13 26 42,0 3,60 3,300 0,30 1,4377 0,2975 0,20696
14 42 50,0 3,31 3,436 -0,13 -0,6038 -0,1258 0,20837
15 30 53,0 3,31 3,379 -0,07 -0,3307 -0,0690 0,20858
16 32 50,0 3,38 3,376 0,00 0,0192 0,0040 0,20867
17 30 45,0 3,05 3,339 -0,29 -1,3850 -0,2868 0,20708
18 24 65,0 3,36 3,403 -0,04 -0,2061 -0,0430 0,20863
19 36 45,0 3,36 3,375 -0,02 -0,0719 -0,0150 0,20867
20 34 34,0 3,30 3,308 -0,01 -0,0383 -0,0080 0,20867
21 22 32,0 3,73 3,226 0,50 2,4153 0,4924 0,20387
22 32 41,0 3,46 3,331 0,13 0,6182 0,1288 0,20835
23 48 52,0 3,30 3,482 -0,18 -0,8722 -0,1815 0,20804
24 26 60,0 3,00 3,390 -0,39 -1,8690 -0,3846 0,20579
25 32 65,0 3,60 3,451 0,15 0,7140 0,1487 0,20825
26 54 50,0 3,58 3,508 0,07 0,3450 0,0720 0,20857
27 34 45,0 3,04 3,363 -0,32 -1,5479 -0,3199 0,20669
28 46 60,0 3,58 3,510 0,07 0,3355 0,0700 0,20858
29 24 56,0 3,31 3,358 -0,05 -0,2300 -0,0480 0,20863
30 38 60,0 3,40 3,462 -0,06 -0,2971 -0,0620 0,20860
31 42 62,0 3,55 3,496 0,05 0,2588 0,0540 0,20861
32 30 29,0 2,93 3,259 -0,33 -1,5767 -0,3258 0,20662
33 32 67,0 3,83 3,461 0,37 1,7683 0,3644 0,20609
34 42 40,0 3,61 3,386 0,22 1,0735 0,2230 0,20772
35 32 56,0 3,53 3,406 0,12 0,5942 0,1238 0,20838
𝜎𝑠 =0,20867
𝑒𝑖(1)
/𝜎𝑠 𝜓(𝑒𝑖(1)
/𝜎𝑠) 𝑤𝑖(1)
𝑒𝑖(1)
60
36 34 45,0 3,08 3,363 -0,28 -1,3562 -0,2809 0,20715
37 24 35,0 3,28 3,253 0,03 0,1294 0,0270 0,20866
38 34 45,0 3,21 3,363 -0,15 -0,7332 -0,1527 0,20823
39 38 61,0 3,64 3,467 0,17 0,8291 0,1725 0,20810
40 48 64,0 3,46 3,542 -0,08 -0,3930 -0,0819 0,20854
41 38 42,0 3,64 3,372 0,27 1,2843 0,2662 0,20731
42 46 35,0 3,70 3,385 0,32 1,5096 0,3122 0,20679
43 18 67,0 3,30 3,377 -0,08 -0,3690 -0,0770 0,20856
44 24 55,0 3,26 3,353 -0,09 -0,4457 -0,0929 0,20851
45 24 53,0 3,46 3,343 0,12 0,5607 0,1169 0,20841
46 24 52,0 3,30 3,338 -0,04 -0,1821 -0,0380 0,20864
47 42 67,0 3,59 3,521 0,07 0,3307 0,0690 0,20858
48 35 61,0 3,41 3,449 -0,04 -0,1869 -0,0390 0,20864
49 16 50,0 3,30 3,280 0,02 0,0958 0,0200 0,20866
50 26 32,0 3,64 3,250 0,39 1,8690 0,3846 0,20579
51 38,33 65,0 3,46 3,489 -0,03 -0,1389 -0,0290 0,20865
52 38,33 52,0 3,44 3,424 0,016 0,0768 0,0160 0,20867
Jumlah
177,31 0,78904
61
Lampiran 9 (MM-Estimation)
Iterasi 2
No NILAI
TES (X1)
Tes Psikologi
(X2) IPK (Y) Y^
1 32 30,0 3,60 3,274 0,33 1,5682 0,3229 0,20587
2 28 72,0 3,64 3,460 0,18 0,8659 0,1795 0,20727
3 44 69,0 3,45 3,541 -0,09 -0,4378 -0,0909 0,20772
4 36 91,0 3,83 3,603 0,23 1,0920 0,2259 0,20691
5 36 69,0 3,76 3,493 0,27 1,2844 0,2653 0,20653
6 30 65,0 3,38 3,437 -0,06 -0,2742 -0,0570 0,20782
7 24 52,0 3,55 3,336 0,21 1,0294 0,2131 0,20701
8 40 60,0 3,10 3,472 -0,37 -1,7895 -0,3673 0,20527
9 22 28,0 2,83 3,204 -0,37 -1,7991 -0,3692 0,20524
10 24 30,0 3,07 3,226 -0,16 -0,7504 -0,1557 0,20742
11 28 61,0 3,38 3,405 -0,02 -0,1203 -0,0250 0,20787
12 40 60,0 3,43 3,472 -0,04 -0,2020 -0,0420 0,20785
13 26 42,0 3,60 3,298 0,30 1,4528 0,2995 0,20616
14 42 50,0 3,31 3,434 -0,12 -0,5965 -0,1238 0,20759
15 30 53,0 3,31 3,377 -0,07 -0,3223 -0,0670 0,20779
16 32 50,0 3,38 3,374 0,01 0,0289 0,0060 0,20788
17 30 45,0 3,05 3,337 -0,29 -1,3806 -0,2848 0,20632
18 24 65,0 3,36 3,401 -0,04 -0,1972 -0,0410 0,20785
19 36 45,0 3,36 3,373 -0,01 -0,0625 -0,0130 0,20788
20 34 34,0 3,30 3,306 -0,01 -0,0289 -0,0060 0,20788
21 22 32,0 3,73 3,224 0,51 2,4341 0,4943 0,20306
22 32 41,0 3,46 3,329 0,13 0,6302 0,1308 0,20756
23 48 52,0 3,30 3,480 -0,18 -0,8659 -0,1795 0,20727
24 26 60,0 3,00 3,388 -0,39 -1,8665 -0,3827 0,20504
25 32 65,0 3,60 3,449 0,15 0,7264 0,1507 0,20745
26 54 50,0 3,58 3,506 0,07 0,3560 0,0740 0,20778
27 34 45,0 3,04 3,361 -0,32 -1,5442 -0,3180 0,20593
28 46 60,0 3,58 3,508 0,07 0,3464 0,0720 0,20778
29 24 56,0 3,31 3,356 -0,05 -0,2213 -0,0460 0,20784
30 38 60,0 3,40 3,460 -0,06 -0,2886 -0,0600 0,20781
31 42 62,0 3,55 3,494 0,06 0,2694 0,0560 0,20782
32 30 29,0 2,93 3,257 -0,33 -1,5730 -0,3238 0,20586
33 32 67,0 3,83 3,459 0,37 1,7847 0,3664 0,20528
34 42 40,0 3,61 3,384 0,23 1,0872 0,2249 0,20691
35 32 56,0 3,53 3,404 0,13 0,6061 0,1258 0,20758
36 34 45,0 3,08 3,361 -0,28 -1,3517 -0,2790 0,20639
𝑒𝑖(2)
𝜓(𝑒𝑖(2)
/𝜎𝑠) 𝑤𝑖(2)
𝑒𝑖(2)
/𝜎𝑠
𝜎𝑠 =0,20788
62
37 24 35,0 3,28 3,251 0,03 0,1395 0,0290 0,20786
38 34 45,0 3,21 3,361 -0,15 -0,7264 -0,1507 0,20745
39 38 61,0 3,64 3,465 0,18 0,8418 0,1745 0,20730
40 48 64,0 3,46 3,540 -0,08 -0,3848 -0,0800 0,20776
41 38 42,0 3,64 3,370 0,27 1,2988 0,2682 0,20650
42 46 35,0 3,70 3,383 0,32 1,5249 0,3141 0,20598
43 18 67,0 3,30 3,375 -0,08 -0,3608 -0,0750 0,20777
44 24 55,0 3,26 3,351 -0,09 -0,4378 -0,0909 0,20772
45 24 53,0 3,46 3,341 0,12 0,5724 0,1188 0,20761
46 24 52,0 3,30 3,336 -0,04 -0,1732 -0,0360 0,20786
47 42 67,0 3,59 3,519 0,07 0,3415 0,0710 0,20778
48 35 61,0 3,41 3,447 -0,04 -0,1780 -0,0370 0,20785
49 16 50,0 3,30 3,278 0,02 0,1058 0,0220 0,20787
50 26 32,0 3,64 3,248 0,39 1,8857 0,3865 0,20498
51 38,33 65,0 3,46 3,487 -0,03 -0,1298 -0,0270 0,20787
52 38,33 52,0 3,44 3,422 0,018 0,0867 0,0180 0,20787
Jumlah
177,31 0,89304
63
Lampiran 10
Iterasi 1 ( Metode Least Trimmed Square)
Regression
Variables Entered/Removeda
Model Variables Entered Variables
Removed
Method
1 X2, X1b . Enter
a. Dependent Variable: Y
b. All requested variables entered.
Model Summaryb
Model R R Square Adjusted R
Square
Std. Error of the
Estimate
1 ,413a ,171 ,137 ,21287
a. Predictors: (Constant), X2, X1
b. Dependent Variable: Y
ANOVAa
Model Sum of Squares df Mean Square F Sig.
1
Regression ,458 2 ,229 5,051 ,010b
Residual 2,220 49 ,045
Total 2,678 51
a. Dependent Variable: Y
b. Predictors: (Constant), X2, X1
Coefficientsa
Model Unstandardized Coefficients Standardized
Coefficients
t Sig.
B Std. Error Beta
1
(Constant) 2,934 ,154 19,077 ,000
X1 ,006 ,004 ,226 1,702 ,095
X2 ,005 ,002 ,303 2,284 ,027
a. Dependent Variable: Y
64
Lampiran 11
Iterasi 2 ( Metode Least Trimmed Square)
Regression
[DataSet0]
Variables Entered/Removeda
Model Variables Entered Variables
Removed
Method
1 ItX2, ItX1b . Enter
a. Dependent Variable: Y
b. All requested variables entered.
Model Summary
Model R R Square Adjusted R
Square
Std. Error of the
Estimate
1 ,748a ,560 ,524 ,07123
a. Predictors: (Constant), ItX2, ItX1
ANOVAa
Model Sum of Squares df Mean Square F Sig.
1
Regression ,161 2 ,081 15,888 ,000b
Residual ,127 25 ,005
Total ,288 27
a. Dependent Variable: Y
b. Predictors: (Constant), ItX2, ItX1
Coefficientsa
Model Unstandardized Coefficients Standardized
Coefficients
t Sig.
B Std. Error Beta
1
(Constant) 3,015 ,090 33,500 ,000
ItX1 ,007 ,002 ,657 4,857 ,000
ItX2 ,003 ,001 ,251 1,856 ,075
a. Dependent Variable: Y
65
Lampiran 12
Estimasi S ( Metode MM-Estimator)
Variables Entered/Removeda
Model Variables Entered Variables
Removed
Method
1 X1, X2b . Enter
a. Dependent Variable: Y
b. All requested variables entered.
Model Summary
Model R R Square Adjusted R
Square
Std. Error of the
Estimate
1 ,413a ,171 ,137 ,21287
a. Predictors: (Constant), X1, X2
ANOVAa
Model Sum of Squares df Mean Square F Sig.
1
Regression ,458 2 ,229 5,051 ,010b
Residual 2,220 49 ,045
Total 2,678 51
a. Dependent Variable: Y
b. Predictors: (Constant), X1, X2
Coefficientsa
Model Unstandardized Coefficients Standardized
Coefficients
t Sig.
B Std. Error Beta
1
(Constant) 2,934 ,154 19,077 ,000
X2 ,005 ,002 ,303 2,284 ,027
X1 ,006 ,004 ,226 1,702 ,095
a. Dependent Variable: Y
66
Lampiran 13
Iterasi 1 (Metode MM-Estimasi)
Regression
Variables Entered/Removeda,b
Model Variables Entered Variables
Removed
Method
1 X1, X2c . Enter
a. Dependent Variable: Y
b. Weighted Least Squares Regression - Weighted by w1
c. All requested variables entered.
Model Summary
Model R R Square Adjusted R
Square
Std. Error of the
Estimate
1 ,415a ,172 ,139 ,09674
a. Predictors: (Constant), X1, X2
ANOVAa,b
Model Sum of Squares df Mean Square F Sig.
1
Regression ,096 2 ,048 5,105 ,010c
Residual ,459 49 ,009
Total ,554 51
a. Dependent Variable: Y
b. Weighted Least Squares Regression - Weighted by w1
c. Predictors: (Constant), X1, X2
Coefficientsa,b
Model Unstandardized Coefficients Standardized
Coefficients
t Sig.
B Std. Error Beta
1
(Constant) 2,932 ,153 19,109 ,000
X2 ,005 ,002 ,305 2,297 ,026
X1 ,006 ,004 ,227 1,712 ,093
a. Dependent Variable: Y
b. Weighted Least Squares Regression - Weighted by w1
67
Lampiran 14
Iterasi 2 (Metode MM-Estimasi)
Regression
Variables Entered/Removeda,b
Model Variables Entered Variables
Removed
Method
1 X2, X1c . Enter
a. Dependent Variable: Y
b. Weighted Least Squares Regression - Weighted by w2
c. All requested variables entered.
Model Summary
Model R R Square Adjusted R
Square
Std. Error of the
Estimate
1 ,415a ,172 ,139 ,09655
a. Predictors: (Constant), X2, X1
ANOVAa,b
Model Sum of Squares df Mean Square F Sig.
1
Regression ,095 2 ,048 5,107 ,010c
Residual ,457 49 ,009
Total ,552 51
a. Dependent Variable: Y
b. Weighted Least Squares Regression - Weighted by w2
c. Predictors: (Constant), X2, X1
Coefficientsa,b
Model Unstandardized Coefficients Standardized
Coefficients
t Sig.
B Std. Error Beta
1
(Constant) 2,932 ,153 19,109 ,000
X1 ,006 ,004 ,227 1,712 ,093
X2 ,005 ,002 ,305 2,298 ,026
a. Dependent Variable: Y
b. Weighted Least Squares Regression - Weighted by w2