17
Bab 2
LANDASAN TEORI
2.1 Aljabar Matriks
2.1.1 Definisi
Matriks
Matriks adalah suatu kumpulan angka-angka yang juga sering disebut elemen-elemen
yang disusun secara teratur menurut baris dan kolom sehingga berbentuk persegi
panjang, dimana panjang dan lebarnya ditunjukkan oleh banyaknya kolom dan baris
serta dibatasi tanda “[ ]” atau “( )”.
Sebuah matriks dinotasikan dengan simbol huruf besar seperti A, X, atau Z dan
sebagainya. Sebuah matriks A yang berukuran m baris dan n kolom dapat ditulis
sebagai berikut :
[
]
Atau juga dapat ditulis :
A = [ ] i = 1, 2,…, m ; j = 1, 2,…, n
Contoh :
*
+
Disebut matriks A dengan 2 baris dan 3 kolom. Jika A sebuah matriks, maka
digunakan untuk menyatakan elemen yang terdapat di dalam baris i dan kolom j
dari A. Dalam contoh ini i = 1, 2 dan j = 1, 2, 3 atau dapat ditulis
Universitas Sumatera Utara
18
[ ] i = 1, 2 j = 1, 2, 3
Skalar
Suatu skalar adalah besaran yang hannya memiliki nilai, tetapi tidak memiliki arah.
Vektor Baris
Suatu matriks yang hannya terdiri dari satu baris dan n kolom disebut vektor baris.
[ ] disebut vektor baris
Vektor Kolom
Suatu matriks yang hannya terdiri dari m baris dan satu kolom disebut vektor kolom.
[ ] disebut vektor kolom
Kombinasi Linier
Vektor w merupakan kombinasi linier dari vektor – vektor jika terdapat
skalar sehingga berlaku :
, (2.1)
Jika vektor maka disebut persamaan homogen dan disebut
vektor yang bebas linier, yang mengakibatkan tetapi jika
ada bilangan yang tidak semuanya sama dengan nol, maka
disebut vektor yang bergantung linier.
2.1.2 Jenis-jenis Matriks
Matriks Kuadrat
Universitas Sumatera Utara
19
Matriks kuadrat adalah matriks yang memiliki baris dan kolom yang sama banyak.
Dalam suatu matriks kuadrat, elemen–elemen disebut elemen
diagonal utama.
[
]
Matriks Diagonal
Matriks kuadrat [ ] dinamakan matriks diagonal jika semua elemen diluar
diagonal utama adalah nol, dan paling tidak satu elemen pada
diagonal pokok . Jumlah elemen – elemen diagonal utama suatu
matriks kuadrat A disebut trace A ditulis
∑ ,
[
]
Matriks Simetris
Suatu matriks kuadrat [ ] disebut matriks simetris jika elemen
dibawah diagonal utama merupakan cermin dari elemen diatas diagonal utama.
Matriks simetris jika artinya .
Contoh :
[
]
Matriks Identitas
Matriks A disebut matriks identitas dan biasa diberi simbol I.
[ ] i = 1, 2, …, m, j = 1, 2, …, n m = n dan untuk
Universitas Sumatera Utara
20
Matriks Nol
Matriks nol adalah suatu matriks dengan semua elemennya mempunyai nilai nol.
Biasanya diberi simbol , dibaca matriks nol.
Matriks Elementer
Suatu matriks nxn dikatakan matriks elementer jika matriks tersebut dapat diperoleh
dari matriks identitas nxn yakni dengan melakukan operasi baris elementer
tunggal.
Matriks Segitiga
Matriks suatu matriks bujur sangkar dikatakan segitiga bawah (lower
triangular) jika untuk i < j dan matriks suatu matriks bujur sangkar
dikatakan segitiga atas (upper triangular) jika untuk i > j.
Contoh :
Segitiga bawah [
], segitiga atas [
]
Matriks Singular
Matriks kuadrat [ ] dikatakan singular jika semua elemen pada salah satu baris
atau kolom adalah nol atau jika semua kofaktor dari elemen suatu baris atau kolom
sama dengan nol. Untuk melihat kesingularan suatu matriks adalah dengan
menghitung determinan matriks tersebut. Apabila determinannya sama dengan nol
maka matriks tersebut singular.
Matriks Ortogonal
Matriks kuadrat [ ] dikatakan dapat didiagonalisasi secara orthogonal jika
terdapat mtriks orthogonal P sehingga berlaku Matriks orthogonal
Universitas Sumatera Utara
21
didefinisikan sebagai matriks kuadrat yang inversnya sama dengan transposenya,
sehingga :
Maka P adalah matriks orthogonal
2.1.3 Operasi Matriks
Perkalian Matriks dengan Skalar
Jika [ ] adalah matriks mxn dan k adalah suatu skalar, maka hasil kali A dengan
k adalah [ ] matriks mxn dengan (1 )
Perkalian Matriks dengan Matriks
Jika adalah matriks mxp dan adalah matriks pxn maka hasil kali
dari matriks A dan matriks B yang ditulis dengan AB adalah C matriks mxn. Secara
matematik dapat ditulis sebagai berikut :
∑ (1 ) (2.2)
Penjumlahan Matriks
Jika adalah matriks mxn dan adalah matriks mxn maka
penjumlahan matriks dari matriks A dan matriks B yang ditulis dengan
dengan :
(i = 1, 2, …, m; j = 1, 2, …, n).
Pengurangan Matriks
Jika adalah matriks mxn dan adalah matriks mxn maka
pengurangan matriks dari matriks A dan matriks B yang ditulis dengan
dengan : (i = 1, 2, …, m; j = 1, 2, …, n).
Transpose Suatu Matriks
Jika adalah matriks mxn maka matriks nxm dengan dan
(1 ) disebut dengan transpose dari matriks A.
Universitas Sumatera Utara
22
Matriks mxn yang umum dapat ditulis :
[
] [ ]
maka
[
]
Determinana Matriks
Misalkan adalah matriks nxn. Fungsi determinan dari A ditulis dengan det
(A) atau |A|. Secara matematiknya ditulis :
Det (A) = |A| = ∑
Dengan merupakan himpunan S = {1, 2, …, n}.
Teorema
Jika adalah matriks nxn yang mengandung sebaris bilangan nol, maka
det(A) = 0. Anton (2004, hal: 97)
Contoh :
[
] | |
Teorema
Jika A adalah matriks segitiga nxn, maka det(A) adalah hasil kali elemen – elemen
pada diagonal utama, yaitu det(A) = Anton (2004, hal: 98)
Contoh :
[
] maka det(A) = (2)(4)(-5)(3) = -120
Teorema
Universitas Sumatera Utara
23
Jika A adalah sebarang matriks kuadrat, maka det(A) = det(AT). Anton (2004, hal: 97)
Teorema
Jika A dan B adalah matriks kuadrat yang ordonya sama, maka det(AB) = det(A)(B).
Anton (2004, hal: 108)
Contoh :
*
+ *
+ *
+
det(A)(B) = (1)(-23) = -23
det(AB) = -23
Sehingga det (AB) = det (A) det (B)
Invers Matriks
Misalkan A matriks nxn disebut non singular (invertible) jika terdapat matriks B maka
AB = BA = I
Matriks B disebut invers dari A. jika tidak terdapat matriks B maka matriks A disebut
singular (non-invertible).
Secara umum invers matriks A adalah :
Adjoint matriks A adalah suatu matriks yang elemen-elemennya terdiri dari
semua elemen-elemen kofaktor matriks A, dengan adalah kofaktor elemen-elemen
. Sehingga dapat ditulis dalam bentuk matriks sebagai berikut :
[
]
dengan :
Sifat – sifat invers :
a. Jika A adalah matriks non singular, maka A-1
adalah non singular dan
b. Jika A dan B adalah matriks non singular, maka AB adalah non singular dan
Universitas Sumatera Utara
24
c. Jika A adalah matriks non singular maka
2.2 Nilai Eigen dan Vektor Eigen
Jika A adalah matriks nxn, maka vektor tak nol X di dalam Rn dinamakan vektor eigen
(eigenvector) dari A jika AX adalah kelipatan skalar dari X yakni :
AX = (2.3)
Untuk suatu skalar . Skalar dinamakan nilai eigen (eigen value) dari A dan X
dikatakan vektor eigen yang bersesuaian dengan .
Untuk mencari nilai eigen matriks A yang berukuran nxn, dari persamaan (2.3)
dapat ditulis kembali sebagai suatu persamaan homogen :
(2.4)
Dengan I adalah matriks identitas yang berordo sama dengan matriks A, dalam catatan
matriks :
[
], [
], X =
[
]
AX = X
AX =
( = 0
X | |
Untuk memperoleh nilai
| | (2.5)
|
|
Universitas Sumatera Utara
25
n buah akar
Jika nilai eigen disubstitusi pada persamaan maka solusi dari
vektor eigen adalah (2.6)
Jadi apabila matriks mempunyai akar karakteristik dan ada
kemungkinan bahwa diantaranya mempunyai nilai yang sama, bersesuaian dengan
akar-akar karakteristik ini adalah himpunan vektor–vektor karakteristik yang
orthogonal (artinya masing-masing nilai akar karakteristik akan memberikan vektor
karakteristik) sedemikian sehingga :
Tanpa menghilangkan sifat umum, vektor-vektor tersebut bisa dibuat normal
(standar) sedemikian rupa sehingga untuk semua i, suatu himpunan vektor-
vektor orthogonal yang telah dibuat normal (standar) disebut orthogonal set.
Apabila X merupakan matriks nxn, dimana kolom – kolomnya terdiri dari
vektor-vektor dan kemudian bisa ditulis dengan dua syarat sebagai berikut :
1. jika
jika
2. sehingga
Matriks yang mempunyai sifat demikian dinamakan matriks orthogonal.
Definisi :
Misalkan matriks nxn.
Determinan [
]
Dikatakan karakteristik polinom dari A.
Persamaan
Universitas Sumatera Utara
26
Dikatakan persamaan karakteristik dari A.
2.3 Matriks korelasi
Matriks korelasi adalah matriks yang didalamnya terdapat korelasi-korelasi. Andaikan
X adalah matriks data, adalah matriks rata-rata dan ∑ adalah matriks ragam
peragam.
Dengan:
[
]
[
]
[
] [
]
(2.7)
dihitung dari matriks data yang dikalikan dengan vektor 1 dan konstanta
Selanjutnya, persamaan (2.7) dikalikan dengan vektor , sehingga dihasilkan
matriks
[
] (2.8)
Kurangkan matriks X dengan persamaan matriks (2.8) yang menghasilkan matriks
baku dinotasikan dengan V
[
] (2.9)
Matriks adalah perkalian silang antara matriks (2.9) dengan matriks
transposenya
Universitas Sumatera Utara
27
[
] [
]
(
) (
)
(
)
karena
(
) (
)
Sehingga didapat
(
) (2.10)
Persamaan (2.10) menunjukan dengan jelas hubungan operasi perkalian
matriks data X dengan (
) dan transpose matriks data. Jika S telah diketahui
dari persamaan (2.10), maka S dapat dihubungkan ke matriks korelasi dengan cara :
1. Menghitung Matriks ∑
∑
( )
( )
( )( ) ( )
∑ [
( ) ( )
( )
( )
]
∑ [
]
Universitas Sumatera Utara
28
2. Menghitung matriks baku yang isinya adalah simpangan baku, dengan asumsi
dihasilkan sehingga dapat ditulis kedalam bentuk matriks
sebagai berikut :
[ √
√
√ ]
3. Menghitung invers dari matriks deviasi dengan cara ( )
(
)
[
√
√
√ ]
Maka dapat dihasilkan matriks korelasi dengan rumus ( )
∑( )
[
√
√
√ ]
[
]
[
√
√
√ ]
[
√ √
√ √
√ √
√ √
√ √
√ √ ]
[
]
dengan :
∑ (
√ ) (
√ )
(2.11)
Untuk menghasilkan
(
√
)(
√
)
√ √
Universitas Sumatera Utara
29
(
√
)(
√
) ( )( )
√ √
Dan untuk
(
√
)(
√
)
√ √
(
√
)(
√
) ( )
√ √
(
√
)(
√
) ( )
√ √
2.4 Analisis Regresi Linier Berganda
Dalam perkembangannya terdapat dua jenis regresi yang sangat terkenal, yaitu regresi
linier sederhana dan regresi linier berganda. Regresi linier sederhana digunakan untuk
menggambarkan hubungan antara suatu variabel bebas (X) dengan satu variabel tak
bebas (Y) dalam bentuk persamaan linier sederhana.
(2.12)
Regresi linier berganda merupakan perluasan dari regresi linier sederhana.
Perluasannya terlihat dari banyaknya variabel bebas pada model regresi tersebut.
Bentuk umum regresi linier berganda dapat dinyatakan secara statistik sebagai berikut:
= + + + … + + (2.13)
dengan :
= variabel tak bebas
= variabel bebas
, …, = parameter regresi
= variabel gangguan
2.4.1 Asumsi Regresi Linier Berganda
Universitas Sumatera Utara
30
Dalam model regresi linier berganda ada beberapa asumsi yang harus dipenuhi,
asumsi tersebut adalah :
1. Nilai rata-rata kesalahan pengganggu nol, yaitu untuk I = 1, 2, …, n
2. Varian sama untuk semua kesalahan pengganggu (asumsi
homokedastisitas)
3. Tidak ada otokorelasi antara kesalahan pengganggu, berarti kovarian
4. Variabel bebas , konstan dalam sampling yang terulang dan bebas
terhadap kesalahan pengganggu .
5. Tidak ada multikolinieritas diantara variabel bebas X.
6. artinya kesalahan pengganggu mengikuti distribusi normal
dengan rata-rata 0 dan varian
2.4.2 Metode Kuadrat Terkecil (MKT)
Metode kuadrat terkecil merupakan suatu metode yang paling banyak digunakan
untuk menduga parameter-parameter regresi. Pada model regresi linier berganda juga
digunakan metode kuadrat terkecil untuk menduga parameter. Biasanya penduga
kuadrat terkecil ini diperoleh dengan meminimumkan jumlah kuadrat galat. Misalkan
model yang akan diestimasi adalah parameter dari persamaan dengan n pengamatan,
maka diperoleh :
= + + + … + +
= + + + … + +
= + + + … + +
Persaman-persamaan diatas dapat ditulis dalam bentuk matriks :
Y = X + (2.14)
dengan :
Universitas Sumatera Utara
31
[
] [
] [
] [
]
Untuk mendapatkan penaksir-penaksir MKT bagi , maka dengan asumsi
klasik ditentukan dua vektor sebagai :
[
]
[
]
Persamaan hasil estimasi dari persamaan (2.14) dapat ditulis sebagai :
Y = X +
atau
(2.15)
Karena tujuan MKT adalah meminimumkan jumlah kuadrat dari kesalahan,
yaitu ∑
minimum
maka :
∑
[
] (2.16)
jadi,
∑
Oleh karena adalah skalar, maka matriks transposenya adalah :
( )
jadi,
(2.17)
Universitas Sumatera Utara
32
Untuk menaksir parameter maka harus diminimumkan terhadap maka :
∑
(∑
)
atau :
dengan ketentuan (2.18)
2.4.3 Sifat Penduga Kuadrat terkecil
Menurut Sembiring (2003) metode kuadrat terkecil memiliki beberapa sifat yang baik.
Untuk menyelidiki sifatnya, pandang kembali model umum regresi linier pada
persamaan (2.14). disini dianggap bahwa bebas satu sama lain dan
Dengan demikian maka dan .
Jadi sifat penduga kuadrat terkecil adalah :
1. Takbias
Jika ( ) maka adalah penduga tak bias untuk
Akan ditunjukkan bahwa adalah penduga linier tak bias dari . Dari
persamaan (2.15) diketahui :
)
(2.19)
dengan
( )
Universitas Sumatera Utara
33
2. Varian Minimum
Jika maka matriks kovarian untuk diberikan oleh
Jika dan maka penduga kuadrat terkecil
mempunyai varian minimum diantara semua penduga tak bias linier.
Bukti :
( ) [(( ( )) ( ( )))
]
=
(2.20)
2.5 Uji Regresi Linier
Pengujian nyata regresi adalah sebuah pengujian untuk menentukan apakah ada
hubungan linier antara variabel tidak bebas Y dan variabel bebas
Uji yang digunakan adalah uji menggunakan statistik F berbentuk :
(2.21)
dengan :
JKR = Jumlah Kuadrat Regresi
JKS = Jumlah Kuadrat Sisa
= derajat kebebasan JKR
= Derajat kebebasan JKS
Dalam uji hipotesis, digunakan daerah kritis :
ditolak jika
dengan :
Universitas Sumatera Utara
34
Selanjutnya, jika model regresi layak digunakan akan dilakukan lagi uji
terhadap koefisien-koefisien regresi secara terpisah untuk mengetahui apakah
koefisien tersebut layak dipakai dalam persamaan atau tidak.
Rumusan hipotesis untuk menguji parameter regresi secara parsial adalah
sebagai berikut :
artinya koefisien regresi ke–j tidak signifikan atau variabel bebas ke-j
tidak berpengaruh nyata terhadap Y.
artinya koefisien regresi ke-j signifikan atau variabel bebas ke-j
berpengaruh nyata terhadap Y.
Statistik uji yang digunakan untuk menguji parameter regresi secara parsial
adalah:
( )
√ (2.23)
Jika | ( )| > maka ditolak yang artinya variabel bebas ke- j
berpengaruh nyata terhadap Y.
2.6 Koefisien Determinasi ( )
Koefisien determinasi adalah nilai yang menunjukkan seberapa besar nilai variabel Y
dijelaskan oleh variable X. Koefisien determinasi merupakan salah satu patokan yang
biasa digunakan untuk melihat apakah suatu model regresi yang dicocokkan belum
atau sudah memadai, yang dinotasikan dengan R2. Koefisien determinasi ini hannya
menunjukkan ukuran proporsi variansi total dalam respon Y yang diterangkan oleh
model yang dicocokkan (Walpole dan Myers, 1995)
Nilai koefisien determinasi ( ) dapat diperoleh dengan rumus :
di mana : (2.24)
Universitas Sumatera Utara
35
Nilai R2 yang mendekati 0 (nol) menunjukkan bahwa data sangat tidak cocok
dengan model regresi yang ada. Sebaliknya, jika nilai R2 mendekati 1 (satu)
menunjukkan bahwa data cocok terhadap model regresi. Dapat disimpulkan bahwa
nilai R2 yang diperoleh sesuai dengan yang dijelaskan masing-masing faktor yang
tinggal di dalam regresi. Hal ini mengakibatkan bahwa yang dijelaskan hannyalah
disebabkan faktor yang mempengaruhinya saja. Besarnya variansi yang dijelaskan
penduga sering dinyatakan dalam persen. Persentase variansi penduga tersebut adalah
2.7 Multikolinieritas
Istilah multikolinieritas pertama kali diperkenalkan oleh Ragnar Frisch pada tahun
1934, yang menyatakan bahwa multikolinieritas terjadi jika adanya hubungan linier
yang sempurna (perfect) atau pasti (exact) diantara beberapa atau semua variabel
bebas dari model regresi berganda (Rahardiantoro 2008).
Maksud dari adanya hubungan linier antar sesama variable adalah :
Misalkan terdapat k variable bebas . Hubungan linier yang
sempurna/pasti terjadi jika berlaku hubungan berikut :
(2.25)
Dimana merupakan bilangan konstan dan tidak seluruhnya nol atau
paling tidak ada satu yang tidak sama dengan nol, yaitu
Jika terdapat korelasi sempurna diantara sesama variabel bebas, sehingga nilai
koefisien korelasi diantara sesama variabel ini sama dengan satu, maka
konsekuensinya adalah koefisien-koefisien regresi menjadi tidak dapat ditaksir, nilai
standar eror setiap koefisien regresi menjadi tak hingga.
Pada analisis regresi, multikolinieritas dikatakan ada apabila beberapa kondisi
berikut dipenuhi :
1. Dua variable berkorelasi sempurna (oleh karena itu vektor–vektor yang
menggambarkan variabel tersebut adalah kolinier).
Universitas Sumatera Utara
36
2. Dua variabel bebas hampir berkorelasi sempurna yaitu koefisien korelasinya
mendekati .
3. Kombinasi linier dari beberapa variabel bebas berkorelasi sempurna atau
mendekati sempurna dengan variable bebas yang lain.
4. Kombinasi linier dari satu sub-himpunan variabel bebas berkorelasi sempurna
dengan suatu kombinasi linier dari sub-himpunan variabel bebas yang lain.
2.7.1 Pendeteksian Multikolinieritas
Ada beberapa cara untuk mengetahui ada tidaknya multikolinieritas, yaitu :
1. Nilai korelasi (korelasi antar peubah bebas).
Prosedur ini merupakan pendeteksian yang paling sederhana dan paling
mudah. Jika nilai korelasi antar peubah ( ) melebihi 0,75 diduga terdapat
gejala multikolinieritas.
[
]
∑ (
√ ) (
√ )
(2.26)
Untuk menghasilkan
2. Faktor Variansi Inflasi (Variance Inflation Factor, VIF).
VIF adalah elemen-elemen diagonal utama dari invers matriks korelasi. VIF
digunakan sebagai kriteria untuk mendeksi multikolinieritas pada regresi linier
berganda yang melibatkan lebih dari dua variabel bebas. Nilai VIF lebih besar
dari 10 mengindikasikan adanya masalah multikolinieritas yang serius.
VIF untuk koefisien regresi –j didefinisikan sebagai berikut :
(2.27)
dengan :
= Koefisien determinasi antar dengan variabel bebas lainnya
(j = 1, 2, …, p)
Universitas Sumatera Utara
37
2.7.2 Pengaruh Multikolinieritas
Koefisien regresi penduga yang diperoleh dengan metode kuadrat terkecil
mempunyai banyak kelemahan apabila terjadi multikolinieritas diantara variabel
bebas, yaitu :
1. Variansi Besar
Apabila determinan dari matriks , akibatnya variansi akan semakin
besar sehingga penduga kuadrat terkecil tidak efisien karena memiliki ragam
dan peragam yang besar. Dalam kasus multikolinieritas penduga kuadrat
tekecil tetap tak bias karena sifat ketakbiasan tidak ditentukan oleh asumsi
tidak adanya multikolinieritas, hannya akibat multikolinieritas penduga
memiliki ragam yang besar dan tidak dapat lagi disebut sebagai penduga yang
memiliki sifat linier, tak bias, dan mempunyai varian minimum atau yang
disebut BLUE (best linier unbiased estimator).
2. Selang Kepercayaan Penduga Lebih Lebar
Dalam situasi multikolinieritas antara variabel-variabel bebas dalam model
regresi linier mengakibatkan variansi penduga kuadrat terkecil menjadi besar
sehingga menghasilkan galat baku yang lebih besar, akibatnya selang
kepercayaan bagi parameter model regresi menjadi lebih besar.
3. Nilai Statistik-t yang Tidak Nyata
Multikolinieritas yang mengakibatkan galat baku penduga kuadrat terkecil
menjadi lebih besar, maka statistik t yang didefinisikan sebagai rasio antara
koefisien penduga dan galat baku koefisien penduga menjadi lebih kecil.
Akibatnya meningkatkan besarnya peluang menerima hipotesis yang salah
(kesalahan akan meningkat), karena suatu hipotesis yang seharusnya ditolak
tetapi berdasarkan pengujian hipotesis diputuskan untuk diterima, sebagai
konsekuensi nilai statistik t yang tidak nyata.
Universitas Sumatera Utara
38
4. Nilai Koefisien Determinasi (R2) yang Tinggi Tetapi Beberapa Nilai Statistik-t
Tidak Nyata
Dalam kasus adanya multikolinieritas, maka akan ditemukan beberapa
koefisien regresi yang secara individual tidak nyata berdasarkan uji statistik
t-student. Namun, koefisien determinasi (R2) dalam situasi yang demikian
mungkin tinggi sekali serta berdasarkan uji koefisien regresi keseluruhan
berdasarkan uji F akan ditolak hipotesis nol, bahwa
2.8 Analisis Komponen Utama
Analisis komponen utama merupakan teknik statistik yang dapat digunakan untuk
mereduksi sejumlah variabel asal menjadi beberapa variabel baru yang bersifat
orthogonal dan tetap mempertahankan total keragaman dari variabel asalnya.
Analisis komponen utama bertujuan untuk mengubah dari sebagian besar
variabel asli yang digunakan yang saling berkorelasi satu dengan yang lainnya,
menjadi satu set variabel baru yang lebih kecil dan saling bebas (tidak berkorelasi
lagi), dan merupakan kombinasi linier dari variabel asal. Selanjutnya variabel baru ini
dinamakan komponen utama (principal component). secara umum tujuan dari analisis
komponen utama adalah mereduksi dimensi data sehingga lebih mudah untuk
menginterpretasikan data-data tersebut.
Analisis komponen utama bertujuan untuk menyederhanakan variabel yang
diamati dengan cara menyusutkan dimensinya. Hal ini dilakukan dengan
menghilangkan korelasi variabel melalui transformasi variabel asal ke variabel baru
yang tidak berkorelasi.
Variabel baru ( ) disebut sebagai komponen utama yang merupakan hasil
transformasi dari variable asal yang modelnya dalam bentuk catatan matriks adalah:
(2.28)
Universitas Sumatera Utara
39
dengan :
A adalah matriks yang melakukan transformasi terhadap variabel asal
sehingga diperoleh vektor komponen .
Penjabarannya adalah sebagai berikut :
[
]
[
]
[
]
2.8.1 Menentukan Komponen Utama
Komponen utama dapat ditentukan melalui matriks ragam peragam (∑) dan matriks
korelasi dari . Matriks kovarian ∑ digunakan untuk membentuk
komponen utama apabila semua variabel yang diamati mempunyai satuan pengukuran
yang sama. Sedangkan, matriks Korelasi digunakan apabila variabel yang diamati
tidak mempunyai satuan pengukuran yang sama. Variabel tersebut perlu dibakukan,
sehingga komponen utama berdasarkan matriks korelasi ditentukan dari variabel baku.
2.8.1.1 Komponen Utama Berdasarkan Matriks Kovarian (∑)
Dipunyai matriks kovarian ∑ dari p buah variable Total varian dari
variabel–variabel tersebut didefinisikan sebagai ∑ ∑ yaitu penjumlahan
dari unsur diagonal matriks ∑. Melalui matriks kovarian ∑ bisa diturunkan akar ciri-
akar cirinya yaitu dan vektor ciri–vektor cirinya
Komponen utama pertama dari vektor berukuran px1,
adalah kombinasi linier linier terbobot variabel asal yang dapat
menerangkan keragaman terbesar.
Universitas Sumatera Utara
40
Komponen utama pertama dapat dituliskan sebagai :
(2.29)
dengan :
dan
Varian dari komponen utama pertama adalah :
∑ ∑
∑ (2.30)
Vektor pembobot adalah vektor normal, Koefisien adalah unsur-unsur
dari vektor ciri yang berhubungan dengan akar ciri terbesar yang diturunkan dari
matriks kovarian ∑ dipilih sedemikian sehingga mencapai maksimum dengan
kendala . Menggunakan teknik pemaksimuman berkendala lagrange
diperoleh persamaan :
∑
Fungsi ini mencapai maksimum jika turunan parsial pertama
terhadap sama dengan nol.
∑ atau ∑ (2.31)
Persamaan (2.31) dipenuhi oleh dan yang merupakan pasangan akar ciri
dan vektor ciri matriks ∑ Akibatnya ∑
Oleh karena
itu varian ∑ harus maksimum, maka adalah akar ciri yang
terbesar dari matriks ∑ dan adalah vektor ciri yang bersesuaian dengan
Komponen utama kedua adalah kombinasi linier terbobot variabel asal yang
tidak berkorelasi dengan komponen utama pertama, serta memaksimumkan sisa
kovarian data setelah diterangkan oleh komponen utama pertama. Komponen utama
kedua dapat dituliskan sebagai :
(2.32)
Universitas Sumatera Utara
41
dengan :
dan
Vektor pembobot adalah vektor normal yang dipilih sehingga keragaman
komponen utama kedua maksimum, serta orthogonal terhadap vektor pembobot
dari komponen utama pertama. Agar varian dari komponen utama kedua maksimum,
serta antara komponen utama kedua tidak berkorelasi dengan komponen utama
pertama, maka vektor pembobot dipilih sedemikian sehingga tidak
berkorelasi dengan varian komponen utama kedua ( ) adalah :
∑ ∑
∑ (2.33)
Varian tersebut akan dimaksimumkan dengan kendala dan cov
∑ Karena adalah vektor ciri dari ∑ dan ∑
adalah matriks simetrik, maka :
∑
∑ ∑
Kendala ∑
dapat dituliskan sebagai Jadi fungsi
Lagrange yang dimaksimumkan adalah :
∑
(2.34)
Fungsi ini mencapai maksimum jika turunan parsial pertama
terhadap sama dengan nol, diperoleh
∑ ∑ (2.35)
Jika persamaan (2.35) dikalikan dengan maka diperoleh
∑
∑ ∑
∑
∑
Oleh karena ∑ maka Dengan demikian persamaan (2.35) setelah
diturunkan terhadap menjadi
Universitas Sumatera Utara
42
∑
∑ (2.36)
Jadi dan merupakan pasangan akar ciri dan vektor ciri dari matriks
varian kovarian ∑ Seperti halnya penurunan pada pencarian , akan diperoleh bahwa
adalah vektor ciri yang bersesuaian dengan akar ciri terbesar kedua dari matriks ∑
Secara umum komponen utama ke-j dapat dituliskan sebagai :
(2.37)
dengan :
dan
vektor pembobot diperoleh dengan memaksimumkan keragaman komponen utama
ke-j, yaitu :
∑ (2.38)
dengan kendala :
serta
untuk .
Dengan kendala ini, maka akar ciri dapat diinterpretasikan sebagai ragam
komponen utama ke- j serta sesama komponen utama tidak berkorelasi.
Vektor pembobot yang merupakan koefisien pembobot variabel asal bagi
komponen utama ke-j diperoleh dari matriks peragam ∑ yang diduga dengan matriks
S berikut :
∑
(2.39)
Universitas Sumatera Utara
43
2.8.1.2 Komponen Utama Berdasarkan Matriks Korelasi ( )
Jika variabel yang diamati tidak mempunyai satuan pengukuran yang sama, maka
variabel tersebut perlu dibakukan sehingga komponen utama ditentukan dari variabel
baku (Vincent gasperz, 1991). Variabel asal perlu ditransformasi ke dalam variabel
baku Z, dalam catatan matriks adalah :
(
)
(2.40)
dengan :
Z = variabel baku
= matriks simpangan baku dengan unsur diagonal utama
= variabel pengamatan
= nilai rata-rata pengamatan
Dengan, Nilai harapan , dan ragamnya ∑ (
)
Dengan demikian, komponen–komponen utama dari Z dapat ditentukan dari
vektor ciri yang diperoleh melalui matriks korelasi yang diduga dengan matriks ,
dimana vektor pembobot diperoleh dengan memaksimumkan keragaman
komponen utama ke-j dengan kendala :
serta
untuk .
Semua formula yang telah diturunkan berdasarkan variabel-variabel
dengan matriks ∑ akan berlaku untuk peubah-peubah
dengan matriks
Sehingga diperoleh komponen utama ke-j dengan menggunakan variable baku
yaitu :
(2.41)
dengan :
= komponen utama ke- j
= vektor ciri ke- j
Z = variabel baku
Universitas Sumatera Utara
44
Ragam komponen utama ke-j adalah sama dengan akar ciri ke-j, serta antara
komponen utama ke-i dan komponen utama ke- j tidak berkorelasi untuk .
Untuk meregresikan komponen utama dengan variabel bebas, maka perlu
dihitung skor komponen dari setiap pengamatan. Untuk komponen utama yang
diturunkan dari matriks korelasi , maka skor komponen utama dari unit pengamatan
ke-i ditentukan sebagai berikut :
(2.42)
dengan :
= vektor pembobot komponen utama ke-r
= vektor skor baku dari variabel yang diamati pada pengamatan ke-i
2.8.2 Kriteria Pemilihan Komponen Utama
Salah satu tujuan dari analisis komponen utama adalah mereduksi dimensi data asal
yang semula, terdapat p variable bebas menjadi k komponen utama .
Kriteria pemilihan k yaitu :
1. Didasarkan pada akar ciri yang lebih besar dari satu, dengan kata lain
hannya komponen utama yang memiliki akar ciri lebih besar dari satu yang
dilibatkan dalam analisis regresi komponen utama.
2. Proporsi kumulatif keragaman data asal yang dijelaskan oleh k komponen
utama minimal 80%, dan proporsi total variansi populasi bernilai cukup
besar.
Universitas Sumatera Utara
45
2.8.3 Kontribusi Komponen Utama
Kontribusi komponen utama yang diturunkan dari matriks kovarian dan matriks
korelasi adalah sebagai berikut:
Proporsi total variansi populasi yang dijelaskan oleh komponen utama ke-j
berdasarkan matriks kovarian adalah :
∑
dengan (2.43)
Jadi kontribusi (dalam persentase) masing–masing komponen utama ke-j
terhadap total varian x adalah :
∑ x 100% (2.44)
Sedangkan, proporsi total variansi populasi yang dijelaskan oleh komponen
utama ke-j berdasarkan matriks korelasi, yaitu komponen yang dihasilkan berdasarkan
variable-variabel yang telah dibakukan (Z) adalah :
(2.45)
dengan :
= Akar ciri terbesar ke-j dari matriks korelasi R
= Trace matriks R yang merupakan jumlah diagonal utama matriks R,
yang tidak lain sama dengan banyaknya variabel yang diamati, atau
sama dengan jumlah semua akar ciri yang diperoleh dari matriks R.
Jadi kontribusi (dalam persentase) masing–masing komponen utama ke-j
terhadap total varian x adalah :
∑ x 100% (2.46)
Universitas Sumatera Utara