SELAMAT DATANG DI BLOG SEDERHANAKU ,,, I'am a Cules Angel forever . BARCELONA FC "MES QUE UN CLUB

Jumat, 17 Mei 2013

Hari ini Nyari tugas tentang ini....
Ku share ya,,bagi kawan - kawan yang butuh . . . Mudah - mudahan untuk tambahan Materinya...

Ini Materinya......

 "ANALISIS REGRESI"

Regresi Linear

      Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara satu atau
beberapa variabel terhadap satu buah variabel. Variabel yang mempengaruhi sering disebut
variabel bebas, variabel independen atau variabel penjelas. Variabel yang dipengaruhi sering
disebut dengan variabel terikat atau variabel dependen.
Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu dengan satu buah
variabel bebas dan satu buah variabel terikat; dan regresi linear berganda dengan beberapa
variabel bebas dan satu buah variabel terikat. Analisis regresi linear merupakan metode statistik
yang paling jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi.
Program komputer yang paling banyak digunakan adalah SPSS (Statistical Package For Service
Solutions).

Regresi Linear Sederhana
 
Analisis regresi linear sederhana dipergunakan untuk mengetahui pengaruh antara satu buah
variabel bebas terhadap satu buah variabel terikat. Persamaan umumnya adalah:
Y = a + b X.
Dengan Y adalah variabel terikat dan X adalah variabel bebas. Koefisien a adalah konstanta
(intercept) yang merupakan titik potong antara garis regresi dengan sumbu Y pada koordinat
kartesius.
Langkah penghitungan analisis regresi dengan menggunakan program SPSS adalah: Analyse -->
regression --> linear. Pada jendela yang ada, klik variabel terikat lalu klik tanda panah pada kota
dependent. Maka variabel tersebut akan masuk ke kotak sebagai variabel dependen. Lakukan
dengan cara yang sama untuk variabel bebas (independent). Lalu klik OK dan akan muncul output
SPSS.
 
Interpretasi Output
 
1. Koefisien determinasi
 
Koefisien determinasi mencerminkan seberapa besar kemampuan variabel bebas dalam
menjelaskan varians variabel terikatnya. Mempunyai nilai antara 0 – 1 di mana nilai yang mendekati
1 berarti semakin tinggi kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya.
 
2. Nilai t hitung dan signifikansi
 
Nilai t hitung > t tabel berarti ada pengaruh yang signifikan antara variabel bebas terhadap variabel
terikat, atau bisa juga dengan signifikansi di bawah 0,05 untuk penelitian sosial, dan untuk penelitian
bursa kadang-kadang digunakan toleransi sampai dengan 0,10.
3. Persamaan regresi

Sebagai ilustrasi variabel bebas: Biaya promosi dan variabel terikat: Profitabilitas (dalam juta rupiah)
dan hasil analisisnya Y = 1,2 + 0,55 X. Berarti interpretasinya:
1. Jika besarnya biaya promosi meningkat sebesar 1 juta rupiah, maka profitabilitas meningkat
sebesar 0,55 juta rupiah.
2. Jika biaya promosi bernilai nol, maka profitabilitas akan bernilai 1,2 juta rupiah.
Interpretasi terhadap nilai intercept (dalam contoh ini 1,2 juta) harus hati-hati dan sesuai dengan
rancangan penelitian. Jika penelitian menggunakan angket dengan skala likert antara 1 sampai 5,
maka interpretasi di atas tidak boleh dilakukan karena variabel X tidak mungkin bernilai nol.
Interpretasi dengan skala likert tersebut sebaiknya menggunakan nilai standardized
coefficient sehingga tidak ada konstanta karena nilainya telah distandarkan.
 
Contoh:
 Pengaruh antara kepuasan (X) terhadap kinerja (Y) dengan skala likert antara 1 sampai
dengan 5. Hasil output yang digunakan adalah standardized coefficientssehingga Y = 0,21 X dan
diinterpretasikan bahwa peningkatan kepuasan kerja akan diikuti dengan peningkatan kinerja atau
penurunan kepuasan kerja juga akan diikuti dengan penurunan kinerja. Peningkatan kepuasan kerja
dalam satu satuan unit akan diikuti dengan peningkatan kinerja sebesar 0,21 (21%).
 
Regresi Linear Berganda
 
Analisis regresi linear berganda sebenarnya sama dengan analisis regresi linear sederhana, hanya
variabel bebasnya lebih dari satu buah. Persamaan umumnya adalah:
Y = a + b1 X1 + b2 X2 + .... + bn Xn.
Dengan Y adalah variabel bebas, dan X adalah variabel-variabel bebas, a adalah konstanta
(intersept) dan b adalah koefisien regresi pada masing-masing variabel bebas.
Interpretasi terhadap persamaan juga relatif sama, sebagai ilustrasi, pengaruh antara motivasi (X1),
kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja (Y) menghasilkan persamaan
sebagai berikut:
Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3
 
1. Jika variabel motivasi meningkat dengan asumsi variabel kompensasi dan kepemimpinan tetap,
maka kepuasan kerja juga akan meningkat
2. Jika variabel kompensasi meningkat, dengan asumsi variabel motivasi dan kepemimpinan tetap,
maka kepuasan kerja juga akan meningkat.
3. Jika variabel kepemimpinan meningkat, dengan asumsi variabel motivasi dan kompensasi tetap,
maka kepuasan kerja juga akan meningkat.
 
        Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara hati-hati. Jika pengukuran
variabel dengan menggunakan skala Likert antara 1 sampai dengan 5 maka tidak boleh
diinterpretasikan bahwa jika variabel motivasi, kompensasi dan kepemimpinan bernilai nol, sebagai
ketiga variabel tersebut tidak mungkin bernilai nol karena Skala Likert terendah yang digunakan
adalah 1.
       Analisis regresi linear berganda memerlukan pengujian secara serempak dengan menggunakan F
hitung. Signifikansi ditentukan dengan membandingkan F hitung dengan F tabel atau melihat
signifikansi pada output SPSS. Dalam beberapa kasus dapat terjadi bahwa secara simultan
(serempak) beberapa variabel mempunyai pengaruh yang signifikan, tetapi secara parsial tidak.
Sebagai ilustrasi: seorang penjahat takut terhadap polisi yang membawa pistol (diasumsikan polisis
dan pistol secara serempak membuat takut penjahat). Akan tetapi secara parsial, pistol tidak
membuat takut seorang penjahat. Contoh lain: air panas, kopi dan gula menimbulkan kenikmatan,
tetapi secara parsial, kopi saja belum tentu menimbulkan kenikmatan.
Penggunaan metode analisis regresi linear berganda memerlukan asumsi klasik yang secara
statistik harus dipenuhi. Asumsi klasik tersebut meliputi asumsi normalitas, multikolinearitas,
autokorelasi, heteroskedastisitas dan asumsi linearitas (akan dibahas belakangan).
 
       Langkah-langkah yang lazim dipergunakan dalam analisis regresi linear berganda adalah 1)
koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan regresi sebaiknya dilakukan di akhir analisis
karena interpretasi terhadap persamaan regresi akan lebih akurat jika telah diketahui
signifikansinya. Koefisien determinasi sebaiknya menggunakan adjusted R Square dan jika bernilai
negatif maka uji F dan uji t tidak dapat dilakukan.
 
Pertanyaan-pertanyaan yang sering muncul
 
1. Dalam uji regresi sederhana apakah perlu menginterpretasikan nilai F hitung?Uji F adalah uji
kelayakan model (goodness of fit) yang harus dilakukan dalam analisis regresi linear. Untuk analisis
regresi linear sederhana Uji F boleh dipergunakan atau tidak, karena uji F akan sama hasilnya
dengan uji t.
2. Kapan menggunakan uji dua arah dan kapan menggunakan uji dua arah?Penentuan arah adalah
berdasarkan masalah penelitian, tujuan penelitian dan perumusan hipotesis. Jika hipotesis sudah
menentukan arahnya, maka sebaiknya digunakan uji satu arah, tetapi jika hipotesis belum
menentukan arah, maka sebaiknya menggunakan uji dua arah. Penentuan arah pada hipotesis
berdasarkan tinjauan literatur. Contoh hipotesis dua arah: Terdapat pengaruh antara kepuasan
terhadap kinerja. Contoh hipotesis satu arah: Terdapat pengaruh positif antara kepuasan terhadap
kinerja. Nilai t tabel juga berbeda antara satu arah dan dua arah. Jika menggunakan signifikansi,
maka signifikansi hasil output dibagi dua terlebih dahulu, baru dibandingkan dengan 5%.
3. Apa bedanya korelasi dengan regresi?
Korelasi adalah hubungan dan regresi adalah pengaruh. Korelasi bisa berlaku bolak-balik, sebagai
contoh A berhubungan dengan B demikian juga B berhubungan dengan A. Untuk regresi tidak bisa
dibalik, artinya A berpengaruh terhadap B, tetapi tidak boleh dikatakan B berpengaruh terhadap A.
Dalam kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) sering dipergunakan secara
rancu, tetapi dalam ilmu statistik sangat berbeda. A berhubungan dengan B belum tentu A
berpengaruh terhadap B. Tetapi jika A berpengaruh terhadap B maka pasti A juga berhubungan
dengan B. (Dalam analisis lanjut sebenarnya juga ada pengaruh yang bolak-balik yang disebut
denganrecursive, yang tidak dapat dianalisis dengan analisis regresi tetapi menggunakanstructural
equation modelling).
 
Uji Asumsi Klasik

              Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear
berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan
OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal.
Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya
uji multikolinearitas tidak dapat dipergunakan pada analisis regresi linear sederhana dan uji
autokorelasi tidak perlu diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk
menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan market
model, atau market adjusted model. Perhitungan nilai return yang diharapkan dilakukan dengan
persamaan regresi, tetapi tidak perlu diuji asumsi klasik.
Setidaknya ada lima uji asumsi klasik, yaitu uji multikolinearitas, uji heteroskedastisitas, uji
normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji
mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada. Sebagai
contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak memenuhi
persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi persyaratan,
dilakukan pengujian pada uji yang lain.
 
1. Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model
regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas bukan
dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang
jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak dilarang
tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing
variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa
yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada
kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah
luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal
atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim
rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai
rata-rata, modus dan median relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness
dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat.
Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di
antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari
keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari
pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov
sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi
normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan
transformasi data, melakukan trimming data outliers atau menambah data observasi. Transformasi
dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain
tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah
atau menyebar ke samping kanan dan kiri.
 
2. Uji Multikolinearitas
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabelvariabel
bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara
variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya
menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya motivasi,
kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya
adalah bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan
kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan
kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.
Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan
variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan melihat
eigenvalues dan condition index (CI).
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau
bentuk first difference delta.
4. Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang sekali
digunakan.
 
3. Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual
satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di
mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap
atau disebut homoskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai
ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika tidak
terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian melebar atau
sebaliknya melebar kemudian menyempit. Uji statistik yang dapat digunakan adalah uji Glejser, uji
Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan
mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data
bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel yang
mengalami gangguan heteroskedastisitas.
 
4. Uji Autokorelasi
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan periode
sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh
antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi
dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan
terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan
Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi
pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan
Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh
dari apapun, pengeluaran pada bulan Februari akan rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada
data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan secara
serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di
mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan
jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier. Beberapa cara
untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan data atau bisa juga
dengan mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference
equation). Selain itu juga dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya
menjadi salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.
 
5. Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear
atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk
berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya
adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear
sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas
tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat linear atau
tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang
diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat
menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier.
Regresi Linear dengan Variabel Moderating
Variabel moderating adalah variabel yang memperkuat atau memperlemah hubungan antara satu
variabel dengan variabel lain. Sebagai contoh: seorang suami menyayangi istrinya. Dengan
hadirnya seorang anak, maka rasa sayang tersebut bertambah. Berarti variabel anak merupakan
moderating antara rasa saya suami terhadap istri. Contoh lain: kompensasi memperkuat pengaruh
antara kepuasan kerja terhadap kinerja. Artinya kepuasan kerja berpengaruh terhadap kinerja, dan
adanya kompensasi yang tinggi maka pengaruh antara kepuasan kerja terhadap kinerja menjadi
lebih meningkat. Dalam hal ini, kompensasi bisa saja berpengaruh terhadap kinerja bisa saja tidak.
Metode analisis regresi linear dengan variabel moderating:

1. Multiple Regression Analysis (MRA)
Metode ini dilakukan dengan menambahkan variabel perkalian antara variabel bebas dengan
variabel moderatingnya, sehingga persamaan umumnya adalah sebagai berikut: Y = a + b1 X1 + b2
X2 + b3 X1 X2 dengan Y adalah kinerja, X1 adalah kepuasan kerja, X2 kompensasi dan X1 X2
adalah perkalian antara kepuasan kerja dengan kompensasi. Hipotesis moderating diterima jika
variabel X1 X2 mempunyai pengaruh signifikan terhadap Y, tidak tergantung apakah X1 dan X2
mempunyai pengaruh terhadap Y atau tidak. Model ini biasanya menyalahi asumsi multikolinearitas
atau adanya korelasi yang tinggi antara variabel bebas dalam model regresi, sehingga menyalahi
asumsi klasik. Hampir tidak ada model MRA yang terbebas dari masalah multikolinearitas, sehingga
sebenarnya model ini tidak disarankan untuk dipergunakan.

2. Absolut residual
Model ini mirip dengan MRA, tetapi variabel moderating didekati dengan selisih mutlak (absolut
residual) antara variabel bebas dengan variabel moderatingnya. Penerimaan hipotesis juga sama,
dan model ini masih riskan terhadap gangguan multikolinearitas meskipun risiko itu lebih kecil dari
pada dengan metode MRA.

3. Residual
Model ini menggunakan konsep lack of fit yaitu hipotesis moderating diterima terjadi jika terdapat
ketidakcocokan dari deviasi hubungan linear antara variabel independen. Langkahnya adalah
dengan meregresikan antara kepuasan kerja terhadap kompensasi dan dihitung nilai residualnya.
Pada program SPSS dengan klik Save pada regreesion, lalu klik pada usntandardized residual. Nilai
residual kemudian diambil nilai absolutnya lalu diregresikan antara kinerja terhadap absolut residual.
Hipotesis moderating diterima jika nilai t hitung adalah negatif dan signifikan. Model ini terbebas dari
gangguan multikolinearitas karena hanya menggunakan satu variabel bebas.
 
Pertanyaan-pertanyaan yang sering muncul:
1. Ada model regresi moderating dengan MRA tetapi output memenuhi uji multikolinearitas?
Hampir tidak ada model moderating dengan MRA yang terbebas dari gangguan multikolinearitas.
Banyak output pada skripsi yang dimanipulasi agar tampaknya memenuhi asumsi multikolinearitas
padahal sebenarnya tidak. Hal ini banyak terjadi di mana (maaf) dosen tidak terlalu menguasai
statistik secara baik. Penulis sendiri belum pernah melihat tabulasi data yang memenuhi model
moderating dengan metode MRA.
2. Bagaimana model regresi moderating dengan dua buah variabel bebas?
Model dengan MRA menjadi Y = a + b1 X1 + b2 X2 + b3 X3 + b4 X1 X2 + b5 X1 X3 + b6 X2 X3 + bb
X1 X2 X3 di mana X3 adalah variabel moderating (he he...jadi panjang banget kan). Hipotesis
diterima jika X1 X2 X3 signifikan, tetapi hampir pasti model ini menyalahi asumsi multikolinearitas.
Sebaiknya digunakan model residual dengan lack of fit.
3. Bagaimana merancang model regresi dengan moderating pada penelitian?
Model moderating ditentukan dengan tinjauan teoretis, sehingga analisis dengan moderating hanya
mengkonfirmasi saja teori tersebut apakah cocok dengan model empiris. Tidak boleh menggunakan
alat statistik moderating untuk mengidentifikasikan bahwa variabel itu merupakan variabel
moderating.
 
Regresi Linear dengan Variabel Intervening 
Variabel intervening adalah variabel antara atau variabel mediating. Model regresi dengan variabel
intervening merupakan hubungan bertingkat sehingga jika dengan analisis regresi harus
menggunakan analisis jalur (path analysis) atau disarankan menggunakan metode structural
equation modelling (SEM). Metode SEM akan dibahas belakangan dengan menggunakan Program
AMOS atau LISREL
Regresi dengan variabel intervening dipergunakan untuk melihat pengaruh tidak langsung antara
satu variabel terhadap variabel yang lain. Sebagai contoh: Gaya Evaluasi Atasan (GEA) mempunyai
pengaruh terhadap Kinerja Manajerial (KM) melalui Tekanan Kerja (TK). GEA mempunyai pengaruh
langsung terhadap KM tetapi juga bisa mempunyai pengaruh tidak langsung terhadap KM melalui
TK. GEA diinterpretasikan mempunyai pengaruh tidak langsung terhadap KM melalui TK jika
pengaruh GEA terhadap TK signifikan dan pengaruh TK terhadap KM juga signifikan. Dalam suatu
kasus bisa saja variabel mempunyai pengaruh langsung terhadap suatu variabel dan pengaruh tidak
langsung terhadap variabel tersebut melalui variabel yang lain.