آشنایى با SPSS
تحلیل آمارى (Statistical Analysis)
هر آنالیز آمارى شامل مراحل زیر است:
توصیف داده ها: نمایش و خلاصه کردن داده ها
آزمون فرضیات: نتیجه گیرى در مورد گروه بزرگتر (جامعه) از روى اطلاعات به دست آمده در یک نمونه
ارزیابى روابط: مطالعه روابط بین متغیرها
واژه هاى کلیدى در آمار
آماره (Statistic): صفتى است از نمونه مانند میانگین (x) و واریانس نمونه (s).
پارامتر (Parameter): براى توصیف ویژگى هاى جامعه به کار مى رود مانند میانگین جامعه ()
واریانس: پرکاربردترین شاخص پراکندگى است. هرچه ارزش واریانس بیشتر باشد، مقادیر بیشتر پراکنده هستند. اگر واریانس صفر باشد تمامى نمونه ها داراى مقدار واحدى هستند.
انحراف معیار (std deviation) به پراکندگى مشاهدات در یک نمونه اشاره دارد، در حالیکه خطاى معیار (std error) به پراکندگى یک آماره مربوط مى باشد.
واژه هاى کلیدى در آمار
نما (Mode): مقدارى از داده هاست که بیشترین فراوانى را دارد.
میانه (Median): مقدارى از متغیر است که نیمى از مقادیر کوچکتر از آن و نیم دیگر بزرگتر از آن هستند.
صدک ها (Percentile): مقادیرى از متغیر هستند که در مورد درصد نمونه ها را نشان مى دهند. برای مثال مى توانید مقدارى را پیدا کنید که 25% نمونه ها در زیر آن قرار گیرند.
چارک ها (Quartiles): از آنجائى که صدک هاى 25، 50، و 75 نمونه را تقریباً به چهار گروه برابر تقسیم مى کنند، مجموعاً به آنها چارک ها گویند.
Analyze
Descriptive Statistics
Frequencies
Statistics..
Quartiles
Continue
انتخاب متغیر
OK
طرز محاسبه صدک ها براى هریک از گروه ها
Analyze
Descriptive statistics
Explore..
وارد کردن متغیر مورد نظر در محل Dependent List
و متغیرى که داراى زیرگروه هاى مورد نظر است در محل Factor List
Statistics..
Percentiles
Continue
OK
در گروه مذکر 10% از نمونه ها مقاومت کم (2) دارند
صدک هاى مقاومت افراد در برابر تغییر
واژه هاى کلیدى در آمار
شاخص هاى پراکندگى (Measures of Variability): سعى مى کنند میزان گستردگى مشاهدات را اندازه گیرى نمایند.
دامنه تغییرات (Range): ساده ترین شاخص پراکندگى است که اختلاف بین بزرگترین و کوچکترین مقدار داده ها را نشان مى دهد.
واریانس (Variance): پرکاربرد ترین شاخص پراکندگى است. فرمول محاسبه واریانس در یک نموه (S2) به شکل زیر است:
مجموع توان دوم فاصله هریک از مقادیر از میانگین
(1- تعداد نمونه ها)
اگر واریانس صفر باشد تمامى نمونه ها داراى مقدار واحدى هستند. هرچه واریانس بیشتر باشد، مقادیر بیشترپراکنده هستند.
انحراف معیار (Standard Deviation):جذر واریانس را انحراف معیار گویند. اندازه انحراف معیار به واحد اندازه گیرى بستگى دارد. مثلاً انحراف معیار سن با واحد روز بزرگتر از انحراف معیار سن با واحد سال است.
= واریانس
واژه هاى کلیدى در آمار
نمره استاندارد (Standard score): نشان مى دهد که یک مشاهده چند انحراف معیار بیشتر یا کمتر از میانگین مى باشد.
= نمره استاندارد
مقدار-میانگین
انحراف معیار
X-
=
Analyze
Descriptive statistics
Descriptives
Save standardized values as variables
دستور محاسبه نمره استندارد:
انتقال متغیر (هاى) مورد نظر به محل Variables
OK
نماد E در خروجى SPSS
SPSS هنگام نمایش اعداد خیلى کوچک یا خیلى بزرگ از علائم علمى استفاده مى کند. عددى که بعد از حرف E قرار مى گیرد نشان مى دهد که محل اعشار چقدر باید جابجا شود.
اگر عددى که بعد از E مى آید منفى باشد، علامت اعشار را به سمت چپ حرکت دهید. اگر مثبت باشد علامت اعشار را به سمت راست حرکت دهید. به عنوان مثال:
-1.1E-02 = -0.011
طرز تبدیل یک متغیر
در بعضى موارد براى تامین شروط استفاده از تحلیل هاى آمارى، لازم است لگاریتم متغیر مورد نظر را حساب کرده و جایگزین متغیر قبلى کنیم.
مثلاً اگر قرار است متغیر Ram را به LogRam تبدیل کنیم، به صورت زیر عمل مى کنیم:
Transform
Compute
نام متغیر جدید را در محل Target Variable تایپ مى کنیم
از قسمت ماشین حساب فرمول Ln [numexpr را به محل Numeric Expression منتقل مى کنیم
بجاى علامت سئوال ظاهر شده متغیر مورد را منتقل مى کنیم
OK
طرز کد گذارى مجدد یک متغیر
Transform
Recode
Into different variables
انتقال متغیر مورد نظر به محل Output variable
تایپ نام جدید متغیر و انتخاب change
تایپ عنوان جدید متغیر در محل Label
Old & New Values
تایپ ارزش (کد) قدیمى در محل Old value و ارزش جدید در محل New value و انتخاب Add
Continue
OK
طرز گرد کردن اعداد
براى گرد کردن اعداد در روش کدگذارى کافى است در بخش Old value گزینه Range را انتخاب کنید
دامنه مورد نظر را تایپ کنید مثلاً
1 though 1.49
در بخش New value تایپ کنید 1
به همین ترتیب دیگر دامنه هاى مورد نظر را مشخص کنید و بقیه فرابند کدگذارى را ادامه دهید.
طرز تبدیل متغیر string به متغیر Numeric
از آنجائى که بعضى عملیات آمارى در مورد متغیرهاى نوع String قابل اجرا نیست، لازم است چنین متغیرهایى را به متغیرهاى Numeric تبدیل کنیم.
Transform
Automatic recode
تایپ اسم متغیر مورد نظر
OK
نمودارهاى مستطیلى (Boxplot)
یکى از ساده ترین روش هاى مقایسه زیر گروه هاى یک متغیر استفاده از نمودار مستطیلى است. این نمودار به طور همزمان میانه، دامنه بین چارکى و کوچکترین و بزرگترین مقادیر را براى گروه ها را نشان مى دهد.
مرز پایینى مستطیل نماینده صدک 25 مى باشد و مرز بالایى نماینده صدک 75 مى باشد. طول عمودى مستطیل نشان دهنده دامنه بین چارکى است یعنى 50درصد نمونه ها مقدارى درون مستطیل دارند. خط سیاه داخل مستطیل نشان دهنده میانه است.
از روى نمودار مستطیلى مى توان استنباط هاى زیر را داشت:
از روى میانه مى توان ایده اى در مورد محل تجمع داده ها به دست آورد.
از روى طول مستطیل مى توان گفت که چقدر داده ها از هم اختلاف دارند (پراکندگى)
اگر خط میانه به سمت پایین مستطیل متمایل باشد، نشان دهنده چولگی مثبت و در صورتى که به لبه بالایى مستطیل نزدیک تر باشد نشانگر چولگى منفى (Negative Skewness) مى باشد.
طرز ترسیم نمودار مستطیلى
Analyze
Descriptive statistics
Explore..
وارد کردن متغیر مورد نظر در محل Dependent List
و متغیرى که داراى زیرگروه هاى مورد نظر است در محل Factor List
Plots..
Factor Level Together
Continue
OK
طرز ترسیم نمودار ستونى براى مقایسه دو متغیر
Graphs
Bar..
Simple
Summaries of separate variables
Define
انتقال دو متغیرى که نمودارهاى آنها باید
مقایسه شوند به محل Bars Represent
انتقال متغیرى که داراى زیر گروه ها
مى باشد به محل Category Axis
OK
داده ها در فایل ind8187
موجود هستند
مقیاس هاى اندازه گیرى
1. مقایس اسمى (Nominal Scale): ضعیف ترین سطح اندازه گیرى مقیاس اسمى است. در این سطح اعداد یا نشانه ها براى طبقه بندى اشیاء یا مشاهدات به کار مى روند. اطلاعات با مقیاس اسمى را نمى توان به صورت معنى دارى از کم به زیاد ردیف نمود. مانند جنسیت
2. مقیاس رتبه اى (ترتیبى) (Ordinal Scale): براى نشان دادن طبقه هایى با رتبه مساوى به کار مى رود مثلاً رضایت شغلى
خیلى کم کم تاحدودى زیاد خیلى زیاد
3.مقیاس فاصله اى: زمانى به کار مى رود که مقدار یک متغیر را بتوان قید کرد اما صفر مطلق ندارد (مقادیر منفى نیز پوشش داده مى شود). مانند درجه حرارت. نمى توان نسبت بین دو مقدار را در متغیرهاى فاصله اى محاسبه کرد.
4.مقیاس نسبت: مشابه مقیاس فاصله اى است با این تفاوت که در نسبت، مبناى صفر مورد نظر است. مثلاً وزن یا طول کمتر از صفر وجود ندارد، اما درجه حرارت هم مقادیر منفى و هم مثبت را شامل مى شود. در این حالت مىتوان گفت که یک مقدار در مقایسه با دیگرى چقدر کوچکتر یا بزرگتر است. مانند سن یا سنوات تحصیلى.
انواع متغیرها
متغیر وابسته (Dependent): متغیرى است که تغییر پذیرى آن وابسته به دیگر متغیرهاست.
متغیر مستقل (Independent): متغیرى است که دلیل تغییر در متغیر وابسته را باید در آن جستجو کرد.
متغیر تعدیل کننده (Moderating): این متغیر بر رابطه بین متغیرهاى مستقل و وابسته تاثیر اقتضایى دارد.
متغیر کنترل: متغیرى است که تاثیر گذارى آن را در جریان پژوهش کنترل مى کنیم.
متغیر مداخله گر (Intervening): متغیرى است که نحوه تاثیر گذارى متغیر مستقل را بر متغیر وابسته نشان مى دهد.
A
B
C
کارایى
مشارکت
ایجاد انگیزه
وابسته
مداخله گر
مستقل
طرز انتخاب تعداد خاصى از نمونه ها با ویژگى مشخص
فرض کنیم بخواهیم گروهى از نمونه را در محاسبات وارد کنیم که زن هستند، در این صورت به شرح زیر عمل مى کنیم.
Data
Select Cases
If condition is satisfied
If
Gender =2 که در آن شماره 2 معرف زن بودن نمونه است
Continue
OK
طرز خواندن یک فایل excel در spss
از روى فایل دستور Open و سپس data را انتخاب کنید.
در پنجره اى که باز مى شود در قسمت File type فرمت excel را انتخاب کنید
فایل مورد نظر را انتخاب و open را بزنید.
در پنجره اى که باز مى شود در قسمت Range آدرس متغیرها را تایپ کنید مثلاً a4: av382 و Ok را بزنید.
طرز تهیه الگوى یکسان (Template) براى متغیرها
فرض کنید تعدادى از متغیرها در ویژگى هایى نظیر مقیاس 5 درجه اى لیکرت مثل هم باشند. در این صورت ضرورتى براى تایپ این مقیاس براى تک تک متغیرها وجود ندارد. براى اینکار کافى است، الگوى (Template) مورد نظر را تهیه و ذخیره کنیم و ویژگى هاى آن را به متغیرهاى مورد نظر تعیمم دهیم.
Data
Templates
Define
تایپ نام مورد نظر در محل Name
Value labels
تعریف مقیاس هاى مورد نظر
Continue
Add
OK
روایى محتوا (Validity)
روایى محتوا اطمینان مى دهد که ابزار مورد نظر به تعداد کافى پرسش هاى مناسب براى اندازه گیرى مفهوم مورد سنجش در بردارد.
هرقدر عناصر مقیاس گسترده تر و قلمرو مفهوم مورد سنجش را بیشتر در برگیرند، روایى محتوا بیشتر خواهد بود. به بیان دیگر، روایى محتوا نشان مى دهد که ابعاد و عناصر یک مفهوم (که باید سنجیده شود مانند کارایى) تا چه حد تحت پوشش دقیق قرار گرفته است.
براى سنجش روایى زمانى که چند مفهوم در یک پرسش نامه مورد سنجش قرار مى گیرند از تحلیل عاملى استفاده مى شود.
طرز سنجش روایى پرسش نامه
براى سنجش روایى محتوایى پرسش نامه باید ثابت کنیم که شاخص هاى یک متغیر روى یک فاکتور سوار مى شوند تا ثابت کنیم آنها تک بعدى هستند.
براى این کار باید شاخص هاى (سئوالات) متغیرهاى مختلف را یکجا از طریق تحلیل عاملى مورد ارزیابى قرار دهیم.
اگر پرسش نامه از روایى لازم برخوردار باشد، باید شاخص هاى هر متغیر روى یک عامل مستقل سوار شوند.
در صورتى که بعضى از شاخص هاى (نشانگرهاى) یک متغیر روى یک عامل سوار نشوند، مى توان آنها را حذف کرد.
اعتبار (Reliability)
اعتبار ابزار میزان پایایى و سازگارى آن را در اندازه گیرى یک مفهوم نشان مى دهد. یعنى توانایى ابزار در حفظ پایایى خود در طول زمان (علیرغم) شرایط غیرقابل کنترل آزمون و وضعیت خود پاسخگویان) حاکى از پایدارى آن و تغییر پذیرى اندک آن مى باشد.
براى سنجش اعتبار پرسش نامه از روش هاى زیر مى توان بهره گرفت:
آلفاى کرونباخ
تست- تست مجدد (Test-Retest)
روش Test-retest
در این روش تعدادى پرسش نامه در مقیاس کوچک توزیع مى شود و بعداز گذشت مثلاً یک هفته همان پرسش نامه میان همان گروه توزیع مى گردد.
داده هاى به دست آمده در دو مرحله با استفاده از آزمون t نمونه هاى جفتى مورد مقایسه قرار مى گیرند. و یا همبستگى متغیر ها در دو مرحله محاسبه مى شود.
آلفاى کرونباخ
یکى از متداول ترین روش ها براى تعیین اعتبار است. آلفا مبنى بر سازگارى داخلى یک تست است. یعنى مبتنى بر همبستگى متوسط اقلام درون یک تست است.
فرض برآن است که اقلام یک مقیاس باهم همبستگى دارند زیرا آنها یک موجودیت مشترک را اندازه گیرى مى کنند.
چون آلفا () مى تواند به عنوان ضریب همبستگى تعبیر شود، دامنه آن مى تواند از صفر تا 1 در نوسان باشد.
طرز تست کردن اعتبار پرسش نامه
براى آنکه بتوانیم اعتبار (Reliability) شاخص هاى مربوط به یک متغیر را بسنجیم و اطمینان حاصل کنیم که شاخص هاى مورد نظر متغیر واحدى را مى سنجند، لازم است به شرح زیر عمل کنیم.
آلفاى به دست آمده نباید از 0/7 کمتر باشد تا بتوانیم ادعا کنیم که شاخص هاى انتخاب شده متغیر مورد نظر را مى سنجند و مى توان به آنها اعتماد کرد.
Analyze
Scale
Reliability Analysis
انتقال شاخص هاى مورد نظر به محل Items
Statistics
Scale if item deleted
Continue
OK
نمونه بردارى
نمونه بردارى تصادفى طبقه اى: جامعه آمارى ابتدا به طبقه هاى معنى دار تقسیم مى شوند. سپس آزمودنى ها به یکى از دو صورت زیر انتخاب مى شوند:
نسبت به تعداد کل آنها در جامعه آمارى
براساس معیار دیگرى به غیر از تعداد کلى جامعه آمارى
نمونه بردارى خوشه اى: نخست گروه هایى که اعضاى نامتجانس دارند شناسایى مى شوند. سپس بعضى از آنها به طور تصادفى انتخاب مى شوند و سرانجام همه اعضاى هر گروه که به طور تصادفى انتخاب شده اند مورد مطالعه قرار مى گیرند. مثلاً از بین استان هاى کشور به طور تصادفى چند استان انتخاب مى شود و سپس از تمام ساکنان این استان ها نظر سنجى مى شود.
فرضیه صفر و فرضیه مخالف
بین فرضیه علمى و فرضیه آمارى تفاوت وجود دارد. آزمون فرضیه آمارى، آزمون پارامترهاى جامعه هستند. فرضیه آمارى معمولا به شکل فرضه صفر و فرضیه جایگزین (مخالف) بیان مى شود.
فرضیه صفر (Null Hypothsis) ادعایى است که در مورد جامعه که مبیّن عدم وجود تفاوت است.
فرضیه مخالف (Alternative Hypothesis) وضعیتى را مشخص مى کند که فرضیه صفر صحیح نباشد.
فرضیه صفر را باید به صورتى تعریف کرد که یک وضعیت واحد را به صورت کامل توصیف کند. مثلاً فرضیه صفر نمى تواند این باشد که افراد با تحصیلات دانشگاهى در هفته 40 ساعت کار نمى کنند. (در مقابل این عبارت که ساعات کار افراد داراى تحصیلات عالى و افراد بدون تحصیلات دانشگاهى یکسان است یک فرضیه صفر مناسب است).
فرضیه صفر و فرضیه مخالف (ادامه)
همیشه دقت کنیم که یا فرض صفر را رد کنیم یا آن را رد نکنیم. هیچگاه از این جمله استفاده نکنیم که “ثابت شد که فرضیه صفر صحیح نیست.”
آزمون معنى دارى شاخص هاى آمارى، در واقع همان آزمون فرضیه صفر است.
هنگامى که سطح معنى دارى مشاهده شده کمتر از 05/ باشد فرضیه صفر را رد مى شود. آنگاه مى توان فرضیه مقابل پذیرفته مى شود.
توان (Power) اصطلاح آمارى است که براى توصیف توانایى رد فرضیه صفر وقتى که غلط است به کار مى رود. احتمالى است که بین صفر تا 1 تغییر مى کند. توان به حجم نمونه، واریانس، و سطح معنى دارى بستگى دارد.
طرز ایجاد و شمارش متغیرهاى چندجوابى
اگر سئوالى در پرسش نامه مطرح شده که افراد مجاز باشند چند گزینه را انتخاب کنند در مرحله تعریف چنین متغیرى و وارد کردن داده ها به شرح زیر عمل مى کنیم:
1. فرض کنیم از بین یک سئوال هفت گزینه اى زیر هر فرد مجاز باشد حداکثر چهار مورد را انتخاب کند.
1. Health 2.Finance 3.Lack of basic services
4.Family 5.Personal 6.legal 7.Miscellaneous
در این صورت چهار متغیر را به تعداد جواب هاى ممکن به شرح زیر تعریف مى کنیم:
prob1 prob2 prob3 prob4
2. در مرحله وارد کردن داده ها بترتیب از متغیر اول شروع مى کنیم. یعنى اگر فرد i ام دو مورد 3 و 5 را انتخاب کرده باشد، به ترتیب در ردیف مربوطه در ستون متغیر prob1 کد 3 و در ستون متغیر prob2 کد 5 را وارد مى کنیم. در این صورت در محل متغیرهاى prob3 و prob4 چیزى وارد نمى کنیم.
طرز ایجاد و شمارش متغیرهاى چندجوابى
3. دستور زیر را پیاده مى کنیم:
Analyze
Multiple response
Define Sets..
انتخاب و انتقال متغیرهاى مورد نظر (مثلاً Prob1, prob2, prob3, prob4) به
محل Variables in Set
Categories
وارد کردن دامنه کدگذارى در محل Range مثلاً 1 الى 7
تایپ نام عمومى متغیر (مثلاً prob) در قسمت Name و عنوان کلى متغیر
در محل Label
Add
Close
طرز ایجاد و شمارش متغیرهاى چندجوابى
4. فراوانى جواب هاى چندگانه را با دستور زیر را به دست آورید:
Analyze
Multiple Response
Frequencies
Ok
تبصره:
در صورتى پرسش های چندگانه توسط پاسخ دهنده بدون پاسخ گذاشته شده باشد، هیچ
عددى وارد نکنید. در این حالت در محل Missing values گزینه زیر را انتخاب کنید:
Exclude cases listwise within categories
آزمون T یک نمونه اى One Sample T test
آزمون یک نمونه اى براى آزمون این فرضیه صفر به کار گرفته مى شود که آیا یک نمونه مورد نظر به جامعه با میانگین مشخص تعلق دارد یا خیر.
اگر سطح معنى دارى مشاهده شده کمتر از 05/ باشد فرض صفر رد مى شود (H0: =0).
به عنوان مثال، مى توانید از این رویه براى آزمون این فرضیه استفاده کنید که آیا بچه هایی که به طور زودرس به دنیا آمده اند بهره هوشى آنها به طور متوسط 100 مى باشد یا خیر. در این حالت فرضیه صفر به این صورت بیان مى شود که بین بهره هوشى افراد زودرس با بهره هوشى جامعه (مثلاً 100) تفاوت وجود ندارد. یعنى در این قبیل موارد میانگین نمونه با میانگین جامعه (که به نام Test value برچسب خورده است) مقایسه مى شود.
دستور آزمون T یک نمونه اى
Analyze
Compare Means
One-Sample T test
انتقال متغیر مورد نظر به محل Test Variable
انتخاب مقدارى که باید به جامعه تعمیم داده شود در محل Test Value
OK
خروجى آزمون یک نمونه اى
سطح معنى دارى دو دامنه اى و یک دامنه اى
هرگاه جهت تفاوت در آزمون فرضیه، مشخص نباشد آن را آزمون دو دامنه گویند.
هرگاه جهت تفاوت مورد توجه باشد، باید سطح معنى دارى یک طرفه حساب شود. مانند آزمون فرضیه صفر
براى محاسبه سطح معنى دارى یک طرفه از روى سطح معنى دارى دو طرفه (مثلاً آن را * بخوانیم) در خروجى SPSS، براى حالت (H0: 1-2 0 و Ha: 1-2 >0 ) به روش زیر عمل مى کنیم:
فرض صفر (H0) را رد مى کنیم اگر 2 /* کوچکتر از05 /0 باشد جایى که مقدار t مثبت است.
فرض صفر (H0) را رد مى کنیم اگر 2/(* -1) کوچکتر از05 /0 باشد جایى که مقدار t منفى است.
در حالت H0: 1-2 0 و Ha: 1-2 <0 جایى که t منفى و مقدار
2 /* کوچکتر از05 /0 باشد، فرض صفر رد مى شود. و جایى که t مثبت و مقدار 2/(* -1) کوچکتر از05 /0 باشد، فرض صفر را رد مى کنیم.
توان (Power) آزمون t
توان اصطلاح آمارى است که براى توصیف توانایى رد فرضه صفر وقتى که غلط است، به کار مى رود. توان به مقدار اختلاف واقعى، حجم نمونه، واریانس اختلاف و سطح معنى دارى که در آن مى خواهید فرضیه صفر را رد کنید، بستگى دارد.
براى پیدا کردن توان یک آزمون، مى توان به جدول توان که توسط کوهن (1988) تهیه شده مراجعه کرد.
براى افزایش توان یک آزمون موارد زیر توصیه شده است:
هرچه سطح معنى دارى بزرگتر باشد، توان آزمون بیشتر است
هرچه اندازه نمونه بزرگتر باشد، توان آزمون بیشتر است.
آزمون یک دامنه اى از آزمون دو دامنه اى پرتوان تر است.
در آزمون یک دامنه، هرچه اختلاف بین میانگین واقعى () و میانگین نمونه ( 0) بیشتر باشد، توان آزمون بیشتر است.
آزمون T با نمونه هاى جفت Paired Sample T test
از آزمون T زمانى استفاده مى کنیم که هر فرد یا حیوانی دو بار در دو وضعیت متفاوت مورد مشاهده قرار مى گیرند.
یکى از این مطالعات طرح قبل و بعد مى باشد. به عنوان مثال، اگر بخواهیم به روش Test-Retest اعتبار پرسش نامه را بسنجید یا فشار خون فرد را قبل و بعداز اعمال یک تیمار مقایسه کنید.
فرضیه صفر در طرح جفت این است که اختلافى بین مقادیر متوسط در دو عضو یک جفت جامعه وجود ندارد. به عبارت دیگر، اختلاف متوسط جامعه صفر است.
دستور آزمون T با نمونه هاى جفتى
Analyze
Paired Sample T Test
مورد نظر انتخاب دو متغیر که معرف مشاهدات دوتایى هستند و انتقال آنها به محل
Paired Variables
OK
در صورتى که سطح معنى دارى مشاهده شده کمتر از 05/ باشد، مى توان فرض صفر
را رد کرد. یعنى تفاوت معنى دارى بین دو حالت مورد نظر وجود دارد.
خروجى آزمون T با نمونه هاى جفتى
چند مشکل احتمالى در آزمون T با نمونه هاى جفتى
اگر مى خواهید اثر دو درمان را بر روى یک فرد مقایسه کنید باید بین دو درمان زمان کافى وجود داشته باشد.
اگر نمونه هاى شما یک فعالیت یا آزمایش را دوبار تکرار مى کنند، ممکن است دفعه دوم به دلیل اثر آموزش بهتر از دفعه اول عمل کنند (حتى اگر مداخله مورد نظر اثرى نداشته باشد، اثر آموزش مى تواند موجب تغییراتى شود).
در تحقیقاتى از این دست باید این موضوع در محدودیت هاى پژوهش نوشته شود.
آزمون T با نمونه هاى مستقل Independent-sample T test
رویه T با نمونه هاى مستقل این فرضیه صفر را آزمون مى کند که میانگین یک متغیر در جامعه براى دو گروه مختلف افراد باهم برابر است.
هنگامى که سطح معنى دارى مشاهده شده کوچک باشد فرض صفر (میانگین هاى یک متغیر در گروه هاى مختلف باهم تفاوتى ندارند) رد مى شود و نتیجه مى گیرید که به نظر مى رسد میانگین هاى دو گروه با هم برابر نیستند.
دستور آزمون T با دو نمونه مستقل
Analyze
Compare Means
Indepndent-sample T Test
انتقال متغیر مورد نظر به محل Test Variable و متغیرى که شامل گروه هاى مورد
نظر است به محل Grouping variable
Define Groups
نوشتن کد هر دو گروه در محل هاى مورد نظر
Continue
OK
خروجى آزمون T با دو نمونه مستقل
تفسیر نتایج در آزمون T با دو نمونه مستقل
در خروجى دو ویرایش متفاوت از آزمون t دیده مى شود. اولى با این فرض است که واریانس دو جامعه با هم برابرند و در دومى چنین فرضى وجود ندارد.
با استفاده از آزمون Levene مى توان فرضیه صفر متعلق بودن دو نمونه به جامعه هایى با واریانس هاى برابر را آزمون کرد. اگر سطح معنى دارى مشاهده شده در آزمون کمتر از 05/ باشد مى توان فرضیه صفر برابرى واریانس دو جامعه را رد کرد. در این مثال برابرى واریانس ها رد مى شود. بنابراین، باید نتایجى را که داراى برچسب Equal variance not assumed هستند، استفاده کرد.
آنالیز واریانس یک طرفه (One-Way ANOVA)
توزیع t براى آزمون تفاوت بین دو گروه مناسب است.اگر سه یا چند گروه براى مقایسه داشته باشیم، نمى توان توزیع t را براى سنجش معنى دار بودن تفاوت گروه ها به کار گرفت.
اگر بخواهیم میانگین هاى جامعه را در بین چند گروه مقایسه کنیم از آنالیز واریانس یکطرفه استفاده مى کنیم.
آنالیز واریانس یکطرفه نمونه ها را براساس مقادیر یک متغیر در گروه هاى مختلف مقایسه مى کند. متغیرى که جهت تشکیل گروه ها استفاده مى شود فاکتور نامیده مى شود.
مثلا فرض صفر مى گوید که میانگین حقوق در طبقات شغلى مختلف یکسان است (بین طبقات شغلى مختلف از نظر حقوق دریافتى تفاوت وجود ندارد).
جدول آنالیز واریانس
با نگاه کردن به سطح معنى دارى مشاهده شده مى توان فرض صفر یعنى برابرى
حقوق را در طبقات شغلى مختلف رد کرد. به عبارت دیگر، فرض صفر مبنى
بر اینکه بین طبقات مختلف شغلى از نظر حقوق دریافتى تفاوت وجود ندارد،
رد مى شود.
آزمون مقایسه چندگانه در حقوق هاى دریافتى
تفسیر مقایسه چندگانه
در آزمون مقایسه Bonferroni هر ردیف شامل مقایسه یک جفت مى باشد. در مثال فوق ردیف اول مربوط به مقایسه کارمند دفترى با نگهبان و مدیر است. ردیف آخر مربوط به مقایسه مدیر با کارمند دفترى و نگهبان مى باشد.
جفت هایى از میانگین که به طور معنى دارى باهم اختلاف دارند توسط ستاره مشخص شده است. سایر طبقات شغلى باهم اختلاف معنى دارى ندارند.
دستور اجراى آنالیز واریانس یکطرفه
Analyze
Compare Means
One-Way ANOVA
انتقال متغیر Curent Salary به محل Dependent List
انتقال متغیر Jobcat به محل Factor
Post Hoc..
انتخاب Bonferroni
Continue
OK
شرط استفاده از آنالیز واریانس
از هر جامعه نمونه هاى تصادفى مستقل گرفته شده باشند (هریک از مشاهدات باید مستقل باشند).
متغیرها بایستى به طور نرمال توزیع شده باشند
گروه ها باید داراى واریانس یکسان باشند
بررسى نرمال بودن
1. نمودار Q-Q: این نمودار مقدار مشاهده شده و مقدار مورد انتظار (مربوط به حالتى که داده هاى نمونه متعلق به توزیع نرمال است) را نشان مى دهد. اگر داده ها متعلق به یک توزیع نرمال باشند، نقاط باید اطراف یک خط صاف جمع شوند.
Graphs
Q-Q..
دستور رسم نمودار:
انتقال متغیر مورد نظر به محل Variables
OK
بررسى نرمال بودن
2. آزمون آمارى: مى توان این فرض صفر را آزمون کرد که آیا داده هاى مورد نظر، نمونه اى از جامعه نرمال مى باشد. اگر سطح معنى دار مشاهده شده کوچک باشد، باید به فرض نرمال بودن شک کرد. در غیر اینصورت (اگر سطح معنى دارى به اندازه کافى بزرگ باشد، فرض نرمال بودن غیر منطقى نیست).
Explore
دستور آزمون نرمال بودن:
Analyze
Descriptive Statistics
انتخاب متغیر
Plots ..
Normality plots with test
Continue
OK
تعبیر چولگى (Skewness) و کشیدگى (Kurtosis)
این دو شاخص هایى براى قضاوت در خصوص نرمال بودن توزیع هستند. یک توزیع نرمال باید داراى چولگى صفر و کشیدگى صفر باشد.
اگر چولگى مثبت باشد، توزیع چوله به راست است و اگر منفى باشد چوله به چپ.
اگر کشیدگى منفى باشد، توزیع از حالت زنگى شکل پهن تر است و اگر مثبت باشد توزیع باریک تر از منحنى نرمال خواهد بود.
آزمون برابرى واریانس گروه هاى مورد مقایسه
براى استفاده از بعضى تکنیک هاى آمارى نظیر ازمون t با دو نمونه مستقل لازم است به آزمون برابرى واریانس ها پرداخت. براى این منظور از آزمون Levene’s Test استفاده مى شود. یعنى فرضه صفر متعلق بودن دو نمونه به جامعه هایى با واریانس برابر را آزمون مى کنیم. این آزمون نباید معنى دار باشد. در این صورت مى توان گفت که واریانس گروه ها یکسان است. یعنى تفاوت معنى دارى از نظر تغییر پذیرى بین گروه ها وجود ندارد.
اگر آزمون Levene منجر به رد فرضه صفر برابرى واریانس دو جامعه شود، باید از ستونى استفاده کنید که داراى برچسب Equal variances not assumedاست.
دستور آزمون برابرى واریانس ها
Analyze
Compare Means
Independent samples T test
انتقال متغیر مورد نظر به محل Test Variable
Grouping Variablesانتقال متغیرى که مقادیر آن دو گروه مورد نظر را تعریف مى کند به محل
OK
تحلیل واریانس عاملى (دوطرفه) Factorial ANOVA
روش سنتى پژوهش تجربى مبتنى بر مطالعه اثر یک متغیر مستقل در یک متغیر وابسته بوده است.
روش تحلیل واریانس عاملى این امکان را به وجود آورده است که در طرح پژوهشى خود نفوذ چند متغیرهاى مستقل (که معمولاً عامل Factor نامیده مى شوند) بر متغیر وابسته را بسنجیم.
تحلیل واریانس عاملى روشى است که اثرهاى ساده و تعاملى دو یا چند متغیر مستقل را برحسب یک متغیر وابسته مورد تحلیل قرار مى دهد. به بیان دیگر، در تحلیل عاملى دو یا چند متغیر مستقل، به گونه مستقل یا در تعامل با یکدیگر تغییر مى کنند تا تغییر پذیرى متغیر وابسته را به وجود آورند.
یک مثال پژوهشى از تحلیل واریانس عاملى
آیا متوسط کارایى در چند گروه تحصیلى یکسان است؟
آیا متوسط کارایى مردها و زن ها یکسان است؟
آیا رابطه بین متوسط کارایى و درجه تحصیلى در مردها و زن ها یکسان است؟ در سئوال 1 و 2 یک فاکتور (گروه تحصیلى یا جنسیت) درگیر است در حالى که در سئوال سوم هردو فاکتور به طور مزمان مورد نظر است.
پژوهشگر در سئوال سوم یک فرضه تعاملى را مطرح مى سازد و معتقد است که متوسط ساعات کار مردها و زن ها که داراى تحصیلات مختلف هستند به گونه متفاوت ظاهر مى شود.
کارایى
مردها
زن ها
دیپلم
لیسانس
فوق لیسانس
این پژوهشگر 60 کارمند را از میان جامعه کارکنان به تصادف انتخاب مى کند به گونه اى که به 6 گروه 10 نفرى مطابق جدول زیر تقسیم شده باشند.
اثر اصلى (Main Effect)
در آنالیز واریانس اثر اصلى عبارت است از اثر هریک از فاکتورها صرف نظر از اثر سایر فاکتورها مثلاً اثر درجه تحصیلى (به تنهایى) بر روى متوسط کارایى اثر اصلى نامیده مى شود.
اثر تعاملى (Interaction Effect): اگر دو فاکتور را همزمان در نظر بگیریم، آزمون اثر تعاملى نامیده مى شود.
تحصیلات
جنسیت
A1
A2
A3
B1
B2
A1B1
A2B1
A3B1
A1B2
A2B2
A3B2
نمودار خطى میانگین هاى مشاهده شده
جدول آنالیز واریانس
براى استخراج این جدول به فایل Employee data یا Bank مراجعه کنید.
تفسیر آنالیز واریانس دوطرفه
با نگاه کردن به سطح معنى دار مشاهده شده براى هریک از نسبت هاى F مشخص مى شود که آیا مى توان فرضیه صفر آن را رد کرد:
فرضیه صفر اثر اصلى: میانگین هاى جامعه (میزان حقوق) در تمام سطوح تحصیلى یکسان است. یعنى در سطوح تحصیلى مختلف تفاوتى در میزان حقوق افراد وجود ندارد.
فرضه صفر اثر اصلى: میانگین هاى جامعه (میزان حقوق) در هردو جنس زن و مرد یکسان است.
فرضیه صفر اثر تعاملى: اثر تحصیلات بر روى حقوق در هر دو جنس زن و مرد در جامعه یکسان است (بین دو متغیر اثر تعاملى وجود ندارد).
همان طور که ملاحظه مى شود سطح معنى دارى مشاهده شده در مورد اثر تعاملى کوچکتر از 05/ مى باشد. بنابراین، فرض صفر رد مى شود. یعنى اثر سطح تحصیلات بر روى حقوق در مردها و زن ها یکسان نیست. به عبارت دیگر، رابطه بین سطح تحصیلات و حقوق در مردها و زن ها متفاوت است.
تفسیر آنالیز واریانس دوطرفه (ادامه)
همان طور که ملاحظه مى شود سطح معنى دارى مشاهده شده در مورد اثر اصلى (متغیر جنسیت) کوچکتر از 05/ مى باشد. بنابراین، فرض صفر یعنى برابرى میانگین حقوق در هر دو جنس مرد و زن رد مى شود.
همان طور که ملاحظه مى شود سطح معنى دارى مشاهده شده در مورد اثر اصلى (متغیر تحصیلات) کوچکتر از 05/ مى باشد. بنابراین، فرض صفر یعنى برابرى میانگین حقوق در هر میان افراد با سطوح تحصیلات مختلف رد مى شود.
آزمون اثرات تعاملى بسیار مهم است. اگر اثر تعاملى پیدا شود، صحبت کردن در مورد جنسیت و سطح تحصیلى به نهایى معنى ندارد و هر دو باید باهم در نظر گرفته شوند.
مجموع مربعات ارائه شده براى ردیف Corrected Model مى گوید چقدر از پراکندگى متغیر وابسته مى تواند توسط اثرات متغیرهاى مشاهده شده تبیین شود. این درصد در زیر جدول به نام R squaredارائه شده است.
دستور اجراى آنالیز واریانس دوطرفه
Analyze
General Linear Model
Univariate
انتقال متغیر وابسته به محل Dependent Variable
انتقال دو یا چند عامل مورد نظر به محل Fixed Factors
از روى Plots عامل اول را به محل Horizontal Axis و عامل دوم را به محل Separate Lines
و در صورت لزوم عامل سوم را به محل Separate Plots منتقل Add و Continue را انتخاب کنید.
OK
تحلیل واریانس چند متغیره (MANOVA)
رویه MANOVA تحلیل رگرسیونى و تحلیل واریانس را براى متغیرهاى وابسته چندگانه فراهم مى سازد.
متغیر (هاى) عامل (Factor Variables) جامعه را به چند گروه تقسیم مى کنند.
در این رویه اثر متغیرهاى مستقل (عامل) بر میانگین هاى گروه هاى مختلفى از متغیرهاى وابسته آزمون مى شود.
در این روش تعامل بین عوامل (متغیرهاى مستقل) و اثرات انفرادى عوامل سنجیده مى شود.
اثر تعاملى (Interaction Effect)
در آنالیز واریانس دو طرفه اثر اصلى (Main Effect) عبارت است از اثر هریک از فاکتورها صرف نظر از سایر فاکتورها. مثلاً اثر درجه تحصیلى بر روى متوسط ساعات کار یک اثر اصلى نامیده مى شود، اما اگر دو فاکتور را همزمان وارد کنید آزمون اثر تعاملى نامید مى شود.
اگر در خروجى SPSS نمودار خطى میانگین هاى مشاهده شده همدیگر را قطع کنند اثر تعاملى وجود دارد.
براى آزمون اثر تعاملى مى توان فرضه هاى آمارى تشکیل داد مثلاً (اثر فاکتور 1 (فاکتور تحصیلات) بر روى متغیر وابسته در گروه هاى فاکتور 2 (فاکتور جنسیت) یکسان است):
اثر تحصیلات بر روى متوسط ساعات کار در هر دو جنس زن و مرد یکسان است.
اثر تحصیلات بر روى متوسط ساعات کار در هر دو جنس زن و مرد یکسان نیست.
H0:
Ha:
اثر تعاملى (ادامه)
اگر سطح معنى دارى مشاده شده براى اثر تعاملى بزرگ تر از 05/ باشد (Sig. >0.05) نمى توان فرض صفر را رد کرد (بین دو متغیر اثر تعاملى وجود ندارد). یعنى مثلاً اثر تحصیلات بر روى ساعات کار در مردها و زن ها یکسان به نظر مى رسد.
اگر اثر تعاملى پیدا شود، دیگر نباید اثر هر یک از آنها را به تنهایى بر روى متغیر وابسته بسنجیم. اگر اثر تعاملى مشاهده نگردید مى توان اثر اصلى هریک از آنها را به روش آنالیز واریانس یک طرفه بر متغیر وابسته سنجید.
تحلیل واریانس چند متغیره (MANOVA)
به علاوه، اثرات همپراش ها (covariates) و همچنین تعامل هاى همپراش ها با عوامل (متغیرهاى مستقل) مورد بررسى قرار مى گیرد.
براى تحلیل رگرسیونى، متغیرهاى مستقل (Predictor) به عنوان متغیرهاى همپراش درنظر گرفته مى شوند.
اگر بیش از یک متغیر وابسته مشخص شود، تحلیل چند متغیره واریانس از روش هاى phillai, wilks, Hotelling و Roy با آماره F استفاده مى کند. همچنین تحلیل تک متغیره (univariate) واریانس براى هر متغیر وابسته صورت مى گیرد.
مثال
فرض کنید اثر دو متغیر مستقل I1 و I2 را بر روى سه متغیر وابسته D1، D2، و D3 مورد آزمایش قرار مى دهیم. در این صورت خروجى SPSS در تحلیل واریانس چند متغیره به صورت زیر خواهد بود.
خروجى تحلیل واریانس چند متغیره
دستور اجراى MNOVA
Analyze
General linear Model
Multivariate
انتقال متغیرهاى وابسته به محل Dependent Variables
انتقال متغیرهاى مستقل به محل Fixed factors
OK
Plots..
انتقال یک متغیر به محل Horizontal Axis و متغیر دیگر به محل Separate Lines
Add
Continue
آزمون مربع کاى دو C hi-square test
اگر بخواهیم استقلال بین دو متغیر را که محاسبه میانگین آنها ممکن نیست (تنها مى توان در مورد تعداد مقادیر مختلف آن صحبت کرد مانند متغیرهاى اسمى) آزمون کنیم از آماره کاى دو استفاده مى کنیم.
آماره کاى دو بر مقادیر مشاهده شده و مورد انتظار که از طریق جدول توافقى به دست مى آیند استوار است.
در جدول توافقى مقدار مشاهده شده عبارت است از تعدادى از نمونه ها که در یک خانه قرار داند.
مقدار مورد انتظار عبارت است از تعدادى که در صورت مستقل بودن دو متغیر پیش ینى مى شود.
H0: دو متغیر مستقل هستند
Ha: تفاوت معنى دارى بین دو متغیر وجود دارد
جدول توافقى
جزء اصلى جدول توافقى تعداد نمونه هایى است که در هر یک از خانه هاى جدول قرار مى گیرند. روش هاى آمارى که در این فرضیه هاى صفر به کار مى روند براساس مقایسه موارد مشاهده شده در هرخانه با تعداد مورد انتظار آن عمل مى کند. تعداد مورد انتظار به طور ساده تعدادى از نمونه هاست که در صورت صحیح بودن فرضیه صفر انتظار مى رود در هریک از خانه ها پیدا شود.
فرضیه صفر در جدول توافقى به صورت مستقل بودن دو متغیر بیان مى شود (دو متغیر مورد نظر مستقل از یکدیگر هستند).
شرط استفاده از آماره کاى دو
1. مشاهدات باید مستقل باشند. یعنى نمونه به صورت تصادفى از جامعه انتخاب شده باشد.
2. بیش از 20% سلول هاى جدول توافقى داراى فراوانى مورد انتظار کمتر از 5 نباشد. یعنى شاخص Minimum expected frequency کمتر از یک نباشد.
دستور اجراى آماره کاى دو
Analyze
OK
Descriptive Statistics
Crosstabs..
انتقال متغیرهاى مورد نظر یکى به محل Rows و دیگرى به محل Columns
Statistics
Chi-square
انتخاب گزینه phi and cramer’s v اگر یکى از متغیرهاى مورد نظر اسمى باشد و
Kendall’s tau براى متغیرهاى رتبه اى
continue
Cells
انتخاب گزینه هاى Observed، Expected، Total، و Unstandardised
continue
خروجى آزمون کاى دو (جدول توافقى)
براى به دست آورن این
جدول از فایل GSS
متغیرهاى Married
و Life را انتخاب کنید.
خروجى آزمون کاى دو(2) -ادامه
تست شرایط استفاده از 2
تفسیر نتایج در آزمون کاى دو
اگر سطح معنى دارى مشاهده شده کمتر از 05/ باشد مى توان فرض صفر یعنى استقلال دو متغیر را رد کرد.
مقدار کاى دو (ارزش عددى به دست آمده در روش پیرسون) مقیاسى از قدرت رابطه دو متغیر نیست. براى پیدا کردن قدرت رابطه دو متغیر از مقیاس هاى Phi و Cramer’s V استفاده مى کنیم. در مقیاس کرامر مقدار به دست آمده بین صفر و 1 در نوسان است. صفر نشانگر عدم وجود رابطه و 1 معرف رابطه کامل است.
در زیر جدول آزمون کاى میزان تحقق شرایط استفاده از آزمون قید شده است.
آزمون کاى دو (خى دو) یک نمونه اى
از آزمون کاى دو مى توان جهت آزمون توزیع یک متغیر نیز استفاده کرد. یعنى مى توانید ببینید که آیا توزیع مقادیر مشاهده شده در یک جدول فراوانى با تعداد مقادیر مورد انتظار یکى مى باشد.
مثلاً مى توان آزمون کرد که آیا احتمال افرادى که زندگى را هیجان انگیز مى دانند یا معمولى و خسته کننده مى دانند باهم برابر است؟
خروجى آزمون خى دو یک نمونه اى
باتوجه به پایین بودن سطح
معنى دارى مشاهده شده
فرض صفر یعنى برابرى برداشت افراد
از زندگى رد مى شود.
دستور آزمون کاى دو یک نمونه اى
انتقال متغیر مورد نظر به محل Test Variable List
انتخاب گزینه All Categories Equall
OK
Analyze
Nonparametric Test
Chi-Square..
توان آزمون کاى دو
می دانیم که توانایى ما براى رد فرض صفر وقتى که غلط است (توان آزمون) به اندازه نمونه بستگى دارد. این قاعده براى آزمون کای دو نیز درست است. مقدار آماره کای دو به تعداد مشاهدات در نمونه بستگى دارد.
اگر نمونه کوچکى داشته باشیم، ممکن است قادر به رد فرض صفر حتى اگر آن غلط باشد نباشیم. به طریق مشابه برای نمونه هاى بزرگ ممکن است به رد فرض صفر برسیم حتى اگر انحراف از استقلال خیلى کوچک باشد.
وقتى یکى از متغیرها یا هردوى آنها در جدول توافقى برمبناى مقیاس رتبه اى سنجیده مى شود، آزمون کاى دو مانند دیگر آماره ها براى کشف انحراف از استقلال قوى نیست.
آزمون هاى غیر پارامترى Non-Parametric Tests
آزمون هاى غیر پارامترى زمانى به کار گرفته مى شوند که نمونه ها کوچک باشند و فرض هاى ضرورى آزمون هاى پارامترى به شدت صادق نباشند.
آزمون هاى پارامترى به آزمون هایى گفته مى شوند که به فرض نرمال بودن جامعه نیاز دارند. در حالیکه آزمون هاى غیر پارامترى داراى توزیع نرمال نیستند.
مزیت آزمون هاى غیر پارامترى آن است که به فرض هاى کمترى در مورد داده ها نیاز دارند. عیب آنها آن است که توان کمترى نسبت به سایر آزمون ها دارند.
آزمون هاى غیر پارامترى Non-Parametric Tests
آزمون Sign جایگزین غیر پاامترى آزمون t جفتى است که توان کمترى دارد. در حالى که آزمون مشابه آن یعنى Wilcoxon از توان بیشترى برخوردار است.
آزمون Mann-Whitney جایگزین غیر پارامترى آزمون t با نمونه هاى مستقل مى شود.
آزمون Kruskal-Wallis جایگزین غیر پارامترى براى آنالیز واریانس یکطرفه است.
آزمون Runs بررسى مى کند آیا مشاهدات کنار هم در یک سرى از هم مستقل هستند.
آزمون رتبه اى فریدمن (Friedman)
آزمون رتبه اى فریدمن (1937) یک آزمون رتبه اى براى K نمونه همبسته است.
Analyze
Nonparametric Tests
K Related Samples
انتقال متغیرها به محل Test vaiables
Friedman
OK
Friedman Test
آزمون دو جمله اى
آزمون دو جمله اى براى آزمون این فرضه به کار مى رود که آیا یک متغیر از یک جامعه دو جمله اى با احتمال مشخصى تصادفى است یا خیر. متغیر مورد نظر تنها دو مقدار مى تواند داشته باشد.
Analyze
Nonparametric Tests
Binomial
انتقال متغیر مورد نظر به محل Test Variable list
OK
اندازه گیرى رابطه
روش هاى آمارى مختلفى براى مطالعه رابطه بین متغیرها استفاده مى شود که به نوع متغیر و مانند اینها بستگى دارد. مانند کاى دو، رگرسیون، و همبستگى
براى مشخص کردن قدرت و طبیعت رابطه بین دو متغیر باید از طریق محاسبه شاخص رابطه (Measures of association) اقدام کرد.
یک شاخص رابطه عددى است که بزرگى آن قدرت رابطه بین دو متغیر را مشخص مى کند.
شاخص هاى رابطه براى متغیرهاى اسمى (Nominal)
براى متغیرهاى اسمى دو نوع شاخص رابطه وجود دارد. اول شاخص هاى رابطه براساس آماره کاى دو و دوم شاخص هاى کاهش نسبى خطا که به آنها PRE مى گویند.
شاخص هاى رابطه برمبناى کاى دو عبارت انداز:
ضریب فى (phi Coefficient)
ضریب توافق (Coeficient of Contingency)
کرامر (Cramer’s V)
هر سه شاخص قدرت رابطه یکسانى را نشان مى دهند، اما تفسیر شاخص هایى که برمبناى کاى دو محاسبه مى شوند، مشکل است.
شاخص هاى مزبور جهت رابطه را بیان نمى کنند زیرا متغیرهاى اسمى ترتیبى ندارند و صحبت از رابطه منفى یا مثبت در مورد آنها معنى ندارد.
شاخص هاى رابطه براى متغیرهاى اسمى (ادامه)
شاخص هاى رابطه بر مبناى کاهش نسبى در خطا
لامدا (Lambda) پرکاربردترین شاخص PRE است.
مقدار صفر براى لامدا به این معنى است که متغیر مستقل کمکى در پیش بینى متغیر وابسته نمى کند.
هنگامى که دو متغیر از نظر آمارى مستقل هستند مقدار لامدا برابر صفر است، اما صفر بودن لامدا لزوماً به معنى مستقل بودن نیست. بنابراین، هنگامى که لامدا برابر صفر است سایر شاخص هاى رابطه ممکن است مقدار متفاوتى را پیدا کنند.
شاخص هاى رابطه براى مقیاس هاى رتبه اى (Ordinal)
لاندا به عنوان یک شاخص رابطه در تمام متغیرها با هر مقیاس قابل استفاده است.
گاماى گودمن و کروسکال (Goodman and Kruskal’s Gamma) گاماى مثبت معرف رابطه مثبت و برعکس است.
تاو- b کندال (Kendal’s tou-b) که مى تواند مقادیرى بین -1 تا +1 داشته باشد.
تاو-C کندال (Kendal’s tou-c)
d سامرز (Somer’s d)
شاخص هاى رابطه برمبناى همبستگى
هنگامى که متغیرهاى شما در مقیاسى اندازه گیرى شده اند که رتبه در آن معنا دارد، مى توان با محاسبه ضرایب همبستگى قدرت رابطه دو متغیر را اندازه گیرى کرد.
دو ضریب هبستگى پرکاربرد عبارت انداز:
ضریب همبستگى پیرسون که داراى مقادیرى بین -1 تا +1 و قدرت رابطه خطى بین متغیرهاى فاصله اى را بیان مى کند.
ضریب همبستگى اسپیرمن که مترادف غیر پارامترى ضریب همبستگى پیرسون است. در ضمن، این ضریب قدرت رابطه متغیرهاى رتبه اى را اندازه گیرى مى کند.
ضرایب همبستگى پیرسون و اسپیرمن
Analyze
Descriptive Statistics
Crosstab..
Statistics
Correlations
Continue
OK
انتخاب متغیرهاى مورد نظر در ردیف و ستون
دستور:
دستور محاسبه همبستگى بین متغیرها
Analyze
Correlate
Bivariate..
انتقال دو متغیر مورد نظر به محل Variables
انتخاب روش محاسبه همبستگى با توجه به نوع متغیر:
1. متغیرهاى فاصله اى: پیرسون
2.متغیرهاى رتبه اى: اسپیرمن
3. متغیرهاى رتبه اى: کندال
OK
مقایسه ضرایب همبستگى پیرسون و اسپیرمن
همبستگى جزئى (Partial Correlation)
در صورتى که بخواهیم در تعیین همبستگى دو متغیر اثر دیگر متغیرها را کنترل کنیم، مى توان از رویه همبستگى جزئى استفاده کرد.
اگر مى خواهید همبستگى جزئى دو به دو متغیرها را اندازه گیرى کنید، گزینه Zero-order correlations را انتخاب کنید.
Analyze
Correlate..
Partial..
انتقال دو یا چند متغیر مورد نظر به محل Variables و دیگر متغیرهاى کنترل
به محل Controlling for
انتخاب گزینه Zero-order correlations از روى Options
OK
رگرسیون و همبستگى
آنالیز رگرسیون زمانى استفاده مى شود که متغیر وابسته داراى مقادیر متعدد است و در مقیاس فاصله اى یا نسبتى اندازه گیرى شده باشد.
در بررسى رابطه دو متغیر قدم اصلى رسم نمودارى از مقادیر است. با مشاهده یک نمودار مى توانید بگویید آیا بین مقادیر دو متغیر الگویى مشاهده مى شود.
اگر نقاط حول یک خط راست جمع شده باشند، بین دو متغیر رابطه خطى وجود دارد. اگر ضریب زاویه خط مثبت باشد، رابطه “مثبت” خواهد بود. اگر ضریب زاویه خط منفى باشد، رابطه مشاهده شده “منفى” است.
رگرسیون و همبستگى (ادامه)
قدر مطلق ضریب همبستگى پیرسون بین دو متغیر بیانگر آن است که چقدر نقاط حول یک خط صاف تجمع پیدا کرده اند.
هردو مقدار بزرگ مثبت (نزدیک 1+) و بزرگ منفى (نزدیک 1-) بیانگر آن است که رابطه خطى قوى بین دو متغیر وجود دارد یا در حقیقت نقاط به خط رگرسیون نزدیک هستند.
اگر رابطه خطى بین دو متغیر وجود نداشته باشد، مقدار ضریب همبستگى پیرسون نزدیک صفر خواهد بود، اما ضریب همبستگى صفر به این معنى نیست که هیچ نوع رابطه بین دو متغیر وجود ندارد.
ضریب همبستگى و نمودار رابطه دو متغیر
Graphs
Scatter..
Simple
Define
اتقال دو متغیر به محل محورهاى X و Y
OK
دستور:
روش به دست آوردن رگرسیون خطى
Analyze
Regression
Linear..
انتقال متغیر فاصله اى وابسته به محل Dependent
انتقال متغیرهاى مستقل به محل Independent
انتخاب روش مناسب مانند Enter یا Stepwise
OK
خروجى تحلیل رگرسیونى
خروجى تحلیل رگرسیونى (ادامه)
براى انجام این تحلیل رگرسیونى از فایل Employee data استفاده کنید.
شرایط استفاده از رگرسیون
1. تمام مشاهدات باید مستقل باشند (Independence).
2. براى تمام مقادیر متغیرهاى مستقل، توزیع مقادیر متغیر وابسته باید نرمال باشد (Normality).
3.واریانس توزیع متغیر وابسته باید براى تمام مقادیر متغیرهاى مستقل یکسان باشد (Constant Variance).
4.رابطه بین متغیر وابسته و متغیرهاى مستقل باید در جامعه خطى باشد (Linearity).
5.رابطه خطى مشترک چند گانه بین متغیرهاى وابسته برقرار نباشد (Multicolinearity).
درضمن، متغیرها باید حداقل در مقیاس رتبه اى اندازه گیرى شده باشند.
بررسى نرمال بودن
اگر در جامعه آمارى متغیر وابسته براى هریک از مقادیر متغیر هاى مستقل به صورت نرمال توزیع شده است، پس توزیع باقیمانده ها (residuals) نیز باید به تقریب نرمال باشد.
براى سنجش نرمال بودن باقیمانده ها باید در بخش متغیرهاى مستقل تمامى آنها را وارد کنیم و در نهایت فقط یک نمودار خواهیم داشت.
Analyze
Regression
انتقال متغیر وابسته به محل Dependent و تمام
متغیرهاى مستقل به محل Indepndents
Plots..
انتقال گزینه ZRESID* به محل Y و
گزینه ZPRED* به محل X
انتخاب گزینه Normal Probability Plot
Continue
OK
بررسى نرمال بودن (ادامه)
Explore
Plots
Normality plot with tests
بررسى ثابت بودن واریانس
براى سنجش اینکه آیا واریانس متغیر وابسته براى تمام مقادیر متغیرهاى مستقل ثابت است، مى توان از نمودارباقیمانده ها (Residuals) را در مقابل مقادیر پیش بینى شده (Predicted values) استفاده کرد.
اگر واریانس ثابت باشد الگویى
در نقاط مربوط به داده ها مشاهده
نخواهید کرد.
در روش بررسى نرمال بودن نیز
این نمودار ظاهر مى شود
اگر واریانس متغیر وابسته ثابت به نظر نرسد چه باید کرد؟
اگر واریانس متغیر وابسته با افزایش مقدار متغیر مستقل به طور خطى افزایش پیدا کند، با جذر گرفتن از متغیر وابسته آن را تبدیل کنید.
اگر انحراف معیار متغیر وابسته با افزایش مقادیر متغیر وابسته به صورت خطى افزایش مى یابد، با لگاریتم گرفتن آن را تبیدل کنید و سپس رگرسیون را با متغیر تبدیل شده اجرا کنید.
Transform
Compute..
انتخاب نام مناسب برای متغیرى که مى خواهید
تبیدل کنید در محل Target variable
انتقال تابع تبدیل به محل Numeric expresion
انتقال متغیر مورد نظر به محل علامت ?
OK
بررسى خطى بودن
باید ثابت کنیم متغیر وابسته با متغیرهاى مستقل به طور خطى رابطه دارد.
اگر در نمودار پراکندگى الگوى خاصى تشکیل نشود، روابط ین دو متغیر خطى خواهد بود. در غیر اینصورت باید از طریق انتقال یک متغیر با استفاده از توابعى مانند Log، جذر گرفتن، Tan، و مانند اینها بین آنها رابطه خطى برقرار کرد. به عنوان مثال ممکن است رابطه خطى به شکل زیر درآید: Y=a+bLog x
Graphs
Scatter..
Matrix
Define
انتقال کلیه متغیرها اعم از وابسته و مستقل به
محل Matrix variables
OK
بررسى هم خطى بودن
قدرت رابطه خطى بین متغیرهاى مستقل توسط شاخصى اندازه گیرى مى شود که تولرانس نامیده مى شود. مقدار آن بین صفر و 1 تغییر مى کند.
براى هر متغیر مستقل تولرانس نسبتى از پراکندگى آن متغیر است که توسط روابط خطى آن متغیر با دیگر متغیرهاى مستقل در مدل توجیه نمى شود.
مقدار نزدیک به صفر (کمتر از 1/) معرف آن است که یک متغیر مستقل تقریباً یک ترکیب خطى از سایر متغیرهاى مستقل است. یعنى داده ها داراى روابط خطى مشترک چند گانه (multicolinear) هستند.
مقدار نزدیک به 1 معرف آن است که متغیر مورد نظر تابع خطى از دیگر متغیرها نیست.
بررسى هم خطى بودن (ادامه)
Analyze
Regression
انتقال متغیر وابسته به محل Dependent و تمام
متغیرهاى مستقل به محل Indepndents
Statistics..
انتقال گزینه Colinearity diagnostic
انتخاب گزینه Normal Probability Plot
Continue
OK
Variance Information FunctionVIF = 1/Tolerance
برازش مدل رگرسیونى (Goodness of fit of the model)
در خروجى رگرسیون ضریب تعیین ( R square (R2 معرف آن است که چه نسبتى از تغییر پذیرى یا واریانس کلى در متغیر وابسته توسط متغیرهاى مستقل تبیین مىشود.
اگر R2 مساوى 1 باشد نشان دهنده آن است که متغیر وابسته کاملاً از طریق متغیرهاى مستقل قابل پیش بینى است. مقدار صفر معرف آن است که متغیر وابسته به طور خطى به متغیرهاى وابسته مرتبط نیست.
Multiple R قدر مطلق ضریب همبستگى بین مقادیر مشاهده شده متغیر وابسته و مقادیر پیش بینى شده (Predicted) براساس مدل رگرسیونى متغیر وابسته را نشان مى دهد.
آزمون فرضیه هاى رگرسیون آزمون صفر بودن ضریب زاویه
براى اثبات اینکه رابطه خطى بین متغیر وابسته و متغیرهاى مستقل وجود دارد، مى توان این فرض صفر را آزمون کرد که ضریب زاویه جامعه برابر با صفر است.
جدول آنالیز واریانس براى آزمون فرض صفر به کار مى رود (هیچ رابطه خطى بین متغیر وابسته و متغیرهاى مستقل در جامعه آمارى وجود ندارد).
اگر سطح معنى دارى کمتر از 05/ باشد مى توان فرض صفر را که هیچ رابطه خطى بین متغیر وابسته و متغیرهاى مستقل وجود ندارد را رد کرد.
آزمون صفر بودن ضریب زاویه
چون سطح معنى دارى مشاهده شده کوچک مى باشد، لذا فرضیه صفر
مبنى بر اینکه رابطه خطى بین متغیر وابسته و متغیرهاى مستقل وجود
ندارد، رد مى شود.
آزمون فرضیه هاى رگرسیون آزمون صفر بودن ضرایب رگرسیونى
مقادیر ضرایب رگرسیونى (Regression coefficient) در ستونى در ستونى با عنوان B ظاهر مى شوند. این ضرایب بهترین تخمین ما از ضرایب رگرسیونى در جامعه آمارى است.
براى تعمیم ضرایب رگرسیون به جامعه باید این فرضیه صفر را تست کنیم که آیا این ضرایب در جامعه صفر هستند
(H0: 1= 2= 3 = 0)
اگر سطح معنى دارى مشاهده شده کوچک باشد، فرضیه صفر یعنى صفر بودن ضرایب رگرسیونى در جامعه رد مى شود.
آزمون صفر بودن ضرایب رگرسیونى
با توجه به پایین بودن سطح معنى دارى مشاهده شده، فرضیه صفر (صفر بودن
ضرایب رگرسیونى رد مى شود).
معادله رگرسیونى
در صورت صادق بودن شرایط رگرسیونى، تحلیل نهایى از خروجى رگرسیون باید در شکل یک مدل ریاضى (معادله رگرسیونى) ارائه شود. مثلاً با توجه به مثال فوق خواهیم داشت:
Current Salary = 1.34 Beginning salary + 5930.28 Employment Category
-19.03 Previous Experience+ 601.30 Educational Level- 3068.27
نظر به اینکه در معادله فوق به دلیل همسنگ نبودن ضرایب رگرسیونى، میزان تاثیرگذارى نسبى متغیرهاى مستقل مشخص نیست، ضروى است از ضرایبى که در ستون Beta ذکر شده اند، استفاده شود.
مثلاً 62 درصد از تغییر پذیرى در متغیر وابسته توسط حقوق اولیه تبیین مى شود. 27درصد از تغییر پذیرى در متغیر وابسته توسط طبقه شغلى تعیین مى شود. و به همین قیاس در مورد میزان تاثیر هر یک از متغیرها مى توان قضاوت کرد.
تحلیل رگرسیونى براى اثرات تعاملى Regression Analysis for Interactive Effects
فرض کنید مى خواهیم اثر متغیر سن (Age) را به عنوان یک متغیر تعدیل کننده (Moderator) در رابطه خطى SR = +DP+ e بسنجیم. به کمک تحلیل رگرسیونى رابطه خطى دو متغیر را مى سنجیم و R Square آن را یادداشت مى کنیم.
متغیر Age را (اگر به صورت پیوسته نباشد) به صورت متغیر مصنوعى (Dummy) تعریف مى کنیم. مثلاً اگر Age در سه طبقه جوان (1)، میانسال (2)، و پیر (3) طبقه بندى شده باشد به کمک دستور Recode متغیرهاى مصنوعى جدید را به صورت زیر تعریف مى کنیم:
1
2
3
0
1
0
Age1
1
2
3
0
0
1
Age2
تحلیل رگرسیونى براى اثرات تعاملى (ادامه)
سپس به کمک دستور Compute دو متغیر جدید زیر را تعریف مى کنیم:
DP*Age1 DP*Age2
حال باید رابطه خطى زیر را از طریق رگرسیون مورد آزمایش قرار دهیم:
SR = +1DP+2Age1+3Age2+4Age1*DP+5Age2*DP+e
اگر ضراب رگرسیونى از نظر آمارى معنى دار باشند، در این صورت فرض آمارى صفر که هیچ اثر تعاملى وجود ندارد رد مى شود. مقدار ضرایب رگرسیونى اطلاعاتى را در خصوص ماهیت تعامل بیان مى کند. R Square جدید نیز باید بیشتر از R Square قبلى (محاسبه شده در مرحله اول باشد) تا بتوان گفت متغیر Age به عنوان یک متغیر مداخله گر عمل مى کند.
تحلیل رگرسیونى براى اثرات تعاملى (ادامه)
در صورتى که متغیر تعدیل کننده یک متغیر پیوسته باشد، دیگر نیازى به محاسبه متغیرهاى مصنوعى (Dummy) نیست. مثلاً نخست رابطه خطى زیر را به کمک رگرسیون برآورد مى کنیم:
SR= +1DP+2RO+3LS+4EH+5EF+e
سپس به کمک دستور Compute متغیرهاى زیر را تعریف مى کنیم:
DP*Age, RO*Age, LS*Age, EH*Age, EF*Age
آنگاه از طریق رگرسیون با درنظر گرفتن متغیرهاى جدید به عنوان متغیر مستقل رابطه خطى جدید را برآورد مى کنیم. اگر ضریب تعیین بیشتر باشد (R Square Change>0) و ضرایب رگرسیونى معنى دار باشند، متغیر Age را مى توان به عنوان متغیر تعدیل کننده مطرح ساخت.
تحلیل رگرسیونى براى اثرات تعاملى (ادامه)
Age*RO
Age*DP
Age*LS
Age*EH
Age*EF
R Square
R Square
Change
Beta
در تحلیل رگرسیونى براى اثرات تعاملى بهتر است یافته هاى پژوش
در قالب جدولى مانند زیر خلاصه شود.
تحلیل عاملى (Factor analysis)
تحلیل عاملى یک تکنیک آمارى است که براى تشخیص حداقل عواملى که مى توانند یک پدیده پیچیده را تشریح کنند.
هدف تحلیل عاملى تشخیص عوامل ناپیدا برمبناى عوامل مشاهده شده است. این عوامل باید ساده و در عین حال معنى دار باشند.
هدف تحلیل عاملى پیدا کردن عوامل مشترکى است که متغیرها را بتوان به صورت تابعى از آنها نوشت.
تحلیل عاملى ابزارى است براى سنجش روائى پرسش نامه. مقصود آن است که پرسش نامه چیزى را اندازه بگیرد که براى اندازه گیرى آن ساخته شده است.
تحلیل عاملى (Factor analysis)
عامل متغیر جدیدى است که از طریق ترکیب خطى نمره هاى اصلى متغیرهاى مشاهده شده برپایه فرمول زیر برآورد مى شود:
امید است که تعداد کمى از عامل ها (یعنى ترکیب خطى نمره هاى اصلى متغیرعاى مشاده شده) بتواند تقریباً همه اطلاعاتى را که توسط مجموعه بزرگترى از متغیرها به دست مى آید دربرگرفته در نتیجه توصیف ویژگى هاى یک پدیده را ساده سازد.
Fi = WijXj
شرایط مناسبت ماتریس داده ها براى تحلیل عاملى
حجم گروه نمونه:
کامرى (1973) گروه نمونه 100 نفرى را ضعیف، 200 نفرى را نسبتاً مناسب، 300 نفرى را خوب، 500 نفرى را خیلى خوب، و 1000 نفرى را عالى مى داند.
حجم گروه نمونه باید دست کم 10 یا 20 برابر عده متغیرهایى باشد که در ماتریس همبستگىٍ وارد مى شود.
براى اطمینان از کفایت نمونه از شاخص KMO استفاده مى شود.
مقادیر کوچک KMO بیانگر آن است که همبستگى بین زوج ها نمى تواند توسط متغیرهاى دیگر تبیین شود. کیزر (Kaiser, 1977) معتقد است که KMO بزرگتر از 9/ عالى، در دامنه 8/ شایسته، در دامنه 7/ بهتر از متوسط، در دامنه 6/ متوسط، در دامنه 5/ بدبختى و پایین تر از آن غیرقابل قبول است.
شرایط مناسبت ماتریس داده ها براى تحلیل عاملى
معنا دار بودن ماتریس: آیا ماتریس داده ها شامل اطلاعات مفید و با معنایى است یا نه؟
اگر همبستگى بین متغیرها کوچک باشد، احتمال آنکه در عامل هاى مشترک سهیم باشند، اندک است.
براى ارزشیابى ماتریس همبستگى از آزمون کرویت بارتلت (Bartlett’s test of sphericity) استفاده مى شود.
آزمون کرویت برای رد فرضیه صفر مبنى بر درست بودن ماتریس همانى در جامعه است (یعنى این فرضه که ماتریس همبستگٍى مشاهده شده متعلق به جامعه اى با متغیرهاى ناهمبسته است).
ماتریس همانى (Identity matrix) ماتریسى است که همه عناصر قطرى آن 1 و همه نصار غیر قطرى آن صفر باشد.
شرایط مناسبت ماتریس داده ها براى تحلیل عاملى
مراحل تحلیل عاملى
تشکیل ماتریس همبستگى (Correlation matrix): ماتریس همبستگى به ما کمک مى کند تا عوامل مشترک را شناسایى کنیم. اگر همبستگى بین متغیرها کوچک باشد، غیرمحتمل است که آنها در عوامل مشترک باهم سهیم باشند. آزمون کرویت بارتلت مى تواند براى آزمایش این فرضیه صفر به کار گرفته شود که ماتریس همبستگى یک ماتریس واحد (Identity) است. ماتریس واحد به ماتریسى گفته مى شود که تمام اعداد قطر آن برابر 1 و جوانب آن صفر باشد. اگر فرض صفر مبنى بر اینکه ماتریس همبستگى جامعه آمارى یک ماتریس واحد است، رد نشود. در این صورت نمى توان از تحلیل عاملى استفاده کرد.
1 0 0 0 0
0 1 0 0 0
ق
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
مراحل تحلیل عاملى (ادامه)
احصاء عوامل (Factor Extraction): براى تخمین اولیه از تحلیل مولفه هاى اصلى استفاده می شود. در این روش ترکیب خطى متغیرهاى مشاهده شده تشکیل مى شود. روش مولفه هاى اصلى تنها کارى که انجام مى دهد عبارت است از انتقال متغیرهاى همبسته به مجموعه اى از متغیرهاى غیر همبسته. در این مرحله تعداد عوامل برحسب ارزش ویژه (Eigenvalue) تعیین مى شود. عواملى که داراى ارزش ویژه بزرگتر از یک هستند در مدل عاملى وارد مى شوند. ارزش ویژه نشان مى دهد که یک عامل تاچه حد در تبیین واریانس مشترک زیربنایى متغیرها سهیم است. اگر عاملى تمام واریانس مشترک موجود در هر متغیر را تبیین کند هرکدام داراى بار عاملى 1 و مقدار ارزش ویژه براى عامل 1 برابر n (تعداد متغیرها) خواهد بود.
درصدى از کل واریانس را که به وسیله یک عامل تعیین مى شود را با pct of var نشان مى دهند. برپایه ملاک کیسر (1960) تعداد عامل هاى مشترک باید مساوى با تعداد مولفه هاى اصلى داراى ارزش ویژه بزرگتر از 1 باشد.
جدول ماتریس عوامل
جدول ماتریس عوامل (Factor matrix) ضرایبى را نشان مى دهد که مى توان هر متغیر را به کمک آنها برحسب عوامل مشترک نوشت.
بخشى از واریانس یک متغیر که توسط عوامل مشترک قابل تبیین است را اشتراک (Communality) آن متغیر گویند.
مقدار اشتراک مى تواند از صفر تا 1 در نوسان باشد. صفر نشان دهنده آن است که عوامل مشترک هیچ واریانسى را بیان نمى کنند.
عدد 1 نشان مى دهد که تمام واریانس
متغیر توسط عوامل مشترک قابل تبیین
است.آن قسمت از واریانس که توسط
عوامل مشترک قابل تبیین نیست به
عوامل انحصارى متغیر نسبت داده
مى شود.
F1 F2 F3 ….
V1 a11 a12 a13 ….
V2 a21 a22 a23 ….
. . . . ….
. . . . ….
. . . . ….
Vn an1 an2 an3 ….
مراحل تحلیل عاملى (ادامه)
چرخش (Rotation): در این مرحله متغیرها به صورت تابعى از عوامل احصاء شده دسته بندى مى شوند. چرخش بارهاى عاملى این امکان را فراهم مى سازد تا عامل هاى با معنا به دست آید. نسبتى از واریانس که توسط یک عامل تبیین مى شود را به وسیله شاخص اشتراک (Communality) مشخص مى کنند. مقدار آن بین صفر و 1 در نوسان است.
صفر معرف آن است که عوامل مشترک هیچ واریانسى از متغیر را تعیین نمى کند و 1 معرف آن است که تمام واریانس متغیر به وسیله عوامل مشترک تبیین مى شود.
هرچند روش هاى مختلفى براى چرخش بارهاى عاملى وجود دارد، اما روش Varimax عامل هایى را تولید مى کند که با مجموعه کوچکترى از متغیرها داراى همبستگى قوى و با مجموعه دیگرى از متغیرها داراى همبستگى ناچیز باشد. به همین دلیل عمومیت بسیار دارد و کاربرد آن زیادتر است.
روش هاى چرخش عامل ها
عامل هاى چرخش یافته باید متعامد (Orthogonal) یا متمایل (Oblique) باشد.
اگر پژوهشگر بخواهد نتایج حاصل از تحلیل او بهترین برازش را با داده ها داشته باشد باید از چرخش متمایل استفاده کند. اما اگر علاقه بیشترى به تعمیم پذیرى نتایج داشته باشد، باید چرخش متعامد را به کار برد.
چرخش متمایل نتایجى به دست مى دهد که با داده هاى گروه نمونه بهترین برازش را دارد، چرخش متعامد راه حلى به دست مى دهد که با داده هاى گذشته و آینده بهترین برازش را داراست.
در روش متعامد عامل ها ناهمبسته هستند در حالى که در روش متمایل عامل ها همبستگى دارند.
تفاوت دو روش ناچیز و فاقد معناست. بنابراین، چرخش عامل ها به روش متعامد هم ساده تر و هم قابل درک تر و تفسیر پذیر تر است. به نظر مى رسد روش واریماکس نیز بهترین روش چرخش متعامد باشد.
تعداد عامل ها
یک تصمیم عمده در اجراى تحلیل عاملى مربوط به تعداد عامل هاست.
براى چرخش عامل ها مى توان تعداد معینى از عامل را انتخاب کرد. بنابراین، مى توان ساختارهاى چرخش یافته را براساس تعداد مختلفى از عامل را با یکدیگر مقایسه کرده و مناسب ترین آنها را انتخاب کرد.
هرسازه اى که داراى کمینه شرایط لازم براى بارعاملى دست کم روى سه متغیر نباشد، از تحلیل حذف مى شود (Santos & Clegg, 1999).
نمایش هندسى چرخش عوامل
F1
F2
F1
F2
جدول کل واریانس تعیین شده
نمودار تشخیص تعداد عامل هاى معتبر
در روش اسکرى نمودار
مقدار ویژه براى هر عامل
ترسیم می شود. در نقطه اى
که شکل منحنى برای مقادیر
ویژه به صورت افقى در آید،
آن نقطه اسکرى (سنگ ریزه)
نامیده مى شود و عامل هایى
که سمت چپ آن قرار دارند
عامل هاى واقعى و بقیه عامل هاى
خطا فلمداد مى شوند.
انواع تحلیل عاملى
تحلیل عاملى اکتشافى: در این روش پژوهشگر هیچگونه فرضیه قبلى در باره نتایج ندارد و در پى اکتشاف عوامل تاثیر گذار است. بنابراین، تحلیل اکتشافى بیشتر به عنوان یک روش تدوین و تولید نظریه و نه آزمون نظریه در نظر گرفته مى شود.
تحلیل عاملى تاییدى: در این روش پژوهشگر سعى مى کند تاییدى بر یک ساختار عاملى مفروض به دست آورد. یعنى تعیین مى کند که داده ها با یک ساختار عاملى معین که در فرضیه آمده هماهنگ است یا نه. تحلیل عاملى تاییدى براى سنجش روایى شاخص هاى (نشانگرهاى) یک سازه در پرسش نامه نیز به کار گرفته مى شود تا معلوم شود هماهنگى و همسویى لازم بین شاخص ها (سئوال ها) وجود دارد.
تفسیر نتایج تحلیل عاملى
همان طور که در ماتریس دیده مى شود
متغیرهاى مورد نظر روى 5 عامل سوار
مى شوند.
با توجه به ویژگى هاى هر خوشه (گروه) از
متغیرهایى که روى یک عامل سوار مى شوند،
باید نام مناسبى انتخاب شود.
تفسیر نتایج تحلیل عاملى
اگر مجذور بارهاى عاملى را مثلاً براى عامل 1 جمع کنیم، حاصل برابر با 6/75 یعنى برابر با همان ارزش ویژه این عامل است.
اگر عامل 1 همه واریانس مشترک موجود در متغیرها را تبیین کند، هرکدام داراى بار عاملى 1 و مقدار ارزش ویژه براى عامل 1 برابر با n یعنى تعداد متغیرها خواهد بود.
در خروجى ماتریس چرخش یافته هر عامل معرف یک خوشه روشن و متمایز است و احتمالاً معرف یک سازه با معناست.
تفسیر نتایج تحلیل عاملى
بار عاملى نشان دهنده وزن (ضریب بتاى) هر عامل است.
بارهاى عاملى به واقع ضرایب استاندارد شده در یک معادله رگرسیون است که در آن متغیر اصلى به عنوان متغیر وابسته و عامل ها به عنوان متغیرهاى مستقل عمل مى کند.
وجود بارهاى منفى نشان مى دهد که برخى متغیرها بیانگر عکس چیزى است که توسط آن عامل مشخص مى شود. بارهاى منفى ازطریق بیان این مطلب که آن عامل چه چیز نیست به روشن ساختن تفسیر کمک مى کند.
دستور اجراى تحلیل عاملى
Analyze
Data reduction
Factor..
انتقال متغیرهاى مورد نظر به محل Variables
Descriptives
KMO and Bartlett’s test of sphericity
Continue
Extraction
Scree plot
Continue
Rotation
Varimax
Continue
Options
Sorted by size
Supress absolute values less than
.35تایپ
Continue
OK
تحلیل خوشه اى (Cluster analysis)
تحلیل خوشه اى روشى است براى گروه بندى داده ها. به عبارت دیگر، تحلیل خوشه اى یک تکنیک طبقه بندى براى تشکیل گروه هاى همگون در مجموعه پیچیده اى از داده هاست.
سه هدف عمده یعنى اکتشاف، تایید و ساده سازى را مى توان در رابطه با تحلیل خوشه اى مطرح کرد.
تحلیل خوشه اى در حقیقت یک آزمون آمارى نیست بلکه شامل تعدادى از الگوریتم هاى طبقه بندى است.
در تحلیل خوشه اى گروه بندى چیزها براساس شباهت ها یا فاصله ها (عدم شباهت ها) انجام مى شود.
روش هاى عمده خوشه بندى
روش سلسله مراتبى: یک روش متداول در تحلیل خوشه اى است که کاربرد فراوان دارد. در این روش خوشه ها به دو طریق تشکیل مى شوند:
از طریق گروه بندى مشاهده ها به صورت بزرگتر و بزرگتر تا همه مشاهده ها اعضاى یک خوشه واحد باشند (خوشه بندى تراکمى).
مشاهده ها در یک خوشه واحد قرار گرفته و سپس خوشه ها تقسیم مى شوند (خوشه بندى بخش پذیر).
در روش تراکمى چون خوشه بندى با مشاهده هاى انفرادى شروع مى شود در ابتدا تعداد خوشه ها برابر با تعداد مشاهده هاست.
روش خوشه بندى غیر سلسله مراتبى: در این روش هم متغیرها و هم مشاهده ها به طور همزمان گروه بندى مى شوند. روش k-means یکى از این روش هاست.
کاربرد خوشه بندى
خوشه بندى اشخاص (cases)
خوشه بندى متغیرها: این روش مشابه تحلیل عاملى است، اما از لحاظ روشى که متغیرها به گونه گسسته به گروه ها اختصاص مى یابند، با آن متفاوت است. تفاوت اساسى در به کاربردن واریانس یک متغیر است. تحلیل عاملى معمولاً واریانس بین چند منبع یا عامل را بخش بندى مى کند، در حالى که تحلیل خوشه اى کل واریانس را به یک منبع بنیادى اختصاص مى دهد.
پرسش پژوهش در تحلیل خوشه اى
مفهوم سازى اولیه مساله خوشه بندى خیلى مهم است، زیرا استفاده و مقصود نهایى طبقه بندى را تعیین مى کند.
اکتشاف: تحلیل خوشه اى مى تواند به عنوان یک تکنیک اکتشافى به کار گرفته شود. پرسش کلى آن است که داده هاى مشاهده شده چگونه به صورت ساختارى مفید و با معنا سازمان داده شود؟
تایید: اگر دانش یا نظریه هاى پیشین، طبقه بندى خاصى را پیشنهاد کند، خوشه بندى را مى توان براى آزمون آن به کاربرد.
ساده سازى: براى ساده کردن یک مجموعه پیچیده از داده ها به کار گرفته مى شود.
دستور اجراى تحلیل خوشه اى
Analyze
Classify
Hierarchical cluster Analysis
انتخاب و انتقال متغیرهاى استاندارد شده به محل Variables
انتخاب و انتقال متغیرى که برمبناى آن باید خوشه بندى صورت گیرد به محل
Label Cases by
Plots..
Dendrogram
Continue
OK
مراحل تحلیل خوشه اى
انتخاب نمونه براى خوشه سازى نظیر خریداران، بیماران، محصولات، کارمندان
تعریف متغیرهایى که بتوان برمبناى آنها به اندازه گیرى اشیا، حوادث، یا افراد پرداخت (مانند وضعیت مالى، وابستگى سیاسى، ویژگى هاى بهره ورى).
محاسبه شباهت ها بین موجودیت ها از طریق همبستگى و دیگر تکنیک ها
به حداکثر رساندن شباهت درون خوشه و تفاوت هاى بین خوشه اى
معتبر سازى و مقایسه خوشه.
تفسیر نتایج
در خروجى نمودار سلسله مراتبى مشاهدات را برحسب ویژگى هاى مشترک نشان مى دهد.
لازم است براى هر شاخه با توجه به ویژگىٍ هاى مشترک نام مناسب انتخاب شود. و این کار آنقدر ادامه پیدا کند تا کلیه شاخه ها به طور مناسب ناگذارى شود.
شکل گیرى دنباله اى خوشه ها و فواصل نسبى آنها در نمودارى که Dendogram نامیده مى شود نشان داده شده است.
همان طور که دیده مى شود n خوشه این مجموعه داده ها را توضیح مى دهد. اولین خوشه شامل …. و همگى آنها .. هستند. خوشه شماره 2 شامل …. است. ….
تحلیل مسیر (Path analysis)
تحلیل مسیر کاربرد رگرسیون چند متغیرى در ارتباط با تدوین بارز مدل هاى علّى (causal models) است.
هدف تحلیل مسیر به دست آوردن برآوردهاى کمى روابط علّى بین مجموعه اى از متغیرهاست.
تحلیل مسیر بیان مى کند که کدام مسیر مهمتر و یا معنادارتر است.
ضرایب مسیر براساس ضریب استاندارد شده رگرسیون محــــــاسبه مى شود.
یک متغیر به صورت تابعى از دیگر متغیرها فرض مى شود و مدل رگرسیونى آن ترسیم مى شود.
در مرحله دوم متغیر مستقلى که داراى بیشترین ضریب رگرسیونى است (با توجه به ستون Beta) به عنوان متغیر وابسته در نظر گرفته مى شود و معادله رگرسیونى آن برآورد مى شود و الى آخر.
انواع روابط بین متغیرها در نمودار تحلیل مسیر
اثر مستقیم: بیانگر آن است که یا X علت Y و یاY علت X است.
اثر غیر مستقیم: رابطه بین X و Y وقتى غیر مستقیم است که X علت Z است و Z نیز به نوبه خود در Y اثر دارد.
اثر کاذب: رابطه بین X و Y وقتى کاذب (Spurious) است که Z علت هر دو متغیر X و Y باشد.
اثرات تحلیل نشده: رابطه بین دو متغیر وقتى تحلیل نشده است که هر دوى آنها برونزا (exogenious) بوده و بنابراین تبیین تغییر پذیرى بین آنها توسط مدل امکان پذیر نباشد.
محدویت هاى تحلیل مسیر
همه متغیرهاى مداخله گر باید در تحلیل رگرسیون چند متغیرى به عنوان متغیرهاى وابسته عمل کنند. بنابراین، همه آنها باید داراى مقیاس فاصله اى باشند. اندازه هاى رتبه اى تحلیل مسیر را ناممکن مى سازند.
تحلیل مسیر مى تواند فرضیه هاى علّى را ارزشیابى کند اما هرگز نمى تواند جهت علیّت را محقق سازد.
تحلیل مسیر در مرحله اکتشافى قابلیت اندکى دارد.
استنباط رابطه علیت
براى پى بردن به وجود رابطه علیت بین دو متغیر باید شرایط زیر وجود داشته باشد:
وجود همبستگى بین دو متغیر
حذف روابط کاذب: اگر تاثیر تمام متغیرها کنترل شود و هنوز رابطه بین دو متغیر (مستقل و وابسته) وجود داشته باشد، مى گوییم رابطه کاذب نیست. یعنى در مرحله تست همبستگى دو متغیر دیگر متغیرها به عنوان متغیر کنترل انتخاب شوند.
توالى زمانى (Time order): یعنى علّت اول اتفاق بیافتد و بعد معلول حادث شود.
مدل ساختارى در تحلیل مسیر