logo

logo

logo

logo

logo

الارتباط

ارتباط

Correlation - Corrélation

الارتباط

 

الارتباط correlation هو العلاقة القائمة بين متغيرين قابلين للقياس يلاحظان في آن واحد على كل مفردةٍ أو وحدةٍ من وحدات المجموعة الإِحصائية، ويمكن توسيع هذا المفهوم ليشمل العلائق الرابطة بين الخصائص الكيفية للظواهر.

لمحة تاريخية

يعود الفضل الأول في دراسة مفهوم الارتباط للسير فرانسيس غالْتون Sir Francis Galton (1822-1911) مؤسس المدرسة البيولوجية الإِنكليزية، التي عُرفت بهذا الاسم في عام 1881 من بحوثها في الصفات الوراثية.

وتوطدت بعد ذلك نظرية الارتباط بفضل أبحاث الرياضيين والمناطقة حتى كارل بيرسون Karl Pearson (1857-1936) وأدني يول Udny Yule (1871-1951) وجون مينارْد كينْز John Maynard Keynes (1883-1916) ولاسيما ألكسانْدر ألِكْساندروفيتش تْشوبْروف Alexander Alexandrovitch Tchoprov (1874-1926) الذي أطلق في عام 1925 على الارتباط اسم الصلات العشوائية بين المتغيرات التصادفية  stochastic liaison  of aleatary variables  

ومنذ تلك الحقبة ظهرت أعمال كثيرة أغنت الدراسة النظرية للارتباط قام بها علماء فرنسيون منهم جورج دارْموا Georges Darmois (1888-1960) ورينيه ريسر René Risser (1869-1958) وموريس فريشيه Maurice Frechet (1878-1973).

دراسة الارتباط

إِن الهدف الأساسي من تحليل الارتباط هو إِيجاد صيغة ملائمة لتعيين قوة العلاقة بين متغيرين عشوائيين س وع. ويدرس الارتباط ابتداءً من توزيع هذين المتغيرين، أي من جدولٍ ذي مأخذين يمثِّل كلُّ زوج مرتَّب من القيم (س،ع) عدد الوحدات الإِحصائية التي يأخذها المتغيران س و ع، أي التي يكون من أجلها س=س و ع=ع في آن واحد. ويمكن القيام بتمثيل بياني يقابل فيه كلُّ زوج مرتب (س،ع) بنقطةٍ في مستوي المحورين م س و م ع فتتشكل غمامة من النقط ذات الإِحداثيين (س،ع) تتكون منها فكرة عامة عن طبيعة العلاقة القائمة بين المتغيرين س و ع. وعندما تكون المتغيرات مستمرة يتمّ تجزئة مجالاتها إِلى فئات صغيرة إِن أمكن، ثم تُمثّل كل فئةٍ بقيمتها المركزية.

وتبرز من الوجهة النظرية حالتان حديتان:

أما الحالة الأولى فهي وجود علاقة دالِّية تامة بين المتغيرين (والعلاقة الدالِّية التامة هي العلاقة الممثلة بدقة بمعادلة جبرية كعلاقة محيط الدائرة بنصف قطرها).

تقابل فيها كل قيمة لـ(س=س) قيمة وحيدة لـ(ع=ع) مهما تكن الوحدات الإِحصائية الملاحظة، وهذه العلاقة الدالِّية هي علاقة تبادلية، وهذا يعني أن كل قيمة لـ(ع=ع) يقابلها قيمة وحيدة لـ(س=س).

وأما الحالة الثانية فهي وجود استقلال بين المتغيرات، ويُقبل في هذه الحالة أن جميع التوزيعات الشرطية [والتوزيع الشرطي لمتغير ما مثل س هو مجموعة قيم ع الموافقة لقيمةٍ ما لـ(س=س)] الخاصة بأحد المتغيرين، من أجل قيمةٍ ما للآخر، تكون متطابقة ومطابقة للتوزيع الهامشي الموافق. وهذا يعني أن لهذه التوزيعات متوسطاً واحداً، وانحرافاً معيارياً واحداً. وفي هذه الحالة لاتقدم معرفة أحد المتغيرين س(أو ع) أية معلومات إضافية تتعلق بـ ع(أو س). وإِضافة إِلى هاتين الحالتين الحديتين، العلاقات التامة والاستقلال المطلق، هناك عدد غير منته من الحالات الوسطية بينهما يُطلق عليها اسم الارتباط أو العلاقات العشوائية وهذا مايُلحظ في الجدول التالي الممثَّل لتوزيع عدد من الأفراد بحسب ظاهرتي الطول مقدراً بالسنتمتر والوزن مقدراً بالكيلو غرام.

يشير هذا الجدول إِلى وجود ارتباطٍ مابين الطول والوزن، ففي الخط المنقط تتوضع قيم ع في مراكز الفئات المقابلة لها. وفي الخط المتصل تقابل قيم س مراكز الفئات الموافقة لها.

قياس الارتباط

تقاس درجة ارتباط متغيرين بسعة انتشار نقط العيِّنة حول مستقيم الانكفاء[ر] فالشكل (أ) يمثل ارتباطاً تاماً، أما الشكل (ب) فيمثل ارتباطاً ضعيفاً. وفي حالة فقدان الارتباط بين س و ع يكون مستقيم الانكفاء أفقياً، وهذا يشير إِلى أن قيم ع مستقلةٌ عن قيم س الشكل (جـ). ويمكن أن تُطرح في هذا السياق المسألتان التاليتان:

الأولى: كيف يُدَلّ عددياً على وجود ارتباط بين متغيرين باستخدام مؤشر أو مُعامل يقيس أهمية العلاقة القائمة بينهما.

الثانية: في حالة وجود مثل هذه العلاقة، يطلب البحث عن معادلة تسمح بتقدير قيمة أحد المتغيرين بدلالة الآخر (وهذه هي مسألة الانكفاء). وقد استوحى كارْل بيرسون Karl Pearson في عام 1896 من أعمال أوغست برافي August Bravais (1811-1863)، التي أنجزها عام 1846 في موضوع نظرية الأخطاء، تعريفاً لمعامل الارتباط يُعطى بالعلاقة التالية:

 

 

إِذ يمتد المجموع على جميع الثنائيات (س ك،ع ك) الملاحظة، أما س وع فترمزان إِلى المتوسطين الحسابيين للتوزعين الهامشيين و نع س، نع ع للانحرافين المعياريين لهما. ويعرف هذا المُعامل باسم مُعامل الارتباط correlation coefficient لـ برافي- بيرسون (Bravais-Pearson) أو مُعامل الارتباط الخطي، وهو ينتمي للمجال [-1،1] ويأخذ القيمتين ±1 عندما تقوم بين المتغيرين علاقة تامة. أما الإِشارة ± فتدل على اتجاه تحول أحد المتغيرين مع تغير الآخر، إِن الحالة ر=0 لاتعني فقدان الارتباط بالمعنى الذي ذُكر آنفاً إِنما تفيد أن مستقيمات الانكفاء المنشأة بطريقة المربعات الأصغرية (من أجل القيم سع) توازي المحاور الإِحداثية. إِن مُعامل الارتباط الخطي ليس له أهمية تذكر إِلا في الحالة التي تصادف فيها علاقات خطية على وجه التقريب بين متوسطات التوزيعات الشرطية بأحد المتغيرات والقيم المقابلة للمتغير المرتبط به.

في عام 1901 اقترح بيرسون (Pearson) أيضاً تعريفاً لنسبة الارتباط correlation ratio يتوقف، من أجل كل متغير، على تباين المتوسطات الشرطية لهذا المتغير حول متوسطه العام.

وهكذا يمكن أن يدلل على ارتباط ع بـ س وفق العلاقة:

ن ك ل هو عدد المشاهدات التي يكون من أجلها سك و عك في آن واحد  عك . متوسط التوزيع الشرطي لـ ع من أجل سك، وتنعدم نسبة الارتباط هـ2ع/س إٍذا ساوت جميعُ المتوسطات الشرطية عك لـ ع من أجل سك المتوسط العام ع، وفي هذه الحالة لا تتوقف هذه المتوسطات على س. كما أن نسبة الارتباط تساوي الواحد إِذا كانت جميع قيم ع، من أجل كل توزيع شرطي يقابل سك، مساوية للمتوسط الشرطي ع=عك   (العلاقة تامة بين المتوسطات).

التعميم

يمكن حساب مُعامل الارتباط في الحالة التي تفترض وجود أكثر من متغيرين آنيين. فإِذا قبلنا بوجود علاقات خطية تقريبية بين أي من المتغيرات والمتغيرات الأخرى، أمكن انطلاقاً من العلاقات المتبادلة بين المجموعات المختلفة لهذين المتغيرين، حساب مُعامل الارتباط الجزئي، أي دراسة الارتباط بين متغيرين بحذف تأثير المتغيرات الأخرى، أو حساب مُعامل الارتباط المتعدد، أي دراسة الارتباط لمتغيرٍ ما بدلالة مجموعة المتغيرات الأخرى.

الارتباط والسببية

إِن ارتباط ع بـ س لا يعني بالضرورة أن الظاهرة الممثَّلة بالمتغير ع تُفسَّر بالظاهرة س. إِذ إِن العلاقة بينهما، التي تصفها معادلة الانكفاء ليست سوى علاقة إِحصائية. فمن الممكن إِيجاد علاقة بين الإِنفاق الأُسري، أي المتغير المرتبط، ومقدار الدخل، أي المتغير المستقل، على الرغم من أن توافر المال لايعني بالضرورة إِنفاقه، فالإِنفاق هو قرار ذاتي يمكن أن يُتخذ في حال توافر المال، وإِن كان لا يحدث بالضرورة.

إِن الطبيعة العميقة لمسائل السببية لا تُستوحى من حساب مُعامل الارتباط الذي يوفر فقط دليلاً لتوجيه الدراسة.

يؤدي تحليل الارتباط خدمات كبيرة في مجالات عدة تستحيل فيها الطريقة التجريبية، كما في الدراسات الحيوية والنفسية والعلوم الاقتصادية التطبيقية، كما تسمح بإِيضاح الأوضاع التي تبدو مبهمة بسبب العدد الكبير من العوامل المؤثرة.

إِن التحليل العواملي الذي يبحث في تفسير الصلات القائمة بين الكثير من المتغيرات الملاحظة على الوحدة الإحصائية نفسها، بمساعدة عددٍ منته من العوامل المستقلة، يبنى على تحليل الارتباطات ر ك لل=1، 2، 3، ...، ن) المحسوبة من أجل هذه المتغيرات على كل مفردةٍ من مفردات المجموعة.

وقد نتجت هذه الدراسة من أعمال شارل إِدوارد سبيرْمان Charles Edward Spearman (1863-1945) الذي قدم في بداية هذا القرن توصيفاً لظاهرة الذكاء لفردٍ ما ذي دلالة عالية المستوى باستخدام أقل عدد ممكن من المفردات. وشاع استخدام هذا التحليل اليوم في علم النفس التطبيقي (نظرية الروائز) كما أصبح يستخدم على نطاق واسع في مجالات متنوعة كما في الكيمياء الفيزيائية، وعلم الاجتماع وتحليل أسباب بعض التأثيرات الدوائية.

 

محمد شفيق ياسين

الموضوعات ذات الصلة:

الانكفاء

مراجع للاستزادة:

ـ أنيس كنجو، الإحصاء وطرق تطبيقه في ميادين البحث العلمي (مؤسسة الرسالة، بيروت 1977).


التصنيف : الرياضيات و الفلك
النوع : علوم
المجلد: المجلد الأول
رقم الصفحة ضمن المجلد : 794
مشاركة :

اترك تعليقك



آخر أخبار الهيئة :

البحوث الأكثر قراءة

هل تعلم ؟؟

عدد الزوار حاليا : 506
الكل : 31689760
اليوم : 44342

الدوران لدى الحيوانات

الدوران لدى الحيوانات   جهاز الدوران هو الذي يؤمن نقل المواد الغذائية اللازمة للكائن الحي والغازات وتوزيعها في جسمه، إضافة لطرح الفضلات التي ينتجها الجسم. إضافة إلى أن ردود الفعل التي تبديها المتعضيات للهرمونات ما كانت لتحدث لولا جهاز الدوران الذي يقوم بنقل الهرمونات بوساطة الدم الذي يجري فيه.
المزيد »