רגרסיה (אנליזה)

מתוך ויקיפדיה, האנציקלופדיה החופשית
קפיצה לניווט קפיצה לחיפוש

בסטטיסטיקה, ניתוח רגרסיה הוא שם כולל למשפחה של מודלים סטטיסטיים להערכת הקשרים בין משתנים. המשותף לכל המודלים הוא קיומם של משתנה מוסבר (המכונה לעיתים בשם המשתנה התלוי) ומשתנה מסביר אחד או יותר (המכונים לעיתים בשם המשתנים הבלתי תלויים או המשתנים המנבאים). (יש לשים לב כי המשתנים הבלתי תלויים אינם בהכרח בלתי תלויים סטטיסטית). בעזרת מודל רגרסיה ניתן ללמוד כיצד ערכו של המשתנה המוסבר משתנה כאשר חל שינוי בערכו של אחד המשתנים המסבירים, וערכי שאר המשתנים המסבירים נשארים קבועים. עם זאת, אין בכך די כדי להסיק סיבתיות: השינוי בערכו של המשתנה המסביר לא בהכרח גורם לשינוי בערכו של המשתנה המוסבר.

מבחינה הסתברותית, מודל הרגרסיה אומד בדרך כלל את התוחלת המותנית של המשתנה המוסבר בהינתן המשתנים המסבירים. עם זאת קיימים מודלים האומדים פרמטרי מיקום אחרים של המשתנה המוסבר, או פונקציה של התוחלת, מותנה במשתנים מסבירים.

מודלים של רגרסיה משמשים לעיתים קרובות לצורך חיזוי ערכים של המשתנה המוסבר במצבים שונים הנקבעים על ידי ערכי המשתנים המסבירים. ישנם מודלים שמאפשרים סיווג של המשתנה המוסבר למספר קבוצות (למשל, בהינתן תוצאות של בדיקות רפואיות, תוצאת המודל היא קביעה האם האדם הוא בריא או חולה). כאן יש חפיפה רבה בין המודלים הסטטיסטיים ובין התחום של למידת מכונה. שימוש נפוץ נוסף למודלים של רגרסיה הוא לבחון את מהות הקשרים בין המשתנים המסבירים (או חלקם) ובין המשתנה המוסבר. במקרים מסוימים ניתן להשתמש במודלים של רגרסיה לצורך הסקה סיבתית מהמשתנים המסבירים אל המשתנה המוסבר, אך יש לבחון היטב את ההנחות עליהן מתבססת הסקת הסיבתיות.

כמו מודלים סטטיסטיים אחרים, גם מודלים של רגרסיה מבוססים על התהליך שבו נוצרו הנתונים של המשתנה המוסבר. מאחר שבדרך כלל פרטי התהליך אינם ידועים, המודלים נשענים על הנחות, שלא כולן בהכרח ניתנות לבדיקה. הרגישות של המודל להפרת ההנחות שונה ממודל למודל, ואף תלויה בתכלית שלשמה המודל מיועד (למשל, כאשר רמת הדיוק הנדרשת מהתחזיות אינה גבוהה מאוד).

היסטוריה[עריכת קוד מקור | עריכה]

מודל הרגרסיה המוקדם ביותר היה מודל הריבועים הפחותים, שפורסם על ידי לז'נדר בשנת[1]1805 ועל ידי גאוס ב-1809[2]. עם זאת, ידוע כי גאוס פיתח את המודל כבר ב-1801 או לפני כן, וזאת מתוך החישובים שערך לגבי מסלולו של האסטרואיד קרס. ב-1821 פרסם גאוס תאוריה מורחבת של מודל הריבועים הפחותים[3], שכללה את הגרסה המוקדמת למשפט גאוס-מרקוב.

המושג "רגרסיה" נטבע על ידי פרנסיס גאלטון בהקשר של תופעות ביולוגיות. תצפיותיו של גאלטון העלו כי בנים לאנשים גבוהים אמנם היו גבוהים יחסית אך בדרך כלל פחות גבוהים מהוריהם. גאלטון כינה תופעה זו בשם "רגרסיה לממוצע"[4]. מודל הרגרסיה של גאלטון היה ויזואלי, וכלל שרטוט של ערכי המשתנה המוסבר והמשתנה המסביר (היחיד) על מערכת צירים, והתאמת קו ישר המתאר את הקשר בין המשתנים.

המודל של גאלטון הורחב על ידי אדני יול וקרל פירסון[5][6], שהניחו במפורש כי למשתנה המסביר ולמשתנה המוסבר יש התפלגות משותפת דו נורמלית. רונלד פישר הראה ב-1922 וב-1925 כי ניתן להחליף את ההנחה הזו בהנחה יותר חלשה, לפיה ההתפלגות המותנה של המשתנה המוסבר בהינתן המשתנה המסביר היא נורמלית, אך ההתפלגות המשותפת של שני המשתנים אינה חייבת להיות דו נורמלית[7][8]. במובן זה, המודל של פישר דומה לפורמולציה של גאוס מ-1821. פישר הראה גם כיצד ניתן להכליל את מודל הריבועים הפחותים למודלים של ניתוח שונות[9] בספרו מ-1925.

במשך השנים פותחו מודלים נוספים המרחיבים את המודלים שפותחו בסוף המאה ה-19 ובתחילת המאה ה-20. כך למשל הוחלפה ההנחה כי למשתנה המוסבר יש התפלגות מותנה נורמלית בהנחות אחרות. כך למשל, כאשר מניחים כי ההתפלגות היא מולטינומית מתקבלים מודלים כגון הרגרסיה הלוגיסטית ורגרסיית הפרוביט, וכאשר המשתנה המוסבר נמדד בסולם סדר מתקבל מודל של רגרסיה אורדינלית. קיימים מודלים גם למקרים אחרים בהן הנחות היסוד של הרגרסיה הקלאסית (אחת או יותר) אינן מתקיימות.

מודל הרגרסיה הכללי[עריכת קוד מקור | עריכה]

הגדרת המודל[עריכת קוד מקור | עריכה]

יהיו המשתנה המוסבר, המשתנים המסבירים, פרמטרים ממשיים בלתי ידועים, פונקציה כלשהי.

כן מסמנים ב- את טעות המדידה של המשתנה המוסבר , ומניחים כי זהו משתנה מקרי בעל תוחלת 0.

מודל הרגרסיה הוא . ניסוח שקול למודל הוא .

כדי לבצע ניתוח רגרסיה יש לציין במפורש מהי הפונקציה . לעיתים ניתן לקבוע מהי פונקציה זו על סמך ידע קיים (כגון מודל פיזיקלי או ביולוגי). כאשר אין מידע כזה על יש צורך להניח הנחה כלשהי לגבי הפונקציה. במקרים רבים נהוג להשתמש בפונקציה ליניארית, לפחות בניתוח הראשוני.

אמידת הפרמטרים[עריכת קוד מקור | עריכה]

כדי לאמוד את ערכי הפרמטרים יש צורך בנתונים, שהם בדרך כלל תצפיות הנדגמות מתוך אוכלוסייה.

נסמן ב- את מספר התצפיות.

התצפיות של המשתנה המוסבר הן לכן התצפיות של המשתנה המסביר הראשון הן וכן הלאה. ניתן לכתוב את כל נתונים המשתנים המסבירים במטריצה שעמודותיה הן .

שימו לב לכך שבעוד שאותיות לטיניות גדולות מסמנות משתנים מקריים, אוטיות לטיניות גדולות ומודגשות מסמנות נתונים.

במונחים הנתונים ניתן לכן לנסח את המודל באופן הבא:

לכל .

בניסוח זה מודל הרגרסיה מיתרגם ל- משוואות עם נעלמים.

  • אם לא ניתן לאמוד את הפרמטרים .
  • אם ניתן עקרונית לפתור את המשוואות ולחשב את ערכי , וכאשר היא פונקציה ליניארית של אז הפתרון הוא יחיד.
  • אם אז למערכת המשוואות יש יותר מפתרון אחד, והמודל בוחר את הפתרון שמביא לאופטימום (בדרך כלל מינימום) של פונקציית הפסד כלשהי. במקרה זה אפשר בעזרת הנחות סטטיסטיות/התפלגותיות לבצע תהליך של הסקה סטטיסטית על הפרמטרים .

הגודל מכונה בשם מספר דרגות החופש של המודל.

הנחות המודל[עריכת קוד מקור | עריכה]

בבסיס מודל הרגרסיה עומדות ההנחות הבאות:

  • הנתונים מהווים מדגם מייצג של האוכלוסייה ממנה הם נאספו.
  • ל- יש תוחלת מותנה השווה ל-0 בהינתן המשתנים המסבירים .
  • המשתנים המסבירים נמדדים ללא טעויות מדידה.
  • התצפיות של המשתנים המסבירים בלתי תלויות ליניארית, כלומר העמודות של בלתי תלויות ליניארית.
  • טעויות המדידה של הן בלתי מתואמות (במובן של מתאם פירסון).
  • השונות של טעויות המדידה היא קבועה על פני כל התצפיות.

אם כל ההנחות האלה מתקיימות, אמדני הנראות המקסימלית ל- יהיו חסרי הטיה, עקיבים ויעילים סטטיסטית (מבין כל האמדים חסרי ההטיה ל-).

ההנחות האלה בדרך כלל אינן מתקיימות במציאות. לכן, בעת יישום/אמידה של מודל רגרסיה יש לבדוק עד כמה הנתונים משקפים את ההנחות. סטייה גדולה מדי מן ההנחות מעמידה בסימן שאלה את התכונות הסטטיסטיות של האמדים.

מודלים עיקריים[עריכת קוד מקור | עריכה]

רגרסיה ליניארית קלאסית[עריכת קוד מקור | עריכה]

Postscript-viewer-shaded.png ערך מורחב – רגרסיה ליניארית

במודל זה מניחים כי הפונקציה היא פונקציה ליניארית בפרמטרים , וכי לשגיאה יש התפלגות נורמלית עם תוחלת 0 ושונות חיובית . כן מניחים כי המשתנים המסבירים הם משתנים כמותיים (כלומר סולם המדידה שלהם הוא סולם רווח או סולם מנה) ורציפים.

במונחי הנתונים המודל הוא או .

בפרט, מודל רגרסיה המתאר קשר ליניארי (כלומר קשר המבוטא באופן גרפי על ידי קו ישר) בין שני משתנים הוא . כאן מניחים כי לכל .

דוגמה נוספת למודל רגרסיה ליניארית קלאסי מובאת מתחום הפיזיקה: כאשר מטילים חפץ קטן (כדור למשל) אנכית כלפי מעלה, ובהנחה שהבגובה ממנו נזרק הכדור הוא 0, אזי גובה הכדור , לאחר שעבר זמן הוא כאשר היא המהירות ההתחלתית בה נזרק הכדור ו- הוא קבוע הכבידה.

אם יש בידינו נתונים על הגבהים שבהם היה הכדור בנקודות הזמן , נוכל לכתוב את מודל הרגרסיה , ואז נוכל לאמוד את המהירות ההתחלתית של הכדור ואת ערכו של קבוע הכבידה מתוך הנתונים).

אף על פי שבמודל מופיע הערך זהו בכל זאת מודל רגרסיה ליניארית, מכיוון שכאמור הפונקציה היא פונקציה ליניארית של הפרמטרים ו-.

אמידת הפרמטרים של מודל הרגרסיה הליניארית הקלאסי מתבצעת על ידי מינימיזציה של סכום ריבועי השגיאות (ומכאן השם "שיטת הריבועים הפחותים"). נסמן ב- את האמדים ל-. שגיאת האמידה היא לכן . מכאן מקבלים כי סכום ריבועי שגיאות האמידה הוא

ולכן .

בפועל אין צורך בביצוע תהליך של חישוב המינימום על ידי גזירה, מכיוון שגאוס ולז'נדר הראו כי .

על פי משפט גאוס-מרקוב, הוא האמד הליניארי חסר ההטיה הטוב ביותר עבור במובן ששונותו של היא מינימלית. עם זאת ייתכנו אמדים ליניאריים ל- ששונותם נמוכה מהשונות של (כגון אמד ג'יימס-שטיין), אך אלה אינם אמדים חסרי הטיה.

בנוסף לאמידת יש צורך לאמוד את השונות של השגיאות . על פי משפט גאוס מרקוב הוא אמד חסר הטיה עבור .

המודל הליניארי הכללי[עריכת קוד מקור | עריכה]

במודל הליניארי הכללי חלק מהמשתנים המסבירים (או אפילו כולם) יכולים להיות משתנים איכותיים הנמדדים סולם מדידה שמי. המודל בו יש משתנה מסביר קטגורי יחיד מכונה בשם מודל ניתוח שונות, ומודל בו יש מספר משתנים מסבירים קטגוריים נקרא מודל ניתוח שונות רב כיווני. אם חלק מהמשתנים המסבירים הם משתנים קטגוריים וחלקם משתנים כמותיים המודל מכונה בשם ניתוח שונות משותפת. שמות אלה מקורם בהיסטוריה של פיתוח המודלים, אך הם גם משקפים את התכונות של האמדים לפרמטרים. אמידת הפרמטרים נעשית באותו האופן כמו ברגרסיה הליניארית הקלאסית.

המודל הליניארי המוכלל[עריכת קוד מקור | עריכה]

מודלים ליניאריים מוכללים מניחים כי תהליך יצירת הנתונים של המשתנה המוסבר נובע מהתפלגות כלשהי ממשפחת ההתפלגויות המעריכיות (הכוללת, בין השאר, את ההתפלגות הנורמלית, ההתפלגות המולטינומית, התפלגות פואסון, התפלגות גמא והתפלגויות נוספות).

נסמן את התוחלת של על ידי , כלומר . ותהי פונקציה מונוטונית כלשהי. כן נסמן .

בסימונים אלה, המודל הליניארי המוכלל הוא

הפונקציה מכונה בשם פונקציית הקישור.

אמידת הפרמטרים מתבצעת בדרך כלל בשיטת הנראות המקסימלית, וחישוב האמדנים הוא נומרי.

להלן מסספר דוגמאות למודלים ליניאריים מוכללים:

  • רגרסיה לוגיסטית: תהליך יצירת המשתנה המוסבר נובע מההתפלגות הבינומית, ופונקציית הקישור היא פונקציית הלוגיט: , כאשר .
  • רגרסיה פואסונית: תהליך יצירת המשתנה המוסבר נובע מההתפלגות פואסון, ופונקציית הקישור היא פונקציית הלוגריתם הטבעי: .
  • רגרסיה ליניארית קלאסית היא מקרה פרטי של המודל הליניארי המוכלל בו תהליך יצירת המשתנה המוסבר נובע מההתפלגות הנורמלית, ופונקציית הקישור היא פונקציית הזהות: .

רגרסיה לא ליניארית[עריכת קוד מקור | עריכה]

אם הפונקציה אינה פונקציה ליניארית של , הרי שמדובר ברגרסיה לא-ליניארית.

בתחום הביולוגיה, למשל, מקובל להשתמש ב-"מודל ארבעת הפרמטרים" המתאר תגובה למשתנה כלשהו , כגון מינון או זמן. המודל הוא: . אמידת הפרמטרים של מודל כזה עדיין מתבצעת על ידי מזעור ריבועי השגיאות.

ניתוח השרדות[עריכת קוד מקור | עריכה]

שני מודלים מקובלים לניתוח נתוני הישרדות הם מודל רגרסיית ההשרדות הפרמטרית ומודל הסיכונים הפרופרציונליים המכונה גם בשם "רגרסיית קוקס" על שם סיר דויד קוקס.

מודלים נוספים[עריכת קוד מקור | עריכה]

בין המודלים הנוספים ניתן למנות את רגרסיית האחוזונים, רגרסיה קטגורית[10], רגרסיה אורדינלית והרגרסיה הבייסיאנית.

קישורים חיצוניים[עריכת קוד מקור | עריכה]

ויקישיתוף מדיה וקבצים בנושא רגרסיה בוויקישיתוף

הערות שוליים[עריכת קוד מקור | עריכה]

  1. ^ A.M. Legendre. Nouvelles méthodes pour la détermination des orbites des comètes, Firmin Didot, Paris, 1805. “Sur la Méthode des moindres quarrés” appears as an appendix.
  2. ^ C.F. Gauss. Theoria Motus Corporum Coelestium in Sectionibus Conicis Solem Ambientum. (1809)
  3. ^ C.F. Gauss. Theoria combinationis observationum erroribus minimis obnoxiae. (1821/1823)
  4. ^ Galton, Francis, Kinship and Correlation (reprinted 1989), The North American Review, 401, 150, University of Northern Iowa, 1890, עמ' 419-431
  5. ^ Yule, G. Udny, On the Theory of Correlation, Journal of the Royal Statistical Society, 4, 60, 1897, עמ' 812-854 doi: 10.2307/2979746
  6. ^ Pearson, Karl, G. U. Yule, Norman Blanchard, and Alice Lee., The Law of Ancestral Heredity, Biometrika, 2, 2, 1903, עמ' 211-236 doi: 10.2307/2331683
  7. ^ Fisher, Ronald A, The goodness of fit of regression formulae, and the distribution of regression coefficients, Journal of the Royal Statistical Society, 4, 85, 1922, עמ' 597-621 doi: 10.2307/2341124
  8. ^ Aldrich, John, Fisher and Regression, Statistical Science, 4, 20, 2005, עמ' 401-417
  9. ^ Fisher, Ronald A, Statistical Methods for Research Workers, Edinburgh:Oliver & Boyd, 1925
  10. ^ Liang, K., Zeger, S., & Qaqish, B., Multivariate Regression Analyses for Categorical Data, Journal of the Royal Statistical Society. Series B (Methodological), 1, 54, 1992, עמ' 3-40