משתמש:לחכםגל/למידת מכונה אינטראקטיבית

מתוך ויקיפדיה, האנציקלופדיה החופשית

במדעי המחשב, למידת מכונה אינטראקטיבית (תגובתית) היא שיטה של למידת מכונה שבה הנתונים הופכים לזמינים בצורה סדרתית (במספר "צעדים" או "שלבים") ומשמשים לעדכון המנבא (predictor) הטוב ביותר לנתונים עתידיים בכל שלב, בניגוד לטכניקות למידה המייצרות את המנבא הטוב ביותר על ידי למידה על כל סט האימון בבת אחת. יש לציין כי לאחר כל שלב הנתונים הקודמים אינם זמינים עוד (אינם נצברים). בהיבט זה, למידה אינטראקטיבית היא "קשה" יותר מלמידה של כל סט האימון בבת אחת.


למידה אינטראקטיבית היא טכניקה נפוצה המשמשת בתחומים של למידת מכונה שבהן זה בלתי אפשרי מבחינה חישובית לאמן על כל מערך הנתונים, הדורש צורך באלגוריתמים בלתי שגרתיים . הוא משמש גם במצבים שבהם יש צורך שהאלגוריתם יסתגל באופן דינמי לדפוסים חדשים בנתונים, או כאשר הנתונים עצמם נוצרים כפונקציה של זמן, למשל, חיזוי מחירי מניה, או הופעה של פוסטים ברשתות חברתיות . אלגוריתמי למידה אינטראקטיביים עשויים להיות מועדים להפרעות קטסטרופליות ולשכוח את המידע הקודם שלמדו, בעיה שניתן לטפל בה באמצעות גישות למידה מצטברות ואדפטיביות שונות .

מבוא[עריכת קוד מקור | עריכה]

במסגרת למידה מונחית, המטרה היא ללמוד פונקציה של , כאשר נחשב כמרחב המקור ו כמרחב התוויות, שמנבא היטב מקרים שנלקחו מהתפלגות הסתברות משותפת עַל . בפועל, לאלגוריתם הלומד לעולם אינו יודע את ההתפלגות האמיתית עבור כל המרחב. במקום זאת, ללומד בדרך כלל יש גישה לסט אימון של דוגמאות . בהגדרה זו, פונקציית ההפסד או מחיר (loss function) ניתנת כ , כאשר מודד את ההבדל בין הערך החזוי והערך האמיתי .

המטרה הכוללת היא לייצר פונקציה המקרבת את . על מנת לעשות זאת, עלינו לייצר אלגוריתם המסוגל, בהינתן סט האימון ופונקציית המחיר, לייצר קירוב טוב לפונקציה על ידי פונקציה אחרת, , כך (שבממוצע או בהסתברות גבוהה) המחיר על פני כל הדוגמאות ממוזער. empirical risk.


עם זאת, אנו רוצים כי הפונקציה תהיה "לא מסובכת מדי", כלומר מתוך כאשר הוא מרחב של פונקציות מסוג מסוים הנקרא מרחב ההיפותזות (או השערות)

בהתאם לסוג המודל (סטטיסטיקה, שני משתפים יריבים), ניתן להמציא מושגים שונים של מחיר, המובילים לאלגוריתמי למידה שונים.


הגישה הסטטיסטית[עריכת קוד מקור | עריכה]

במודלים סטטיסטיים של למידה, מדגם האימון נמשך מההתפלגות האמיתית והמטרה היא למזער את הסיכון הצפוי (בתוחלת)

גישה נפוצה במצב זה היא להעריך פונקציה באמצעות מזעור הסיכון האמפירי או מזעור סיכון אמפירי מוסדר (בדרך כלל תקנון טיכונוב ). הבחירה בפונקציית ההפסד כאן מולידה כמה אלגוריתמי למידה ידועים כמו ריבועים קטנים מוסדרים ומכונות תמיכה וקטוריות . מודל אינטראקטיבי בלבד בקטגוריה זו ילמד רק על סמך הקלט החדש , המנבא בשלב הנוכחי של האלגוריתם ומידע מהשלבים הקודמים (שלרוב צפויים להיות דרישות אחסון ללא תלות בגודל נתוני האימון). עבור ניסוחים רבים, למשל שיטות ליבה לא ליניאריות, למידה מקוונת אמיתית אינה אפשרית, אם כי ניתן להשתמש בצורה של למידה מקוונת היברידית עם אלגוריתמים רקורסיביים כאשר מותר לסמוך עליו וכל נקודות הנתונים הקודמות . במקרה זה, כבר לא מובטחת שדרישות השטח יהיו קבועות מכיוון שהיא דורשת אחסון של כל נקודות הנתונים הקודמות, אך הפתרון עשוי לקחת פחות זמן לחישוב עם הוספת נקודת נתונים חדשה, בהשוואה לטכניקות אימון באצוות (batched training)[1].

אסטרטגיה נפוצה להתגבר על הבעיות הנ"ל היא ללמוד באמצעות מיני-אצוות, אשר מעבדות אצווה קטנה של נקודות נתונים בכל פעם, זה יכול להיחשב כלמידה פסאודו מקוונת עבור קטן בהרבה ממספר נקודות האימון הכולל. נעשה שימוש בטכניקות מיני-אצווה עם מעבר חוזר ונשנה של נתוני האימון כדי להשיג גרסאות אופטימליות מחוץ לליבה של אלגוריתמים של למידת מכונה, למשל, ירידה בשיפוע סטוכסטי . בשילוב עם התפשטות לאחור, זוהי כיום שיטת האימון דה פקטו לאימון רשתות עצביות מלאכותיות .

דוגמה: ריבועים קטנים ליניאריים[עריכת קוד מקור | עריכה]

הדוגמה הפשוטה של ריבועים קטנים ליניאריים משמשת כדי להסביר מגוון רעיונות בלמידה מקוונת. הרעיונות כלליים מספיק כדי ליישם אותם בהגדרות אחרות, למשל, עם פונקציות אחרות של אובדן קמור.

למידה באצוות[עריכת קוד מקור | עריכה]

שקול את ההגדרה של למידה בפיקוח עם להיות פונקציה לינארית שיש ללמוד:

כאשר הוא וקטור של קלטים (נקודות נתונים) ו הוא וקטור סינון ליניארי. המטרה היא לחשב את וקטור המסנן . לשם כך, פונקציית אובדן ריבועי

משמש לחישוב הווקטור שממזער את ההפסד האמפירי

לפיכך ניתן להסתכל על שיטה זו כאלגוריתם חמדני . במקרה של אופטימיזציה ריבועית מקוונת (כאשר פונקציית ההפסד נמצאת ), אפשר להראות חרטה קשורה שגדלה כמו . עם זאת, לא ניתן להשיג גבולות דומים עבור אלגוריתם FTL עבור משפחות חשובות אחרות של מודלים כמו אופטימיזציה ליניארית מקוונת. לשם כך, יש לשנות את FTL על ידי הוספת רגוליזציה.

אם היא מטריצת נתונים בגודל ו הוא וקטור העמודה של ערכי יעד לאחר הגעתן של נקודות מידע. בהנחה שמטריצת השונות המשותפת הפיכה (אחרת עדיף להמשיך בצורה דומה עם הסדרת טיכונוב), הפתרון הטוב ביותר לבעיה הריבועים הקטנים הליניאריים ניתנת על ידי נוסחה סגורה

.

במונחי סיבוכיות, חישוב מטריצת השונות כוללת זמן , היפוך של מטריצה לוקחת זמן , בעוד ששאר הכפל לוקח זמן , וזמן כולל של . כשיש סך הנקודות במערך הנתונים, כדי לחשב מחדש את הפתרון לאחר הגעת כל נקודת נתונים , לגישה הנאיבית תהיה סיבוכיות זמן . שימו לב כי בעת אחסון המטריצה , ועדכון שלה בכל שלב על ידי , אשר לוקח זמן, המאפשר לנו צמצום של הזמן הכולל הנדרש ל. מאידך,אבל עם שטח אחסון נוסף של לאחסן . [1]

למידה מקוונת: ריבועים קטנים רקורסיביים[עריכת קוד מקור | עריכה]

אלגוריתם הריבועים הקטנים הרקורסיבים (RLS) שוקל גישה מקוונת לבעיית הריבועים הקטנים ביותר. ניתן להראות זאת על ידי אתחול ו , ניתן לחשב את הפתרון של בעיית הריבועים הקטנים הליניאריים שניתנה בסעיף הקודם על ידי האיטרציה הבאה:

ניתן להוכיח את אלגוריתם האיטרציה שלעיל באמצעות אינדוקציה . [2] גם ההוכחה מלמדת על כך . אפשר להסתכל על RLS גם בהקשר של מסננים אדפטיביים (ראה RLS ).

המורכבות עבור שלבים של אלגוריתם זה הוא , שהוא מהיר יותר בסדר גודל ממורכבות הלמידה האצווה המקבילה. דרישות האחסון בכל שלב כאן כדי לאחסן את המטריצה , שהוא קבוע ב . למקרה מתי אינו ניתן להפיכה, שקול את הגרסה המוסדרת של פונקציית אובדן הבעיה . לאחר מכן, קל להראות שאותו אלגוריתם עובד איתו , והאיטרציות ממשיכות לתת . [1]

אופטימיזציה קמורה אינטראקטיבית[עריכת קוד מקור | עריכה]

אופטימיזציה קמורה מקוונת (OCO) [3] היא מסגרת כללית לקבלת החלטות המשתמשת באופטימיזציה קמורה. המסגרת היא של משחק חוזר:

לצורך האתחול, בוחרים קבוצה קמורה

עבור

  • הלומד מקבל קלט
  • תפוקות מציע מקבוצה קמורה קבועה
  • הלומד מקבל פונקציית מחיר נוכחית .
  • הלומד סובל מאובדן ומעדכן את האומד שלו

המטרה היא למזער חרטה, או את ההבדל בין הפסד מצטבר לאובדן הנקודה הקבועה הטובה ביותר בדיעבד. כדוגמה, שקול את המקרה של רגרסיה ליניארית בריבועים קטנים מקוונים. כאן, וקטורי המשקל מגיעים מהקבוצה הקמורה , והטבע שולח בחזרה את פונקציית האובדן הקמור . שימו לב כאן נשלח במרומז עם .

עם זאת, כמה בעיות חיזוי מקוון אינן יכולות להתאים למסגרת של OCO. לדוגמה, בסיווג מקוון, תחום החיזוי ופונקציות ההפסד אינם קמורים. בתרחישים כאלה, נעשה שימוש בשתי טכניקות פשוטות לקמור : אקראי ופונקציות אובדן פונדקאיות
שגיאות פרמטריות בתבנית:מקור

שימוש בפרמטרים מיושנים [ תאריך ]
[דרוש מקור]</link> .

כמה אלגוריתמי אופטימיזציה קמורים מקוונים פשוטים הם:

עקוב אחר המנהיג (FTL)[עריכת קוד מקור | עריכה]

כלל הלמידה הפשוט ביותר לנסות הוא לבחור (בשלב הנוכחי) את ההשערה עם ההפסד הכי קטן בכל הסבבים שעברו. אלגוריתם זה נקרא Follow the leader, and round ניתן פשוט על ידי:

כדוגמה מיוחדת, שקול את המקרה של אופטימיזציה ליניארית מקוונת, כלומר שבו הטבע שולח בחזרה פונקציות אובדן של הטופס . כמו כן, תן . נניח שפונקציית הרגוליזציה נבחר למספר חיובי כלשהו . לאחר מכן, אפשר להראות שהחרטה הממזערת את האיטרציה הופכת

עקוב אחר המנהיג רגולרי (FTRL)[עריכת קוד מקור | עריכה]

זהו שינוי טבעי של FTL המשמש לייצוב פתרונות FTL ולהשגת גבולות חרטה טובים יותר. פונקציית רגוליזציה נבחר והלמידה מתבצעת בסיבוב t כדלקמן: [[קטגוריה:דפים עם תרגומים שלא נסקרו]]

  1. ^ 1 2 L. Rosasco, T. Poggio, Machine Learning: a Regularization Approach, MIT-9.520 Lectures Notes, Manuscript, Dec. 2015. Chapter 7 - Online Learning
  2. ^ Yin, Harold J. Kushner, G. George (2003). Stochastic approximation and recursive algorithms and applications (Second ed.). New York: Springer. pp. 8–12. ISBN 978-0-387-21769-7.
  3. ^ Hazan, Elad (2015). Introduction to Online Convex Optimization (PDF). Foundations and Trends in Optimization.