שגיאת קירוב

מתוך ויקיפדיה, האנציקלופדיה החופשית
קפיצה אל: ניווט, חיפוש

שגיאת קירוב בנתונים מוגדרת כמידת חוסר ההתאמה שבין הערך המדויק לבין הקירוב שלו. שגיאת קירוב נובעת ממדידה לא מספיק מדויקת של הנתונים (בגלל מכשירי המדידה) או בשל שימוש מודע בקירובים במקום בערכים מדויקים (למשל 3.14 במקום \pi). במתמטיקה, באנליזה נומרית, היציבות הנומרית מציינת את מידת דיוקו של האלגוריתם הנומרי ובהתאם את שגיאת הקירוב המוערכת שלו. בקירוב ערכים מספריים נקראת שגיאת הקירוב על פי רוב שגיאת עיגול.

שגיאת קירוב יכולה להימדד באופן מוחלט, כלומר בסדר הגודל של ההפרש בין הערך המדויק לערכו של הקירוב, או באופן יחסי ואז השגיאה תימדד באחוזים או בקטע היחידה. למשל אם הערך המדויק הוא 100 והקירוב הוא 99, אז השגיאה המוחלטת תהיה 1, והשגיאה היחסית תהיה 1/100=0.01=1%. השגיאה היחסית משמשת לעתים קרובות להשוואה בין קירובים מספריים של ערכים שונים משמעותית. שגיאה מוחלטת של 1 למשל היא הרבה יותר משמעותית כאשר הערך המדויק הוא 100 מאשר שגיאה מוחלטת של 1 כאשר הערך המדויק הוא 1,000,000 ושימוש בשגיאה יחסית יכול להציג זאת נאמנה (0.01 לעומת 0.000001).

הגדרות[עריכת קוד מקור | עריכה]

בהינתן ערך מספרי מדויק v וקירוב לאותו הערך vapprox, השגיאה המוחלטת היא:

\epsilon = |v-v_{\text{approx}}|\,

כאשר השגיאה נמדדת בערך מוחלט שכן אין משמעות לסימן השגיאה.

אם v\ne 0, אז השגיאה היחסית מוגדרת כ:

\eta = \frac{|v-v_{\text{approx}}|}{|v|},

והשגיאה היחסית באחוזים היא:

\delta = \frac{|v-v_{\text{approx}}|}{|v|}100%.

את ההגדרות הללו ניתן להרחיב לוקטורים n-ממדיים על ידי החלפת הערך המוחלט בנורמה ל-n ממד.