שונות

מתוך ויקיפדיה, האנציקלופדיה החופשית
קפיצה אל: ניווט, חיפוש
Statistipedia.svg

בתורת ההסתברות וסטטיסטיקה, שונות היא מדד לפיזור ערכי במדגם הנתונה ביחס לתוחלת שלהם. באופן אינטואיטיבי, השונות היא גודל חיובי התלוי במרחק הממוצע של כל ערך מממוצע כל הערכים. ערך שונות גבוה מעיד על פיזור רחב של המשתנים, ערך נמוך מעיד על פיזור צר. שונות השווה זהותית לאפס משמעה שכל נתוני המדגם זהים ומרוכזים בנקודה אחת. השונות היא מדד למרחק ולכן תקבל תמיד ערך חיובי. יחידות השונות הן ריבוע יחידות המדגם דבר המקשה על השוואת גדלים, לכן הוצג המושג סטיית תקן השווה לשורש השונות ומציג את הפיזור הממוצע ביחידות המקוריות. השונות מוגדרת עבור רציף ובדיד וניתן לחשב אותה באופן תאורטי מפונקציית ההסתברות או לחשב אותה ביחס למדגם נתון. מושג זה הוצג לראשונה על ידי רונלד פישר בשנת 1918.

הגדרה פורמלית[עריכת קוד מקור | עריכה]

השונות של המשתנה המקרי \ X , בדיד או רציף, מוגדרת כריבוע תוחלת המרחק בין המדגם לתוחלת שלו:

\ \operatorname{var}(X) = \mathbb{E}( ( X - \mu ) ^ 2 ) = \mathbb{E}(X^2) - \mu^2

\mu = \mathbb{E}(X) תוחלת המשתנה.

בנוסף ניתן להגדיר את השונות גם כ שונות המשותפת של המשתנה עם עצמו: \operatorname{Var}(X) = \operatorname{Cov}(X, X)

יש התפלגויות, כמו התפלגות קושי, שבהן השונות אינה מוגדרת.

חישוב שונות[עריכת קוד מקור | עריכה]

משתנה מקרי בדיד[עריכת קוד מקור | עריכה]

בהינתן פונקציית הסתברות בדידה x1 ↦ p1, ..., xn ↦ pn ניתן לחשב את ערך השונות לפני הנוסחא

\operatorname{Var}(X) = \sum_{i=1}^n p_i\cdot(x_i - \mu)^2

כאשר \mu הוא ערך התוחלת

\mu = \sum_{i=1}^n p_i\cdot x_i


מדגם סופי[עריכת קוד מקור | עריכה]

בהינתן מדגם בגודל N נוכל לחשב את השונות על ידי לקיחת הסתברות אחידה:

\operatorname{Var}(X) = \frac 1N \sum_{i=1}^N  \left(x_i - \mu \right)^2 = \left(\frac 1N \sum_{i=1}^N x_i^2\right) - \mu^2

כאשר

 \mu = \frac 1N \sum_{i=1}^N x_i הוא ערך התוחלת


משתנה מקרי רציף[עריכת קוד מקור | עריכה]

בהינתן פונקציית הסתברות רציפה, חישוב השונות נתון ע"י

\operatorname{Var}(X) =\sigma^2 =\int (x-\mu)^2 \, f(x) \, dx\, =\int x^2 \, f(x) \, dx\, - \mu^2

כאשר \mu הוא ערך התוחלת

\mu = \int x \, f(x) \, dx\,

כאשר האינטגרל מחושב על פני כל מקור פונקציית ההסתברות, במקרה של תומך חסום על פני כל ערכי התומך.


דוגמאות[עריכת קוד מקור | עריכה]

התפלגות נורמלית[עריכת קוד מקור | עריכה]

ההתפלגות נורמלית עם הפרמטרים μ ו-σ היא התפלגות רציפה עבורה פונקציית צפיפות ההסתברות נתונה ע"י:


f(x) = \frac{1}{\sqrt{2\pi \sigma^2}} e^{ -\frac{(x-\mu)^2}{2\sigma^2} },

כאשר μ הוא התוחלת, ערך השונות נתון ע"י:


\operatorname{Var}(X) = \int_{-\infty}^\infty \frac{(x - \mu)^2}{\sqrt{2\pi \sigma^2}} e^{ -\frac{(x-\mu)^2}{2\sigma^2} } \, dx = \sigma^2.

להתפלגות הנורמלית תפקיד מכריע בעולם ההסתברות עקב משפט הגבול המרכזי.


התפלגות מעריכית[עריכת קוד מקור | עריכה]

ההתפלגות מעריכית עם הפרמטר λ ו-σ היא התפלגות רציפה עבורה תומך חצי אינסופי (הישר האי שלילי) פונקציית צפיפות ההסתברות נתונה ע"י:

f(x) = \lambda e^{-\lambda x},\,

ערך התוחלת שלה נתון על ידי μ = λ−1. ערך השונות נתון ע"י:

 \operatorname{Var}(X) = \int_0^\infty (x - \lambda^{-1})^2 \, \lambda e^{-\lambda x} dx = \lambda^{-2}.\,

לכן עבור משתנה מקרי המתפלג באופן מעריכי σ2 = μ2.

התפלגות פואסון[עריכת קוד מקור | עריכה]

התפלגות פואסון עם הפרמטר λ היא התפלגות בדידה עבור אינדקס k מספר טבעי א-שלילי, פונקציית הסתברות עבור k נתונה ע"י:

p(k) = \frac{\lambda^k}{k!} e^{-\lambda},

ערך התוחלת הוא μ = λ. ערך השונות נתון ע"י:

 \operatorname{Var}(X) = \sum_{k=0}^\infty \frac{\lambda^k}{k!} e^{-\lambda} (k-\lambda)^2 = \lambda,

לכן עבור משתנה מקרי המתפלג פואסון σ2 = μ.

התפלגות בינום[עריכת קוד מקור | עריכה]

התפלגות פואסון עם הפרמטרים n וp היא התפלגות בדידה עבור אינדקס k מספר טבעי א-שלילי, פונקציית הסתברות עבור k נתונה ע"י:

p(k) = {n\choose k}p^k(1-p)^{n-k},

ערך התוחלת הוא μ = np. ערך השונות נתון ע"י::

 \operatorname{Var}(X) = \sum_{k=0}^{n} {n\choose k}p^k(1-p)^{n-k} (k-np)^2 = np(1-p),

הטלת מטבע[עריכת קוד מקור | עריכה]

התפלגות בינומית עם מקדם p=0.5 מתארת את ההסתברות לקבלת k עץ מתוך n הטלות. לכן ערך התוחלת של כמות העצים שהתקבלו נתונה ע"י: n/2, וערך השונות ע"י: n/4.

קובייה הוגנת[עריכת קוד מקור | עריכה]

ניתן למדל הטלת קובייה הוגנת בעלת 6 צדדים על ידי משתנה מקרי בדיד המקבל ערכים בין 1 ל-6, בהסתברות שווה והיא \textstyle\frac{1}{6}. ערך התוחלת הוא: (1 + 2 + 3 + 4 + 5 + 6)/6 = 3.5. ולכן נחשב את השונות להיות


\begin{align}
\sum_{i=1}^6 \tfrac{1}{6}(i - 3.5)^2 = \tfrac{1}{6}\sum_{i=1}^6 (i - 3.5)^2 & = \tfrac{1}{6}\left((-2.5)^2{+}(-1.5)^2{+}(-0.5)^2{+}0.5^2{+}1.5^2{+}2.5^2\right) \\
& = \tfrac{1}{6} \cdot 17.50 = \tfrac{35}{12} \approx 2.92.
\end{align}

במקרה הכללי- משתנה מקרי X בעל התפלגות שווה \textstyle\frac{1}{n} אשר מקבל את הערכים הטבעיים בין 1 ל-n. נחשב את השונות ע"י:


\begin{align}
\\operatorname{Var}(X)=E(X^2)-(E(X))^2 \\ 
&=\frac{1}{n}\sum_{i=1}^n i^2-\left(\frac{1}{n}\sum_{i=1}^n i\right)^2 \\
&=\tfrac 16 (n+1)(2n+1) - \tfrac 14 (n+1)^2\\
&=\frac{ n^2-1 }{12}.
\end{align}

תכונות השונות[עריכת קוד מקור | עריכה]

  • השונות תמיד אי שלילית \operatorname{var}(X) \ge 0
  • שונות של משתנה מקרי שווה לאפס אם ורק אם המשתנה המקרי מקבל ערך קבוע בהסתברות 1
  • השונות של טרנספורמציה לינארית על המשתנה המקרי \ X מחושבת באופן הבא:
\operatorname{var}(aX+b)=a^2\operatorname{var}(X)

\ a,\,b - קבועים ממשיים.

  • השונות של סכום משתנים מקריים X,Y היא:

\operatorname{var}(X+Y)=\operatorname{var}(X)+2\operatorname{cov}(X,Y)+\operatorname{var}(Y)

כאשר cov היא השונות המשותפת של המשתנים X,Y, יש לציין כי השונות המשותפת של שני משתנים מקריים שווה לאפס במקרה ואין תלות בין המשתנים. ניתן להרחיב את התכונה לחישוב שונות סכום משתנים מקריים כך:

\operatorname{Var}\left(\sum_{i=1}^n X_i\right) = \sum_{i=1}^n \sum_{j=1}^n \operatorname{Cov}(X_i, X_j) = \sum_{i=1}^n \operatorname{Var}(X_i) + 2\sum_{1\le i}\sum_{<j\le n}\operatorname{Cov}(X_i,X_j).

  • אם X,Y משתנים מקריים, והשונות של Y סופית, אפשר לפרק את השונות של X באופן הבא:

\ \operatorname{var}(X)=\mathbb{E}(\operatorname{var}(X|Y))+\operatorname{var}(\mathbb{E}(X|Y)) (ראו גם משפט השונות השלמה).

שונות האוכלוסייה ושונות המדגם[עריכת קוד מקור | עריכה]

עבור אוכלוסייה סופית (שהתפלגותה אינה ידועה) ניתן לחשב את השונות בעזרת הנוסחה:

\sigma^2 = \frac {\sum_{i=1}^N \left(x_i - \overline{x} \right)^2} {N}

\overline{x} - ממוצע האוכלוסייה.
\ N - מספר האיברים באוכלוסייה.

נוסחה שימושית לחישוב שונות האוכלוסייה:

\sigma^2 = \frac {\sum_{i=1}^{N} x_i^2 - (\sum_{i=1}^{N} x_i)^2/N}{N} \!

כאשר נתון מדגם מקרי (y_1,\dots,y_N) ניתן לאמוד את השונות על ידי הנוסחה s^2 = \frac{1}{N-1} \sum_{i=1}^N \left(y_i - \overline{y} \right)^ 2; בתנאים רגילים, זהו אומד בלתי מוטה. אם הנתונים מעוגלים בזמן המדידה, יש להפעיל את תיקון שפרד.

[הצגה]
הוכחה לכך שהאומד \ s^2 חסר הטיה

לפי ההגדרה, אמד \hat{\theta} לפרמטר \ \theta הוא בלתי מוטה אם מתקיים: \operatorname{E}\{ \hat{\theta}\} = \theta. לפיכך צריך להראות ש- \operatorname{E}\{ s^2\} = \sigma^2.
בהנחה שהמדגם לקוח מאוכלוסייה בעלת הפרמטרים, ממוצע - \ \mu ושונות - \ \sigma^2; אזי:

 \operatorname{E} \{ s^2 \}
= \operatorname{E} \left\{ \frac{1}{n-1} \sum_{i=1}^n  \left( x_i - \overline{x} \right) ^ 2 \right\}



= \frac{1}{n-1} \sum_{i=1}^n  \operatorname{E} \left\{ \left( x_i - \overline{x} \right) ^ 2 \right\}



= \frac{1}{n-1} \sum_{i=1}^n  \operatorname{E} \left\{ \left( (x_i - \mu) - (\overline{x} - \mu) \right) ^ 2 \right\}



= \frac{1}{n-1} \sum_{i=1}^n  \left\{ \operatorname{E} \left\{ (x_i - \mu)^2 \right\} 
- 2 \operatorname{E} \left\{ (x_i - \mu) (\overline{x} - \mu) \right\} 
+ \operatorname{E} \left\{ (\overline{x} - \mu)  ^ 2 \right\} \right\}



= \frac{1}{n-1} \sum_{i=1}^n \left\{ \sigma^2
- 2 \left( \frac{1}{n} \sum_{j=1}^n \operatorname{E} \left\{ (x_i - \mu) (x_j - \mu) \right\} \right)
+ \frac{1}{n^2} \sum_{j=1}^n \sum_{k=1}^n \operatorname{E} \left\{ (x_j - \mu) (x_k - \mu) \right\} \right\}



= \frac{1}{n-1} \sum_{i=1}^n  \left\{ \sigma^2
- \frac{2 \sigma^2}{n}
+ \frac{\sigma^2}{n} \right\}



= \frac{1}{n-1} \sum_{i=1}^n \frac{(n-1)\sigma^2}{n}



= \frac{(n-1)\sigma^2}{n-1} = \sigma^2

מ.ש.ל.

נוסחה שימושית אחרת לחישוב האומד לשונות: s^2 = \frac {\sum_{i=1}^{N} x_i^2 - (\sum_{i=1}^{N} x_i)^2/N}{N-1} \!.

ראו גם[עריכת קוד מקור | עריכה]