שיטת הדלתה – הבדלי גרסאות

מתוך ויקיפדיה, האנציקלופדיה החופשית
תוכן שנמחק תוכן שנוסף
Matanyabot (שיחה | תרומות)
מ בוט החלפות: גרסה, ממדי
מ תקלדה
שורה 1: שורה 1:
'''שיטת הדלתה''' [[סטטיסטיקה|בסטטיסטיקה]] היא תוצאה המאפשרת את אמידת [[שונות|השונות]] של פונקציה של [[אמדן|אמד]] [[פרמטר סטטיסטי|לפרמטר]], כאשר [[התפלגות אסימפטוטית|התפלגותו האסימפטוטית]] של האמד היא [[התפלגות נורמלית|נורמלית]] [[סטיית תקן|וסטיית התקן]] של האמד ידועה או ניתנת לאמידה.
'''שיטת הדלתה''' ב[[סטטיסטיקה]] היא תוצאה המאפשרת את אמידת [[שונות|השונות]] של פונקציה של [[אמדן|אמד]] [[פרמטר סטטיסטי|לפרמטר]], כאשר [[התפלגות אסימפטוטית|התפלגותו האסימפטוטית]] של האמד היא [[התפלגות נורמלית|נורמלית]] [[סטיית תקן|וסטיית התקן]] של האמד ידועה או ניתנת לאמידה.


== היסטוריה ==
== היסטוריה ==
שורה 65: שורה 65:
'''משפט'''
'''משפט'''


תהי <math>X_n</math> סדרה של [[משתנה מקרי|משתנים מקריים]] בעלת התפלגות אסימפטוטית נורמלית, ובאופן פורמלי <math>{\sqrt{n}[X_n-\theta]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2)},</math>, כאשר <math>\theta</math> ו-<math>\sigma^2</math> קבועים ממשיים, ו-<math>\xrightarrow{D}</math> מציין [[התכנסות בהתפלגות]].
תהי <math>X_n</math> סדרה של [[משתנה מקרי|משתנים מקריים]] בעלת התפלגות אסימפטוטית נורמלית, ובאופן פורמלי <math>{\sqrt{n}[X_n-\theta]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2)},</math>, כאשר <math>\theta</math> ו-<math>\sigma^2</math> קבועים ממשיים, ו-<math>\xrightarrow{D}</math> מציין [[התכנסות בהתפלגות]].


כן תהא <math>g</math> פונקציה [[נגזרת|הגזירה]] בנקודה <math>\theta</math> כך ש-<math>g'(\theta)</math> [[רציפות|רציפה]] ו-<math>g'(\theta) \ne 0</math>.
כן תהא <math>g</math> פונקציה [[נגזרת|הגזירה]] בנקודה <math>\theta</math> כך ש-<math>g'(\theta)</math> [[רציפות|רציפה]] ו-<math>g'(\theta) \ne 0</math>.
שורה 71: שורה 71:
אזי: <math>{\sqrt{n}[g(X_n)-g(\theta)]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2\cdot[g'(\theta)]^2)}</math>.
אזי: <math>{\sqrt{n}[g(X_n)-g(\theta)]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2\cdot[g'(\theta)]^2)}</math>.


'''הוכחה:'''

'''הוכחה:'''


על פי [[משפט הערך הממוצע של לגראנז']] (משפט ערך הביניים) קיים <math>\tilde\theta</math> כך ש-<math>g(X_n)=g(\theta)+g'(\tilde{\theta})(X_n-\theta)</math>, כך ש-<math>\tilde\theta</math> נמצא בין <math>X_n</math> ובין <math>\theta</math>. (זהו למעשה [[פיתוח טיילור]] של <math>g</math> סביב <math>\theta</math>.)
על פי [[משפט הערך הממוצע של לגראנז']] (משפט ערך הביניים) קיים <math>\tilde\theta</math> כך ש-<math>g(X_n)=g(\theta)+g'(\tilde{\theta})(X_n-\theta)</math>, כך ש-<math>\tilde\theta</math> נמצא בין <math>X_n</math> ובין <math>\theta</math>. (זהו למעשה [[פיתוח טיילור]] של <math>g</math> סביב <math>\theta</math>.)



נסדר מחדש את האיברים ונכפיל ב-<math>\sqrt{n}</math>, ונקבל כי <math>\sqrt{n}[g(X_n)-g(\theta)]=g' \left (\tilde{\theta} \right )\sqrt{n}[X_n-\theta]</math>.
נסדר מחדש את האיברים ונכפיל ב-<math>\sqrt{n}</math>, ונקבל כי <math>\sqrt{n}[g(X_n)-g(\theta)]=g' \left (\tilde{\theta} \right )\sqrt{n}[X_n-\theta]</math>.



מכיוון ש-<math>X_n\,\xrightarrow{P}\,\theta</math> (כאשר <math>\xrightarrow{P}</math> מציין [[התכנסות בהסתברות]]) מקבלים כי <math>\tilde\theta\xrightarrow{P}\,\theta</math>, ומכיוון ש-<math>g'(\theta)</math> רציפה אנו מקבלים כי גם <math>g'(\tilde\theta)\xrightarrow{p}g'(\theta)</math>.
מכיוון ש-<math>X_n\,\xrightarrow{P}\,\theta</math> (כאשר <math>\xrightarrow{P}</math> מציין [[התכנסות בהסתברות]]) מקבלים כי <math>\tilde\theta\xrightarrow{P}\,\theta</math>, ומכיוון ש-<math>g'(\theta)</math> רציפה אנו מקבלים כי גם <math>g'(\tilde\theta)\xrightarrow{p}g'(\theta)</math>.


כזכור, על פי תנאי המשפט <math>{\sqrt{n}[X_n-\theta]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2)},</math>, ולכן על פי [[משפט סלוצקי]] מקבלים באופן מיידי כי <math>{\sqrt{n}[g(X_n)-g(\theta)]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2\cdot[g'(\theta)]^2)}</math>.

כזכור, על פי תנאי המשפט <math>{\sqrt{n}[X_n-\theta]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2)},</math>, ולכן על פי [[משפט סלוצקי]] מקבלים באופן מיידי כי <math>{\sqrt{n}[g(X_n)-g(\theta)]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2\cdot[g'(\theta)]^2)}</math>.



הערה: ניתן להוכיח כי השגיאה בקירוב שואפת בהסתברות לאפס. כן קיימת גרסה רב ממדית.
הערה: ניתן להוכיח כי השגיאה בקירוב שואפת בהסתברות לאפס. כן קיימת גרסה רב ממדית.
שורה 90: שורה 85:
==דוגמאות==
==דוגמאות==
===ריבוע התוחלת===
===ריבוע התוחלת===
על פי [[משפט הגבול המרכזי]], [[ממוצע|הממוצע]] של <math>n</math> משתנים מקריים [[אי תלות (סטטיסטיקה)|בלתי תלויים]] ושווי התפלגות בעלי [[תוחלת]] <math>\mu</math> ושונות סופית וחיובית <math>\sigma^2</math> מתפלג אסימפטוטית נורמלית, כלומר <math>\sqrt{n}[\bar{X}_n-\mu]\xrightarrow{D}N(0, \sigma^2)</math>. תהי <math>g(x)=x^2</math>, ןלכן <math>g'(x)=2x</math>. מכאן נקבל כי ל-<math>\bar{X}_n^2</math> יש התפלגות אסימפטוטית נורמלית עם תוחלת <math>\mu^2</math> ושונות <math>\frac {4\mu^2\sigma^2} {n}</math>.
על פי [[משפט הגבול המרכזי]], [[ממוצע|הממוצע]] של <math>n</math> משתנים מקריים [[אי תלות (סטטיסטיקה)|בלתי תלויים]] ושווי התפלגות בעלי [[תוחלת]] <math>\mu</math> ושונות סופית וחיובית <math>\sigma^2</math> מתפלג אסימפטוטית נורמלית, כלומר <math>\sqrt{n}[\bar{X}_n-\mu]\xrightarrow{D}N(0, \sigma^2)</math>. תהי <math>g(x)=x^2</math>, ולכן <math>g'(x)=2x</math>. מכאן נקבל כי ל-<math>\bar{X}_n^2</math> יש התפלגות אסימפטוטית נורמלית עם תוחלת <math>\mu^2</math> ושונות <math>\frac {4\mu^2\sigma^2} {n}</math>.


===רגרסיה לוגיסטית===
===רגרסיה לוגיסטית===
שורה 96: שורה 91:
</math>, ונסמן ב-<math>\hat\beta_n</math> את [[נראות מקסימלית|אמדן הנראות המקסימלית]] ל-<math>\beta</math>. מכיוון שזהו אמד נראות מקסימלית ידוע כי התפלגותו היא אסימפטוטית נורמלית עם תוחלת <math>\beta</math> ושגיאת תקן <math>s>0</math>, כאשר <math>s</math> נאמדת על ידי שימוש [[האינפורמציה של פישר|באינפורמציה של פישר]]. חוקרים מתעניינים בדרך כלל בערך <math>OR=e^\beta</math> שמפורש [[יחס הסיכויים|כיחס הסיכויים]] של <math>Y</math> בהינתן <math>X</math>. מכיוון ש-<math>g(x)=e^x</math> היא פונקציה רציפה שנגזרתה רציפה, נקבל כי לאמדן יחס הסיכויים <math>e^{\hat\beta}</math> יש התפלגות אסימפטוטית נורמלית עם תוחלת <math>e^\beta</math>, ולאמוד את שגיאת תקן שלו על ידי <math>se^{\hat\beta}</math>.
</math>, ונסמן ב-<math>\hat\beta_n</math> את [[נראות מקסימלית|אמדן הנראות המקסימלית]] ל-<math>\beta</math>. מכיוון שזהו אמד נראות מקסימלית ידוע כי התפלגותו היא אסימפטוטית נורמלית עם תוחלת <math>\beta</math> ושגיאת תקן <math>s>0</math>, כאשר <math>s</math> נאמדת על ידי שימוש [[האינפורמציה של פישר|באינפורמציה של פישר]]. חוקרים מתעניינים בדרך כלל בערך <math>OR=e^\beta</math> שמפורש [[יחס הסיכויים|כיחס הסיכויים]] של <math>Y</math> בהינתן <math>X</math>. מכיוון ש-<math>g(x)=e^x</math> היא פונקציה רציפה שנגזרתה רציפה, נקבל כי לאמדן יחס הסיכויים <math>e^{\hat\beta}</math> יש התפלגות אסימפטוטית נורמלית עם תוחלת <math>e^\beta</math>, ולאמוד את שגיאת תקן שלו על ידי <math>se^{\hat\beta}</math>.


מכאן נוכל לקבל כי [[רווח סמך]] ברמת סמך <math>100(1-\alpha)%</math> ליחס הסיכויים הוא <math>e^{\hat\beta}\ \pm \ Z_{ \frac{\alpha}{2} }se^{\hat\beta}</math>. כן נוכל לבדוק את [[בדיקת השערות|ההשערה]] כי יחס הסיכויים שווה ל-1 על ידי [[סטטיסטי|הסטטיסטי]] <math>Z=\frac{e^{\hat\beta}-1}{se^{\hat\beta}}</math>.
מכאן נוכל לקבל כי [[רווח סמך]] ברמת סמך <math>100(1-\alpha)%</math> ליחס הסיכויים הוא <math>e^{\hat\beta}\ \pm \ Z_{ \frac{\alpha}{2} }se^{\hat\beta}</math>. כן נוכל לבדוק את [[בדיקת השערות|ההשערה]] כי יחס הסיכויים שווה ל-1 על ידי [[סטטיסטי|הסטטיסטי]] <math>Z=\frac{e^{\hat\beta}-1}{se^{\hat\beta}}</math>.


==ראו גם==
==ראו גם==
שורה 108: שורה 103:
{{ltr|
{{ltr|
*{{cite book
*{{cite book
|title=Theory of point estimation, 2nd edition
|title=Theory of point estimation, 2nd edition
|last=Lehmann |first=E. L.
|last=Lehmann |first=E. L.
|last2=Casella |first2=G.
|last2=Casella |first2=G.
|year=2006
|year=2006
|publisher=Springer Science & Business Media
|publisher=Springer Science & Business Media
|isbn=0-387-98502-6
|isbn=0-387-98502-6
שורה 118: שורה 113:
==קישורים חיצוניים==
==קישורים חיצוניים==
{{ltr|
{{ltr|
* [https://www.rdocumentation.org/packages/alr3/versions/1.1.12/topics/delta.method Standard error of a nonlinear function of estimated regression coefficients] - R alr package
* [https://www.rdocumentation.org/packages/alr3/versions/1.1.12/topics/delta.method Standard error of a nonlinear function of estimated regression coefficients] - R alr package


* [https://stats.idre.ucla.edu/r/faq/how-can-i-estimate-the-standard-error-of-transformed-regression-parameters-in-r-using-the-delta-method/ How can I estimate the standard error of transformed regression parameters in R using the delta method?] - UCLA: Statistical Consulting Group.
* [https://stats.idre.ucla.edu/r/faq/how-can-i-estimate-the-standard-error-of-transformed-regression-parameters-in-r-using-the-delta-method/ How can I estimate the standard error of transformed regression parameters in R using the delta method?] - UCLA: Statistical Consulting Group.

גרסה מ־16:34, 19 במרץ 2019

שיטת הדלתה בסטטיסטיקה היא תוצאה המאפשרת את אמידת השונות של פונקציה של אמד לפרמטר, כאשר התפלגותו האסימפטוטית של האמד היא נורמלית וסטיית התקן של האמד ידועה או ניתנת לאמידה.

היסטוריה

סקירה של ההיסטוריה של שיטת הדלתה ניתנה על ידי והר הוף[1] ומכתב תשובה מאת פורטנוי[2]. הרעיון שליו מבוססת שיטת הדלתה היה ידוע כבר במאה התשע עשרה. ב-1838 הוצג הרעיון הבסיס על ידי בסל[3], וב-1838 הוא הוצג בספרו של איירי[4]. השימוש הסטטיסטי הראשון בשיטה נעשה ככל הנראה ב-1928 על ידי קלי[5]. הניסוח הפורמלי הוצג ב-1935 על ידי דוב[6].

שיטת הדלתה

משפט

תהי סדרה של משתנים מקריים בעלת התפלגות אסימפטוטית נורמלית, ובאופן פורמלי , כאשר ו- קבועים ממשיים, ו- מציין התכנסות בהתפלגות.

כן תהא פונקציה הגזירה בנקודה כך ש- רציפה ו-.

אזי: .

הוכחה:

על פי משפט הערך הממוצע של לגראנז' (משפט ערך הביניים) קיים כך ש-, כך ש- נמצא בין ובין . (זהו למעשה פיתוח טיילור של סביב .)

נסדר מחדש את האיברים ונכפיל ב-, ונקבל כי .

מכיוון ש- (כאשר מציין התכנסות בהסתברות) מקבלים כי , ומכיוון ש- רציפה אנו מקבלים כי גם .

כזכור, על פי תנאי המשפט , ולכן על פי משפט סלוצקי מקבלים באופן מיידי כי .

הערה: ניתן להוכיח כי השגיאה בקירוב שואפת בהסתברות לאפס. כן קיימת גרסה רב ממדית.

דוגמאות

ריבוע התוחלת

על פי משפט הגבול המרכזי, הממוצע של משתנים מקריים בלתי תלויים ושווי התפלגות בעלי תוחלת ושונות סופית וחיובית מתפלג אסימפטוטית נורמלית, כלומר . תהי , ולכן . מכאן נקבל כי ל- יש התפלגות אסימפטוטית נורמלית עם תוחלת ושונות .

רגרסיה לוגיסטית

נתבונן במודל which(minu==0), ונסמן ב- את אמדן הנראות המקסימלית ל-. מכיוון שזהו אמד נראות מקסימלית ידוע כי התפלגותו היא אסימפטוטית נורמלית עם תוחלת ושגיאת תקן , כאשר נאמדת על ידי שימוש באינפורמציה של פישר. חוקרים מתעניינים בדרך כלל בערך שמפורש כיחס הסיכויים של בהינתן . מכיוון ש- היא פונקציה רציפה שנגזרתה רציפה, נקבל כי לאמדן יחס הסיכויים יש התפלגות אסימפטוטית נורמלית עם תוחלת , ולאמוד את שגיאת תקן שלו על ידי .

מכאן נוכל לקבל כי רווח סמך ברמת סמך ליחס הסיכויים הוא . כן נוכל לבדוק את ההשערה כי יחס הסיכויים שווה ל-1 על ידי הסטטיסטי .

ראו גם

לקריאה נוספת

  • Lehmann, E. L.; Casella, G. (2006). Theory of point estimation, 2nd edition. Springer Science & Business Media. ISBN 0-387-98502-6.

קישורים חיצוניים

הערות שוליים

  1. ^ Ver Hoef, J. M., Who invented the delta method?, The American Statistician, 2 66, 2012, עמ' 124-127
  2. ^ Portnoy, S., Who invented the delta method? - Comment by S. Portnoy and Reply, The American Statistician, 3 67, 2013, עמ' 190
  3. ^ Bessel, R., Untersuchungen über die Wahrscheinlichkeit der Beobachtungsfehler, Astronomische Nachrichten, 3 6, 1838, עמ' 369-404
  4. ^ Airy, G. B., On the algebraical and numerical theory of errors of observations and the combination of observations., Macmillan & Company, 1861
  5. ^
    שגיאות פרמטריות בתבנית:צ-ספר

    פרמטרים [ doi ] לא מופיעים בהגדרת התבנית
    Kelley, T. L., Crossroads in the mind of man: A study of differentiable mental abilities, Stanford University Pres, 1928, עמ' 41
  6. ^ Doob, J. L., The limiting distributions of certain statistics, The Annals of Mathematical Statistics, 3 6, 1935, עמ' 160-169