תורת האינפורמציה – הבדלי גרסאות

מתוך ויקיפדיה, האנציקלופדיה החופשית
תוכן שנמחק תוכן שנוסף
מ ←‏היסטוריה: עריכה
שורה 5: שורה 5:


==היסטוריה==
==היסטוריה==
האדם שנחשב אבי תורת האינפורמציה הוא [[קלוד שאנון|קלוד אלווד שאנון]]. ב-1948 פרסם מאמר הסוקר את הבסיס המתמטי עבור מערכות תקשורת. במאמר זה הגדיר שנון את יחידת ה[[ביט]] ואת מושג ה[[אנטרופיה (סטטיסטיקה)|אנטרופיה]] המתקשר לכמות הביטים המינימלית הנדרשת כדי לשמור או לשדר פיסת מידע מסוימת.{{הערה|C.E. Shannon, "[http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf A Mathematical Theory of Communication]", '''Bell System Technical Journal''', vol. 27, pp. 379–423, 623-656, July, October, 1948}} עבודה זו בעלת השפעה רבה ביותר על המדע במאה ה-20, ומצוטטת מעל 45 אלף פעמים במאמרים אקדמאים שונים (נכון ל-2011, לפי [[Google Scholar]]).
האדם שנחשב אבי תורת האינפורמציה הוא [[קלוד שאנון|קלוד אלווד שאנון]]. ב-1948 פרסם מאמר הסוקר את הבסיס המתמטי עבור מערכות תקשורת. במאמר זה הגדיר שנון את יחידת ה[[ביט]] ואת מושג ה[[אנטרופיה (סטטיסטיקה)|אנטרופיה]] המתקשר לכמות הביטים המינימלית הנדרשת כדי לשמור או לשדר פיסת מידע מסוימת.{{הערה|C.E. Shannon, "[http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf A Mathematical Theory of Communication]", '''Bell System Technical Journal''', vol. 27, pp. 379–423, 623-656, July, October, 1948}} עבודה זו בעלת השפעה רבה ביותר על המדע במאה ה-20, ומצוטטת מעל 45 אלף פעמים במאמרים אקדמאים שונים{{הערה|נכון ל-2011, לפי [[Google Scholar]]}}.


==התייחסות למושג המידע==
==התייחסות למושג המידע==

גרסה מ־11:43, 18 בנובמבר 2012

תורת האינפורמציה היא ענף של מתמטיקה שימושית, העוסקת בעיבוד וכימות מידע, שעושה שימוש בשיטות מתורת ההסתברות ומסטטיסטיקה מתמטית.

יישומים

לתורת האינפורמציה השלכות רבות במדעי המחשב והנדסת חשמל: התורה עוסקת במערכות תקשורת, שידור נתונים, דחיסת נתונים, הצפנה, תורת הדגימה, תיקון שגיאות בקידוד נתונים ועוד. מושגים מרכזיים בתורת האינפורמציה הם האנטרופיה והאינפורמציה ההדדית.

היסטוריה

האדם שנחשב אבי תורת האינפורמציה הוא קלוד אלווד שאנון. ב-1948 פרסם מאמר הסוקר את הבסיס המתמטי עבור מערכות תקשורת. במאמר זה הגדיר שנון את יחידת הביט ואת מושג האנטרופיה המתקשר לכמות הביטים המינימלית הנדרשת כדי לשמור או לשדר פיסת מידע מסוימת.[1] עבודה זו בעלת השפעה רבה ביותר על המדע במאה ה-20, ומצוטטת מעל 45 אלף פעמים במאמרים אקדמאים שונים[2].

התייחסות למושג המידע

על פי תורת האינפורמציה הקלאסית של שאנון ניתן לשדר ולקלוט מידע באופן מדוייק באמצעות תהליכים שאינם תלויים במשמעות של המידע[3]. דוגמאות לכך הן דואר אלקטרוני, מסרים מידיים ועוד.

המחשבים הרחיבו את תורת האינפורמציה בכך שהם יכולים להעביר ואף לעבד מידע ללא התייחסות למשמעות שלו[3]. לדוגמה: SPSS היא אחת התוכנות הנפוצות בעולם לניתוח סטטסיטי של נתונים.

מכאן עלתה השאלה כיצד מכונות שאופן פעולתן אינו קשור למשמעות יוצרות פלטים בעלי משמעות עבור המשתמשים[3].

ראו גם

הערות שוליים

  1. ^ C.E. Shannon, "A Mathematical Theory of Communication", Bell System Technical Journal, vol. 27, pp. 379–423, 623-656, July, October, 1948
  2. ^ נכון ל-2011, לפי Google Scholar
  3. ^ 1 2 3 Denning, P. J., & Bell, T. (2012). The Information Paradox. American Scientist, 100(6), 470-477.


ערך זה הוא קצרמר בנושא מדעי המחשב. אתם מוזמנים לתרום לוויקיפדיה ולהרחיב אותו.

תבנית:נ