משתמש:רמוע/טיוטה

מתוך ויקיפדיה, האנציקלופדיה החופשית

תורת האינפורמציה פותחה במקור על ידי קלוד שאנון על מנת לענות על שאלות מתחום הטלקומוניקציה, אולם בהמשך התברר שיש לה שימושים רבים בפיזיקה[1][2] ובפרט בתרמודינמיקה. אינפורמציה, עליה ניתן לחשוב באופן אבסטרקטי כרצף של אחדות ואפסים, נשמרת, מאוחסנת ומטופלת בעולם הפיזיקלי, כך שבמובן מסוים אינפורמציה מוגבלת על ידי חוקי הפיזיקה, ויש לשני התחומים ממשק רחב[3]. בפרט, ניתן לקשר בין אנטרופיה כפי שהיא מוגדרת במכניקה סטטיסטית לבין אנטרופיית שאנון, אם כי הפרשנות המדויקת של הקשר בין המושגים שנויה במחלוקת (ערך זה יציג שתי גישות שונות). עם זאת, ישנה הסכמה שתהליך השגת האינפורמציה על מערכת (מדידה) משפיע על היכולת להפיק ממנה עבודה[4].

ביטוי מפורסם לקשר בין אינפורמציה לפיזיקה הוא בפרדוקס השד של מקסוול ובפתרונות השונים שהוצעו לו, אף שהפרדוקס הועלה קודם לפיתוח תורת האינפורמציה על ידי קלוד שאנון בשנת 1948 ולכן לא נוסח במונחים מתורת אינפורמציה במפורש.

אינפורמציה כאנטרופיה שלילית[עריכת קוד מקור | עריכה]

המושג אנטרופיה שלילית (Negentropy) נטבע לראשונה על ידי ארווין שרדינגר בספרו "מה הם חיים?"[5], אולם מי שפיתח את הקשר בין אנטרופיה שלילית לאינפורמציה היה לאון ברילואן, במאמרים[1][6] ובספר[7] שפורסמו בשנות ה-50.

בתורת האינפורמציה, נדרשת אינפורמציה כדי להקטין את מספר המאורעות האפשריים מ- ל- (כאשר כל המצבים בהסתברות שווה), כאשר K קובע את היחידות של האנטרופיה, ונבחר אותו להיות קבוע בולצמן, . ברילואן מבחין בין אינפורמציה חופשית, שהיא אבסטרקטית, לבין אינפורמציה קשורה, שהיא מקרה פרטי של אינפורמציה חופשית שבו ניתן לפרש את המצבים האפשריים כמצבים של מערכת פיזיקלית, ונתמקד באינפורמציה הקשורה (הסימון מתייחס לאינפורמציה הקשורה, bound). את האינפורמציה הקשורה ניתן לייצג על ידי חריטה על סלע, כתיבה על דף נייר, שמירה על דיסק און קי, ניקוב כרטיס או כל אמצעי מקביל, ומכאן שהטיפול והשימוש באינפורמציה הקשורה מוגבל על ידי חוקי הפיזיקה[8]. יש לציין שהדיון המקורי של שאנון באינפורמציה היה תיאורטי, ולא התייחס לייצוגים פיזיקליים של אינפורמציה, כלומר במונחים אלו הוא התייחס לאינפורמציה חופשית.

האנטרופיה של המערכת הפיזיקלית כאשר יש לה או מצבים זמינים היא ו- בהתאמה, אז כך שניתן לראות שגידול באינפורמציה הקשורה גורר ירידה באנטרופיה של המערכת, ומכאן ההתייחסות לאינפורמציה כאל אנטרופיה שלילית. ניתן לפרש תוצאה זו כך: אנטרופיה היא מדד לאינפורמציה החסרה לנו לתיאור המצב המיקרוסקופי של המערכת באופן מלא. באופן מקביל, כאשר האנטרופיה של המערכת גדלה, אנו מאבדים אינפורמציה לגביה. לדוגמא, ניקח מיכל ובו מחיצה שבצידה האחד גז אחד, ובצד השני גז אחר. הסרת המחיצה תגרום לערבוב הגזים, תהליך בלתי הפיך שגורם לאנטרופיה של המערכת לגדול. האינפורמציה שלנו לגבי המערכת קטנה: לפני הערבוב, ידענו איזה סוג גז נמצא בכל צד, בעוד שכעת אין לנו מידע לגבי סוגי הגז במיקומים שונים במיכל.

מדידות פיזיקליות[עריכת קוד מקור | עריכה]

ברילואן מציג[7] מספר תכונות לגבי הקשר בין אינפורמציה לאנטרופיה שלילית:

  1. ניתן להמיר אינפורמציה באנטרופיה שלילית של המערכת ולהפך.
  2. מדידה של המערכת, שבה אנו מפיקים אינפורמציה לגבי המערכת, גורמת לגידול באנטרופיה שלה.
  3. האנטרופיה השלילית המינימאלית הנדרשת על מנת לבצע תצפית היא , שכן כמות האינפורמציה המינימאלית שניתן להפיק במדידה היא סיבית אחת. למעשה, השאלה הכי פשוטה שאנו יכולים לשאול על מנת להגדיל את האינפורמציה שלנו לגבי המערכת היא שאלת כן\לא.

אינפורמציה כהצדקה למכניקה הסטטיסטית[עריכת קוד מקור | עריכה]

במאמר משנת 1957, הפיזיקאי אדווין תומפסון ג'יינס הציע לבסס את נכונות המכניקה הסטטיסטית על רעיונות מתורת האינפורמציה, במקום על משוואות תנועה והנחת הארגודיות[9]. ג'יינס הציע שהנחת היסוד הפיזיקלית בבניית תיאוריה צריכה להיות בלתי מוטה, כלומר לא להניח שום דבר אפריורי, ובמילים אחרות נרצה תיאוריה שבה אי-הודאות שלנו היא הגבוהה ביותר האפשרית. תורת האינפורמציה מלמדת אותנו שהגודל שמודד את אי הודאות הוא האנטרופיה, . מכיוון שזהו גם הביטוי המתמטי לאנטרופיה במכניקה סטטיסטית, נוכל לייחס לאנטרופיה הפיזיקלית את אותן תכונות מתמטיות המאפיינות אי ודאות.

בהתחשב בכך, ג'יינס הציע שכדי להסיק מסקנות על סמך מידע חלקי (במעבדה, מודדים גודל מאקרוסקופי שאינו מתאר את המצב המיקרוסקופי של המערכת בצורה מלאה) ומבלי להניח הנחות נוספות, נרצה לבחור את התיאור של המערכת שבו אי הודאות לגבי המערכת גדול ביותר, או האנטרופיה היא מקסימלית. כל בחירה אחרת של האנטרופיה של המערכת מניחה ידע נוסף לגביה, דבר שאינו אפשרי לפי ההנחות שג'יינס הציע. אם כך, ניתן להבין את עקרון האנטרופיה המקסימלית כהרחבה של עקרון האדישות.

ג'יינס כותב שמכאן ניתן להסיק ש"אין בחוקי התנועה הכלליים דבר שמספק לנו אינפורמציה נוספת לגבי המצב של המערכת מעבר למה שהשגנו באמצעות מדידה", כאשר הוא מתייחס למצב של המערכת בזמן מסוים (ולא לניבוי של מצב המערכת העתידי, שכן דורש שימוש במשוואות התנועה). כלומר, ניתן להגיע למסקנות שאליהן מגיעה המכניקה הסטטיסטית מבלי להניח שום הנחה פיזיקלית.

ביקורות[עריכת קוד מקור | עריכה]

ביקורת על גישתם של ברילואן וג'יינס היא שההתייחסות לאנטרופיה כאל אינפורמציה חסרה הופכת את האנטרופיה למושג סובייקטיבי, בעוד שפועל מדובר בתכונה אובייקטיבית של מערכות פיזיקליות[10]. בחלק הבא מתוארת פרשנות אובייקטיבית לקשר בין אנטרופיה לאינפורמציה.

אנטרופיה וסיבוכיות קולמוגורוב[עריכת קוד מקור | עריכה]

אנטרופיה במכניקה סטטיסטית היא מושג סטטיסטי, שמתייחס לצבר ולא לאירועים (מצבי המיקרו השונים) מהם הוא מורכב. האנטרופיה של התפלגות מוגדרת ואין תכונה מיקרוסקופית פיזיקלית של המערכת שניתן לבטא את האנטרופיה כממוצע שלה , בשונה מגדלים תרמודינמיים אחרים (לדוגמא, הטמפרטורה היא ממוצע של האנרגיה הקינטית של החלקיקים המרכיבים את המערכת). הפיזיקאי צ'ראלס בנט הראה שממוצע של סיבוכיות קולמוגורוב של מצבי המיקרו של המערכת הוא קירוב טוב לאנטרופיה (המקרוסקופית) של המערכת עבור רוב ההתפלגויות [11].

סיבוכיות קולמוגורוב (או "אנטרופיה אלגוריתמית") של מחרוזת היא אורך התוכנה הקצרה ביותר שיכולה ליצר אותה כפלט (בנט משתמש בהגדרות של לאוניד לוין וגרגורי צ'ייטין לאנטרופיה אלגוריתמית, אולם לא נתמקד כאן בהבדלים בין ההגדרות). בהקשר הפיזיקלי, מדובר במספר הביטים המינימאלי שנדרש על מנת לתאר את מצב המיקרו , וכאמור עבור מערכת פיזיקלית, אינו תכונה פיזיקלית ברורה של מצב המיקרו.

החסם שבנט מצא לקשר בין אנטרופיה לסיבוכיות קולמוגורוב הוא

כאשר היא האנטרופיה המאקרוסקופית של המערכת ביחידות בינאריות, שמתארת עד כמה ההתפלגות מחולקת על פני מצבי מיקרו שונים, היא כאמור סיבוכיות קולמוגורוב של מצב מיקרוסקופי , ו- היא סיבוכיות קולמוגורוב של ההתפלגות , כלומר כמות הביטים שנדרשים על מנת לתאר את ההתפלגות (בדיוק גדול כרצוננו, במידה וקיימים מצבים עבורם לא רציונאלי). עבור מערכות טיפוסיות, הוא מסדר גודל של כמה אלפי ביטים, שכן הוא נקבע על פי משוואות תנועה, תנאי השפה וכן הלאה (כאשר לרוב פיזיקאים מנסים לתאר את הטבע באמצעות מודלים פשוטים יחסית, ולכן גם התיאור של המודל יהיה פשוט יחסית ביחס למורכבות האמיתית המערכת). לעומת זאת, האנטרופיה של מערכת מאקרוסקופית היא מסדר גודל של ביטים (מסדר גודל של קבוע אבוגדרו), ולכן השגיאה היחסית שמתקבלת מחישוב האנטרופיה לפי האנטרופיה האלגוריתמית היא לרוב קטנה.

דוגמא[עריכת קוד מקור | עריכה]

עבור גז אידאלי חד-אטומי, עם N אטומים במסה m הנמצא בנפח V, האנטרופיה נתונה על ידי משוואת סאקר-טטרוד, . עבור מול הליום () בטמפרטורה 300 קלווין ובנפח ליטר, האנטרופיה היא בערך . לפי הפרשנות שהאנטרופיה היא הממוצע של האנטרופיה האלגוריתמית של המערכת (עד כדי קבוע בולצמן), מספר הביטים הנדרש לתיאור המערכת הוא ביטים, שהם כ-17 ביטים לאטום.[10]

סיבוכיות קולמוגורוב של גז בולצמן[עריכת קוד מקור | עריכה]

כפי שראינו לעיל, בנט הציע להשתמש בממוצע של סיבוכיות קולמוגורוב של המערכת כקירוב טוב לאנטרופיה שלה כפי שהיא מוגדרת במכניקה הסטטיסטית. וויצ'ך זורק פיתח רעיון זה, והראה שניתן להגיע מתוך שיקולים אלגוריתמיים לתוצאות פיזיקליות[12].


נתבונן שוב בגז האידאלי מהדוגמא. ניתן לתאר את הגז על ידי המיקום והתנע שלו (באופן כללי, ב-D מימדים). התיאור של מיקום כל חלקיק נעשה ברזולוציה כלשהי , ועבור רזולוציה זו ניתן לחלק את הנפח V לתאים בנפח . בדומה, התנע מתואר גם הוא ברזולוציה בכל מימד. ישנם תאים במרחב הפאזה של כל חלקיק, ולכן עבור N חלקיקים בלתי מובחנים ישנן אפשרויות לתיאור המערכת, ונוכל לתאר את הקונפיגורציות השונות באמצעות אינדקסים בעלי ערך אופייני מסדר גודל , כך שאורך התיאור הממוצע של המערכת בביטים הוא

וזוהי למעשה משוואת סאקר-טטרוד, שהתקבלה ישירות משיקולים של אורך התיאור של המערכת (כאשר הפיתוח המדויק של איבר השגיאה מפורט במאמר[12]).

הגדרה חדשה לאנטרופיה[עריכת קוד מקור | עריכה]

זורק מציע להגדיר מחדש את האנטרופיה בפיזיקה כסכום של האינפורמציה החסרה לגבי המערכת (אנטרופיית שאנון, H) ושל התיאור המדויק הקצר ביותר של מה שידוע על המערכת (סיבוכיות קולמוגורוב שלה, K), . הוא מכנה גודל זה "אנטרופיה פיזיקלית".

ניתוח השד של מקסוול לאור ההגדרה של זורק[עריכת קוד מקור | עריכה]

עמוד ראשי
ראו גם – השד של מקסוול

הניתוח של זורק דן במנוע סילארד, בו השד שולט במיכל עם גז של חלקיק יחיד הנמצא באחד משני צדדי מחיצה. לשד יש זיכרון של ביט אחד, ועל ידי מדידה הוא יכול לבדוק באיזה צד החלקיק נמצא ולנצל זאת להפקת אנרגיה. אנו מניחים שהמצב של הזכרון של השד מייצג את היד או חוסר הידע של השד לגבי המערכת. סך העבודה שמתבצעת מתחלקת לשני סוגים: היא העבודה הזמינה כתוצאה מהשינוי באנטרופיית גיבס\שאנון של המערכת ו- היא העבודה שמתבצעת על הזכרון של השד. העבודה הכוללת היא סכום העבודות הללו,

מכאן שה"אנטרופיה הפיזיקלית" מתארת נאמנה את המערכת במלואה, כולל זכרונו של השד.

שמירה ומחיקה של אינפורמציה[עריכת קוד מקור | עריכה]

כמות האינפורמציה שמערכת פיזיקלית יכולה לשמור קשורה במספר המצבים הפיזיקליים המובחנים הזמינים שלה[13]. באופן כללי, מערכת עם מצבים מובחנים יכולה לשמור ביטים. מכיוון שמספר המצבים הזמינים למערכת מגדיר גם את האנטרופיה של המערכת, , כמות האינפורמציה שהמערכת יכולה לרשום היא , כאשר האנטרופיה התרמודינמית של מערכת שערך התצפית של האנרגיה שלה הוא .

עקרון לנדאור[עריכת קוד מקור | עריכה]

במאמר[14] מ-1961, רולף לנדאור דן בכך שעיבוד אינפורמציה (שינויים מסוימים המבוצעים על זיכרון פיזי כללי) כרוך בפליטת חום מינימאלית, בלי תלות בקצב השינוי או המדיום הפיזי שבו האינפורמציה נשמרת. לנדאור קושר בין הפיכות לוגית להפיכות תרמודינמית, וטוען שביצוע פעולה לוגית בלתי הפיכה (כמו פעולת AND) גורר שינוי בלתי הפיך במצב הפיזיקלי של הזכרון, דבר שגורם לפיזור חום מהמערכת. הוא מנתח את הפעולה SET TO 1, שמשנה את ערכו של ביט בזיכרון ל-1, בלי תלות בערכו המקורי. כפי שצוין, זיכרון המחשב תואם מצב פיזיקלי מובחן כלשהו, ופעולה זו מקטינה פי 2 את מספר המצבים הזמינים למערכת (ערכו של הביט ידוע לאחר ביצוע הפעולה, כך שכל המצבים של הזיכרון שבהם הביט הוא 0 אינם זמינים יותר). מכאן שהאנטרופיה של הזיכרון קטנה ב-. מכיוון שהאנטרופיה של המערכת כולה אינה יכולה לקטון, היא צריכה לעבור למקום אחר בצורת חום בשיעור לפחות (כאשר הטמפרטורה של המערכת). יש לציין שביצוע של פעולה הפיכה, כמו NOT, אינו משפיע על האנטרופיה של המערכת, שכן על אף שהוא משנה את המצב הפיזי של המערכת, הוא לא מקטין את מספר המצבים הזמינים בה.

עקרון זה אושש בניסוי[15] שמדד את החום שנפלט ממחיקה שבוצעה על זכרון של ביט יחיד.

לקריאה נוספת[עריכת קוד מקור | עריכה]

  • Machta, J. "Entropy, information, and computation." American Journal of Physics 67.12 (1999): 1074-1077.‏
  • Lutz, Eric, and Sergio Ciliberto. "From Maxwells demon to Landauers eraser." Phys. Today 68.9 (2015): 30.‏
  • Landauer, Rolf. "Information is physical." Physics Today 44.5 (1991): 23-29.‏
  • Parrondo, Juan MR, Jordan M. Horowitz, and Takahiro Sagawa. "Thermodynamics of information." Nature physics 11.2 (2015): 131-139.‏

הערות שוליים[עריכת קוד מקור | עריכה]

  1. ^ 1 2 L. Brillouin, Maxwell's Demon Cannot Operate: Information and Entropy. I, Journal of Applied Physics 22, 1951-03, עמ' 334–337 doi: 10.1063/1.1699951
  2. ^ L. Brillouin, Physical Entropy and Information. II, Journal of Applied Physics 22, 1951-03, עמ' 338–343 doi: 10.1063/1.1699952
  3. ^ F. Alexander Bais, J. Doyne Farmer, Philosophy of Information, Elsevier, 2008, עמ' 609–683, ISBN 978-0-444-51726-5
  4. ^ Wojciech H. Zurek, Complexity, Entropy And The Physics Of Information, 2018-03-08 doi: 10.1201/9780429502880
  5. ^ Schrödinger, Erwin., 6, What is life? the physical aspect of the living cell with Mind and matter & Autobiographical sketches, Cambridge University Press, 1992
  6. ^ L. Brillouin, The Negentropy Principle of Information, Journal of Applied Physics 24, 1953-09, עמ' 1152–1163 doi: 10.1063/1.1721463
  7. ^ 1 2 Brillouin, Léon, 1889-1969., 12,14, Science and information theory. Léon Brillouin, ..., Academic Press, 1956
  8. ^ Rolf Landauer, The physical nature of information, Physics Letters A 217, 1996-07, עמ' 188–193 doi: 10.1016/0375-9601(96)00453-7
  9. ^ E. T. Jaynes, Information Theory and Statistical Mechanics, Physical Review 106, 1957-05-15, עמ' 620–630 doi: 10.1103/physrev.106.620
  10. ^ 1 2 J. Machta, Entropy, information, and computation, American Journal of Physics 67, 1999-12, עמ' 1074–1077 doi: 10.1119/1.19085
  11. ^ Charles H. Bennett, The thermodynamics of computation—a review, International Journal of Theoretical Physics 21, 1982-12, עמ' 905–940 doi: 10.1007/bf02084158
  12. ^ 1 2 W. H. Zurek, Algorithmic randomness and physical entropy, Physical Review A 40, 1989-10-01, עמ' 4731–4751 doi: 10.1103/physreva.40.4731
  13. ^ Seth Lloyd, Ultimate physical limits to computation, Nature 406, 2000-08, עמ' 1047–1054 doi: 10.1038/35023282
  14. ^ R. Landauer, Irreversibility and Heat Generation in the Computing Process, IBM Journal of Research and Development 5, 1961-07, עמ' 183–191 doi: 10.1147/rd.53.0183
  15. ^ Antoine Bérut, Artak Arakelyan, Artyom Petrosyan, Sergio Ciliberto, Experimental verification of Landauer’s principle linking information and thermodynamics, Nature 483, 2012-03, עמ' 187–189 doi: 10.1038/nature10872