אנטרופיה (סטטיסטיקה)
בסטטיסטיקה ובתחומים נוספים, ובעיקר בתורת האינפורמציה, אנטרופיה (באנגלית: Entropy) היא מדד לגודלו האפקטיבי של מרחב הסתברות. האנטרופיה של התפלגות אחידה בדידה על n מצבים היא . את מושג האנטרופיה המתמטית פיתח אבי תורת האינפורמציה קלוד שאנון ב־1948[1].
לדוגמה, הטלת מטבע מחזירה אחת מבין שתי אפשרויות, והטלת קובייה מחזירה אחת מבין שש אפשרויות. ברור שאת התוצאה של הטלת הקוביה קשה יותר לחזות מאשר את זו של המטבע. חיבור התוצאות של שתי קוביות מחזיר אחת מבין 11 אפשרויות, שבהן 7 היא השכיחה ביותר, ואילו 2 או 12 נדירות ביחס. כאן לא די לומר שגודל מרחב ההסתברות הוא 11 – ההסתברויות אינן אחידות, ולכן לא ניתן במבט ראשון לקבוע האם תוצאת החיבור קשה יותר לחיזוי מאשר, נאמר, בחירה של ספרה אקראית בין 1 ל־9 (בהתפלגות אחידה בדידה). הצורך להשוות באופן מדויק בין מרחבי התפלגות שונים קיים בכל תחומי המדע, ומדידת האנטרופיה באופן שיוצג להלן שכיחה בפיזיקה, בתורת האינפורמציה בביולוגיה (שם היא נקראת מדד שאנון-ויבר) ובתחומים נוספים.
הגדרה ואקסיומטיקה
[עריכת קוד מקור | עריכה]אם X הוא מרחב הסתברות סופי, עם ההסתברויות הבאות המייצגות את המאורעות השונים במרחב, אזי האנטרופיה שלו מוגדרת לפי הנוסחה זהו ערך אי-שלילי, המקיים , עם שוויון רק כאשר ההסתברויות שוות כולן זו לזו. במובן זה, האנטרופיה מייצגת את הלוגריתם של גודל המרחב, ולא את הגודל עצמו. על־פי אותה נוסחה בדיוק אפשר לחשב את האנטרופיה של משתנה מקרי (המקבל מספר סופי של ערכים). בשני המקרים, האנטרופיה אינה מתחשבת בטיבם של המאורעות השונים במרחב, אלא בהסתברות שהם יתרחשו.
בנוסחת האנטרופיה לעיל, אם אחת או יותר מההסתברויות היא אפס, כלומר אז הערך של האיבר המתאים בסכום הוא מהצורה שמחושב בסכום כאפס, בהתאמה לגבול
את "מספר האפשרויות" שמייצג X אפשר למדוד בדרכים נוספות, כגון ספירת מצבים נאיבית (n, במקרה שלנו), ממוצע הרמוני של ההסתברויות (), ועוד.
ניתן להסתכל על מזווית קצת שונה. אם אנו מסתכלים על מספר מאורעות בלתי תלויים וזרים מתקיים השוויון
וכאשר ממשקלים את ההסתברות בערך המאורעות עצמם מתקבלת התוחלת של המשתנה המקרי
מנקודת מבט זו ניתן לראות את התוחלת על משתנה מקרי i.i.d כמדד כללי שמייחס להסתברות שאחד מהמאורעות יקרה.
לעומת זאת אנטרופיה היא מדד להסתברות שכל המאורעות יקרו ביחד וזאת בשל העובדה שפונקציית הלוגריתם הופכת כפל לסכום.
שזהו למעשה ממוצע הנדסי משוקלל על ההסתברות.
הסיבה לכך שמדד האנטרופיה נחשב למדד המתאים בהקשרים רבים כל־כך קשורה לכמה תכונות יסודיות שהוא מקיים.
כדי שניתן יהיה להסביר תכונות אלה, עלינו להזכיר מושג יסודי אחר בסטטיסטיקה: התפלגות מותנית. אם X ו־Y שני משתנים מקריים, אז עבור כל ערך אפשרי y של Y, אפשר לבנות משתנה מקרי חדש , "המשתנה המותנה", המייצג את הערכים שיכול לקבל X אם ידוע ש־Y קיבל את הערך y. כאשר הערך של Y אינו ידוע, מסמנים את המשתנה המותנה בסימון ; זהו, אם כך, משתנה מקרי, שהתפלגותו המדויקת תלויה בערך שיקבל Y.
פונקציית האנטרופיה H מקיימת את ארבע התכונות הבאות:
- אדיטיביות: אם X ו־Y שני משתנים מקריים בלתי תלויים, אז . במילים אחרות, האנטרופיה של מכפלה ישרה של מרחבי התפלגות שווה לסכום האנטרופיות של שני המרחבים.
- פיצול: אם X משתנה מקרי ו־Y פונקציה של X, אז , כאשר מייצג את התוחלת של במעבר על כל הערכים האפשריים של Y.
- רציפות: האנטרופיה של התפלגות ברנולי היא פונקציה רציפה של p.
- נורמליות: האנטרופיה של ההתפלגות האחידה על שני מצבים, היא 1.
משפט: פונקציית האנטרופיה H היא הפונקציה היחידה המקיימת את ארבע התכונות לעיל.
הוכחה: נניח ש-H היא פונקציה המוגדרת על משתנים מקריים, ומקיימת את תכונות האדיטיביות, הפיצול, הרציפות והנורמליות. ראשית נחשב את , שהוא הערך של H במשתנה ברנולי . יהיו משתני ברנולי בלתי תלויים. נסמן ב-Z את המשתנה המוגדר להיות 0 אם X=Y ו-1 אחרת. Z הוא פונקציה של הזוג הסדור (X,Y), ולפי אקסיומות הפיצול והאדיטיביות, . אבל Z עצמו מתפלג ברנולי, עם הסתברות 2pq להיות 1 (כאשר q=1-p). בהינתן Z=1, הזוג (X,Y) מקבל את הערכים (0,1) ו-(1,0) בהסתברויות שוות; ובהינתן Z=0 (מאורע שהסתברותו א-פריורי היא p^2+q^2), ההסתברות ל-(1,1) היא q^2/(p^2+q^2). אם כך, לפי ההגדרה, . לכן . זוהי משוואה פונקציונלית, שהפתרון היחיד שלה הוא , עד כדי קבוע; הנורמליות קובעת שהלוגריתם הוא בבסיס 2. עבור משתנה המקבל n ערכים, אפשר לחשב את H באינדוקציה, על ידי התניה בקבלת הערך האחרון: .
דוגמה
[עריכת קוד מקור | עריכה]נפתור את הדוגמה שבפתיח (מה יותר קשה לחיזוי – סכום הטלת שתי קוביות או התפלגות אחידה בין 9 תוצאות): למרחב אחיד בגודל 9 יש 9 תוצאות שלכל אחת מהן הסתברות , ולכן האנטרופיה היא , ואילו האנטרופיה של מרחב התוצאות האפשריות של סכום שתי קוביות היא
כלומר, מעט קשה יותר לחזות את התוצאה של סכום שתי קוביות מאשר את התוצאה של בחירה אקראית מתוך 9 אפשרויות.
שימושים
[עריכת קוד מקור | עריכה]לאנטרופיה של שאנון קשר הדוק ליכולת לדחוס אינפורמציה וליכולת ללמוד מהאינפורמציה באמצעות אלגוריתמים של למידת מכונה. מושגים נוספים הקשורים לאנטרופיה קשר הדוק הם אינפורמציה הדדית ואנטרופיה מותנית. לאנטרופיה יש גם קשר עמוק למושג סיבוכיות קולמוגורוב.
אנטרופיה של משתנה מקרי רציף
[עריכת קוד מקור | עריכה]- ערך מורחב – אנטרופיה דיפרנציאלית
האנטרופיה של שאנון מוגבלת למשתנים מקריים בדידים. עבור משתנה מקרי רציף X, בעל פונקציית צפיפות הסתברות ותומך , חסום או לא חסום על הישר הממשי, מגדירים את האנטרופיה הדיפרנציאלית באופן דומה
האנטרופיה הדיפרנציאלית חסרה מספר מאפיינים חשובים שיש לאנטרופיה של שאנון, ובפרט היא עשויה להיות שלילית. ולכן לעיתים משתמשים להתפלגויות רציפות בהכללות אחרות של האנטרופיה.
ראו גם
[עריכת קוד מקור | עריכה]מכניקה סטטיסטית | ||
---|---|---|
תאוריה | עקרון גידול האנטרופיה • ergodic theory | |
תרמודינמיקה סטטיסטית | צברים • פונקציית חלוקה • משוואות מצב • פוטנציאלים תרמודינמיים: (U • H • F • G) • קשרי מקסוול | |
מודל סטטיסטי | Ferromagnetism models (איזינג • פוטס • הייזנברג • חלחול EN) • חלקיקים בעלי שדה כוחות (כוחות דלדול EN • פוטנציאל לנארד-ג'ונס) | |
גישות מתמטיות | משוואת בולצמן • משפט־H • משוואת ולסוב • מדרג BBGKY • תהליך סטוכסטי • תורת שדה ממוצע ותורת השדות הקונפורמית | |
תופעות קריטיות | מעבר פאזה • אקספוננט קריטי (מרחק קורלציה • size scaling) | |
אנטרופיה | בולצמן • שאנון • צאליס • רניי • פון נוימן | |
יישומים | תורת השדות הסטטיסטית (חלקיקים יסודיים • נוזלי־על) • פיזיקה של חומר מעובה • מערכות מורכבות (כאוס • תורת האינפורמציה • אנטרופיה בתרמודינמיקה ובתורת האינפורמציה • מכונת בולצמן) |
קישורים חיצוניים
[עריכת קוד מקור | עריכה]- אנטרופיה (סטטיסטיקה), באתר אנציקלופדיה למתמטיקה (באנגלית)
- אנטרופיה, באתר MathWorld (באנגלית)
- אנטרופיה (תורת האינפורמציה), דף שער בספרייה הלאומית
הערות שוליים
[עריכת קוד מקור | עריכה]- ^ C.E. Shannon, "A Mathematical Theory of Communication", Bell System Technical Journal, vol. 27, pp. 379–423, 623–656, July, October, 1948