(C) סיון טל 1 גילוי מידע וזיהוי תבניות תרגול מס. 7 מודל הערבוב אלגוריתם EM בעיית תדירות - 0 בשערוך ML שיטות לפתרון בעיית תדירות - 0.

Slides:



Advertisements
Similar presentations
Completeness and Expressiveness. תזכורת למערכת ההוכחה של לוגיקה מסדר ראשון : אקסיומות 1. ) ) (( 2. )) ) (( )) ( ) ((( 3. ))) F( F( ( 4. ) v) ( ) v ((
Advertisements

ממיבחניםC שאלות ++.
מבוא למדעי המחשב לתעשייה וניהול
1 Formal Specifications for Complex Systems (236368) Tutorial #4 Refinement in Z: data refinement; operations refinement; their combinations.
Number Theory and Algebra Advisor …………… Dr. Shpilka Amir Presented by …… Cohen Gil..………
שיעור 6# Bayesian networks
Presentation by Dudu Yanay and Elior Malul 1.  מה משותף לכל אלגוריתם המשתמש ב -Bucket Elimination: ◦ נתון מודל הסתברותי ורשת ביסיאנית מתאימה. ◦ נתונה.
מתמטיקה בדידה תרגול 3.
רקורסיות נושאי השיעור פתרון משוואות רקורסיביות שיטת ההצבה
מסדי נתונים תשס " ג 1 תכנון סכמות (Design Theory) מסדי נתונים.
Inverse kinematics (Craig ch.4) ב"ה. Pieper’s solution נתבונן ברובוט עם 6 מפרקי סיבוב כאשר שלושת הצירים של המפרקים האחרונים נחתכים. נקודת החיתוך נתונה.
חורף - תשס " ג DBMS, Design1 שימור תלויות אינטואיציה : כל תלות פונקציונלית שהתקיימה בסכמה המקורית מתקיימת גם בסכמה המפורקת. מטרה : כאשר מעדכנים.
תרגול 5 רקורסיות. רקורסיה קריאה של פונקציה לעצמה –באופן ישיר או באופן עקיף היתרון : תכנות של דברים מסובכים נעשה ברור ונוח יותר, מכיוון שזו למעשה צורת.
שאלות חזרה לבחינה. שאלה דיסקים אופטיים מסוג WORM (write-once-read-many) משמשים חברות לצורך איחסון כמויות גדולות של מידע באופן קבוע ומבלי שניתן לשנותו.
רקורסיות נושאי השיעור מהן רקורסיות פתרון רקורסיות : שיטת ההצבה שיטת איטרציות שיטת המסטר 14 יוני יוני יוני 1514 יוני יוני יוני 1514.
אוטומט מחסנית הפקולטה למדעי המחשב אוטומטים ושפות פורמליות ( ) תרגיל מספר 11.
מבוא למדעי המחשב תרגול 8 - מחרוזות שעת קבלה : יום שני 11:00-12:00 דוא " ל :
מבוא להנדסת חשמל מעגל מסדר שני.
חורף - תשס " ג DBMS, צורות נורמליות 1 צורה נורמלית שלישית - 3NF הגדרה : תהי R סכמה רלציונית ותהי F קבוצת תלויות פונקציונליות מעל R. R היא ב -3NF.
Map-Reduce Input: a collection of scientific articles on different topics, each marked with a field of science –Mathematics, Computer Science, Biology,
Robust Characterization of Polynomials 1 Robust Characterization of polynomials “IT DOES NOT MAKE SENCE!” מרצים : אורי גרסטן יניב עזריה Ronitt Rubinfeld.
1 Formal Specifications for Complex Systems (236368) Tutorial #5 Refinement in Z: data refinement; operations refinement; their combinations.
בהסתברות לפחות למצא בעיה במודל PAC עבור בהסתברות ε הפונקציה f טועה מודל ONLINE 1. אחרי כל טעות הפונקציה משתפרת 2. מספר הטעיות קטן.
(C) סיון טל גילוי מידע וזיהוי תבניות תרגול מס. 4 חזרה על בעיית השערוך, שיטות פרמטריות. שיטת MAP ( בייסיאנית ) לשערוך פרמטרים. שיטת הנראות המירבית. השיטה.
מסדי נתונים תשס " ג 1 תכנון סכמות – אלגוריתם פירוק לתבניות בצורת BCNF מסדי נתונים.
עיבוד תמונות ואותות במחשב אלכסנדר ברנגולץ דואר אלקטרוני : שיטות קידוד שיטות קידוד אורך מלת קוד ואנטרופיה אורך מלת קוד ואנטרופיה קידוד.
א " ב, מילים, ושפות הפקולטה למדעי המחשב אוטומטים ושפות פורמליות ( ) תרגיל מספר 1.
א " ב, מילים, ושפות הפקולטה למדעי המחשב אוטומטים ושפות פורמליות ( ) תרגיל מספר 1.
Formal Specifications for Complex Systems (236368) Tutorial #6 appendix Statecharts vs. Raphsody 7 (theory vs. practice)
Faster reliable phylogenetic analysis Article by: Vincent Berry & David Bryant Presented by: Leonid Shuman & Eva Frant.
1 חישוב ואופטימיזציה של שאילתות חלק 2 Query Evaluation and Optimization Part 2.
מודל ONLINE לומדמורה 1. כל ניתן לחישוב בזמן פולינומיאלי 2. אחרי מספר פולינומיאלי של טעיות ( ) הלומד לא טועה ז"א שווה ל- Littlestone 1988.
א " ב, מילים, ושפות הפקולטה למדעי המחשב אוטומטים ושפות פורמליות ( ) תרגיל מספר 1.
השוואה בין מערכות למסדי נתונים בשקפים אלו נשווה בין מסד הנתונים של רכבת ישראל למסד של רכבת גרמניה. בהרבה מקרים, המסד של מערכת הרכבות הישראלית לא יכול למצוא.
ערכים עצמיים בשיטות נומריות. משוואה אופינית X מציין וקטור עצמי מציינת ערך עצמי תואם לוקטור.
הפקולטה למדעי המחשב אוטומטים ושפות פורמליות (236353)
The Cyclic Multi-peg Tower of Hanoi מעגלי חד-כווני סבוכיות הפתרון בגרסאות עם יותר מ-3 עמודים.
Data Structures, CS, TAU, Perfect Hashing 1 Perfect Hashing בעיה : נתונה קבוצה S של n מפתחות מתחום U השוואה ל - Hash : * טבלה קבועה (Hash רגיל - דינאמי.
Remember Remember The 5 th of November. תרגול 2 קובץ סדרתי.
אלכסנדר ברנגולץ דואר אלקטרוני: אלכסנדר ברנגולץ דואר אלקטרוני: פעולות מורפולוגיות.
1 Data Structures, CS, TAU, Perfect Hashing בעיה: נתונה קבוצה S של n מפתחות מתחום U השוואה ל- Hash : * טבלה קבועה (Hash רגיל - דינאמי) * רוצים זמן קבוע.
תוחלת ושונות בהתפלגויות אחרות התפלגות בינומית : X~B(n,p) E(X)=np, σ 2 (x)=np(1-p) התפלגות היפרגיאומטרית : X~H(N,n,M) E(X)=n*M/N, σ 2 (x)=n*M/N(1-M/N)[(N-n)/N-1)]
רגרסיה קו רגרסיה הוא קו תיאורטי המאפשר לנו לבחון את השפעתו של משתנה מנבא אחד (או יותר) על המשתנה התלוי: במילים אחרות, מודל רגרסיה עוזר לנו לנבא על פי משתנה.
מודל הלמידה מדוגמאות Learning from Examples קלט: אוסף של דוגמאות פלט: קונסיסטנטי עם פונקציה f ב- C ז"א קונסיסטנטי עם S ז"א מודל הלמידה מדוגמאות Learning.
עקרון ההכלה וההדחה.
יחס סדר חלקי.
תכנות מונחה עצמים Object Oriented Programming (OOP) אתגר מחזור ב' Templates תבניות.
תחשיב היחסים (הפרדיקטים)
Markov Decision Processes (MDP) תומר באום Based on ch. 14 in “Probabilistic Robotics” By Thrun et al. ב"הב"ה.
מודל הלמידה מדוגמאות Learning from Examples קלט: אוסף של דוגמאות פלט: קונסיסטנטי עם פונקציה f ב- C ז"א קונסיסטנטי עם S ז"א.
מתמטיקה בדידה תרגול 2.
1 מבוא למדעי המחשב סיבוכיות. 2 סיבוכיות - מוטיבציה סידרת פיבונאצ'י: long fibonacci (int n) { if (n == 1 || n == 2) return 1; else return (fibonacci(n-1)
(C) סיון טל גילוי מידע וזיהוי תבניות תרגול מס. 9 גילוי מידע וזיהוי תבניות תרגול מס. 9 דחיסת נתונים מהו קידוד תכונות של קידודים אי - שוויון קרפט.
(C) סיון טל 1 גילוי מידע וזיהוי תבניות תרגול מס. 5 Principal Component Analysis חזרה על שיטות שערוך לא פרמטריות.
1 גילוי מידע וזיהוי תבניות תרגול מס. 3 התפלגות נורמלית רב - מימדית Kullback-Leibler Divergence - משפט קמירות - נגזרת שנייה משפט Log sum inequality משפט.
דיפרנציאציה ואינטגרציה נומרית
Presentation by Gil Perry Supervised by Amos Fiat 1.
פיתוח מערכות מידע Class diagrams Aggregation, Composition and Generalization.
1 Formal Specifications for Complex Systems (236368) Tutorial #1 Course site:
Formal Specifications for Complex Systems (236368) Tutorial #1
מבוא למדעי המחשב סיבוכיות.
שימוש בשיטה א-פרמטרית להשוואת תוחלות של שתי אוכלוסיות.
מודל הרגרסיה הלוגיסטית.
השוואת נתונים למודל הסתברותי - כללית
ממשקים - interfaces איך לאפשר "הורשה מרובה".
בדיקת השערות על השוואת שני סטטיסטים
למה רמת פרמי צריכה להיות קבועה בחומר שנמצא בשווי משקל?
תזכורת על מה דיברנו שיעור שעבר? בנינו אתר אינטרנט עם כותרות
תוכנה 1 תרגול 13 – סיכום.
NG Interpolation: Divided Differences
Presentation transcript:

(C) סיון טל 1 גילוי מידע וזיהוי תבניות תרגול מס. 7 מודל הערבוב אלגוריתם EM בעיית תדירות - 0 בשערוך ML שיטות לפתרון בעיית תדירות - 0

2 מודל ערבוב Mixture model מניחים כי המודל בנוי מתערובת של מודלים שונים, שלכל אחד מהם פרמטרים חבויים. אנחנו רואים רק את הנתונים, ולא רואים את הערבוב ( כלומר, לא מבחינים בין המקורות השונים של הנתונים ). מדובר בלמידה לא מונחית (unsupervised learning) שבה הדוגמאות לא מתויגות, ואנחנו מוצאים לבד את התיוג.

3 אלגוריתם EM רוצים לשערך קבוצת פרמטרים המתארים את המודל, בהינתן קבוצת נתונים נצפים. הבעיה : יש נתונים חבויים. נסמן : - קבוצת הנתונים הנצפים - קבוצת הנתונים החבויים - קבוצת הנתונים המלאה. הנתונים החבויים ( כמו גם הנצפים ) תלויים ב -. מטרת האלגוריתם : מציאת משערך נראות מירבית ל - :

4 נסתמך על השוויון : שממנו נובע : ניקח תוחלת לפי עבור כלשהו : ( אגף שמאל לא משתנה.) המטרה היא למקסם את הביטוי (maximum likelihood).

5 האלגוריתם : בהרצאה הוכח כי אנו מקבלים פונקציה מונוטונית עולה :

6 דוגמה לשימוש ב -EM נניח כי מקבלים תצפיות שבאות משתי התפלגויות נורמליות (k=2) אשר רק הממוצעים שלהן לא ידועים. ידועות גם ההתפלגויות הא - פריוריות המטרה : לחשב את אשר מתאר את הממוצעים בהתאמה מקסימלית לנתונים (ML). הנתונים הנראים : הנתונים החבויים :

7 הנתונים המלאים : תזכורת : כעת נחשב את שלב ה -E באלגוריתם :

8 ועבור כל אוסף הנתונים המלא : מחושב לפי המשערך הנוכחי והתצפיות הנתונות, כפי שנראה להלן.

9 נשים לב שבחישוב נעבוד עם בעוד ש - שייך ל -.

10 כעת נבצע את שלב ה -M: כזכור : כאשר נלקח ביחס ל -. כדי למצוא את המינימום, נגזור את הביטוי לפי, נשווה לאפס ונקבל : הוא התוחלת של המדגם, ממושקלת לפי ההסתברות ש - בא ממודל.

11 בעיית תדירות - 0 בשערוך ML בתרגיל הבית נתקלנו בבעיה : מה עושים אם נתקלים בתו שלא הופיע בקובץ האימון ? כאשר הא ” ב מכיל כמה עשרות תווים וקבוצת האימון מכילה עשרות אלפי תווים, הבעיה קלה יחסית. מה יקרה אם נרצה לשערך הסתברויות של n- יות ? של מלים ?? של n- יות של מלים ??? כאשר הא ” ב גדל באופן דרסטי כמו בשפות טבעיות, אין לנו משאבים שיוכלו לנטרל את בעיית תדירות - 0.

12 לצורך הדיון נתרכז מכאן והלאה בסיווג טקסט ע ” י שערוך נראות מירבית של n- יות של מלים. בעיבוד שפות טבעיות ( למשל ) יש מגמה להגדיל את n כדי לשמר הקשר. לדוגמה : נסתכל על המשפט “ ___ Sue swallowed the large green” המלים pill ו -frog הן המשכים סבירים, אך tree ו -car אינן, אם - כי הן סבירות אם נתחשב רק בשלשות של מלים. מצד שני, עם אוצר מלים של M מלים, שימוש ב n- יות יוצר מרחב מדגם בגודל - כלומר, מרחב המדגם גדל אקספוננציאלית ב -n. מרחב מדגם גדול יוצר בעיה של תדירות -0.

13 דוגמה : אחרי מעבר על 1.5 מליון מלים מתוך IBM Laser Patent Text, 23% מהשלשות של מלים בהמשך הטקסט הופיעו בפעם הראשונה. (Bahl 1983) המסקנה : לא ניתן להניח כי בעיית תדירות -0 ניתנת לפתרון מעשי ע ” י הגדלה של קובץ האימון עד לגודל הנדרש. נראה שיטות שונות לפתרון הבעיה. השיטות נותנות נראות > 0 לאירועים שלא נצפו בקבוצת האימון, על חשבון הנראות של אירועים נצפים. נזכור כי סה ” כ הנראות של כל האירועים במרחב המדגם צריך להסתכם ל -1.

14 משערך ML מוגדר באופן הבא : הגדרות :

15 כלל ההמשכיות של לפלס Laplace law of succession לפי חוק לפלס, גם לאירועים שטרם נצפו יש נראות > 0 למעשה, חוק לפלס (1775) הוא בדיוק המשערך הבייסיאני, תחת הנחת הסתברות א - פריורית שווה לכל האירועים. בדוגמת “ ההסתברות שהשמש תזרח מחר ” מההרצאה :

16 החסרון של שיטת לפלס השיטה תלויה בגודל מרחב המדגם (k). כאשר מרחב המדגם גדול ביחס לגודל המדגם, הנוסחה נותנת יותר מידי נראות לאירועים שלא נצפו. דוגמה : בעבודה של Church & Gale מ נלקח סט של 44 מליון מלים מתוך Associated Press newswire שהכיל 400,653 מלים שונות. הם עבדו עם זוגות של מלים, ולכן היה להם מרחב מדגם בגודל מלים. חצי מהטקסט שימש כקבוצת האימון. בחישוב לפי נוסחת לפלס, 46.5% (!) ממרחב הנראות ניתן לאירועים שלא נצפו בקבוצת האימון. הטבלה הבאה ממחישה את התוצאות...

17 כדי לקבל את ההסתברות - צריך לחלק את ב -

18 כל אירוע שלא נצפה קיבל הסתברות קטנה מאוד, אבל מכיוון שהיו כל - כך הרבה כאלה - הם תפסו 46.5 % מסה ” כ הנראות ! חישוב מהיר מראה שההסתברות שהנוסחה נותנת לאירוע שלא נצפה היא קטנה באופן “ אסטרונומי ” … אז למה אירועים בלתי נצפים תופסים 46.5% מהנראות הכוללת ?