Boosting a Weak Learning Algorithm by Majority By : Yoav Freund.

Slides:



Advertisements
Similar presentations
Completeness and Expressiveness. תזכורת למערכת ההוכחה של לוגיקה מסדר ראשון : אקסיומות 1. ) ) (( 2. )) ) (( )) ( ) ((( 3. ))) F( F( ( 4. ) v) ( ) v ((
Advertisements

כריית מידע -- Clustering
1 Formal Specifications for Complex Systems (236368) Tutorial #4 Refinement in Z: data refinement; operations refinement; their combinations.
Number Theory and Algebra Advisor …………… Dr. Shpilka Amir Presented by …… Cohen Gil..………
מתמטיקה בדידה תרגול 3.
רקורסיות נושאי השיעור פתרון משוואות רקורסיביות שיטת ההצבה
מסדי נתונים תשס " ג 1 תכנון סכמות (Design Theory) מסדי נתונים.
חורף - תשס " ג DBMS, Design1 שימור תלויות אינטואיציה : כל תלות פונקציונלית שהתקיימה בסכמה המקורית מתקיימת גם בסכמה המפורקת. מטרה : כאשר מעדכנים.
אוטומט מחסנית הפקולטה למדעי המחשב אוטומטים ושפות פורמליות ( ) תרגיל מספר 11.
חורף - תשס " ג DBMS, צורות נורמליות 1 צורה נורמלית שלישית - 3NF הגדרה : תהי R סכמה רלציונית ותהי F קבוצת תלויות פונקציונליות מעל R. R היא ב -3NF.
היום נדבר אל נושא אחד בתורת הגרפים. ובהמשך נשתמש בכלים אלו לפתרון כמה בעיות גאומטריות ובפרט להוכחת Szemeredi Trotter theorem.
Robust Characterization of Polynomials 1 Robust Characterization of polynomials “IT DOES NOT MAKE SENCE!” מרצים : אורי גרסטן יניב עזריה Ronitt Rubinfeld.
1 Formal Specifications for Complex Systems (236368) Tutorial #5 Refinement in Z: data refinement; operations refinement; their combinations.
משפט ההרכבה Composition Theorem תהי C מחלקה של פונקציות בוליניות תהי נגדיר סדרת פונקציות שניתנות לחישוב בזמן פולינומיאלי.
בהסתברות לפחות למצא בעיה במודל PAC עבור בהסתברות ε הפונקציה f טועה מודל ONLINE 1. אחרי כל טעות הפונקציה משתפרת 2. מספר הטעיות קטן.
מסדי נתונים תשס " ג 1 תכנון סכמות – אלגוריתם פירוק לתבניות בצורת BCNF מסדי נתונים.
Point-Line incidences via Cuttings By Tatiana Kriviliov.
עיבוד תמונות ואותות במחשב אלכסנדר ברנגולץ דואר אלקטרוני : שיטות קידוד שיטות קידוד אורך מלת קוד ואנטרופיה אורך מלת קוד ואנטרופיה קידוד.
א " ב, מילים, ושפות הפקולטה למדעי המחשב אוטומטים ושפות פורמליות ( ) תרגיל מספר 1.
א " ב, מילים, ושפות הפקולטה למדעי המחשב אוטומטים ושפות פורמליות ( ) תרגיל מספר 1.
תורת הקבוצות חלק ב'. קבוצה בת מניה הגדרה: קבוצה אינסופית X היא ניתנת למניה אם יש התאמה חד-חד ערכית בין X לבין .
תכנות תרגול 6 שבוע : תרגיל שורש של מספר מחושב לפי הסדרה הבאה : root 0 = 1 root n = root n-1 + a / root n-1 2 כאשר האיבר ה n של הסדרה הוא קירוב.
Faster reliable phylogenetic analysis Article by: Vincent Berry & David Bryant Presented by: Leonid Shuman & Eva Frant.
1 Formal Specifications for Complex Systems (236368) Tutorial #1 Course site : T.A. :Emilia Katz.
מנפה שגיאות - DEBUGGER מבוא למדעי המחשב (234114) רועי מלמד
תחשיב הפסוקים חלק ג'. צורות נורמליות א. DF – Disjunctive Form – סכום של מכפלות. דוגמא: (P  ~Q  R)  (R  P)  (R  ~Q  ~P) הגדרה: נוסחה השקולה לנוסחה.
מערכות הפעלה ( אביב 2009) חגית עטיה ©1 מערכת קבצים log-structured  ה log הוא העותק היחיד של הנתונים  כאשר משנים בלוק (data, header) פשוט כותבים את הבלוק.
מודל ONLINE לומדמורה 1. כל ניתן לחישוב בזמן פולינומיאלי 2. אחרי מספר פולינומיאלי של טעיות ( ) הלומד לא טועה ז"א שווה ל- Littlestone 1988.
א " ב, מילים, ושפות הפקולטה למדעי המחשב אוטומטים ושפות פורמליות ( ) תרגיל מספר 1.
01/01/01 אמיר ווינשטוק עירן חוף שקופית מס ’ 1 מימוש ובדיקת אלגוריתם ללמידה ע"י חיזוקים עבור רובוט המשחק הוקי - אויר : מגישים עירן חוף אמיר ווינשטוק : מנחה.
ערכים עצמיים בשיטות נומריות. משוואה אופינית X מציין וקטור עצמי מציינת ערך עצמי תואם לוקטור.
שאלה 1 נתון כביש ישר עם תחנות דלק בנקודות , בנקודת המוצא נתונה מכונית עם תא דלק שמספיק ל-100 ק"מ. מחיר מילוי תא הדלק בתחנה.
Kalman Filter תומר באום Based on ch. 8 in “Principles of robot motion” By Choset et al. ב"הב"ה.
הפקולטה למדעי המחשב אוטומטים ושפות פורמליות (236353)
The Cyclic Multi-peg Tower of Hanoi מעגלי חד-כווני סבוכיות הפתרון בגרסאות עם יותר מ-3 עמודים.
Ray 7 דוגמא אלגוריתם 1.קבל דוגמאות 2. פלט f a עבור הדוגמה a המינימלית החיובית ?
תחשיב הפסוקים חלק ד'. תורת ההיסק של תחשיב הפסוקים.
Data Structures, CS, TAU, Perfect Hashing 1 Perfect Hashing בעיה : נתונה קבוצה S של n מפתחות מתחום U השוואה ל - Hash : * טבלה קבועה (Hash רגיל - דינאמי.
תכנות תרגול 5 שבוע : הגדרת פונקציות return-value-type function-name(parameter1, parameter2, …) הגדרת סוג הערכים שהפונקציה מחזירה שם הפונקציהרשימת.
אלכסנדר ברנגולץ דואר אלקטרוני: אלכסנדר ברנגולץ דואר אלקטרוני: פעולות מורפולוגיות.
1 Data Structures, CS, TAU, Perfect Hashing בעיה: נתונה קבוצה S של n מפתחות מתחום U השוואה ל- Hash : * טבלה קבועה (Hash רגיל - דינאמי) * רוצים זמן קבוע.
משטר דינמי – © Dima Elenbogen :14. הגדרת cd ו -pd cd - הזמן שעובר בין הרגע שראשון אותות הכניסה יוצא מתחום לוגי עד אשר אות המוצא יוצא מתחום.
תזכורת : אלגברה ליניארית מסקנה קלט : וקטורים פלט : האם u תלוי ליניארית ב קלט : מערכת של n משואות לינאריות ב -m נעלמים. פלט : פתרון, או שאין כזה. אלגוריתם.
מודל הלמידה מדוגמאות Learning from Examples קלט: אוסף של דוגמאות פלט: קונסיסטנטי עם פונקציה f ב- C ז"א קונסיסטנטי עם S ז"א מודל הלמידה מדוגמאות Learning.
עקרון ההכלה וההדחה.
יחס סדר חלקי.
תחשיב היחסים (הפרדיקטים)
מבוא למדעי המחשב, סמסטר א ', תשע " א תרגול מס ' 1 נושאים  הכרת הקורס  פסאודו - קוד / אלגוריתם 1.
Markov Decision Processes (MDP) תומר באום Based on ch. 14 in “Probabilistic Robotics” By Thrun et al. ב"הב"ה.
מודל הלמידה מדוגמאות Learning from Examples קלט: אוסף של דוגמאות פלט: קונסיסטנטי עם פונקציה f ב- C ז"א קונסיסטנטי עם S ז"א.
Particle Filter תומר באום ב"ה. מוטיבציה אנו רוצים להעריך מצב של מערכת (מיקום,מהירות טמפרטורה וכו') בעזרת מדידות שנעשות בזמנים שונים. ( כמו טווח לנקודות.
מתמטיקה בדידה תרגול 2.
1 מבוא למדעי המחשב סיבוכיות. 2 סיבוכיות - מוטיבציה סידרת פיבונאצ'י: long fibonacci (int n) { if (n == 1 || n == 2) return 1; else return (fibonacci(n-1)
Points on a perimeter (Convex Hull) קורס – מבוא לעבוד מקבילי מבצעים – אריאל פנדלר יאיר ברעם.
11 Introduction to Programming in C - Fall 2010 – Erez Sharvit, Amir Menczel 1 Introduction to Programming in C תרגול
1 גילוי מידע וזיהוי תבניות תרגול מס. 3 התפלגות נורמלית רב - מימדית Kullback-Leibler Divergence - משפט קמירות - נגזרת שנייה משפט Log sum inequality משפט.
(C) סיון טל 1 גילוי מידע וזיהוי תבניות תרגול מס. 7 מודל הערבוב אלגוריתם EM בעיית תדירות - 0 בשערוך ML שיטות לפתרון בעיית תדירות - 0.
- אמיר רובינשטיין מיונים - Sorting משפט : חסם תחתון על מיון ( המבוסס על השוואות בלבד ) של n מפתחות הינו Ω(nlogn) במקרה הגרוע ובממוצע. ניתן לפעמים.
Presentation by Gil Perry Supervised by Amos Fiat 1.
פיתוח מערכות מידע Class diagrams Aggregation, Composition and Generalization.
. Sequence Alignment Tutorial #3 © Ydo Wexler & Dan Geiger.
Tirgul 12 Trees 1.
מבוא למדעי המחשב סיבוכיות.
הפקולטה למדעי המחשב אוטומטים ושפות פורמליות (236353)
Marina Kogan Sadetsky –
תרגול 11 NP complete.
אלגוריתמי קרוב לבעיית Densest k-Subgraph
מבחן t למדגם יחיד.
Computer Programming תרגול 3 Summer 2016
Engineering Programming A
Presentation transcript:

Boosting a Weak Learning Algorithm by Majority By : Yoav Freund

מהלך השיעור :  הגדרת מושגים  מה זה Boosting?  תיאור משחק "הצבעת רוב " - Majority Vote Game  אלגוריתמי קירוב :  אלגוריתם Bsamp : Boosting by subsampling  אלגוריתם Bfilt : Boosting by filtering

הגדרות Instance Space X – קב' של אובייקטים מושג c – פונקציהc : X → {0,1} קבוצת מושגים C – קבוצה של מושגים c מעל X אורקל EX – פרוצדורה המחזירה מופע עם התווית שלו c(x). x נבחר מעל התפלגות לא ידועה D. הזוג ייקרא דוגמא. נניח כי סיבוכיות הזמן של EX הינה O(1)

מה זה Boosting? אלגוריתם Boosting הינו אלגוריתם למידה שמשתמש באלגוריתם למידה אחר כתת שגרה מטרת אלגוריתם ה-Boosting הינה יצירת היפותזה בעלת דיוק גבוה ביעילות, ע"י שימוש באלגוריתם למידה יעיל אשר יכול ליצור היפותזות בעלות דיוק נמוך. Boosting עובד על ידי הרצת אלגוריתם הלמידה מספר פעמים מעל מרחב הדוגמאות X, כאשר בכל פעם ממקדים את תשומת לב הלומד על דוגמאות שונות. ההיפותזות שהתקבלו בהרצות השונות משולבות ליצירת היפותזה בעלת דיוק גבוה.

Boosting נתונים: התפלגות D,מושג c  C, אלגוריתם למידה חלש WeakLearn עם פרמטרים  האלגוריתם WeakLearn מקבל כקלט m 0 דוגמאות ופולט היפותזה h: WeakLearn (x 1,l 1 ),(x 2,l 2 )…(x m0,l m0 ) היפותזה h error D (h)=P x:D (h (x)  c (x)  מובטח בהסתברות לפחות

Boosting WeakLearn (x 1,l 1 ),(x 2,l 2 )…(x m0,l m0 ) היפותזה 1 h WeakLearn (x 1,l 1 ),(x 2,l 2 )…(x m0,l m0 ) היפותזה h 2 WeakLearn (x 1,l 1 ),(x 2,l 2 )…(x m0,l m0 ) היפותזה h k מעל D 1 מעל D 2 מעל D k היפותזה סופית: h M =F(h 1,h 2,…,h k )

הגדרת מושגים: X מרחב מדגם (instance space) : קבוצה של אובייקטים. σ-algebra :A היא σ-algebra מעל מרחב מדגם X אם היא תת-קבוצה של P(X). מידת הסתברות (Probability measure) : פונקצית הסתברות מעל מרחב מדגם, שנותנת הסתברות לכל נקודה במרחב. מרחב הסתברות (probability space) : היא השלישייה המורכבת מ: מרחב מדגם X, Σ σ-algebra מעל X, ו V מידת הסתברות.

Majority Vote Game במשחק משתתפים שני שחקנים: בוחר (Chooser) שוקל (Weightor) המשחק מוגדר מעל מרחב הסתברות : X : מרחב מגדם. Σ : σ-algebra מעל X. V : מידת הסתברות מעל X.

מהלך המשחק המשחק מתבצע באיטרציות, כאשר בכל איטרציה: השוקל מקצה לכל נקודה במרחב המדגם משקל מסויים. הבוחר בוחר קבוצת נקודות UєΣ כך שיתקיים: W(U) ≥ ½ + γ ( כאשר 0<γ≤½ קבוע שנקבע לפני תחילת במשחק ) ומסמן את הנקודות שנבחרו. המשחק ממשיך כל עוד השוקל לא החליט לסיימו.

תוצאות המשחק כשהמשחק מסתיים, אחרי k אטרציות, נחזיר תת- קבוצה R  X אשר תכיל את הנקודות שנבחרו יותר מ k/2 פעמים. R תיקרא Reward set, ו- V(R) יהיה ה"רווח" (reward). מטרת השוקל היא : למקסם את הרווח !

דוגמה למשחק X V 1/6 מרחב ההסתברות : : Chooser : Weightor γ = ⅓

דוגמה למשחק – המשך : 1/6 איטרציה 1 :

דוגמה למשחק – המשך : 1/6 W(U) = 1/6 * 5 = 5/6 ≥ ½ + γ = 5/6

דוגמה למשחק – המשך : 1/6 1/ Weightor Chooser Weightor Chooser

דוגמה למשחק – המשך : 1/6 1/ Weightor Chooser Weightor Chooser Weightor Chooser 0 1/6 1/3 0 1/6 1/3

דוגמה למשחק – המשך : 1/6 1/ Weightor Chooser Weightor Chooser Weightor Chooser 0 1/6 1/3 0 1/6 1/3

דוגמה למשחק – המשך : R צריכה להכיל את הנקודות שנבחרו יותר מפעמיים: R = {,, } V(R) = V( )+V( )+V( ) = 1/6 + 1/6 + 1/6 V(R) = Reward = 1/2

אסטרטגיה ?! השאלה בה נדון עכשיו היא : האם קיימת אסטרטגיה מסויימת, ללא תלות במרחב ההסתברות, אשר מבטיחה לשוקל "רווח" (reward) מקסימלי ? והתשובה היא שאכן קיימת אסטרטגיה כזו: נתאר אסטרטגיה כללית לשוקל כך שלכל מרחב הסתברות ולכל ε,δ > 0 השוקל מבטיח שהרווח גדול מ 1-ε אחרי לכל היותר ½(1/γ)²ln(1/ε) אטרציות.

הצגת האסטרטגיה תחילה ניתן אינטואיציה לאסטרטגיה שנציג בהמשך. נציג את אסטרטגית השקילה ונראה את החסם על הרווח שהיא מבטיחה נראה שאסטרטגיה זו היא האופטימלית מעל מרחב הסתברות רציף, ע"י הצגת אסטרטגיה תואמת עבור הבוחר.

סימונים יהי k מספר האטירציות במשחק. לכל נגדיר,כאשר : - הקבוצה שמכילה את הנקודות שסומנו בדיוק r פעמים אחרי i איטרציות. לפי סימון זה : באטרציה ה- i, הבוחר מחליט לכל נקודה ב- אם לסמן אותה ואז הנקודה תהיה גם ב, או לא לסמנה והיא תהיה ב.

קצת אינטואיציה : אבחנה 1: ע"י הקצאת יותר משקל לנקודות מסויימות, השוקל מכריח בכך את הבוחר לבחור יותר מנקודות אלה, בפרט, ע"י הקצאת כל המשקל לנקודה אחת, השוקל מבטיח מכך שנקודה זו אכן תיבחר. אבחנה 2: אם r>k/2 אז נקודות השייכות ל - נמצאות בוודאי ב- Reward Set..  הנקודות היחידות שצריכות לקבל משקל חיובי ממש באיטרציה האחרונה הן הנקודות שנמצאות ב.

אסטרטגית השקילה : כעת נציג אסטרטגיה המתאימה לאינטואיציה שהצגנו לעיל : נקצה לכל קבוצה,, פקטור שקילה -, שמוגדר בצורה אינדוקטיבית כנ"ל : או בצורה ישירה :

משפט 2.1 : ( ללא הוכחה ) לכל מרחב הסתברות ולכל, אם השוקל משחק את "משחק הצבעת רוב " k איטרציות, כאשר k מקיים : ונשתמש בשקילה הנ"ל באיטרציה ה- i : לכל : אז הרווח בסוף המשחק הוא לפחות, ללא תלות באסטרטגית הבוחר.

אופטימאליות סכמת השקילה : נציין כי סכמת השקילה שתיארנו לעיל היא אופטימלית, בכך שהיא מבטיחה לשוקל הפסד מינימלי ב- k אטרציות. מראים זאת ע"י הצגת אסטרטגיה לבוחר שמבטיחה הפסד שהוא לפחות בגודל ההפסד שהאסטרטגיה לעיל מבטיחה.

בחזרה ל- Boosting...

הגברת לומד חלש ע " י הצבעת רוב הגדרות פורמאליות בהקשר של למידה אלגוריתם מרכזי B Samp – Boosting by Sub-sampling אלגוריתם משופר B Filt – Boosting by Filtering

הגדרות – היפותזה היפותזה h: תיאור אלגוריתם אשר בהינתן קלט x  X פולט תווית בינארית, תווית זו נקראת הפרדיקציה של h לתווית c(x) דיוק היפותזה P x:D (h (x) =c (x) )= ההסתברות מעל התפלגות D מעל X, שההיפותזה מנבאת נכון את התווית שמחזיר המושג c על x שגיאת היפותזה P x:D (h (x) ≠ c (x) ) נאמר כי h הינה ε-טובה אם השגיאה של ההיפותזה הינה לכל היותר ε ביחס למושג c ולהתפלגות D

הגדרות – אלגוריתם למידה מטרה – ללמוד קירוב למושג c נתון – C קבוצת מושגים, EX אורקל פלט – האלגוריתם עובד בזמן סופי ופולט היפותזה h שמקרבת את c נאמר כי אלגוריתם למידה A הינו בעל סיבוכיות מדגם אוניפורמית, אם לכל, לכל D,לכל, בהינתן כקלט, A מבצע קריאות ל-EX לכל היותר, ופולט היפותזה h כך שבהסתברות מתקיים באותו אופן נגדיר סיבוכיות זמן אוניפורמית וסיבוכיות מקום אוניפורמית

WeakLearn : נסמן ב- WeakLearn את אלגוריתם הלמידה שנרצה לבצע לו Boosting היפותזות שנוצרות ע"י WeakLearn יקראו היפותזות חלשות ביצועים של WeakLearn: קיימים,, כך שבהינתן m 0 דוגמאות עם תוויות לפי, אזי בהסתברות לפחות, WeakLearn פולט היפותזה חלשה - טובה נסמן ב- m 0, t 0, s 0, את החסמים האוניפורמיים הדרושים ע"י WeakLearn להשגת הדיוק הנ"ל. נגדיר שני מדדים שמעריכים את מרחק WeakLearn מאלגוריתם רנדומאלי:,

WeakLearn האלגוריתמים שמוצגים במאמר יוצרים היפותזות עם דיוק שרירותי ואמינות גבוהה כאשר המשאבים שנצרכים ע"י האלגוריתמים הינם חסומים אוניפורמית בתלות לוגריתמית או פולינומית נמוכה בפרמטרים

אלגוריתם B samp – Boosting by Sub-sampling האלגוריתם עובד עם קבוצת דוגמאות קבועה S בגודל m מוצא היפותזה עקבית עם S תוך שימוש בעקרונות משחק הצבעת רוב על מנת ליצור היפותזה עקבית עם S, B samp יוצר היפותזות חלשות שונות באמצעות קריאה ל- WeakLearn ושינוי ההתפלגות מעל S. מטרת שינוי ההתפלגות הינה שליטה על מיקום השגיאות, כך שלאחר קבלת מספר קטן של היפותזות חלשות, אחוז ההיפותזות החלשות שנותנות סיווג נכון לכל דוגמה ב- S גדול מחצי. פלט – h M, היפותזת הצבעת רוב על ההיפותזות החלשות שהתקבלו במהלך הרצת B samp

קלט ל- B samp : m – גודל המדגם איתו יעבוד האלגוריתם EX – אורקל WeakLearn – אלגוריתם למידה חלש, אשר בהסתברות גדולה מ- פולט  היפותזה  חלשה  עם  שגיאה  קטנה  מ   יצירת קבוצת מדגם בגודל m המשקלים קובעים התפלגות מעל S - מספר הפעמים שהיפותזות חלשות מסווגות נכון את B samp

B samp - המשך בשלב ה- i, יוצרים היפותזה h i עם שגיאה קטנה מ -   ביחס  למשקלים  נוכחיים  נשים  לב  כי  צעד  זה  יכול  להיכשל  מספר כלשהו  של  פעמים  עדכון r j ו- w j החזרת היפותזה סופית h M, שהיא הצבעת רוב על h 1 …h k

אלגוריתם - FiltEX תת-השגרה FiltEX קובעת את ההתפלגות מעל S, באמצעות המשקולות w j – ההסתברות לבחירת דוגמא מסוימת x j הינה w j. מחזירה דוגמא (x j,l j ) בהסברות w j.

הקבלת Boosting למשחק הצבעת רוב שוקל – האלגוריתם B samp בוחר – WeakLearn.ההחלטה של הבוחר לסמן נקודה מקבילה להחלטה של WeakLearnליצור היפותזה חלשה שמסווגת נכון את הנקודה. המרחב הוא קבוצת הדוגמאות S,כאשר ההתפלגות הינה אוניפורמית. המשקל של נקודה הינו המשקל שנקבע ע"י B samp קב' הרווח – קב' הנקודות עליהן הצבעת הרוב מעל ההיפותזות החלשות נותנת תווית נכונה. הסתברות להפסד – נסמן קב' ההפסד ב- L,אזי ההסתברות להפסד היא /|S||L|

עקביות של h M משפט: אם כל ההיפותזות שמשומשות ע"י B samp הינן    –  טובות  אזי  h M עקבית  על  S. הוכחה: מההשוואה עם משחק הצבעת הרוב, וממשפט שהוכחנו מתקיים כי השגיאה של h M קטנה מ- 1/m. כעת, מכיוון שמדובר על התפלגות אוניפורמית מעל S והשגיאה שווה ל- /|S||L|, אזי L=  h M  עקבית  עם  S 

מה נותר להראות ? צריך למצוא m, כך שלהיפותזה הנוצרת ע"י Bsamp (שהיא עקבית על S), תהיה שגיאה קטנה על נקודות מחוץ ל- S. צריך להראות שהאלגוריתם משתמש במשאבים – זיכרון וזמן, חסומים אוניפורמית.

מציאת m – גודל המדגם S משפט: יהי WeakLearn אלגוריתם למידה דטרמיניסטי אשר בהסתברות  יוצר  היפותזה  עם  שגיאה  קטנה  מ   מעל ההתפלגות  שלומדים  איתה   נניח  כי  מספר  הדוגמאות  ש  WakLearn  צריך  על  מנת  להשיג  דיוק ואמינות  הנ  ל  חסום  אוניפורמית  ע  י  m 0   אזי  לכל  אם  Bsamp  ישתמש  במדגם  S  בגודל אזי בהסתברות קטנה מ-  השגיאה  של  h M  גדולה  מ 

חסמים על משאבים של B samp סיבוכיות זמן: יצירת מדגם S – O(m) זמן לולאה ראשית מתבצעת k פעמים, כאשר כל פעם מבצעים O(m*l) פעולות לכל היותר. לכן סיבוכיות כוללת (Õ(1/  סיבוכיות זיכרון: גודל S – m מספר דוגמאות שבהן משתמש WeakLearn הינו לכל היותר לכן, סיבוכיות מקום כוללת הינה (Õ(1/  O(m)=

הבעיה : Bsamp מאחסן את כל הדוגמאות בזיכרון !

אלגוריתם Bfilt – Boosting by Filtering המבנה של האלגוריתם Bfilt דומה למבנה של Bsamp, המטרה של שניהם היא ליצור התפלגויות שונות בהתאם לאופן השקילה שהוצג במשחק. האלגוריתם בוחר את הדוגמאות שיישמשו כקלט לאלגוריתם WeakLearn בדרך ישירה, מעל התפלגות D.

סיבוכיות זמן ומקום : סיבוכיות זמן ריצת האלגוריתם : סיבוכיות מקום :

The End