Download presentation
Presentation is loading. Please wait.
1
משוב ושיתופיות במנועי חיפוש Relevance feedback and social filtering יהודית בר אילן לימודי מידע, אוניברסיטת בר-אילן בי"ס לספרנות, האוניברסיטה העברית
2
ניסוח המידע בשפה טבעית Index Collections Rank Query חיפוש מידע בעיית מידע
3
אי ודאות בתהליך האחזור מה בדיוק בעיית המידע? כיצד לתרגם אותה לשאילתה המתאימה למערכת? איזה סוג מידע ניתן בכלל לקבל מהמערכת?
4
קשה לנסח שאילתות, אבל... קל יותר לזהות מידע שימושי (רלוונטי) עבור הבעייה כאשר המידע מוצג בפנינו כיצד נשיג מידע כזה? –על ידי שאילתה ראשונית על הנושא כיצד ממשיכים הלאה? –על ידי שינוי השאילתה –תהליך זה נקרא Query modification Relevance feedback
5
תהליך כזה נעשה באופן טבעי ע"י המשתמשים דוגמה: שאלה מהמוקדמות של אליפות החיפוש 2005 מה תפקידו הנוכחי וכתובת מקום עבודתו של חוקר האינטרנט Andrei Broder? נעקוב אחרי ה log של אחד המתחרים
6
תוצאה מספר 10:
11
Answer: IBM Research
12
A more successful query would have been:
13
Berrypicking – Marcia Bates
14
Relevance Feedback Architecture Rankings IR System Document corpus Ranked Documents 1. Doc1 2. Doc2 3. Doc3. 1. Doc1 2. Doc2 3. Doc3 . Feedback Query String Revise d Query ReRanked Documents 1. Doc2 2. Doc4 3. Doc5. Query Reformulation From: www.cs.utexas.edu/users/ mooney/ir-course/slides/QueryOps.ppt
15
Relevance Feedback הרעיון המרכזי הוא לשנות את השאילתה המקורית כתוצאה משיפוטי המשתמש –מצא מונחים מרכזיים במסמכים שצוינו כטובים והוסף אותם לשאילתה –תן משקלות חדשים למונחים המקוריים –זרוק מונחים שנמצאים רק במסמכים בלתי רלוונטיים גם בשלב זה ניתן להתייעץ עם המשתמש ולהציע לו רשימה של מונחים להוספה/השמטה נראה מספר דוגמאות
16
Cortina - http://sobel.ece.ucsb.edu/
17
Relevance feedback: two maps marked
18
Direct search: Jerusalem map
22
related:www.infoplease.com/ce6/world/A0811353.html
24
סיכום ביניים מחקרים מראים ששיטות משוב משפרות את איכות האחזור (למשל Koenneman & Belkin 1996) הבעיה היא שלמשתמשים אין סבלנות לכן גם כלי החיפוש מזניחים את הכיוון הזה פתרון אפשרי: משוב ללא מעורבות המשתמש
25
Pseudo Feedback Architecture Rankings IR System Document corpus Ranked Documents 1. Doc1 2. Doc2 3. Doc3. Query String Revise d Query ReRanked Documents 1. Doc1 2. Doc2 3. Doc4. Query Reformulation 1. Doc1 2. Doc2 3. Doc3. Pseudo Feedback
26
Collaborative/social filtering שיפור האחזור באופן אוטומטי על סמך המסמכים המוחזרים הראשונים, מניח מראש שהמסמכים הראשונים רלוונטיים לחיפוש רעיון אחר הוא לנסות למצוא אנשים בעלי טעם דומה לשלנו –הנחה בסיסית: אני אוהב את מה שהם אוהבים –ניתן לשאול את המשתמשים על דעותיהם –ניתן להסתפק רק במעקב אחר פעילויותיהם
27
Collaborative Filtering (Social Filtering) If Pam liked the paper, I’ll like the paper If you liked Star Wars, you’ll like Independence Day Rating based on ratings of similar people –Ignores the text, so works on text, sound, pictures, etc. http://www.sims.berkeley.edu/academics/courses/is202/f04/
28
Example:Ringo Collaborative Filtering for Music משתמשים במערכת מדרגים מוסיקה –1 = detest –4 = ambivalent –7 = can’t live without מהדירוגים הנ"ל מרכיבים פרופיל המשתמש (דינאמי) המערכת מחשבת דמיון בין הפרופילים לצורך המלצה, מתחשבת בפרופילים הדומים בלבד כאשר משתמש חדש מצטרף למערכת הוא מתבקש לדרג 125 אומנים רינגו הייתה אחת המערכות הראשונות (מערכת ניסיונית), אינה פעילה יותר. Alexlit.com פועלת בשיטה דומה
29
Social Filtering סינון חברתי מתעלמת מהתכנים, ומתבססת רק על משתמשים בעלי "טעם" דומה –מתאים במיוחד למוסיקה, סרטים, ספרי קריאה ישנן מערכות המצליחות לפעול גם ללא שיפוט פעיל באמצעות מעקב אחר פעילויות המשתמשים במערכת
32
סיכום ניתן להשתמש בשיטות משוב וסינון כדי לבנות מערכות פרסונליזציה –כל מידע הקשור למשתמש ולטעמו יכול לעזור בכל השיטות המטרה היא לשפר את חווית השימוש -user experience
Similar presentations
© 2025 SlidePlayer.com. Inc.
All rights reserved.