פודקאסט על בינה מלאכותית

explAInable

קישור לקבוצת הטלגרם שלנו

59-AlgoGen – שילוב של אלגוריתמים ומודלי שפה גנרטיביים, עם אמיר שחר

 

בפרק זה אמיר שחר יספר על שיטה חדשנית שפרסם לשילוב מודלי שפה יחד עם אלגוריתמים.

לפני 20 שנים, כנראה שאם הייתם אומרים AI הייתם מתכוונים לאלגוריתמי חיפוש בעצים.

אלגוריתמי חיפוש כמו

A Star

מנצחים מסטרים בשח מט, ואפילו עוזרים לנו להתמצא בעיר עם Waze.

למעשה, אם מסתכלים עמוק בתוך LLM מגלים גם בו שימושים באלגוריתמי חיפוש.

אמיר יספר מנסיונו איך אפשר לשפר אלגוריתמים, ובפרט אלגוריתמי חיפוש, על ידי שילובם עם מודלי שפה גדולים.

58-מערכות המלצה כמשק כלכלי – עם ד״ר עומר בן פורת

 

נהוג להסתכל על מערכת המלצה כאל בעיית אופטימיזציה, איזה סרטון לנגן כך שיהיו הכי הרבה צפיות בהתחשב בהיסטוריית הלקוח.
אבל אם לוקחים צעד אחורה, מגלים שאנחנו בשוק מסחר תלת צדדי. לסרטונים יש יוצרים, ולפלטפורמה יש בעלי מניות, וכמובן – אנחנו הצופים.
כמובן שאם הפלטפורמה לא תהיה רווחית, תהיה בעיה בטווח המיידי – אבל גם אם יוצרי התוכן לא יזכו לחשיפה הם ינטשו את הפלטפורמה ותהיה בעיה בטווח הרחוק.
 
דרך אחרת להסתכל על מערכת המלצה, היא בעיניים של תורת המשחקים.
בפרק עומר סיפר על סוגים של שיווי משקל, ועל תמריצי השחקנים.
ודיברנו על הסוגיה של יצירת העדפות, ויציבות המערכת כשיש הרבה נישות

57-עושים כבוד לעצים

 

רשתות נוירונים על שלל סוגיהן זוכות להרבה אטנשן – אבל בפועל, הרבה פרויקטים לא זקוקים לרשתות נוירונים.
מודליים עציים הם בדרך כלל הפתרון הפשוט והיעיל לדאטא טבלאי.
בפרק קצרצר זה, נסקור את עצי החלטה, תהליך אימונם ובעיית הOverfit.
נדבר על שתי ההרחבות הנפוצות:
Random Forest & Gradient Boosted Trees
והיתרונות שיש בשימוש במודלים ותיקים בסביבת פרודקשן

56-אימות פורמלי של רשתות נוירונים עם איתי בוחניק וד״ר גיא אמיר

 

נדירים המקרים בהם שני תחומים כ״כ רחוקים במדעי המחשב נפגשים, ועוד זוכים להגיע לפרודקשן.
אימות פורמלי הוא תחום העוסק בוידוא מתמטי שתוכנית אמורה לרוץ בלי תקלות, והוכחה שהתוכנית מקיימת תכונות מסוימות.
בדרך כלל רואים אימות פורמלי בתחומים כמו קומפילציה או לוגיקה, ולכן היה מרתק לשמוע איך שיטות תאורטיות כאלו מצאו את עצמן בישום אצל חברת אלביט המפתחת רשתות נוירונים.
בפרק זה איתי (מאלישרא) וגיא (אוניברסיטה העברית) יספרו על שיתוף הפעולה, והישום בשטח.

55-Mamba סיכום מנהלים ותחזיות לעתיד,עם מייק ארליכסון

 

עולם מודלי השפה מושתת על ארכיטקטורת הטרנספורמר שמכילה בעיה מובנית בתוכה – סיבוכיות ריבועית בקלט, ולאחרונה אלטרנטיבות מעניינות לטרנספורמר הגיחו לחיינו.
פרק זה הינו פרק שני בסדרה, והוא סיכום מנהלים על עקרון הדואליות, מוטיבציה ותחזיות להמשך.
מייק ואני נדבר על איך דואליות משפיעה על אימון יעיל והוזלה של עלויות, על ארכיטקטורות חומרה והתאמתן לטרנספורמרים.

54-Mamba סקירה טכנית עם מייק ארליכסון

יש הרבה התרחשויות סביב ארכיטקטורות חדשות (שאינן טרנספורמר) שיכולות להיות המנוע מאחורי הLLM הבא.
פרק זה הינו פרק ראשון מתוך שניים, על Mamba ו State Space Models שנראים אלטרנטיבה מבטיחה.
נצלול טכנית למוטיבציה ולאלגוריתמים המתמטיים, ואיך פולינומי לג׳נדר קשורים לעניין.
הפרק טיפה טכני מהרגיל, בפרק הבא נעלה רמה ונסקור את ההשלכות ותחזיות לדעתנו.

פרק 53-עולם ללא עוגיות – פרק הפוך עם דין פלבן

 

פרק משותף עם דין פלבן מ
The MLOps Podcast
על הנושא שמעסיק את עולם הפרסום היום.
ברוח חקיקה אירופאית ואמריקאית, נהיה קשה יותר ויותר מבחינה חוקית לעקוב אחרי התנהגות משתמשים עם קוקיז (עוגיות).
לשמירה על הפרטיות יש גם צד שנוגע לנו, אנשי הדאטא בכל הקשור למדידת איכות אלגוריתמים ולמידה.
בפרק זה דין ייארח את אורי ונדון על מה אפשר לעשות.

פרק 52-למידה מולטי מודאלית עם ד״ר חן חג׳ג׳

 

מודלים מולטי-מודאלים הגיעו לקידמת הבמה לאחרונה עם מודלים כמו chatGPT, Whisper, Midjourney.
נדבר על האתגרים בשילוש מודלים חזותיים, טקסטואלים וגרפיים – כאשר המימדים שונים, המימדים שונים, ואיך מרוויחים מהשילוב הזה.
נדבר על cross modal learning – איך אפשר ללמד מודל אחד על סמך מודאליות של מודל אחר.

פרק 51-ניהול פרויקטי דאטא סיינס עם חן קרני

 

ניהול אנשים זה אתגר, ניהול מחקר עם תוצר לא-וודאי – זה אתגר, וניהול ממשקים עם פרודקט,תוכנה והנהלה בכירה זה בכלל מורכב.
בפרק זה אירחנו את חן קרני, מנהלת מנוסה בתחום הדאטא לדבר על איך עושים את זה נכון, וללמד מה עבד עבורה.
איך לפרק פרויקטים גדולים למשימות קטנות (בשיטת הסלאמי) שאפשר לתקשר, איך למדוד ולהגדיר יעדים (שגם אפשר לעמוד בהם), ומה הם השלבים בפרויקט חדש.

פרק 50- טרנספורמרים בעיבוד תמונה Visual Transformers

 

טרנספורמרים הם ללא ספק המודל המועדף בעיבוד שפה – אבל האם גם בתמונות?
אז… מסתבר שהתמונה לא כל כך ברורה בעיבוד תמונה.
בפרק זה נדבר על היתרונות הגדולים של טרנספורמרים בתמונות – ועל הסיטואציות שבהן CNN מנצחות אותם.
 

פרק 49- על אינטלגנציה מלאכותית בעולם המשפט – עם עומר חיון

 

לפני כשש שנים עומר חיון ואורי גורן התחילו הרפתקאה בעולם הLegal tech והקימו את BestPractix
בסט פרקטיקס התמקדה בשלב הטיוטות של החוזים, והיוותה כלי עזר לעורכי דין לזהות ״אנומליות״ בחוזים (שבדרך כלל די סטנדרטים), והצעה של אלטרנטיבות מקובלות יותר.
בשנת 2020 בסט פרקטיקס נמכרה לLitera Systems האמריקאית, ועומר הועבר להמשך הפיתוח.
 
הרבה השתנה בעולם הAI מאז, ולרשותנו היום כלים חזקים כמו ChatGPT שמקצרים את תהליך העבודה המשפטית.
פרק זה הינו שיחה פתוחה בין אורי לעומר על האתגרים בעולם המשפט, והעתיד לאור היכולות החדשות בעולם הNLP.

פרק 48-AI Junk – איך עושים למידת מכונה עם קרטון ביצים

 

דיברנו הפעם על פרויקט ai-junk המאפשר לכל אחד ליצור רובוטים מגרוטאות וליצור ולאמן מודלי reinforcement learning שישלטו ברובוטים. ובכך ליצור עולם משחק מרובה רובוטים על הריצפה בסלון.

דיברנו על מה זה RL, על הקשיים להפוך RL שעובד טוב בוירטואלי לעולם הפיסי, על כמה נחמד ללמוד על התחום דרך רובוטים 🙂

הפרק הוקלט לפני המלחמה ששיבשה לנו הכל וארועים שתוכננו בוטלו. אם מעניין אתכם להצטרף לסדנה או האקטון הרשמו כאן ונעדכן אתכם.

קישורים

פרק 47-מה עושים כשיש מעט נתונים – עם נתנאל דוידוביץ

 

נתנאל, דאטא סיינטינסט ותיק שמוביל היום את המחקר בדאבל וריפיי ידבר איתנו על בעיה כואבת אך נפוצה.

גייסנו תקציבים, כוח אדם, ועם הרבה רצון ומוטיבציה ניגשנו לפרויקט חדש – פתחנו את מכסה המנוע, וגילינו לצערינו שאין מספיק נתונים- מה הלאה ?

נדבר על שלוש טקטיקות שאפשר לנקוט, בין אם זה תיוג עצמאי ורכישת דאטא, שימוש במודלים כגון

Label spreading, transfer learning, kde

או שימוש במודלים אנליטיים יותר, כגון שיטות בייסיאניות או מודלים פיסיקלים.

פרק 46-מודלי שפה ופלט רצוי

 

יצא לנו הרבה לדבר על מודלי שפה גדולים לאחרונה, ועל השימושים שלהם.

למעט שימוש בצ׳אטבוט או כעזר לכתיבה, לרוב אנחנו רוצים לקבל את הפלט של המודל בפורמט כלשהו כמו

Json / Data Class

נדבר על שלושת השלבים ביצירת הפלט, הטוקנייזר, הטרנספורמר, והמפענח.

ונסביר איך אפשר להתערב במפענח כדי לאלץ את המודל כדי לקבל תשובות במבנה מסוים, להכריח את מודל לענות ״כן״ או ״לא״, לאלץ את התשובה להיות מספרית, מתוך רשימה סגורה וכדומה.
ספריות שימושיות:

JSONFormer – https://github.com/1rgs/jsonformer

OpenAI Function calls – https://openai.com/blog/function-calling-and-other-api-updates

פרק 45-על מודלי שפה גדולים בפרודקשן עם איתי ציטבר

 

בפרק זה אירחנו את איתי ציטבר רש”צ מהיירו – לדבר על מודלי שפה בפרודקשן.
המודלי צ’אט כ”כ חזקים – האם בכלל נשאר מה לעשות חוץ מאשר לחבר את הAPI לאתר ?
מצד שני, זה נראה כאילו כולם משתמשים בLLM, גם כאשר קיימים מודלים פשוטים יותר.
נדבר על מה קורה כשהמלצת המודל מתנגשת עם נהלים רפואיים, מה קורה שהמודל נותן הנחיות שגויות למטופל, ואין אפשר לצמצם את התופעה עם Retrieval augmented generation.

פרק 44-איך נולדים נתונים מתויגים עם דניאל מנוחין

 

בפרק זה אירחנו את דניאל מנוחין, מנהלת קהילת data-ops המובילה את התיוג וטקסונומיה ב ebay
בסופו של דבר, מודלים טובים ככל שיהיו – חסומים על ידי איכות הדאטא עליהם הם אומנו.
דניאל תספר על החוויות שלה בebay, על נקודות כשל קלאסיות בתהליך התיוג ועל איך בונים פרוטוקול אנוטציה אחיד.
נדון בהבדל בין מתייגים in-house שהם ממש חלק מהארגון, לעומת מתייגים חיצוניים (כדוגמת mechnical turk) ועל ההשפעה על איכות התיוגים ותהליכי הפיקוח.
 

פרק 43-על GLM ו AGLM עם לובה אורלובסקי 

זה מרגיש כאילו עולם הלמידה מחולק ל2 מחנות, הסטטיסטיקאים ואנשי מדעי המחשב.
ולאחרונה יצא מודל AGLM שהוא רעידת אדמה בעולם האקטואריה (ביטוח, פיננסים), וכנראה שרובנו לא שמענו עליו.
בפרק זה נסקור מה אלו מודלי GLM, ספוילר – אחד מהם – הרגרסיה הלוגיסטית, אתם מכירים היטב.
נדבר על השימושים שלהם, היתרונות שלהם בתחום הפיננסים בעקבות יכולת ההסבר שלהם, ונדבר גם על המגבלות שלהם.
נסקור בקצרה את החידושים בAGLM שמשתמש במודלים מבוססי עצים על מנת להביא חזרה לLogistic Regression את הנקודות שהוא חלש בהם ומביא אותו לרמה של XGBoost.

 

קישורים:

https://www.institutdesactuaires.com/global/gene/link.php?doc_id=16273#:~:text=AGLM1%20is%20defined%20as,coding%20methodologies%20of%20dummy%20variables.

https://github.com/kkondo1981/aglm

GAM – Generalized additive models

https://medium.com/just-another-data-scientist/building-interpretable-models-with-generalized-additive-models-in-python-c4404eaf5515

פרק 42-על מאחורי הקלעים של ONE SHOT עם שוקי ויואל

 

מי לא מכיר את שוקי ויואל – הגאונים מאחורי ערוץ היוטיוב האדיר שמביא את תרבות הלייב קודינג בעולמות למידת המכונה לארץ הקודש.
וואן שוט לרנינג התחיל לפני כשנתיים כרעיון, ומאז הפך לקאלט של ממש.
אבל מאחורי כל סרטון של חצי שעה, מסתתרת עבודה רבה, מחקר, באגים, והמון נסיונות שהלכו לפח.
בפרק זה אורי ראיין את שוקי ויואל על מאחורי הקלעים של ההפקה, ושואל שאלות קשות. איך הכל התחיל ולמה? איזה פרק הכי אהבתם? איזה פדיחה קרתה בצילומים? ומה התוכניות להמשך ?
 
קישורים:
One Shot Learning

פרק 41-תורת המשחקים עם מורן קורן

 

בפרק זה אירחנו את מורן קורן, חוקר ומרצה לתורת המשחקים מאוניברסיטת בן גוריון.
דיברנו בעבר שימוש בערכי שייפלי לפרשנות מודלים, ערכי שייפלי הם נושא מחקר פעיל בתורת המשחקים והחלטנו להעמיק ולשפוך אור על תורת המשחקים ואיך הרעיונות משלימים את הנחקר בלמידת מכונה.

דיברנו על המונחים, מהו שיווי משקל ? איך מגדירים משחקים לפי ידיעה שלמה או גורל, על אסטרטגיה אופטימלית, ואיפה תורת המשחקים פוגשת אותנו כאנשי דאטא.

איך אפשר להשתמש בתורת המשחקים לצורך איסוף דאטא של מודלים כדי למנוע הטייה באיסוף הנתונים.

ונדבר על רעיונות מתורת המשחקים שהשפיעו על תחום המכרזים שמעסיק דאטא סיינטיסטים רבים.

קישורים:

פרק 40-על מערכות חיפוש – סיכום ביקור בכנס הייסטאק 2023 עם אמיר לבנטל

 

אמיר ואורי נסעו במסגרת עבודתם בארגמקס לכנס הייסטאק HayStack2023

המתמקד בחיפוש, ואימלקו לכם את הפרק לעשרים דקות צפופות על החידושים בתחום החיפוש בעידן ה Language models

דיברנו על ארכיטקטורות חיפוש ובנוסף כוסו האלגוריתמים הבאים:

 

פרק 39-על המעבר מדאטא אנליסט לדאטא סיינטיסט בחסות YDATA

 

בפרק זה אירחנו את רותם דמבו ועומר דודי, שסיפרו לנו על המעבר שעשו בשנה האחרונה, מתפקיד של אנליסט לתפקיד של מדען נתונים.
דיברנו על הפערים “התרבותיים” בין המקצועות, אילו יתרונות יש לאנליסט שמחפש להכנס לתחום מדעי הנתונים, אילו השלמות כדאי לעשות ואיזה טיפים יש להם לתת למי שנכנס לתחום.
הם יספרו על ההחלטה לעשות את המעבר, על הלימודים בתוכנית Y-DATA, על איך התוכנית סייעה להם במעבר ועל מה הם עושים כיום.

פרק 38-על למידה חיזוקית במודלי שפה RLHF עם מייק

 

קשה לעבור ברחוב היום בלי לשמוע מישהו מספר לחברו על צ’אט ג’י פי טי או LLM

אחד החידושים באימון שלו, למעשה ב InstructGPT היו השימוש בלמידה חיזוקית על בסיס דאטא מתויג אנושי בתהליך הדגימה

נספר על אלגוריתם ה RLHF ושילובו בתוך מודלי השפה.

קישורים:

פרק 37- סיבתיות עם אוהד לוינקרון פיש

 

בפרק זה נדבר עם אוהד מדילטייל, העוסק בניתוח סיבתיות.

אנחנו כולנו למדנו בטירונות דאטא סיינס ש Correlation does not imply causation

אבל מה כן ? האם חייבים לבצע ניסויים מדוקדקים? והאם זה רלוונטי רק לעולם הרפואה או לכולנו ?

קישורים:

  1. DoWhy tutorials
  2. אלגוריתמים – EconML docs
  3. Guide – Athey, Stuart, Vogelstein 2021

מאמר של אוהד  https://arxiv.org/abs/2207.01722

מאמר Ascarza

פרק 36- חיפוש וקטורי מקורב

 

וקטורים, וקטורים בכל מקום ! דיברנו על מילים שהופכות לוקטורים, מסמכים שהופכים לוקטורים, תמונות שהופכות לוקטורים.

אבל ברוב המקרים, נדרש חיפוש של וקטורים דומים למשימות של קלאסיפיקציה, דירוג ואפילו זיהוי אנומליות.

חיפוש וקטורי בקנה מידה גדול זו בעיה הנדסית לא פשוטה, עם אילוצי זמן ריצה וזכרון.

בפרק קצרצר זה, נסקור שלושה אלגוריתמים לחיפוש מקורב ונדבר על סוגי הוקטורים המתאימים.

פרק 35- על התיאוריה של replay buffers עם שירלי די קסטרו שעשוע

 

פרק נוסף בתחום הלמידה החיזוקית, הפעם צוללים לפרטים הטכניים עם התאוריה מאחורי Replay Buffer
סוכן, יכול ללמוד רק מהפעולות שלו – מה שנקרא On Policy
או למידה גם מפעולות של סוכנים אחרים, מה שנקרא Off Policy
בגישת הריפליי באפר, שומרים “הקלטה” של פעולות עבר ותוצאות עבר – ודוגמים מתוכן לצרכי הלמידה.

שירלי תספר לנו על המחקר שלה לגבי השפעת גודל הבאפר, והשיפור בתוצאות של אימוני מודלי RL

פרק 34 – העבודה הראשונה שלי כדאטא סיינטיסט

פרק זה הוא חסות מיוחד בשיתוף אנבידיה, שמוקדש לג’וניורים.

אנבידיה הפיקה את כנס ה GTC עם דגש מיוחד השנה של גנרטיב – להרשמה לחצו פה

בפרק ראיינו חמישה דאטא סיינטיסטים טריים: צחי מורד, טלחיים דמארי, נתי מגור, דין עזרא ואבי חביב.

פרק 33 – על CoreSets עם איתן נצר

בפרק זה אירחנו את איתן נצר מ data heroes לדבר על בחירה חכמה של דגימות לצורך אימון מודלים.

אנחנו בעידן הדאטא, נאספים טרות של אירועים מדי יום – אבל המודל שלנו לאו דווקא מרוויח מכל השפע הזה.
האם אפשר להגיע לביצועים דומים עם שבריר הדאטא ובחירה חכמה של הדגימה ?

איתן יספר לנו על גישת ה core set  שחקר, והחליט לימים להקים את דאטאהירוז על מנת להנגיש את הטכנולוגיה. מבין המשקיעים בחברה, נמצא גם Andrew Ng שהוא מאמין גדול ב Data Centric AI

קישורים:

https://dataheroes.ai/

https://dataheroes.ai/introduction-to-coresets/

פרק 32 – אתגר הלוויינות של מפא”ת

 

בפרק זה נציג את אתגר הלווינות החדש בסדרת MAFAT Challenge.

אירחנו את ליאל ממפא”ת ואת שי ועידן מ-Webiks. דיברנו על מהפכת החלל, האתגר בזיהוי אובייקטים מתצלומי לוויין במאפיינים שונים וההבדלים ביחס לגילוי אובייקטים קלאסיים.

קישור לתחרות:
https://codalab.lisn.upsaclay.fr/competitions/9603

פרק 31 – זיהוי אנומליות (הונאות) עם אנדרס מריסקפילד

זיהוי אנומליות הוא נושא שימושי למגוון בעיות, זיהוי סנסורים דפוקים, אאוטליירים בדאטא או התנהגות חשודה.

הבעיה היא שזיהוי אנמליות בפני עצמו הא לא תמיד שימושי, אם אין פעולה שאפשר לבצע בעקבות החריגה.

נדבר על הגישות הקלאסיות לאנומלי, כגון

* Density estimation

* Auto regressive

* Distance based measures

ועל הבעייתיות שנובעת מחישוב מרחקים במימדים גבוהים.

אנדרס יציג את הגישה ההירכית שעבדה להם בריסקיפייד, המבוססת על אימון מספר גדול (6000) של מודלים ברמות שונות, והפעלת לוגיקה סטטיסטית על החריגות של כל מודל בפני עצמו.

הגישה שונה מגישות קודמות, שכן כל מודל משויך למטריקה – אזי אפשר לא רק לחזות אנומליות , אלא גם להסביר מדוע זו אנומליה ולסנן אך ורק לאנומליות עבורן יש פעולה שאפשר לנקוט.

קישורים:

https://codalab.lisn.upsaclay.fr/competitions/9603

The Curse of Dimensionality

Andres’ talk about their “new approach”

פרק 30 – איך לא להעסיק ג’וניורים במקצועות הדאטא

פרק זה הוא פרק סולו של אורי, בו הוא יספר על החוויה שלו בפתיחת משרת ג’וניור בארגמקס.

המשרה זכתה לחשיפה גבוהה ברשתות החברתיות והגיעה ל40 אלף איש בעקבות שיטת הגיוס הלא שגרתית.

אורי יספר על מבחן הבית, ההיענות המפתיעה של מועמדים והביקורות שקיבל מקולגות לתחום.

באם יש לכם נסיון או מומחיות בתחום גיוס הג’וניורים, נשמח לפידבק בקבוצת הטלגרם שלנו

https://t.me/explainablepodcast

לעיון במבחן הבית:

https://argmax.ml/jr

פרק 29 – רשתות נוירונים על גרפים עם ד”ר חגי מרון

בפרק זה דיברתי עם ד”ר חגי מרון חוקר מאניבידיה על מהם גרפים ומה אפשר לייצג בעזרתם, אילו משימות למשל אפשר לאמן ?

עסקנו בבעייה היסודית של איך לייצג גרף כדי לאמן רשת נוירונים עליו. ראינו שיש קושי לייצג באופן חד חד ערכי ודיברנו על מה כן עושים בתחום.

 

קישורים:

מולקולות [1704.01212] Neural Message Passing for Quantum Chemistry 

סצנות בתמונות https://cs.stanford.edu/people/ranjaykrishna/sgrl/index.html 

 ארכיטקטורות עמוקות [2201.08459] Federated Learning with Heterogeneous Architectures using Graph HyperNetworks

רשתות ספקטרליות

 [1312.6203] Spectral Networks and Locally Connected Networks on Graphs 

Message passing 

[1704.01212] Neural Message Passing for Quantum Chemistry 

רשתות אקוויואריאנטיות
[1812.09902] Invariant and Equivariant Graph Networks 

 

המגבלה החמורה של רשתות גרפים – אקספרסיביות – ואיך מנסים לפתור אותה בקצרה.

[1810.00826] How Powerful are Graph Neural Networks?

[1905.11136] Provably Powerful Graph Networks  

Using Subgraphs for More Expressive GNNs | by Michael Bronstein | Towards Data Science 

למידה על גרפים כמקרה פרטי של למידה תחת סימטריות (AKA geometric deep learning).

Leveraging permutation group symmetries for designing equivariant neural networks – Haggai Maron 

[2104.13478] Geometric Deep Learning: Grids, Groups, Graphs, Geodesics, and Gauges 

ספר מומלץ ע”י חגי: Graph Representation Learning

פרק 28 – יצירה אוטומטית של קוד עם פרופ ערן יהב וד”ר אורי אלון

בפרק קודם דיברנו על קודקס, מודל השפה שמאחורי Github Co-Pilot

בפרק זה, החלטנו להעמיק ולראיין את ערן יהב, חוקר באקדמיה והמוח מאחורי TabNine

ואורי אלון, פוסט דוקטורט בתחום שחוקר את הנושא הרבה לפני שזה היה מגניב.

נדבר על ההיסטוריה של התחום, גישות מבוססות גרפים, דקדוק ומה הקשר בין שפת התכנות ליכולת החיזוי.

כמו כן נדבר על אתגרים מוצריים ב TabNine ועל המעטפת הנדרשת להפיכת מודל למוצר שאנשים משתמשים בו ומרוצים ממנו.

 

פרק 27 – Data Centric AI עם סיגל שקד

בפרק זה נדבר עם סיגל שקד על גישה הנקראת Data Centric, שמהותה התמקדות בנתונים כדרך לשיפור תוצאות חיזוי מבוססות למידת מכונה (לעומת הגישה שרווחה עד כה, שדוגלת בשיפור המודל – model centric כדרך לשיפור הדיוק).

קישורים:

פרק 26 – על חינוך בינה מלאכותית עם שי פרח

בפרק זה אירחנו את שי פרח, דוקטורנט במחלקה להוראת המדעים של מכון ויצמן למדע, אשר חוקר ומפתח הוראה של למידת מכונה. שי לקח אותנו לעולמות החינוך של בינה מלאכותית, החל מתארים מתקדמים ועד לילדים ונוער ומסתבר שמהפכת ה-AI שעוברת על עולם המדע והתעשייה משתקפת גם בחינוך התחום. נכנסו לדיונים מרתקים על עד כמה זה ללמוד טכנאות לעומת הנדסה, על ההשפעה על תכניות הלימוד הסטנדרטיות ועל העתיד.

 קישורים:

מייל של שי לפניות בנושא מחקר ופיתוח חינוך ללמידת מכונה ותוכנית הלמידה המשולבת: shai.perach@weizamann.ac.il

פרק 25- Normalized Flow Models עם מייק ארליכסון

בפרק זה (שוב) אירחנו את מייק ובאופן מפתיע (שוב) דיברנו על מודלים ג’נרטיביים.

מה לעשות שהתחום לא מפסיק להתפתח לכיוונים מתמטיים יצירתיים וחדשניים . . .

אז אחרי פרקים קודמים על GAN, VAE ו Diffusion Models הפעם בזכות מייק שפכנו אור על ההבטחה הבאה בתחום: Normalized Flow Models.

בגדול הרעיון ליצור טרנספורמציה שמקבלת את הנתונים (למשל תמונה) וממירה אותו למרחב אחר מאותו מימד (לצורך העניין תמונה אחרת או וקטור באותו הגודל) אבל נרצה טרנספורמציה כזו אשר במרחב המותמר ה data שלנו יתפלג גאוסי. אז מסתבר שהתמרה כזו חייבת להיות הפיכה ובין השאר נרצה שהיא גם תהיה גזירה.

הרעיון המתמטי המבריק פה הוא ליצור הרכבה של הרבה coupling models שכל אחד מהם מורכב מחצי טרנספורמצית הזהות וחצי לינארי. החצי הלינארי תלוי במקדמים נלמדים שממזערים פונקציית מחיר שמהותה לגרום למרחב המותמר להיות גאוסיאני.

וכשמגיעים להתמרה שכזו מרוויחים גם את ההתפלגות (ממש באופן מפורש) של ה data שלנו וגם כיוון שיש לנו את ההתמרה ההופכית אז ניתן גם לחולל (לג’נרט\) data יש מאין.

אומנם כיום הסוס המנצח בעולם ה ג’נרטיב הינו ה diffusuion models אך יש מי שמנבא ( Yann LeCunn בין השאר) שזה יוחלף ב Normalized Flow.

קישורים:

Variational Inference with Normalizing Flows

GLOW

REAL NVP

HINT – hierarchical normalized flows

פרק 24- זיהוי אנומליות בתמונות עם ערן אילת

בפרק הזה ערן יסביר לנו מה זה Anomaly Detection בעולם ה Vision.

דיברנו על גישות מבוססות GAN, Autoencoder, Transformers ונזכיר את השיטות החדשות: Patchcore, CFA ו Transformaly.

קרדיט למחקר משותף: מתן טור פז

קישורים:

Ganomaly

styleformer

Transformaly

Inpainting transformer for anomaly detection

An empirical investigation of 3D animaly detection

CFA: Coupled-hypersphere-based Feature Adaptation for Target-Oriented Anomaly Localization

Towards Total Recall in Industrial Anomaly Detection:patchcore

Mvtec AD Dataset

Deep Nearest Neighbor Anomaly Detection 

Eran’s Linkdin

פרק 23- איך ניגשים לפרויקט AI

בפרק הזה אני (תמיר) ואורי כפרילאנסרים בעולמות ה ML דיברנו על איך ניגשים לפרויקט חדש. מה שואלים את הלקוח או יוזם הפרויקט.

היה מעניין לראות דברים דומים בניסיון ששנינו צברנו אך גם שוני בפרויקטי Vision ופרויקטי NLP & Recommendation.

הדברים המשותפים הינם להגדיר ממש בהתחלה את מדדי ההצלחה, מבחינת היזם הלאו דווקא טכני,

והדגש העיקרי הינו תיאום ציפיות בהתחלה ולאורך כל הדרך.

הבדל הינו למשל עניין המוניטורינג שבעולמות ה Vision מאוד שונה מעולם ה Recommendation.

הדיון שלנו היה סביב שלושה פרויקטים (דימיוניים – או שלא…): זיהוי אלימות מתוך וידאו של מצלמות אבטחה, זיהוי מה ומי לא החזיר משקולת למקום במכון כושר, ומנוע חיפוש מותאם לאתר.

פרק 22- Co-Pilot – Codex ויצירה של קוד עם מודלי שפה

הקופיילוט של גיטהאב הכניס למודעות תחום מחקר מרתק של Program Synthesis

העוסק ביצירה של קוד מתוך טקסט או מתוך דוגמאות הרצה.

אורי, כמשתמש נלהב של טייס המשנה יספר מהחוויות שלו על השימוש – החוזקות והחולשות של הכלי.

ונדבר על קודקס, מודל השפה ש Open AI אימנו על גיטהאב, וכיצד הוא עובד.

כמו כן נסקור את תחום עיבוד השפה הפורמלי (לעומת שפה טבעית) ומה ההבדלים במטריקות והאתגרים הדומים והשונים.

copilot

פרק 21- שישה מאמרים שכל דאטא סיינטינסט חייב להכיר עם שקד זיכלינסקי

האם באמת ישנם מספר בודד של מאמרים שכל דאטאסיינטיסט חייב להכיר ? האם יש מספר בודד של מאמרים שמכסים את הבסיס של מרבית מה שמתעסקים בתעשייה ? מהם המאמרים שעשו שינוי והשפעה הגבוהה ביותר ?

אז לא בטוח שזה באמת כיסוי שלם… אבל בואו ננסה: Transformers, BERT, AlphaGo, AlphaGo, StyleGan, CLIP ו YouTube Recommendation.

בפרק זה נראיין את שקד שכתב פוסט מעולה ובו ייתן תמצית של כל אלו:

Attention Is All You Need

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

Deep Neural Networks for YouTube Recommendations

Mastering the game of Go with deep neural networks and tree search

Learning Transferable Visual Models From Natural Language Supervision

A Style-Based Generator Architecture for Generative Adversarial Networks

הכתבה של שקד

פרק 20- Novel Class Discovery עם זיו פרוינד

בפרק זה נעסוק בבעיות classification & clustering כשלא כל הקלאסים ידועים מראש. הבעיה נקראת Novel Class Discovery והאורח שלנו זיו פרוינד יתאר לנו כמה פתרונות אפשריים.

Ziv freund: Ziv.freund@elbitsystems.com

קישורים

Hassen, Mehadi and Philip K. Chan. “Learning a Neural-network-based Representation for Open Set Recognition.” ArXiv abs/1802.04365 (2020): n. pag.

 Hsu, Yen-Chang, ZhaoyangLv, and Zsolt Kira. “Learning to cluster in order to transfer across domains and tasks.” ICLR 2018

 Yang, Bo, et al. “Towards k-means-friendly spaces: Simultaneous deep learning and clustering.” international conference on machine learning. PMLR, 2017.

 Geng, Chuanxing, Sheng-jun Huang, and Songcan Chen. “Recent advances in open set recognition: A survey.” IEEE transactions on pattern analysis and machine intelligence 43.10 (2020): 3614-3631.

 Min, Erxue, et al. “A survey of clustering with deep learning: From the perspective of network architecture.” IEEE Access 6 (2018): 39501-39514

 

פרק 19- Multi-Task Learning עם איתי מרגולין

תיאור הפרק

בפרק זה שוחחנו עם איתי מרגולין על המושג Multitask learning – למידת ריבוי משימות. ישנם הרבה מקרים בהם יש לנו משימות דומות במובן שהקלט (אוסף הפיצ’רים) זהים לכל משימה על אף שהפרדיקציה (והלייבלים) שונים.

למשל משימות כמו האם לקוח של בנק יחזיר הלוואה והאם הוא ייכנס למינוס בשנה הקרובה ?

אותם נתוני קלט אבל פרדיקציה שונה. דוגמאות רבות לכך ניתן למצוא בעולם הויז’ן (תמונה אחת, מסקנות שונות), הטקסט, הרכב האוטונומי, המדיקל ועוד…

איתי סיפר לנו על האתגרים שיש כשמאמנים מודל אחד לכמה משימות שונות, כמו מהו החלק המשותף במודל ומאיפה לפצל אותו, כמו המישקול העדין בין הלוסים השונים לכל משימה.

המסר של הפרק: תנסו את זה בבית ! זה יכול לעבוד טוב יותר ובטח אם יש לנו מחסור של דאטא למשימה אחת ומספיק למשימה אחרת.

קישורים

עבודה יפהפיה שמתארת את האתגר של MTL בהקשר קיבוץ המשימות http://taskgrouping.stanford.edu/

אנדרי מדבר על MTL בטסלה: https://www.youtube.com/watch?v=IHH47nZ7FZU

תיאור מאוד ברור (אם כי קצת שטחי) על מולטיטאסק: https://www.youtube.com/watch?v=ckQuvrksP4k

מאמר שמדבר על משקול של הלוסים: https://arxiv.org/pdf/1705.07115.pdf

פרק 18- מערכות המלצה עם דנה קנר

 

כמשתמשים אנחנו נחפשים למערכות המלצה כל הזמן, בין אם זה בסופר בקניות או בגלילת סרטים בנטפליקס.

בפרק זה נדבר עם דנה, על איך טאבולה, ענקית ההמלצות העולמית ממליצה לנו על כתבות דומות כשאנחנו גולשים באינטרנט.

נדבר על המלצות מבוססות תוכן בלבד content filtering

המלצות מבוססות אינטראקציות בלבד, בהשראת פרס נטפליקס 2009 collaborative filtering

ונדבר על מימושים כגון וריאציות על matrix factorization

ו factorization machines כדי לשלב גם תכנים וגם התנהגות משתמשים להמלצה אחת.

כמו כן נדבר על איך טאבולה עושים Transfer learning כשיש טראפיק מועט, או כשיש תלות גדולה בין אתרים.

פרק 17- זיהוי אוביקטים עם אברהם רביב

בפרק זה אירחנו את אברהם רביב שמוכר בקהילה בזכות הסקירות מאמרים המעולות שלו. בפרק דיברנו על בעיית ה Object Detection ב Computer Vision. עשינו סדר במושגים שיש בעולם הסגמנטציה instance segmentation, semantic segmentation, object detection וכו’

דיברנו על מדדי הצלחה כגון IOU=Intersection Over Union, על ההבדלה בין ה one stage ל two stage ובפרט על גישת ה anchors ועל ה non maximal supression שעושים לאחר רוב האלגוריתמים המקובלים.

אלגוריתמים עליהם דיברנו: Yolo, Detr, Dino, Detreg.

קישורים רלוונטיים:

פרק 16 – DDPM עם מייק ארליכסון

 

בפרק זה (שוב) אירחנו את מייק האגדי ושוב צללנו לעולם ה Generative models, אבל הפעם לטכניקה שלאחרונה קיבלה הרבה תשומת לב : DDPM=Denoising Diffusion Probabilistic Models.

כמו כל מודל ג’נרטיבי מדובר בטכניקה שלומדת Data כלשהוא ולומדת לחולל דוגמאות חדשות.

הסיבה שטכניקה זו קיבלה הרבה תשומת לב נמצאת בכותרת המאמר היחסית חדש (2021): “Diffusion Models Beat GANs on Image Synthesis”

מודל GAN (אותו סקרנו בפרק 16 של amlek.ai) הינו כבר שנים המפורסם ביותר בג’ינרוט תמונות ודוגמאות בכלל וגם נחשב עד לא מזמן כמוצלח ביותר כזייפן. ולראשונה DDPM טוען לניצחון היסטורי.

מייק סיפר לנו על העיקרון של DDPM לפיו לוקחים דוגמא ובכל איטרציה מוסיפים לה רעש גאוסיאני. אם עושים זאת מספיק פעמים התמונה המקורית נבלעת ברעש לגמרי. תהליך זה נקרא דיפוזיה.

ואז מה שעושים זה מאמנים מודל לנבא את התהליך ההפוך של הסרת רעש (denoising) , ז”א בהינתן תמונה עם רעש באיטרציה n המודל מנסה לשחזר את התמונה עם הפחות רעש מאיטרציה n-1.

מייק סיפר לנו על כמה טריקים שגורמים לרעיון הזה גם לעבוד וגם עסקנו במדדיי ההצלחה FID ו IS על פיהם DDPM גובר על GAN. (מדדים אלו מבוססים על תגובת רשת INCEPTION המאומנת לסיווג תמונות על התמונות המזויפות לעומת התמונות האמיתיות).

אם לסכם את ההשוואה: DDPM מזייף יותר טוב ומתכנס יותר בקלות, אך איטי יותר הן באימון ויותר חשוב מזה באינפרנס.

קישורים רלוונטיים:

פרק 15 – MLOps עם אורן רזון

בפרק זה אירחנו את אסף רזון שעשה לנו סדר בעולם ה MLOps, למה צריך את זה בכלל ומהם המרכיבים העיקריים:

מחקר – כלי ניהול ושיתוף של אימוני מודלים

הפעלת המודל בחיים האמיתיים (serving)

ניהול “חנות פיצ’רים” – שאמורה לשמש למגוון מפתחים על מגוון משימות

אובזרבביליות המודלים – שעוסק בניהול המודל והפעלה שלו לאורך זמן (ניתוח הצלחות\כשלונות, שאילתות וכו’).

ניהול הדאטא – גירסאות, כלי תיוגים, וכו’

נראה שהעולם הזה עוד חדש אבל די מקביל לתהליכים שהתרחשו בעולם התוכנה. 

 

קישורים רלוונטיים:

Building your MLOps roadmap

Build or buy? Choosing the right strategy for your model observability

Superwise Community Edition

פרק 14 – Machine Learning Engineering עם אסף פנחסי

בפרק זה ראיינו את אסף פנחסי שדיבר איתנו על התפקיד של ההנדסה בעולם ה Machine Learning. אסף גילה לנו שלא הכל זה Research וצריך פה גם מיינדסט קצת אחר בצוות של Data Science.

מישהו שיחשוב על Unit Tests, מישהו שינהל את ה Pipeline וה Tooling של ה Data. ולא, לא מדובר רק על MLOPS (אגב, אסף גם סוף סוף היסביר לנו מה זה…)

אסף נתן לנו דוגמאות שהוא נתקל בהם בתעשייה שלנו, בקיצור, האזינו היה מעניין!

פרק 13 – סטטיסטיקה בייסיאנית

סטטיסטיקאים נחצים ל2 מחנות: הסטטיסטיקאים הקלאסיים-תדירותיים, והסטטיסטיקאים הבייסיאנים.

סטטיסטיקה בייסיאנית היא גישה שונה לסטטיסטיקה, שמנסה לדון בסבירות לא רק של הדאטא הנצפה בהנתן השערה, אלא גם בסבירות של הפרמטרים של ההתפלגות.

מודלים רבים כגון GMM, Naive Bayes  ו Latent Dirrechlet allocation

מתבססים על סטטיסטיקה בייסיאנית, ולאחרונה גם רשתות נוירונים זוכות לפרשנות בייסיאנית.

בפרק נדבר על ההבדלים, ועל האומדים השונים של 2 הגישות.

קישורים:

פרק 12 – ניווט אינרציאלי עם ברק אור

בפרק זה אירחנו את ברק אור שסיפר לנו על ניווט אינרציאלי.

כשאומרים ניווט אינרציאלי מתכוונים בעיקר לשיערוך מיקום  (x,y ולפעמים גם z) ומהירות בהינתן מדידות מחיישני IMU כמו ג’ירו (מד מהירות זוויתית), אקסלרומטר (מד תאוצה קווית) ולפעמים גם מצפן ומד לחץ אוויר.

לכאורה אמורים לעשות אינטגרל על מהירות ולקבל העתק, או אינטגרל על תאוצה ולקבל מהירות אבל בגלל שהקריאות כל כך רועשות יש סחיפה מאוד גדולה בשיערוך וחייבים להשתמש בכלים נוספים.

דיברנו על איך עושים היתוך מידע מהמדדים השונים כדי לקבל שיערוך מיקום וכמובן על מסנן קלמן שהינו מסנן לניקוי רעשים מאוד אפקטיבי שהומצא עוד בשנות השישים. 

דיברנו על הנחות המודל והפרמטרים של מסנן קלמן ועל הדוקטורט של ברק העוסק באיך מהפכת הלמידה העמוקה משדרגת את מסנן קלמן וזאת באמצעות ניבוי הכיול של הפרמטרים של קלמן.

קישורים רלוונטיים:

פרק 11 – על בינה מלאכותית בסייבר עם רועי טבח

בפרק זה ראיינו את רועי טבח שייספר לנו על האתגרים בעולם הסייבר,

דיברנו על שימוש  באנומלי דטקשן להתראה על אירועים חשודים בלוגים של מערכות.

ודיברנו על מירוץ החימוש הנצחי בין התוקפים למגינים

קישורים:

Elastic released a model for command line ‘badness’ prediction https://medium.com/adobetech/living-off-the-land-lotl-classifier-open-source-project-b167484c8187

פרק 10 – מה זה Proximal Policy Optimization

בפרק זה דיברנו על אחד האלגוריתמים המפורסמים ומוצלחים ביותר שיש כיום בעולם ה Reinforcement Learning. דיברנו על מוטיבציה כללית והזכרנו מושגי יסוד כללים בתחום כמו state, action, reward, environment ומשם עברנו לדבר על הגישה האלגוריתמית Policy Gradients. בגישה זו מקליטים מסלולים של הסוכן שפועל בסביבה ואז משתמשים במידע שנצבר כדי לעשות צעד backpropagation למשקלי המודל.

כידוע עידכון המשקלים הקלאסי הינו gradient descent אבל בגלל חוסר היציבות המובנה של בעיות RL החידוש פה הוא להשתמש ב Natural Gradient Descent ולכן לפונקציית מחיר אחרת בה משתמשים ב PPO.

הנושא מאוד מתמטי, מקווים שהצלחנו לתת רקע ראשוני בעל פה…

קישורים רלוונטיים:

פרק 9 -בנדיטים עם דניאל חן

בפרק זה אירחנו את דניאל חן מפייבר, לדבר על אלגוריתמי בנדיטים.

Multi armed bandit היא גרסה מנוונת של Reinforcement learning

אבל שימושית מאוד, עם אלגוריתמים ייחודיים לפתרון יעיל. נדבר על שימושים בעולמות הפרסום, תימחור דינמי, ואיך מכניסים קונטקסט לבנדיטים ושומרים על שפיות.

קישורים:

 

פרק 8 – Variational Auto Encoders

בפרק זה נארח את מייק ארליכסון  שידבר איתנו על VAE. נדבר באופן עללי על מהם מודלים ג’נרטיביים (בין השאר GAN) אבל נתעמק דווקא בפחות פופולארי שנקרא Variational Auto Encoders. נעסוק בחסרונות ויתרונות ונדבר לפחות באופן אינטואטיבי על איך הוא עובד. לבסוף גם נזכיר שילובים של VAE עם GAN.

קישורים:

פרק 7 – עצי החלטה – חוזרים לבסיס

בפרק זה נחזור לבסיס ונדבר על עצי החלטה, המודל הבסיסי והאינטואטיבי ביותר – שעדיין עובד יותר טוב על דאטא טבלאי.

נדבר על שיטות אימון חמדניות, ועל שימוש באנטרופיה כקירוב. ונתאר מה ההבדל בין שיטות ה ensemble הנפוצות, boosting and bagging.

קישורים

 

פרק 6 – למידה ניגודית Contrastive Learning

נראה שלמידה ניגודית מקבלת המון תשומת לב לאחרונה, בעיבוד תמונה, טקסט ואפילו דאטא טבלאי.

נדבר על המאמר פורץ הדרך של הינטון SimCLR ונשווה אותו אל מול שיטות קלאסיות של הורדת מימד.

קישורים:

  1. פוסט על טריפלט לוס: https://towardsdatascience.com/lossless-triplet-loss-7e932f990b24
  2. מאמר של הינטון: https://arxiv.org/pdf/2002.05709.pdf
  3. פוסט מוצלח על SimCLR
  4. שימוש בקונטרסט למשימות supervised, מאמר שהראה שיפור על imagenet
    https://medium.com/deep-learning-reviews/supervised-contrastive-learning-paper-review-606818c88c69
  5. Representation learning

פרק 5 – פדיחות של למידה

בהמשך לסיקור החדשותי של Zillow, והחיזוי מחירי נדלן שהביאו להפסדים של מיליארדים – תמיר ואורי מתוודאים על פדיחות שעשו בפרויקטים.

מה קורה כשהמודל מושלם אבל תהליך יצירת הדאטא פחות ? איך פרויקט תיוג יכול להשתבש ולהתפוצץ בפנים, וכמובן – כמה חשוב לקרוא את האותיות הקטנות בדוקומנטציה.

קישורים:

פרק 4 – עיבוד קול עם אמיר עברי

בפרק זה אירחנו את אמיר עברי להסביר לנו על עיבוד קול, מה הם השלבים השונים בפייפליין של Speech recognition ועל האתגרים בתחום. בפרק נדבר על שיטות כגון MFCC לעיבוד אותות שמע, וכיצד אפשר להתמודד עם המימד הגבוה עםטכניקות כמו Diffusion maps כדי לאפשר עיבוד בזמן אמת.

קישורים:

פרק 3 – על התאוריה של דיפ לרנינג, עם גלעד יהודאי

על מהפכת הדיפ לרנינג לא צריך להרחיב, כולנו מכירים וחלקנו אף מימשנו.

אבל למה לעזאזל הדבר הזה עובד ? בפרק זה אירחנו את גלעד יהודאי, סטודנט לדוקטורט לתחום ושאלנו אותו את השאלות הקשות.

נלמד מה זה “אוברפיטינג שפיר” מה היא תופעת ה”ירידה הכפולה” ומה הם שלושת סוגי הטעויות בלמידה.

פרק 2 – עיבוד שפה בעברית עם פרופ’ רעות צרפתי

בפרק זה אורי מארח את רעות צרפתי לדבר על עיבוד שפה בעברית.

מה ההבדל בכלל בין עברית לאנגלית ? למה זה יותר קשה ?

האם החיים היו יותר קלים אם היינו כותבים עם ניקוד ?

ודיברנו על ההבדלים הבלשניים של שפות שמיות (עברית וערבית) אל מול שפות הודו אירופאיות.

פרק 1 – Positive Unlabeled Learning שי פלצ‘י על

קיבלתם פעם דאטאסט עם “כל הדברים שחשוב לזהות” אבל בלי אף דוגמא שלילית ?

אני בטוח שכן, אפשרות אחת לפתרון היא למדל את הבעיה כקלאסיפיקציה ואיכשהו להמציא דוגמאות שליליות.

או, לחילופין למדל את הבעיה כ

Positive Unlabeled Learning

אבל מה זה ?

שי פלצ’י יסביר לנו ויספר על הספריה שלו

pu-learn

ויענה לנו על שאלות מטרידות כגון מה ההבדל בין PU לבין One Class Classification  או Anomaly Detection.
למה צריך את זה ? דוגמאות מוחשיות.
מהן ההנחות בעולם ה PU ?
איך מודדים (מטריקות) סיווג כזה ? האם עם מטריקות קלאסיפיקציה רגילות ?
וכמובן נסקור טכניקות ואלגוריתמים בתחום ונתעמק בעיקר ב IEM – interactive expectation maximization,

קישורים רלוונטיים:

Learning Classifiers from Only Positive and Unlabeled Data
A bagging SVM to learn from positive and unlabeled examples
Pulearn
Shay’s slides

פרק 0 – מי אנחנו ?

זהו פרק מבוא קצרצר לגילגול החדש של הפודקאסט בו אנו מספרים מי הוא תמיר נווה ומי הוא אורי גורן, למה החלטנו להתחיל עם הפודקאסט, ומה היינו רוצים שיהיה בפרקים הבאים.

AMLEK.AI

קרדיט לפס קול המעולה!!!

פרק 18- AlgoTrading

בפרק זה, התארחנו ב weel.com, ואירחנו את יגאל ויינברגר, שדיבר איתנו על AlgoTrading. שוחחנו על סוגי אלגוטריידינג (Sell side, Buy side, HFT), ועל גישות האלגוריתמים בתחום: כלים סטטיסטיים סטנדרטיים, LSTM, Reinforcement Learning. בנוסף, הצגנו כיצד אפשר להיכנס לתחום, ויגאל אפילו נתן לנו אלגוריתם baseline להתחיל לשחק איתו. האותיות הקטנות של האזהרה: כן לנסות את זה בבית, אבל לא כ”כ מהר על כסף אמיתי!

קישורים רלוונטיים:

פרק 17- Models Discrimination

בפרק זה, נארח את אופיר יוקטן – שמתעסק בניבוי התאמה של קורות חיים. אופיר יציג כיצד הוא מתמודד עם מודלים מפלים על רקע מגדרי\גזעני. נעסוק בשיטות להתמודדות עם הבעיה הזו: העלמת או הינדוס פיצ’רים, אימון עם Database מאוזן, ושיטת Gradient reversal layer.

קישורים:

פרק 16 – Generative Adversarial Networks

בפרק זה, נדבר על מודלים ג’נרטיביים, ובפרט על מהפכת ה-GAN=Generative Adversarial Networks. איך עובד הקסם? תחרות בין מודלים – האחד שמזייף, והשני שמגלה זיופים. וקצת על כל הנגזרות של האלגוריתם, שבאו כפטריות אחרי הגשם.

קישורים:

פרק 15 – Transformers – האבולוציה של ניתוח סדרות בזמן

בפרק זה, נסקור את ההשתלשלות של ניתוח סדרות בזמן החל מ-RNN, דרך Attention Models ועד ל-Transformers.
נדבר על Self Attention, Multi Headed Attention, LSTM, RNN, GRU, Transformers ו-DeTR.

קישורים רלוונטיים:

 

פרק 14 -Graph Neural Nets – שיכון גרפים

בפרק זה נארח את אלה בור, שתספר לנו על מהם גרפים (קשתות וצמתים), על בעיות המיוצגות ע”י גרפים ועל שיכון גרפים במרחב אוקלידי (GNN, Node2Vec).
קישורים:

פרק 13 – תלת מימד

 

בפרק זה אנו נארח את פיטר נפתלייב הבלוגר ומנהל קהילת /r/2D3DAI שידבר איתנו על עולם התלת מימד.

נעסוק ביישומים ובסוגי הבעיות בתחום. נסקור ייצוגים של DATA תלת מימדי: Cad, Mesh, Voxel, Points Cloud.

קישורים רלוונטיים:

פרק 12 – Gaussian Process Regression/ Kriging

בפרק זה נדבר על שיטת רגרסיה, שנקראת Kriging או Gaussian process regression – שיטה בייסיאנית שהחלה במטרה לאתר מכרות זהב. נדבר על מושגי מבוא, כמו: משתנה אקראי גאוסי ותהליך אקראי גאוסי, ועל משפט הגאוסיאני המותנה. קישורים רלוונטיים:

פרק 11 – Curriculum Learning – תכניות אימון למודלים

בפרק זה נעסוק בתחום ה-Curriculum Learning – מה זה ולמה זה טוב? איך מסדרים בסדר מוצלח יותר את דוגמאות האימון ולפי אילו מדדים? בשיחה, נדבר על המרכיבים המקובלים – scoring ו-pacing, ועל מתודולוגית Teacher-Student.

קישורים רלוונטיים:

 

פרק 10 – אינטרו לפורייה Fourier Transform

בפרק זה, נשוחח על מהי התמרת פורייה. מוטיבציות, שימושים, Time Series והקשר ללמידה עמוקה.
קישורים רלוונטיים:

פרק 9 – איך לבלבל מודלים ?

בפרק זה, נדבר על Adversarial Attacks, על איך מייצרים Adversarial Examples בשיטת FGSM, על התקפות White or Black box models ונזכיר Certifiable Robustness.

פרק 8 – הורדת מימדים

בפרק זה נדבר על הורדת מימדים – Dimensionality reduction. נעסוק במוטיבציות (קללת המימדים), ובאלגוריתמים PCA, T-SNE, AutoEncoders, SOM.

קישורים רלוונטיים:

פרק 7 – Clustering

בפרק זה נעסוק בבעיה הכי שכיחה בעולם unsupervised הרי היא בעיית ה clustering (ניתוח אשכולות). נדבר על משפחות אלגוריתמים (top down – bottom up, soft  – hard, metric/graph/distribution based). ונעסוק במדדי הצלחה קלאסיים (silhouette, dunn index, DB index, Rand index) ומדדי הצלחה תלויי בעיה.

קישורים רלוונטיים:

פרק 6 – פרשנות מודלים (XAI)

בפרק זה נעסוק באיך מפרשים מודלים ואיך מבינים את ההחלטות שלהם. תחום רחב זה נקרא Explainable artificial intelligence או Interpretable machine learning. בפרק נעסוק בטכניקות השונות שיש בתחום ובפרט ב ZF-NET, DeepDream, GradCam, Lime, Shap.

קישורים רלוונטיים:

פרק 5 – NLPH (NLP In Hebrew)

בפרק זה נדבר על עיבוד טקסט בעברית, ונציג כיצד הוא שונה משפות אחרות, ובפרט מאנגלית. נשוחח על ה-NLP Pipeline ועל למה הוא שבור בעברית, ונדבר על התחביר של עברית והתכונות הייחודיות של שפות שמיות.

קישורים רלוונטיים:

פרק 4 – All Multi’s

בפרק זה נדבר על כל ה-Multi’s וננסה לעשות סדר במושגים שנוטים לבלבל:

multi class classification, multi label classification, multi task learning, Multi objective, Multiple modality.

נגדיר כל מושג, ניתן דוגמאות ונדון בסוגיות ומימושים סביב כל מושג. קישורים רלוונטיים:

פרק 3 – מבוא ל Active Learning

בפרק זה נדבר על מהי Active Learning, כמה זה נפוץ ומתי ניתן לעשות זאת. נדבר על קריטריוני החלטה (Query Strategies):

 Least Confidence ,Margin Sampling ,Entropy Sampling ונזכיר את ההבדלים במתודולוגיות:
Membership Query Synthesis, Stream-Based Selective Sampling, Pool-Based Sampling.

לסיום נדון ב-Active Learning כבעיית Reinforcement Learning.

קישורים רלוונטים\שהזכרנו:

פרק 2 – מבוא ל Reinforcement Learning

בפרק זה נדבר על למידה חיזוקית – Reinforcement Learning. נדבר על מושגי היסוד בתחום (environment, state, policy, agent, reward), על סיווג של התחום הזה ב Machine Learning, על למה זה נהיה מאוד פופולארי, על הקשיים בתחום ועל דילמת ה Exploration – Exploitation.

קישורים שהוזכרו:

שיתוף פעולה בין סוכנים במשחק המחבואים

שיתוף פעולה בין סוכנים במשחק תפוס את הדגל

סדרת הרצאות של David Silver

Agent57 – מודל אחד שמשחק ברמה אנושית ב 57 משחקים

BRETT- הרובוט שמרכיב לגו

  MuJoCo מנוע המדמה את חוקי הפיסיקה

פרק 1 – The Lottery Ticket Hypothesis

בפרק זה, נעסוק ב-Neural Network Pruning, כאשר נתמקד בפרט במאמר פורץ דרך מ2019, שנקרא “THE LOTTERY TICKET HYPOTHESIS: FINDING SPARSE TRAINABLE NEURAL NETWORKS”, מבית היוצר של MIT.

במאמר זה, מציעים דרך מעניינת לקצץ רשת גדולה במעל 80% מהמשקלים שלה בצורה כזו שהביצועים (ה-accuracy) לא ייפגעו.

קישורים שהוזכרו בפרק:

פרק 0 – מי אנחנו ?

זהו פרק מבוא קצרצר בו אנו מספרים מי הוא תמיר נווה ומי הוא אורי גורן, למה החלטנו להתחיל עם הפודקאסט, ומה היינו רוצים שיהיה בפרקים הבאים.

פודקאסט על בינה מלאכותית

explAInable

 

פרק 15 – MLOps עם אורן רזון

פרק 14 – Machine Learning Engineering עם אסף פנחסי

בפרק זה ראיינו את אסף פנחסי שדיבר איתנו על התפקיד של ההנדסה בעולם ה Machine Learning. אסף גילה לנו שלא הכל זה Research וצריך פה גם מיינדסט קצת אחר בצוות של Data Science.

מישהו שיחשוב על Unit Tests, מישהו שינהל את ה Pipeline וה Tooling של ה Data. ולא, לא מדובר רק על MLOPS (אגב, אסף גם סוף סוף היסביר לנו מה זה…)

אסף נתן לנו דוגמאות שהוא נתקל בהם בתעשייה שלנו, בקיצור, האזינו היה מעניין!

פרק 13 – סטטיסטיקה בייסיאנית

סטטיסטיקאים נחצים ל2 מחנות: הסטטיסטיקאים הקלאסיים-תדירותיים, והסטטיסטיקאים הבייסיאנים.

סטטיסטיקה בייסיאנית היא גישה שונה לסטטיסטיקה, שמנסה לדון בסבירות לא רק של הדאטא הנצפה בהנתן השערה, אלא גם בסבירות של הפרמטרים של ההתפלגות.

מודלים רבים כגון GMM, Naive Bayes  ו Latent Dirrechlet allocation

מתבססים על סטטיסטיקה בייסיאנית, ולאחרונה גם רשתות נוירונים זוכות לפרשנות בייסיאנית.

בפרק נדבר על ההבדלים, ועל האומדים השונים של 2 הגישות.

קישורים:

פרק 12 – ניווט אינרציאלי עם ברק אור

בפרק זה אירחנו את ברק אור שסיפר לנו על ניווט אינרציאלי.

כשאומרים ניווט אינרציאלי מתכוונים בעיקר לשיערוך מיקום  (x,y ולפעמים גם z) ומהירות בהינתן מדידות מחיישני IMU כמו ג’ירו (מד מהירות זוויתית), אקסלרומטר (מד תאוצה קווית) ולפעמים גם מצפן ומד לחץ אוויר.

לכאורה אמורים לעשות אינטגרל על מהירות ולקבל העתק, או אינטגרל על תאוצה ולקבל מהירות אבל בגלל שהקריאות כל כך רועשות יש סחיפה מאוד גדולה בשיערוך וחייבים להשתמש בכלים נוספים.

דיברנו על איך עושים היתוך מידע מהמדדים השונים כדי לקבל שיערוך מיקום וכמובן על מסנן קלמן שהינו מסנן לניקוי רעשים מאוד אפקטיבי שהומצא עוד בשנות השישים. 

דיברנו על הנחות המודל והפרמטרים של מסנן קלמן ועל הדוקטורט של ברק העוסק באיך מהפכת הלמידה העמוקה משדרגת את מסנן קלמן וזאת באמצעות ניבוי הכיול של הפרמטרים של קלמן.

קישורים רלוונטיים:

פרק 11 – על בינה מלאכותית בסייבר עם רועי טבח

בפרק זה ראיינו את רועי טבח שייספר לנו על האתגרים בעולם הסייבר,

דיברנו על שימוש  באנומלי דטקשן להתראה על אירועים חשודים בלוגים של מערכות.

ודיברנו על מירוץ החימוש הנצחי בין התוקפים למגינים

קישורים:

Elastic released a model for command line ‘badness’ prediction https://medium.com/adobetech/living-off-the-land-lotl-classifier-open-source-project-b167484c8187

פרק 10 – מה זה Proximal Policy Optimization

בפרק זה דיברנו על אחד האלגוריתמים המפורסמים ומוצלחים ביותר שיש כיום בעולם ה Reinforcement Learning. דיברנו על מוטיבציה כללית והזכרנו מושגי יסוד כללים בתחום כמו state, action, reward, environment ומשם עברנו לדבר על הגישה האלגוריתמית Policy Gradients. בגישה זו מקליטים מסלולים של הסוכן שפועל בסביבה ואז משתמשים במידע שנצבר כדי לעשות צעד backpropagation למשקלי המודל.

כידוע עידכון המשקלים הקלאסי הינו gradient descent אבל בגלל חוסר היציבות המובנה של בעיות RL החידוש פה הוא להשתמש ב Natural Gradient Descent ולכן לפונקציית מחיר אחרת בה משתמשים ב PPO.

הנושא מאוד מתמטי, מקווים שהצלחנו לתת רקע ראשוני בעל פה…

קישורים רלוונטיים:

פרק 9 -בנדיטים עם דניאל חן

בפרק זה אירחנו את דניאל חן מפייבר, לדבר על אלגוריתמי בנדיטים.

Multi armed bandit היא גרסה מנוונת של Reinforcement learning

אבל שימושית מאוד, עם אלגוריתמים ייחודיים לפתרון יעיל. נדבר על שימושים בעולמות הפרסום, תימחור דינמי, ואיך מכניסים קונטקסט לבנדיטים ושומרים על שפיות.

קישורים:

 

פרק 8 – Variational Auto Encoders

בפרק זה נארח את מייק ארליכסון  שידבר איתנו על VAE. נדבר באופן עללי על מהם מודלים ג’נרטיביים (בין השאר GAN) אבל נתעמק דווקא בפחות פופולארי שנקרא Variational Auto Encoders. נעסוק בחסרונות ויתרונות ונדבר לפחות באופן אינטואטיבי על איך הוא עובד. לבסוף גם נזכיר שילובים של VAE עם GAN.

קישורים:

פרק 7 – עצי החלטה – חוזרים לבסיס

בפרק זה נחזור לבסיס ונדבר על עצי החלטה, המודל הבסיסי והאינטואטיבי ביותר – שעדיין עובד יותר טוב על דאטא טבלאי.

נדבר על שיטות אימון חמדניות, ועל שימוש באנטרופיה כקירוב. ונתאר מה ההבדל בין שיטות ה ensemble הנפוצות, boosting and bagging.

קישורים

 

פרק 6 – למידה ניגודית Contrastive Learning

נראה שלמידה ניגודית מקבלת המון תשומת לב לאחרונה, בעיבוד תמונה, טקסט ואפילו דאטא טבלאי.

נדבר על המאמר פורץ הדרך של הינטון SimCLR ונשווה אותו אל מול שיטות קלאסיות של הורדת מימד.

קישורים:

  1. פוסט על טריפלט לוס: https://towardsdatascience.com/lossless-triplet-loss-7e932f990b24
  2. מאמר של הינטון: https://arxiv.org/pdf/2002.05709.pdf
  3. פוסט מוצלח על SimCLR
  4. שימוש בקונטרסט למשימות supervised, מאמר שהראה שיפור על imagenet
    https://medium.com/deep-learning-reviews/supervised-contrastive-learning-paper-review-606818c88c69
  5. Representation learning

פרק 5 – פדיחות של למידה

בהמשך לסיקור החדשותי של Zillow, והחיזוי מחירי נדלן שהביאו להפסדים של מיליארדים – תמיר ואורי מתוודאים על פדיחות שעשו בפרויקטים.

מה קורה כשהמודל מושלם אבל תהליך יצירת הדאטא פחות ? איך פרויקט תיוג יכול להשתבש ולהתפוצץ בפנים, וכמובן – כמה חשוב לקרוא את האותיות הקטנות בדוקומנטציה.

קישורים:

פרק 4 – עיבוד קול עם אמיר עברי

בפרק זה אירחנו את אמיר עברי להסביר לנו על עיבוד קול, מה הם השלבים השונים בפייפליין של Speech recognition ועל האתגרים בתחום. בפרק נדבר על שיטות כגון MFCC לעיבוד אותות שמע, וכיצד אפשר להתמודד עם המימד הגבוה עםטכניקות כמו Diffusion maps כדי לאפשר עיבוד בזמן אמת.

קישורים:

פרק 3 – על התאוריה של דיפ לרנינג, עם גלעד יהודאי

על מהפכת הדיפ לרנינג לא צריך להרחיב, כולנו מכירים וחלקנו אף מימשנו.

אבל למה לעזאזל הדבר הזה עובד ? בפרק זה אירחנו את גלעד יהודאי, סטודנט לדוקטורט לתחום ושאלנו אותו את השאלות הקשות.

נלמד מה זה “אוברפיטינג שפיר” מה היא תופעת ה”ירידה הכפולה” ומה הם שלושת סוגי הטעויות בלמידה.

פרק 2 – עיבוד שפה בעברית עם פרופ’ רעות צרפתי

בפרק זה אורי מארח את רעות צרפתי לדבר על עיבוד שפה בעברית.

מה ההבדל בכלל בין עברית לאנגלית ? למה זה יותר קשה ?

האם החיים היו יותר קלים אם היינו כותבים עם ניקוד ?

ודיברנו על ההבדלים הבלשניים של שפות שמיות (עברית וערבית) אל מול שפות הודו אירופאיות.

פרק 1 – Positive Unlabeled Learning שי פלצ‘י על

קיבלתם פעם דאטאסט עם “כל הדברים שחשוב לזהות” אבל בלי אף דוגמא שלילית ?

אני בטוח שכן, אפשרות אחת לפתרון היא למדל את הבעיה כקלאסיפיקציה ואיכשהו להמציא דוגמאות שליליות.

או, לחילופין למדל את הבעיה כ

Positive Unlabeled Learning

אבל מה זה ?

שי פלצ’י יסביר לנו ויספר על הספריה שלו

pu-learn

ויענה לנו על שאלות מטרידות כגון מה ההבדל בין PU לבין One Class Classification  או Anomaly Detection.
למה צריך את זה ? דוגמאות מוחשיות.
מהן ההנחות בעולם ה PU ?
איך מודדים (מטריקות) סיווג כזה ? האם עם מטריקות קלאסיפיקציה רגילות ?
וכמובן נסקור טכניקות ואלגוריתמים בתחום ונתעמק בעיקר ב IEM – interactive expectation maximization,

קישורים רלוונטיים:

Learning Classifiers from Only Positive and Unlabeled Data
A bagging SVM to learn from positive and unlabeled examples
Pulearn
Shay’s slides

פרק 0 – מי אנחנו ?

זהו פרק מבוא קצרצר לגילגול החדש של הפודקאסט בו אנו מספרים מי הוא תמיר נווה ומי הוא אורי גורן, למה החלטנו להתחיל עם הפודקאסט, ומה היינו רוצים שיהיה בפרקים הבאים.

AMLEK.AI

קרדיט לפס קול המעולה!!!

פרק 18- AlgoTrading

בפרק זה, התארחנו ב weel.com, ואירחנו את יגאל ויינברגר, שדיבר איתנו על AlgoTrading. שוחחנו על סוגי אלגוטריידינג (Sell side, Buy side, HFT), ועל גישות האלגוריתמים בתחום: כלים סטטיסטיים סטנדרטיים, LSTM, Reinforcement Learning. בנוסף, הצגנו כיצד אפשר להיכנס לתחום, ויגאל אפילו נתן לנו אלגוריתם baseline להתחיל לשחק איתו. האותיות הקטנות של האזהרה: כן לנסות את זה בבית, אבל לא כ”כ מהר על כסף אמיתי!

קישורים רלוונטיים:

פרק 17- Models Discrimination

בפרק זה, נארח את אופיר יוקטן – שמתעסק בניבוי התאמה של קורות חיים. אופיר יציג כיצד הוא מתמודד עם מודלים מפלים על רקע מגדרי\גזעני. נעסוק בשיטות להתמודדות עם הבעיה הזו: העלמת או הינדוס פיצ’רים, אימון עם Database מאוזן, ושיטת Gradient reversal layer.

קישורים:

פרק 16 – Generative Adversarial Networks

בפרק זה, נדבר על מודלים ג’נרטיביים, ובפרט על מהפכת ה-GAN=Generative Adversarial Networks. איך עובד הקסם? תחרות בין מודלים – האחד שמזייף, והשני שמגלה זיופים. וקצת על כל הנגזרות של האלגוריתם, שבאו כפטריות אחרי הגשם.

קישורים:

פרק 15 – Transformers – האבולוציה של ניתוח סדרות בזמן

בפרק זה, נסקור את ההשתלשלות של ניתוח סדרות בזמן החל מ-RNN, דרך Attention Models ועד ל-Transformers.
נדבר על Self Attention, Multi Headed Attention, LSTM, RNN, GRU, Transformers ו-DeTR.

קישורים רלוונטיים:

 

פרק 14 -Graph Neural Nets – שיכון גרפים

בפרק זה נארח את אלה בור, שתספר לנו על מהם גרפים (קשתות וצמתים), על בעיות המיוצגות ע”י גרפים ועל שיכון גרפים במרחב אוקלידי (GNN, Node2Vec).
קישורים:

פרק 13 – תלת מימד

 

בפרק זה אנו נארח את פיטר נפתלייב הבלוגר ומנהל קהילת /r/2D3DAI שידבר איתנו על עולם התלת מימד.

נעסוק ביישומים ובסוגי הבעיות בתחום. נסקור ייצוגים של DATA תלת מימדי: Cad, Mesh, Voxel, Points Cloud.

קישורים רלוונטיים:

פרק 12 – Gaussian Process Regression/ Kriging

בפרק זה נדבר על שיטת רגרסיה, שנקראת Kriging או Gaussian process regression – שיטה בייסיאנית שהחלה במטרה לאתר מכרות זהב. נדבר על מושגי מבוא, כמו: משתנה אקראי גאוסי ותהליך אקראי גאוסי, ועל משפט הגאוסיאני המותנה. קישורים רלוונטיים:

פרק 11 – Curriculum Learning – תכניות אימון למודלים

בפרק זה נעסוק בתחום ה-Curriculum Learning – מה זה ולמה זה טוב? איך מסדרים בסדר מוצלח יותר את דוגמאות האימון ולפי אילו מדדים? בשיחה, נדבר על המרכיבים המקובלים – scoring ו-pacing, ועל מתודולוגית Teacher-Student.

קישורים רלוונטיים:

 

פרק 10 – אינטרו לפורייה Fourier Transform

בפרק זה, נשוחח על מהי התמרת פורייה. מוטיבציות, שימושים, Time Series והקשר ללמידה עמוקה.
קישורים רלוונטיים:

פרק 9 – איך לבלבל מודלים ?

בפרק זה, נדבר על Adversarial Attacks, על איך מייצרים Adversarial Examples בשיטת FGSM, על התקפות White or Black box models ונזכיר Certifiable Robustness.

פרק 8 – הורדת מימדים

בפרק זה נדבר על הורדת מימדים – Dimensionality reduction. נעסוק במוטיבציות (קללת המימדים), ובאלגוריתמים PCA, T-SNE, AutoEncoders, SOM.

קישורים רלוונטיים:

פרק 7 – Clustering

בפרק זה נעסוק בבעיה הכי שכיחה בעולם unsupervised הרי היא בעיית ה clustering (ניתוח אשכולות). נדבר על משפחות אלגוריתמים (top down – bottom up, soft  – hard, metric/graph/distribution based). ונעסוק במדדי הצלחה קלאסיים (silhouette, dunn index, DB index, Rand index) ומדדי הצלחה תלויי בעיה.

קישורים רלוונטיים:

פרק 6 – פרשנות מודלים (XAI)

בפרק זה נעסוק באיך מפרשים מודלים ואיך מבינים את ההחלטות שלהם. תחום רחב זה נקרא Explainable artificial intelligence או Interpretable machine learning. בפרק נעסוק בטכניקות השונות שיש בתחום ובפרט ב ZF-NET, DeepDream, GradCam, Lime, Shap.

קישורים רלוונטיים:

פרק 5 – NLPH (NLP In Hebrew)

בפרק זה נדבר על עיבוד טקסט בעברית, ונציג כיצד הוא שונה משפות אחרות, ובפרט מאנגלית. נשוחח על ה-NLP Pipeline ועל למה הוא שבור בעברית, ונדבר על התחביר של עברית והתכונות הייחודיות של שפות שמיות.

קישורים רלוונטיים:

פרק 4 – All Multi’s

בפרק זה נדבר על כל ה-Multi’s וננסה לעשות סדר במושגים שנוטים לבלבל:

multi class classification, multi label classification, multi task learning, Multi objective, Multiple modality.

נגדיר כל מושג, ניתן דוגמאות ונדון בסוגיות ומימושים סביב כל מושג. קישורים רלוונטיים:

פרק 3 – מבוא ל Active Learning

בפרק זה נדבר על מהי Active Learning, כמה זה נפוץ ומתי ניתן לעשות זאת. נדבר על קריטריוני החלטה (Query Strategies):

 Least Confidence ,Margin Sampling ,Entropy Sampling ונזכיר את ההבדלים במתודולוגיות:
Membership Query Synthesis, Stream-Based Selective Sampling, Pool-Based Sampling.

לסיום נדון ב-Active Learning כבעיית Reinforcement Learning.

קישורים רלוונטים\שהזכרנו:

פרק 2 – מבוא ל Reinforcement Learning

בפרק זה נדבר על למידה חיזוקית – Reinforcement Learning. נדבר על מושגי היסוד בתחום (environment, state, policy, agent, reward), על סיווג של התחום הזה ב Machine Learning, על למה זה נהיה מאוד פופולארי, על הקשיים בתחום ועל דילמת ה Exploration – Exploitation.

קישורים שהוזכרו:

שיתוף פעולה בין סוכנים במשחק המחבואים

שיתוף פעולה בין סוכנים במשחק תפוס את הדגל

סדרת הרצאות של David Silver

Agent57 – מודל אחד שמשחק ברמה אנושית ב 57 משחקים

BRETT- הרובוט שמרכיב לגו

  MuJoCo מנוע המדמה את חוקי הפיסיקה

פרק 1 – The Lottery Ticket Hypothesis

בפרק זה, נעסוק ב-Neural Network Pruning, כאשר נתמקד בפרט במאמר פורץ דרך מ2019, שנקרא “THE LOTTERY TICKET HYPOTHESIS: FINDING SPARSE TRAINABLE NEURAL NETWORKS”, מבית היוצר של MIT.

במאמר זה, מציעים דרך מעניינת לקצץ רשת גדולה במעל 80% מהמשקלים שלה בצורה כזו שהביצועים (ה-accuracy) לא ייפגעו.

קישורים שהוזכרו בפרק:

פרק 0 – מי אנחנו ?

זהו פרק מבוא קצרצר בו אנו מספרים מי הוא תמיר נווה ומי הוא אורי גורן, למה החלטנו להתחיל עם הפודקאסט, ומה היינו רוצים שיהיה בפרקים הבאים.