וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

בניגוד לקול ההיגיון: הבינה המלאכותית שחושבת כמו בני אדם

10.7.2023 / 11:37

אחרי שהואשמה שאין לה רגשות, בינה מלאכותית שפותחה באוניברסיטת בן גוריון למדה לזהות הפרה של נורמות תרבותיות, להתריע על פגיעה באמון, כעס ומבוכה, ואף לחקות בני אדם ולצפות את התנהגותם. מרגש? מפחיד? תשפטו בעצמכם

ה-AI כבר יודע לזהות, לחקות ולצפות רגשות אנושיים. מה השלב הבא?. Pixabay.com
ה-AI כבר יודע לזהות, לחקות ולצפות רגשות אנושיים. מה השלב הבא?/Pixabay.com

כשמזכיר המדינה האמריקאי, אנתוני בלינקן, נפגש ב-2021 עם עמיתו הסיני באלסקה, שררה במקום אווירה מתוחה. מתיחות זו ניתן לייחס לעימות האסטרטגי בין המעצמות, אך גם לפערים התרבותיים והבנת הנורמות החברתיות. בממשל האמריקאי התגבשה ההכרה שכשלים בתקשורת בין תרבותית מהווים מכשול להשגת מטרותיה של ארה"ב ואף עלולים להגיע לכדי איום במלחמה.

לשם כך, הושק במסגרת סוכנות המחקר האמריקאית לנושאי ביטחון (DARPA), פרויקט שמטרתו פיתוח כלים אוטומטיים להבנה תרבותית. פרופ' יאיר נוימן מהמחלקה למדעי הקוגניציה והמוח באוניברסיטת בן-גוריון בנגב, נענה לאתגר ופיתח בינה מלאכותית שתזהה הפרה של נורמות חברתיות. ממצאי המחקר פורסמו בכתב העת היוקרתי Scientific Reports.

"לב המערכת הוא בזיהוי אוטומטי של רגשות חברתיים. השערת המחקר היתה שאף על פי שקיים מספר עצום של נורמות ושהן משתנות בתרבויות שונות, הפרה של נורמה חברתית קשורה לרגשות של בושה, אשמה ומבוכה, ואילו ציות לנורמה חברתית קשור לרגש גאווה והכרת תודה. לפיכך, המערכת מסתמכת על זיהוי אוטומטי של רגשות חברתיים הקשורים להפרה של נורמות חברתיות או לאישושן", מסביר פרופ' נוימן.

למה בכלל צריך מערכת AI שתנתח התנהגות אנושית?

"מי שמימן את הפרויקט זה DARPA, שהיא המקבילה האמריקאית ל'רפאל' הישראלית. מדובר בארגון שכל הזמן נמצא באינטראקציות בין תרבותיות, בהן הטעות הקטנה ביותר עלולה להוביל לתקריות דיפלומטיות עד לרמה של מלחמה", אומר נוימן.

"בעיראק למשל, היתה להם בעיית מתורגמנים כיוון שהמידע שצריך היה לתרגם היה מסווג ברמה מאוד גבוהה. אמנם היו להם מערכות תרגום אוטומטיות אבל הם רצו כלי בינה מלאכותית שיאפשרו לא רק להבין את השפה והמילים אלא את הניואנסים התרבותיים שהם מעבר למילים", מספר נוימן.

"גם אצלנו, כשהתחיל השת"פ עם הפלסטינים במסגרת הסכמי אוסלו, היה צריך להכשיר קצינים לכללי נימוס שהם לא הכירו, כמו לא להפנות את כפות הרגליים לכיוון האדם שמדברים איתו, לא לענוד משקפי שמש בזמן שיחה, ועוד כל מיני ניואנסים שמעידים על פערי תרבות עצומים.

כל זה הוביל את DARPA להחלטה לפתח כלי בינה מלאכותית שמאפשרים לקרוא את המסרים שבין השורות כדי להבין מה באמת קורה שם. הם שפכו מיליונים כדי לבנות מערכת כזאת, שתעבוד גם בסינית מנדרינית, אך תיושם בעיקר באנגלית. אמנם מדובר בפיתוח ממשלתי אבל המשמעויות של כל זה לעולם העסקים, השיווק והמכירות, ובמיוחד לעסקים בינלאומיים בעולמות ה-B2B הן עצומות.

יש לנו קבוצה שעוברת על טקסטים ובוחנת האם מה שנאמר בשיחה מפר נורמות חברתיות. המערכת עושה את זה בהצלחה מאוד גדולה ויכולה להתריע בזמן אמת אם המשתמש מדבר בצורה לא מנומסת. אנחנו יודעים לפי התגובה אם האדם ממול מרגיש כעס או מבוכה. המערכת נכנסת לתחום של הבנת בני אדם ברמות שלא הכרנו בעבר. היא מסתמכת על מאות אלפי טקסטים ולכן יש לה ביצועים חזקים מאוד."

כשהמכונה לומדת מהסרטים

"כחלק מתהליך המחקר ולמידת המכונה, הרצנו אלפי סרטים בריטים ואמריקאים כדי לבדוק איפה יש הפרות נורמה שגורמות למשהו להיות מצחיק או מביך. המערכת יודעת להצביע על רגעים בתסריט בהם העלילה מביכה. למשל ב'אמריקן פאי', האבא תופס את הילד מאונן. זה נורא מביך כי מישהו הפר נורמה חברתית ולכן זה גם מצחיק" מספר נוימן.

"כשהרצנו את המערכת על 'טיפשים בלי הפסקה', המערכת זיהתה אירוע של הפרה חברתית בו לויד (ג'ים קארי) שופך חומר משלשל למשקה של הארי (ג'ף דניאלס). המערכת זיהתה אירוע זה כהפרת נורמה ואף הסבירה שהנורמה שהופרה היא נורמה של אמון, שכן לויד הוא חברו הטוב ביותר של הארי, והמעשה שעשה מעל באמונו.

דוגמה קיצונית יותר היא מהסרט 'בוראט' בכיכובו של סשה ברון כהן. גם שם המערכת זיהתה הפרות של נורמות חברתיות. לדוגמא, באחת הסצינות, בוראט, שמאוהב בכוכבת פמלה אנדרסון, נחשף לקלטת הסקס המפורסמת שלה ומתאכזב לגלות שהיא לא בתולה. המערכת זיהתה שבאירוע זה מדובר בבוגדנות משום שלפי תפיסתו של בוראט המאוהב, פמלה הייתה אמורה לשמור לו אמונים".

בעצם, מודלי שפה גדולים מסוגלים להבין רגשות אנושיים, גם אם הם לא בהכרח נשמעים לקול ההגיון. על פי ההקשר, המערכת מסוגלת לזהות את המשמעות העמוקה יותר של הפגיעה, שהיא פחות תוצר של נורמות חברתיות ויותר טמונה בנפש האדם או הדמות הספציפית שחווה אותה.

אלה רק קומץ מתוך עשרות אלפי סיטואציות חברתיות מסרטים וקטעי וידאו שהוצגו למערכת במטרה ללמד אותה לזהות סיטואציות של הפרת נורמות חברתיות. בכל סיטואציה כזו, המערכת התבקשה להסביר איזו נורמה הופרה ומדוע. הסברי הבינה המלאכותית נותחו והתובנות הוזנו למערכת בינה מלאכותית אחרת, באמצעותה נעשה זיהוי אוטומטי של חוקים שיאפשרו להבחין בהפרה של נורמות ואישושן. המערכת הצליחה לזהות בהצלחה כ-82% ממקרי ההפרה בניסוי הראשון וכ-89% מהם בניסוי השני".

sheen-shitof

עוד בוואלה

תרפיית מציאות מדומה: טיפול להתמודדות עם חרדה

בשיתוף zap doctors

להיכנס למוח של מישהו אחר

"היום, באמצעות AI, אפשר לבנות דמויות שיחקו בני אדם, עד לרמה שניתן לצפות את הצעדים שלהם, בין אם זה בארט סימפסון או ולדימיר פוטין. למשל, עשינו דיאלוג עם מרילין מונרו המתה והחזרנו אותה לחיים. קשה מאוד לזהות שזו לא באמת היא, מספר נוימן.

"ב'ספרות זולה', אחד מסרטי הקאלט הבולטים של המאה ה-20, יש קטע בו ברוס ויליס מדבר עם מרסלוס וואלס בעודו מפנה לו את הגב. לקחנו קטע קטן ושאלנו אותו למה הוא מקלל. בתגובה קיבלנו דיאלוג שלם בו הדמות פשוט ממשיכה לדבר. זה מאפשר להשתמש בבינה מלאכותית כדי לשוחח עם דמויות פיקטיביות ולהבין אותן ברמה שמעטים מצליחים להבין, גם כשמדובר באנשים בשר ודם."

לחשוב כמו פסיכופת

אבל אם עד היום ראינו בבינה המלאכותית כלי שקול שמסתמך על לוגיקה כדי לספק תוצרים הגיוניים ומתקבלים על הדעת, הניסיון לדמות התנהגויות אנושיות הוליד פיתוחים מסוג אחר. פיתוח מעניין בתחום הזה הוא DEXTER, מכונה שמבוססת על דמות הפסיכופת מסדרת הטלוויזיה הידועה העונה לאותו השם.

לדברי נוימן, "דקסטר מסוגל לענות על שאלות ממש באותו האופן שפסיכופת היה עונה עליהן. למשל, אדם רגיל שיראה בחורה מושכת ברחוב עשוי להעריך את המראה שלה ולהמשיך לדרכו, אבל אם תשאלו את דקסטר, הוא היה מעדיף לעקוב אחריה ולהטריד אותה. המערכת חושבת כמו פסיכופת, לא על סמך מידע שהכנסנו אליה אלא על פי חשיבה עצמאית המותאמת לעיצוב איתו היא נבנתה. זה נשמע הזוי, אבל יש לזה אינספור שימושים, גם בעולמות היצירה הקולנועית והספרותית, וגם בעולמות הטיפול הרגשי והפסיכולוגי."

מה המשמעות של כל זה לעתיד האנושות?

"אני אדם ספקן אבל כל הנושא של ניתוח אישיות אוטומטי הוא פריצת דרך אדירה ועם כל המוגבלות שלה, היא מוחקת את כל מה שידענו בעבר, וזו גם הסיבה שכתבתי את הספר הראשון בעולם שעוסק בנושא", מספר נוימן. "הבינה המלאכותית יודעת כיום לנתח דברים בצורה מהירה ואפקטיבית וביצועיה אינם נופלים מביצועי בני אדם. הכלים החדשים הללו כל כך חזקים שאנחנו לא יודעים להעריך מספיק את גודל המהפכה".

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    4
    walla_ssr_page_has_been_loaded_successfully