אנחנו נמצאים בתקופה מסעירה וסוערת, כזו שמבשרת שינויים גדולים. יש יגידו שאנחנו בתחילתה של מהפיכה אמיתית, שתשנה כמעט את כל מה שהכרנו עד היום, בכל תחומי החיים.
זה לא עוד טור על ההפיכה או הרפורמה המשפטית, אלא על מהפיכת הבינה המלאכותית היוצרת (Gererative AI), שבחודשים האחרונים הולכת וצוברת תאוצה. ההנגשה של חלק מהיכולות של הטכנולוגיות המתקדמות האלו, באמצעות פלטפורמות פופולאריות כמו CHATGPT, DALL-E, מידג'רני ועוד אינספור אתרים ופתרונות, מאפשרת לכל אחד לרתום את הבינה המלאכותית לטובת העבודה שלו, ולספק תוצרים באופן מהיר יותר, נגיש ופשוט.
בין אם אתם מעצבים גרפיים, יוצרי תוכן, רופאים או מדעני נתונים, ובין אם חיכיתם למהפכה הזאת או שאתם חוששים מפניה, את כדור השלג הזה כבר אי אפשר לעצור.
כשהמכונה לא יודעת ולא רוצה לדעת
בשבועות האחרונים, אנחנו נתקלים בהרבה כתבות בתקשורת, ובשטף ציוצים ופוסטים ברשתות החברתיות, של משתמשים שהתנסו בכלים החדשים הללו, בעיקר צ'אט GPT, שמציגים טעויות בתשובות שהם מספקים. לעתים מדובר בטעויות מביכות ומטופשות מאוד, ולעיתים המכונה פשוט משיבה שאין לה אפשרות לענות על השאלה משום שהיא בסך הכל "תוכנה שלא יודעת או מוסמכת לענות על שאלות כאלו."
אולם, מי שמכיר את המודלים עליהם הם מבוססים, יודע שכשמתקבלת תשובה שגויה, מביכה ככל שתהיה, פעמים רבות הטעות מקורה דווקא באדם מול המחשב, ולא במכונה עצמה, מדוע זה כך? פשוט בגלל שרובינו, עוד לא יודעים כיצד לשאול את הצ'אט את השאלה הנכונה, לארגן את המילים (הפרומפטים), בסדר הנכון, ולשבץ בינם באופן ההגיוני ביותר עבור האלגוריתם שמריץ את כל הפלא הזה, את המינוח המקצועי הנכון והרלוונטי ביותר, כדי שנקבל את התשובה הכי מקצועית והכי קרובה למציאות.
הדבר היותר מעניין מתרחש מאחורי הקלעים של האלגוריתם הזה, שנוצר בידי מתכנתים, מדעני נתונים גאונים, למשל כשהצ'אט משיב לנו שהוא לא יכול להשיב על שאלה מסוימת. הרי אם תשבו עם אותם מדענים על בירה, כנראה שתהיה להם תשובה לכל שאלה שלכם, כמעט בכל תחום. אז למה הם בכל זאת אנחנו מקבלים את הפלט המבאס ש"לא ניתן לענות על שאלה זו", הרבה פעמים?
פה כבר נכנס הגורם האנושי באופן מלא ואקטיבי. המענה הזה מתקבל לרוב לא בגלל שאין לצ'אט יכולת טובה יותר לתת תשובה שתשמע לנו יותר הגיונית, אלא בשל מגבלות שהוטעמו על ידי אותם גאונים, שבדיוק כמונו, לפעמים מעדיפים שלא לענות ולהתעסק בנושאים מסוימים, בין אם זה בגלל שהן עוברות על כללי אתיקה ומוסר, או עוסקות במחלוקות אידיאולוגיות, ערכים ואג'נדות, או בקיצור תרבות הפוליטיקלי קורקט (PC).
מסנני תוכן כמדד מוסריות חברתית
תרבות ה-PC שכל כך מאפיינת דווקא את אותם מתכנתים גאונים מהסיליקון ואלי, שבחיים עצמם אולי יש להם תשובה לכל דבר וגם טיעונים לצדקתם, הוטמעה גם באלגוריתם, והיא משמשת כמעין "מתחם סבירות" דיגיטלי, מעין מסננת וירטואלית שאינה נראית, שתשמיט החוצה את רוב מה ש"נגוע" ב"אג'נדה הלא נכונה" או שעשוי לגרום להתנגשות בין ערכים חברתיים והשקפות עולם של קבוצות שונות של בני אדם.
אך יש גליצ'ים במטריקס, גם באלגוריתם האלוהי הזה, כדוגמא אביא מקרה שקרה לחבר שרצה לייצר אווטאר של עצמו, בפלטפורמת יצירת התמונות הנהדרת "מידג'רני". אותו חבר העלה תמונה לפלטפורמה, וביקש ממנוע ה-AI שידמה אותו לראפר אמריקני מניו יורק.
תוך פחות מדקה התקבלו 4 הדמיות מעולות שלו כראפר מאוד מגניב, אלא מה? המכונה הפכה אותו לבחור ממוצא אפרו אמריקני. אומנם תווי הפנים היו מאוד דומים, אבל זה לא היה הוא. האם אין ראפרים לבנים בניו יורק? אני מניח שכן, אבל משהו בצירוף המילים 'ראפר' ו'ניו יורק' גרם לאלגוריתם לנפק את התוצאה המוטה הזו, שאני מניח שגם היא תתוקן בהמשך.
המתח הזה, בין הקוד המופלא, שבורא עולמות שלמים ומורכבים בין רגע, לבין תרבות ה-PC, שעל פניו מטרתה ליצור עולם יותר שוויוני, מונע ממנועי ה-AI לעסוק בנושאים שנויים במחלוקת.
אמינות המידע כשהנושא שנוי במחלוקת
תחומי אינטגרציית המידע וה-Data integrity מתרחבים גם הם, והופכים לנחוצים יותר ויותר. ככל שנשתמש יותר בביג דאטה, ומאגרי המידע העצומים שהם סורקים ייכנסו לשימוש של עוד ועוד פלטפורמות, נצטרך להגדיל את הוודאות שהמידע המוזן והמופק מהמודלים אכן תקין ואיכותי.
יהיה מעניין מאוד לראות האם העובדה ש"מוח דיגיטלי", הכולל את אותם גדרות מגבילים, יגרום בעתיד לצמצום השיח, לחד גוניות מחשבתית, והגברת החשש והחופש להביע דעות, שלא תמיד מתיישבות עם השיח המרכזי, או אולי לפעולה הפוכה: תנועת נגד, שתקרא לשחרר לגמרי את המכונות מהכבלים והגדרות המגבילים, ולאפשר למכונות החכמות לתת תשובות גם לנושאים יותר מורכבים ואף מעוררי מחלוקת. הטכנולוגיה אגב, כבר קיימת, ההחלטה היא שלנו.
עידן שפט הוא מנטור ומרצה בפרקטיקום ו-data integration engineer בחברת ריסקיפייד.