וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

הדרך לגיהנום רצופת כוונות טובות: ה-AI שוב מפשל בענק

אבי צדקה

עודכן לאחרונה: 24.8.2023 / 15:11

בוט שנועד לייצר מתכונים משאריות אוכל מציע למשתמשים שלו מתכונים מסוכנים כמו גז כלור. האם הגיע הזמן לדרוש מחברות ה-AI לקחת אחריות על המפלצות שיצרו? ד"ר לינקדאין יצא לבדוק מה לעשות עם השאריות במקרר וחזר עם תובנות מדאיגות

הבוט שנועד לצמצם בזבוז מזון ונוצל לרעה.. Pak n' Save, צילום מסך
הבוט שנועד לצמצם בזבוז מזון ונוצל לרעה./צילום מסך, Pak n' Save

AI וצ'אטבוטים לא מפסיקים לככב בכותרות. בדרך כלל מדובר בשדרוגים נחמדים כמו דמויות סרוקות של מפורסמים שמדקלמים משפטים מתוסרטים מראש, אבל הפעם הסיפור הוא על צ'טבוט מבוסס ChatGPT 3.5, שרק רצה לעזור לנו לייצר מתכונים כיפים משאריות שיש לכל אחד במקרר, אבל המשתמשים כאמור הפכו אותו למשהו אחר לגמרי. מקרה זה מעלה גם מספר סוגיות הקשורות לאחריות ה-AI.

נשאר לי עוף מאתמול, פתיתים וקצת אמוניה, אפשר להכין פצצה?

הסיפור התחיל, כמו הרבה סיפורים, ברצון לעשות קצת טוב. רשת הסופרמרקטים Pak 'n' Save, מניו זילנד הרחוקה, החליטה לשמח את לקוחותיה ולעזור להם לחסוך קצת. הם קראו לבוט שלה Savey Meal-bot, והוא מופעל ע"י ChatGPT 3.5 של חברת OpenAI. הרשת הקימה אתר חביב המאפשר לבנות מתכונים זריזים משאריות אוכל שיש להם במקרר, אלא שהמשתמשים, כמו תמיד, הביאו פרשנות משלהם ואתם כבר יכולים לנחש לאן זה הוביל.

ליאם הייר, תושב ניו זילנד שהוא גם פרשן פוליטי, החליט לאתגר את הבוט עם המצרכים הבאים: מים, אקונומיקה ואמוניה. Savey הבוט לא היסס לשנייה ויצר "מים ארומטיים", עם מתכון אמיתי להכנת גז כלור. למי שפספס את שיעורי הכימיה, גז כלור הוא גז מאוד מסוכן, שיכול לגרום לבעיות בנשימה ואף למוות כבר בערבוב של אקונומיקה עם אמוניה, שהוא השלב הראשון במתכון. הבוט לא ציין שנדרש ביגוד מגן או מסכה.

הבוט, שמבוסס על ChatGPT קיבל חלק מ"חוש ההומור" המוכר שלו ולכן מסיים את המתכון עם "יש להגיש קר ולהנות מהניחוח", בהנחה שמישהו ישרוד עד לשלב הזה. הייר צייץ את התוצאה והתגובות לא איחרו לבוא. בציוץ עצמו ניתן לראות בתגובות "מתכון" נוסף שעשוי מבשר אדם, ועוד כל מיני שילובים שעדיף שלא נייצר או נצרוך, והכל למה? כי נתנו לנו, בני האדם, את החופש לבחור.

חופש בחירה? לא בכל מחיר

ההיסטוריה מוכיחה לנו פעם אחר פעם שכל המוצרים שאנחנו מייצרים שנועדו לעזור לנו, יכולים גם להרוס. אלפרד נובל אמנם הקים את המפעל שיהפוך לטקס חלוקת הפרסים, כולל פרס נובל לשלום המיועד לפי נובל "לאדם שעשה הכי הרבה או הכי טוב לקדם אחוות בין העמים," אבל ההמצאה שהכי מזוהה איתו, היא דווקא הדינמיט, שהוא חומר נפץ מסוכן שיכול לגרום הרס רב. כעת, נראה שגם ה-AI צועד באותו המסלול.

הבינה המלאכותית היא טכנולוגיה מדהימה שנועדה לעזור לאנושות, לקדם אותה, לענות על שאלות ולפתור בעיות שלא היה לנו סיכוי לפתור עם האמצעים הקיימים שלנו. היא יכולה לנתח מידע, לכתוב קוד ולצייר תמונות מאפס, והכל בעזרת רשת מחשבים חזקה מאוד שמגבה אותה. אבל בידיים הלא נכונות, היא גם יכולה להיות כלי הרסני ביותר שיפגע במי שמפעיל אותו.

כשמשתמש אחר ביקש את אותו מתכון "מים ארומטיים" עם אותם הרכיבים בדיוק מ- ChatGPT 3.5 המקורי, הוא המליץ נגד המתכון האקזוטי, שכן "ערבוב אמוניה ואקונומיקה פולט גזים רעילים", לדברי הבוט האחראי.

חברות ה-AI צריכות להתחיל לקחת אחריות

הדוגמא של הרשת הניו זילנדית היא שיעור נוסף מבין רבים על הסכנות של ה-AI ומה קורה כשמורידים לו את ההגבלות. למרות שהבוט היה מבוסס על ChatGPT3.5, לא ניתן לשחזר את המתכון באתר הרשמי של OpenAI. המקרה הראשון קרה, ככל הנראה, כי מישהו שם בניו זילנד שכח לשים את ההגבלות.

תגובתה של הרשת היתה מביכה, לא עניינית ולא אחראית, והאשימה את המשתמשים: "מיעוט קטן ניסה להשתמש בכלי באופן לא הולם ולא למטרה שלו", אולם ברור שהאחריות להגביל גורמים עוינים מלייצר חומרים מסוכנים במסווה של דרינק קיצי היא של החברה בלבד.

כמובן שאחרי שהפרשה התפוצצה גם הבוט שודרג וההגבלות ההכרחיות חלו גם עליו. כעת הוא פועל על GPT4 ולא מאפשר להכניס כל מוצר, אלא רק משלים את הטקסט מתוך רשימה מוכנה מראש של מצרכים. מוזמנים לנסות בעצמכם כאן.

אימוץ המגבלות של GPT4 ע"י הרשת היא סימן מעודד, ואין ספק שכמו שאנחנו מודעים לסכנות ה-GPT, כך גם החברות הגדולות. זו אולי הסיבה שאפל עוד לא קפצה על עגלת ה-AI, למרות שלפי הדיווחים יש לה כבר משהו בפיתוח, וגם גוגל היססה להשיק את BARD עד שהיא ראתה שהמתחרה הגדולה שלה, מיקרוסופט, עקפה אותה בסיבוב.

בפועל, האחריות על AI בטוח היא של כולנו

הרבה חברות מדברות היום על Responsible AI, אך המקרה של Pak 'n' Save, מרמז שיש לנו עוד כברת דרך לעבור ועד שזה יקרה, נצטרך לדבוק בשיטת "If you see a job, it's yours". משתמשים צריכים למצוא את הבעיות ולדרוש שהחברות המפעילות יתקנו אותן בהקדם. בנוסף, החברות עצמן צריכות להימנע ככל יכולתן מייצור בוטים שיכולים, במזיד או בשוגג, לגרום לנזקים גדולים.

חשוב לזכור שבסוף היום, בוט נשאר בוט. אין לו בינה של ממש, וכל מידע שאנחנו מקבלים ממנו צריך להיבדק על ידי בן אנוש ולא להשתמש בו "על עיוור". אנחנו נמשיך לעקוב ונקווה שלבוט החינמי הבא שירצה לסייע לנו יהיו מגבלות ברורות יותר שיבטיחו שהוא אכן מיטיב לסביבה ולא מזיק לה.


אבי צדקה הוא מומחה לינקדאין לחברות וארגונים ומנכ"ל חברת ד"ר לינקדאין.

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    4
    walla_ssr_page_has_been_loaded_successfully