וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

עושות שלום: ענקיות הטק חוברות יחד כדי לאבטח את כלי ה-AI שכולנו משתמשים בהם

עודכן לאחרונה: 26.10.2023 / 12:54

גוגל, מיקרוסופט, OpenAI ואנטרופיק מודיעות על שיתוף פעולה ראשון מסוגו ומקימות קרן לבטיחות בינה מלאכותית ביותר מ-10 מיליון דולר

אחרי שספגו אינספור ביקורות, חששות ותהיות, יש שיגידו בצדק, לגבי בטיחותן של מערכות בינה מלאכותית, ענקיות הטק סוף סוף מרימות את הכפפה ומקימות את ה-Frontier Model Forum, גוף תעשייתי המתמקד בהבטחת פיתוח בטוח ושימוש אחראי במודלים של AI גבולי ברחבי העולם.

בהכרזה חגיגית של מנהל הפורום החדש, כריס מסרול, הודיעו חברי הפורום ושותפיהם הפילנתרופיים כי יקצו סכום כולל של למעלה מ-10 מיליון דולר עבור קרן בטיחות בינה מלאכותית חדשה, במטרה לקדם מחקר ופיתוח מתמשך של כלים שיסייעו לבדוק ולהעריך ביעילות את בטיחותם של כלי בינה מלאכותית.

במהלך השנה האחרונה, התעשייה הציגה התקדמות משמעותית ביכולות הבינה המלאכותית. ככל שההתקדמות האצה, כך נדרש מחקר אקדמי חדש בנושא בטיחות הבינה המלאכותית. כדי להתמודד עם הפער הזה, הפורום והשותפים הפילנתרופיים יוצרים קרן בטיחות בינה מלאכותית חדשה, שתתמוך בחוקרים עצמאיים מרחבי העולם הקשורים למוסדות אקדמיים, מוסדות מחקר וסטארטאפים.

בטיחות לפני הכל

מוקדם יותר השנה, חברי הפורום חתמו מרצון על שורה של התחייבות בבית הלבן, שכללה התחייבות להקל על גילוי ודיווח של צד שלישי על נקודות תורפה במערכות ה-AI שלהן. כעת, הן מרחיבות את התחייבותן גם למישור הכלכלי ומקימות את קרן AI Safety, שנועדה לממן מיזמים וסטארטאפים בתחום. אנתרופיק, גוגל, מיקרוסופט ו-OpenAI, ושותפים פילנתרופיים נוספים כבר נמצאים בפורום, והם מקווים לגייס תורמים נוספים.

בפורום רואים בקרן הבטיחות חלק חשוב במילוי מחויבות זו ומקווים כי הדיון העולמי על בטיחות בינה מלאכותית ובסיס הידע הכללי של AI ייהנו ממגוון רחב יותר של קולות ונקודות מבט.

המוקד העיקרי של הקרן יהיה תמיכה בפיתוח טכניקות הערכה חדשות עבור מודלים אדומים של AI, שיסייעו בפיתוח ובדיקת טכניקות הערכה ליכולות שעלולות להיות מסוכנות. בפורום מאמינים כי מימון מוגבר בתחום זה יסייע בהעלאת תקני הבטיחות והאבטחה ויספק תובנות לגבי הבלמים והבקרות שהתעשייה, הממשלות והחברה האזרחית צריכים כדי להגיב לאתגרים שמציגות מערכות בינה מלאכותית.

הקרן תפרסם קול קורא להגשת הצעות במהלך החודשים הקרובים. מכון מרידיאן ינהל את הקרן, בתמיכתה של ועדה מייעצת המורכבת ממומחים חיצוניים בלתי תלויים, מומחים מחברות בינה מלאכותית, ובעלי ניסיון בתחום המענקים.

טיפוח מומחיות טכנית

במהלך החודשים האחרונים הפורום פעל כדי לסייע בהקמת מערכת משותפת של הגדרות, מונחים, מושגים ותהליכים, כדי לקבל הבנה בסיסית שאפשר לבנות ממנה. כך חוקרים, ממשלות ועמיתים אחרים בתעשייה יכולים לקבל את אותה נקודת מוצא בדיונים על נושאי בטיחות וממשל בינה מלאכותית.

לשם כך, הפורום פועל גם לשיתוף שיטות עבודה מומלצות בנושא "צוות אדום" ברחבי התעשייה. כנקודת התחלה, הפורום התכנס כדי לייצר הגדרה משותפת של "צוות אדום" עבור בינה מלאכותית כתהליך מובנה לבדיקת מערכות ומוצרי בינה מלאכותית לזיהוי יכולות, תפוקות או איומים תשתיתיים מזיקים.

תהליך חשיפה אחראי חדש יאפשר למעבדות בינה מלאכותיות לשתף מידע הקשור לגילוי של נקודות תורפה או יכולות שעלולות להיות מסוכנות בתוך מודלים של AI גבולי, וההקלות הנלוות להם. כמה חברות של Frontier Model Forum כבר גילו יכולות, מגמות ומגבלות עבור AI בתחום הביטחון הלאומי. הפורום מאמין שהמחקר המשולב בתחום זה יכול לשמש מקרה בוחן כיצד מעבדות בינה מלאכותית יכולות לחדד וליישם תהליך חשיפה אחראי המתקדם קדימה.

מה הלאה

במהלך החודשים הקרובים, פורום מודל Frontier יקים ועדה מייעצת שתעזור להנחות את האסטרטגיה וסדרי העדיפויות שלו, המייצגת מגוון נקודות מבט ומומחיות.

הקרן לבטיחות בינה מלאכותית תפרסם את קול קורא ראשון להגשת הצעות בחודשים הקרובים, והמענקים יונפקו זמן קצר לאחר מכן. פורום Frontier Models יפרסם גם ממצאים טכניים נוספים ככל שיהיו זמינים.

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    2
    walla_ssr_page_has_been_loaded_successfully