וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

80% מהחברות נמנעות משימוש ב- AI ו-ML בשל חשש מפרצות אבטחה

עודכן לאחרונה: 23.12.2024 / 15:53

מחקר חדש של ענקית התוכנה הישראלית JFrog חושף כי פערים בשקיפות, בקרה ושליטה על קוד המקור בתוכנות המושתתות על בינה מלאכותית, חושפים ארגונים רבים לסיכונים ומעכבים את אימוץ הטכנולוגיה

לוחם סייבר מול מחשב. ShutterStock
לוחם סייבר מול מחשב/ShutterStock

ממצאי המחקר מוכיחים שרוב הארגונים נרתעים מליישם מערכות בינה מלאכותית ארגונית בשל גורמים שונים וביניהם:

  • פערים באבטחת AI/ML: הרוב המכריע של החברות (79%) מעידות שחששות מפרצות אבטחה מאטים את השימוש ב-AI/ML או את שילוב תכונות AI/ML בתוכנה שמפותחת על ידן.
  • נראות מוגבלת של AI/ML בשרשראות אספקת התוכנה: קרוב ל- 70% מהחברות אינן יכולות לזהות את מקור הקוד שנוצר ע"י הבינה המלאכותית.
  • היעדר מקור אמין ומאוחד לצרכים הרגולטוריים: כמעט שני שליש (64%) מהחברות אינן בטוחות ביכולתן לעמוד בסטנדרטים הרגולטוריים של AI בפיתוח תוכנה.
  • חוסר במדיניות AI: יותר ממחצית (60%) מהחברות אינן מחזיקות במדיניות בנוגע לאיתור או רישוי של נתוני אימון, ו-58% מהחברות חסרות מסגרת שליטה למפתחים העוסקים בבינה מלאכותית.

"במרוץ של ארגונים לאימוץ בינה מלאכותית (AI) ולמידת מכונה (ML), רבים מהם מזניחים את הגישה ההוליסטית" אומר אראן אזרזר, CIO ב-JFrog. "מחקר זה מוכיח שפיתוח תוכנות AI ו-ML עדיין פועל ברובו באופן של 'איים מבודדים', מה שיוצר אתגרים מבחינת נראות ואבטחה".

לדבריו, "כמו כל רכיב תוכנה אחר, גם מודלים של למידת מכונה (ML) חייבים להיות מאוחסנים, בנויים, ניתנים למעקב, מתוייגים בגרסאות, חתומים, מאובטחים ומסופקים בצורה יעילה במערכות שונות, על מנת להפעיל בינה מלאכותית בבטחה ובקנה מידה רחב. באמצעות שילוב מודלי למידת מכונה לצד תהליכי פיתוח תוכנה מסורתיים במסגרת עבודה מקצה לקצה, יכולים צוותי אבטחת המידע להבטיח שהאפליקציות מבוססות ה-AI שלהם מפותחות במהירות, בבטחה ובהתאם לדרישות הרגולטוריות."

לכך מצטרף מחקר של Gartner המצביע על כך ש-92% מה CIOs מאמינים שיכולות בינה מלאכותית ישולבו בתוכנה ובפתרונות העסקיים של הארגונים כבר בשנה הבאה בשל הציפיות של המנכ"ל והדירקטוריון שלהם. עם זאת, רבים עדיין מתקשים להראות את הערך במימוש היכולות האלו.

בנוסף, תקנות ממשלתיות לגבי בינה מלאכותית, כמו לדוגמא הצו של הבית הלבן וחוק הבינה המלאכותית של אירופה, מצביעות על עידן חדש של אחריות עבור ארגונים המעוניינים לנצל את הבינה המלאכותית ליצירת יתרון עסקי תחרותי.

שימוש בפרקטיקות הטובות ביותר של MLSecOps ובפתרון מאוחד יכול לסייע בהתמודדות עם סיכונים אלה. עם זאת, רוב הפתרונות המסורתיים (ביתיים ומסחריים) הקיימים כיום בתחום ה-MLOps חסרים מערכת רישום יחידה לפיתוח אפליקציות AI/ML, בהקשר של תהליכי אספקת תוכנה ארגוניים רחבים יותר.

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    1
    walla_ssr_page_has_been_loaded_successfully