וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

AI בבתי המשפט: הפאדיחה של המשטרה היא רק סנונית ראשונה

עו"ד (רו"ח) גלעד פינקלשטיין

עודכן לאחרונה: 18.5.2025 / 10:17

איך מערכת המשפט עלולה להיכשל בידי אלגוריתמים שאינם מבינים את החוק - ומהן הסכנות האמיתיות שמסתתרות מאחורי הקסם הטכנולוגי

המקרה המביך שבו המשטרה ציטטה "סעיפי חוק" מומצאים מצ'אט GPT בהליך משפטי אינו רק אנקדוטה משעשעת, אלא תמרור אזהרה בוהק למערכת המשפט בעידן הדיגיטלי. העובדה שגורם אכיפה רשמי הסתמך על מידע שסיפקה לו בינה מלאכותית מעלה שאלה מטרידה: האם אנו עומדים בפתחו של עידן שבו האמת המשפטית נקבעת באמצעות אלגוריתמים שאינם נתונים לפיקוח או ביקורת הולמים?

השופט קפלן לא חסך בביקורת על המשטרה בהחלטתו. "אם חשבתי שראיתי הכול ב-30 השנים שאני על כס השיפוט, כנראה שטעיתי", כתב וציין ש"אחד מאותם 'חוקים' אפילו לא היה קיים בדמיונו של אף אדם עד כה, כי חיפוש מילותיו באינטרנט באמצעות מנועי חיפוש כמו גוגל לא מעלה אף תוצאה תואמת".

האשליה המסוכנת של קסם טכנולוגי

הפיתוי להשתמש בבינה מלאכותית ככלי עזר משפטי הוא גדול. הטכנולוגיה מציעה יעילות, מהירות ונגישות למידע - כל מה שמערכת משפט עמוסה משוועת אליו. אולם, כפי שהדגים המקרה האחרון, מדובר באשליה מסוכנת. מודלי שפה כמו GPT עדיין משכללים את יכולותיהם במהירות מסחררת, אך הם אינם תחליף לידע משפטי מעמיק או חשיבה ביקורתית ביישום הכללים.

כשגורמי אכיפה, עורכי דין או שופטים מסתמכים על מידע שנוצר באמצעות AI ללא בדיקה מעמיקה, הם למעשה מעבירים חלק משיקול הדעת המשפטי לידי אלגוריתמים שאינם אחראים על החלטותיהם. הם עלולים להטעות, לסלף עובדות או פשוט לייצר תוכן שאין לו אחיזה במציאות.

חורים באחריות המשפטית

בשונה מהרשתות החברתיות, עולם המשפט מבוסס על עקרון האחריות והמחויבות כלפי האמת. עורך דין שחותם על מסמך משפטי לוקח על עצמו אחריות אישית ומקצועית לתוכנו. מי אחראי, אפוא, כאשר מידע שגוי שנוצר על-ידי AI מגיע להחלטה משפטית? האם זהו המשתמש, היצרן, או שמא מדובר ב"חור שחור" של אחריות?

החלל הריק הזה בהסדרה המשפטית מחייב חשיבה מחודשת על האופן שבו אנו מטמיעים טכנולוגיות חדשות במערכת המשפט. אין ספק שיש מקום לבינה מלאכותית ככלי עזר, אך לא כמקור סמכות או כבסיס להחלטות משפטיות.

רק לאחרונה, ג'רום דיוולד בן ה-74 הפך ויראלי כשננזף בחומרה על ידי השופטת דניאלס בבית משפט השלום בניו יורק. הסיבה? במקום לעמוד ולדבר בעצמו, הוא הקרין סרטון שבו אווטאר שיצר באמצעות בינה מלאכותית טוען את טיעוניו המשפטיים. השופטת, שלא עודכנה מראש שמדובר בדמות סינתטית, עצרה מיד את הסרטון ודרשה ממנו לשאת דברים בעצמו. "אתה לא תשתמש באולם בית המשפט הזה כדי להשיק את העסק שלך", נזפה.

דיוולד התנצל וטען שלא ניסה להטעות, אלא חשב שהצגת הדברים דרך אווטאר תהיה ברורה ומדויקת יותר. המקרה עורר דיון עקרוני על מקומן של טכנולוגיות AI במערכת המשפט, והעלה צורך דחוף לקבוע גבולות וכללים ברורים לשימוש בהן - לפני שהרובוטים יתחילו לייצג אותנו באופן קבוע.

מבט קדימה

מקרים כמו אלה מדגישים את הצורך הדחוף בפיתוח מסגרת רגולטורית ואתית לשילוב בינה מלאכותית במערכת המשפט. נדרשת הכשרה מעמיקה של אנשי המקצוע, הנחיות ברורות להסתמכות על מקורות דיגיטליים, ומנגנוני בקרה שימנעו הישנות מקרים דומים.

חשוב להדגיש: הטכנולוגיה אינה האויב. היא כלי רב-עוצמה שיכול לשפר את עבודת מערכת המשפט. אך ללא גבולות ברורים, אנו עלולים למצוא עצמנו בעולם שבו החוק נכתב על-ידי אלגוריתמים ולא על-ידי בני אדם - עולם שבו "סעיפי חוק" מומצאים עלולים להפוך למציאות משפטית.

כפי שהשופט אהוד קפלן הטיב לנסח, "העידן הדיגיטלי מציב אתגרים חדשים בפני מערכת המשפט, ועלינו להתמודד עמם בעיניים פקוחות, בזהירות המתבקשת ותוך הקפדה על ערכי היסוד של האמת והצדק."


גלעד פינקלשטיין הוא עורך דין ורואה חשבון המתמחה בחברות הייטק.

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    walla_ssr_page_has_been_loaded_successfully