וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

בתשובה לאקדמיה: OpenAI משיקה כלי לזיהוי טקסט מלאכותי

1.2.2023 / 11:45

OpenAI, החברה העומדת מאחורי ChatGPT שכולם מדברים עליו, הוציאה השבוע כלי חינמי שמסייע למעסיקים ואנשי חינוך לזהות קטעי טקסט שנכתבו על ידי מכונה

האם הכלי החדש של OpenAI יסייע למנוע התחזות והפצת מידע שגוי?. Pexels.com
האם הכלי החדש של OpenAI יסייע למנוע התחזות והפצת מידע שגוי?/Pexels.com

AI Text Classifier, הכלי החדש מבית OpenAI, עשוי להגביל את היכולת להפעיל מסעות פרסום שגויים באופן אוטומטי, להשתמש בכלי AI להונאות אקדמיות, ולהתחזות לבני אדם באמצעות צ'אטבוטים. עם זאת, החברה מזהירה שהכלי אינו מושלם והביצועים משתנים בהתאם למידת הדמיון של הטקסט המנותח לסוגי הכתיבה שהכלי של OpenAI הוכשר עליו. "יש לו גם תוצאות חיוביות שגויות וגם תוצאות שליליות שגויות", אמר נציג החברה, והזהיר שאין להסתמך על הכלי החדש בלבד כדי לקבוע האם מסמך נכתב על ידי מכונה.

הכלי הזה, כמו גם ההסתייגות הסותרת של החברה, באים על רקע קריאתם של מוסדות חינוך ואקדמיה רבים ברחבי ארה"ב וניו יורק בפרט להחרים את השימוש ב-ChatGPT.

לכאורה, השקת כלי כזה היא צעד מפתיע מצד חברה שהמוצר העיקרי שלה הוא מחולל טקסט מלאכותי, אבל כאשר חצי עולם מדבר על AI כעל מבשר סופה של היצירה האנושית, הפיתרון הזה שמציעה החברה עשוי להיות מה שיציל אותה בסופו של דבר מהדין שבלתי נמנע שייגזר, במוקדם או במאוחר, על עתידן של חברות AI כמוה.

במקום להשתמש בכלי שלה בניגוד לכללים, בתקוה שלא להיתפס, היא מציעה לסטודנטים ומשתמשים אחרים להצהיר בגלוי: הטקסט נוצר באמצעות בינה מלאכותית, בדקתי אותו ואני עומד/ת מאחוריו.
כדי לחזק את ההמלצה הזאת, OpenAI אומרת שהיא בוחנת גם גישות נוספות שיעזרו לאנשים להבחין בין טקסט מלאכותי לטקסט אנושי, כמו סימני מים שיוטבעו על יצירות המערכת שלה.

אבל מומחים מודאגים לא רק מהעתקות במבחנים אלא גם מהעלייה במידע מוטעה שנוצר על ידי בינה מלאכותית, כמו גם מהפוטנציאל של בוטים להתחזות לבני אדם. מספר חברות, ארגונים ויחידים אחרים עובדים על כלים דומים לאיתור תוכן שנוצר על ידי בינה מלאכותית, אבל אף אחד מהם אינו שחקן מסחרי משמעותי כמו OpenAI.

איך לזהות תוכן מלאכותי עם הכלי החדש

ראשית, המשתמשים מעתיקים גוש טקסט לתיבה. המערכת מנתחת את הטקסט וקובעת את מידת הסבירות שהטקסט נוצר על ידי מערכת בינה מלאכותית.

בהתאם לרמת הביטחון שלו, הכלי יסמן טקסט כ"מאוד לא סביר" שנוצר בינה מלאכותית (פחות מ-10% סיכוי), "לא סביר" שנוצר בבינה מלאכותית (בין 10% ל-45% סיכוי), "לא ברור" אם זה בינה מלאכותית (סיכוי של 45% עד 90%), "ייתכן" שנוצר על ידי בינה מלאכותית (סיכוי של 90% עד 98%) או "סביר" שנוצר בינה מלאכותית (סיכוי של למעלה מ-98%).

חשוב לציין שהסיווג של OpenAI לא יעבוד על כל טקסט. הוא צריך לפחות 1,000 תווים, או בערך 150 עד 250 מילים. הוא לא מזהה גניבת תוכן, מגבלה מצערת במיוחד בהתחשב בכך ש-AI מבוסס בין היתר גם על טקסטים גנובים, שגויים או שקריים.

החברה אומרת שבשל מערך הנתונים שלה, יש סיכוי גבוה יותר שהתוכנה תטעה בטקסט שנכתב על ידי ילדים או בשפה שאינה אנגלית. בשפות אחרות, כולל עברית כמובן, הביצועים שלו גרועים משמעותית. הוא גם לא יעיל כשרוצים להבחין בין קוד מחשב שנכתב על ידי בני אדם לעומת קוד מלאכותי.

האם הצעד הזה יספיק כדי לרצות את המומחים באקדמיה? כנראה שנדע בקרוב.

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    2
    walla_ssr_page_has_been_loaded_successfully