הכל התחיל בשבוע שעבר, כשסופרת הקומיקס הצרפתייה קלייר וונדלינג העלתה לאינסטגרם צילום מסך של קטע מהגדרות הפרטיות והנתונים האישיים של התוכנה הותיקה והפופולרית של אדובי, הלא היא פוטושופ. הפוסט הופץ במהירות בטוויטר ומשם התפשט וגרר כמעט 2 מיליון צפיות ואלפי ציוצים מחדש.
החשש בקרב אלה ששיתפו את הציוץ היה שכאשר פוטושופ ומוצרים אחרים של אדובי עוקבים אחר אמנים שמשתמשים באפליקציות שלהם כדי לראות איך הם עובדים, הם בעצם גונבים, הלכה למעשה, את תהליכי היצירה שמעצבים גרפיים פיתחו במשך עשרות שנות עבודה, לטובת מערכות אוטומטיות מבוססות AI שנועדו לייתר את המקצוע שלהם.
מגיב אחד האשים את אדובי ב"שיטות עסקיות שטורפות אמנים"; אחר היה מודאג ש"אדוני העבודה במכונה גונבים ממך בזמן שאתה עובד." אחר ציין שזו היתה "סיבה מספר 32405585382281858428 מדוע לא כדאי להשתמש במוצרי אדובי."
על החשיבות של הסכמה מודעת
אבל רגע, אם מדובר סה"כ בהגדרה שניתן לשנות בפעולה פשוטה, אז על מה כל המהומה? ובכן, כדי לענות על השאלה הזאת, בואו נדבר על הסכמה. opt-in ו- opt-out הן שתי מתודולוגיות הנוגעות להסכמה של משתמשים לקבל על עצמם תנאי שימוש או הגדרות מסוימות.
Opt-in אומר שכדי להצטרף לשירות (במקרה הזה, מעקב אחר הפעולות שהמשתמש עושה בפוטושופ על מנת לתת לו המלצות מבוססות AI), על המשתמש לסמן כי הוא מעוניין. לעומת זאת, ב-Opt-out התיבה מסומנת מראש כברירת מחדל, ואם אינכם רוצים לקבל את השירות עליכם לנקוט בפעולה ולהסיר את הסימון.
הבעיה היא שכאשר סעיף כל כך בעייתי מסומן מראש, רוב הסיכויים שלא תשימו לב לזה ותירשמו גם אם אינכם מעוניינים בו. יש שיגידו שלא מדובר בבחירה של ממש ולכן לא היתה כאן הסכמה מודעת.
בהקבלה, מטרידן שיצאה נגדו תלונה על תקיפה מינית יטען להגנתו שהנתקפת לא עשתה כלום, משמע היא רצתה את זה. אבל היום כבר ידוע שללא הסכמה נלהבת אין מה לחתור למגע וכך גם לגבי מנגנוני Opt-out - אם לא ציינתי במפורש שאני מעוניינת, משמע שאני לא מעוניינת.
גם מומחים להגנת מידע אומרים שהם מודאגים מהדרך שבה אדובי טיפלה בתהליך. "על פי חוק הפרטיות האירופי, אדובי זקוקה להסכמה להצטרפות לפני קריאת נתונים ממכשירים של אנשים למטרות שאינן נחוצות עבור השירות שהמשתמש ביקש", אומר מייקל וייל, פרופסור באוניברסיטת קולג' בלונדון המתמחה בזכויות דיגיטליות. "שיתוף נתונים בדרך זו אינו רק מיותר, זה הרבה מעבר לציפיות המשתמשים, שרבים מהם אולי חתמו על מסמכי NDA עם הלקוחות שלהם כדי להבטיח שהתוכן שהם עורכים לא יגיע לשום מקום."
לדברי וייל, סעיף ביטול ההצטרפות של אדובי עשוי להיות כפוף לחקירות על פי חוק הפרטיות האירופי, שבגינו נקנסה אפל ב-8.5 מיליון דולר רק בשבוע שעבר.
תגובת אדובי לטענות נגדה
בתגובה לפרסומים, אמר דובר החברה, שאחראית לפוטושופ, אינדיזיין ותוכנות גרפיות אחרות, ש"אדובי לא משתמשת בנתונים המאוחסנים בחשבונות Creative Cloud של לקוחות כדי לאמן את תכונות ה- AI הגנרטיבי הניסיוניות שלה" והוסיף כי "כרגע אנחנו בוחנים את המדיניות שלנו כדי להגדיר טוב יותר את מקרי השימוש ב-AI גנרטיבי."
ואכן, עמוד השאלות הנפוצות של אדובי מצטט דוגמאות לאופן שבו החברה עשויה להשתמש בלמידת מכונה כדי לזהות ולתייג אובייקטים כמו כלבים וחתולים או אנשים ספציפיים. "בפוטושופ, למידת מכונה יכולה לשמש לתיקון אוטומטי של פרספקטיבה בתמונה", אומרת החברה. ניתן גם להשתמש בה כדי להציע אפשרויות מבוססות הקשר, למשל, אם האפליקציה מאמינה שאתם מעצבים אתר אינטרנט, היא עשויה להציע כפתורים רלוונטיים אותם תוכלו לכלול בעיצוב שלכם.
"אנחנו נותנים ללקוחות שליטה מלאה על העדפות הפרטיות וההגדרות שלהם", אמר דובר של אדובי בהצהרה. "המדיניות הנידונה אינה חדשה והיא קיימת כבר עשור כדי לעזור לנו לשפר את המוצרים שלנו עבור הלקוחות." הדובר הנחה כל לקוח שמעדיף שהתוכן שלו לא ייכלל בניתוח לבטל את האפשרות הזאת בדף הפרטיות. עם זאת, אדובי מעולם לא הצהירה בבירור כיצד היא משתמשת בתוכן של משתמשים.
על מה בעצם המחאה הזאת?
אילמלא ההתפוצצות האסטרונומית של כל נושא ה-AI בחודשיים האחרונים, יתכן שכל הסיפור הזה על הסכמה מודעת היה חומק מתחת לרדאר, כמו שקרה עד היום, אלא שכעת, כשלכל המשתמשים ברור יותר מה נעשה עם הנתונים שלהם, הם פשוט לא יכולים לעמוד מנגד ולשתוק. ואולם, יש מי שסבורים כי החשש הלגיטימי הזה יצא מהקשרו. "אנשים ראו את תיבת הסימון הקטנה הזו לשיתוף נתונים ללמידת מכונה וחיברו אותה עם כל הדרמה הנוכחית של יצירת תמונות בינה מלאכותית שמתרחשת כרגע", אומר דניאל לנדרמן, מנהל קריאייטיב ומאייר מלוס אנג'לס.
בעיני לנדרמן, תכונת שיתוף הנתונים ללמידת מכונה קיימת באפליקציות של אדובי כבר שנים, והיא חלה רק על קבצים המאוחסנים בענן של אדובי, מה שלדבריו "אף איש מקצוע לא צריך לעשות בכל מקרה". לנדרמן הקפיד זה מכבר לבטל את הסימון של כל האפשרויות המשתפות נתונים עם יצרני אפליקציות, כחלק מתהליך העבודה מול לקוחות שדורשים ממנו לא פעם לחתום על הסכמי סודיות לעבודה בפרויקטים.
"הכל זז כל כך מהר עם כל חומרי הבינה המלאכותית: בעוד שאמנים מנסים לקדם תקנות עדכניות, מהנדסי בינה מלאכותית ו-NFT מנסים להתעלות על האמנים", אומר לנדרמן. "אני לא מופתע שכמה נושאים שאינם קשורים נקלעים לסערה."
הרצחת וגם ירשת?
מסתבר שאדובי היא לא החברה היחידה שהשתמשה בנתוני משתמשים ללא הסכמתם. דיוויד הולץ, מייסד Midjourney, מחולל תמונות מבוסס AI, גרם לתדהמה בקרב קהילת האמנים כשהודה בראיון לפורבס בספטמבר כי החברה שלו לא ביקשה אישור מהאמנים שעליהם הוכשרו אלגוריתמי ה-AI שלה.
"זה מדהים ששירות בתשלום מניח שזה בסדר להפר את פרטיות המשתמשים בקנה מידה כזה", אומר אנדריי אוקונצ'ניקוב, מפתח קצה ומעצב UI/UX מאוסטריה. "זה בעייתי כי חברות שמציעות לאחסן נתונים בענן מניחות שהן הבעלים של הנתונים. זה מפר את הקניין הרוחני ואת הפרטיות של מיליוני אנשים ואילו אותן חברות משדרות עסקים כרגיל. זה חייב להיפסק עכשיו."
ואכן, אמנים שונים ברחבי העולם כבר יצרו כלים שנועדו לאפשר לאמנים לבטל את ההסכמה לשימוש בעבודתם לאימון AI. גם האיחוד האירופי הטיל ספק בחוקיותם של כלי בינה מלאכותית שאוספים כמויות עצומות של יצירות אמנות כדי להכשיר את מודל למידת המכונה שלהם, ואף הציע כי אימון אלגוריתמים למטרות אמנות צריך להיעשות רק באמצעות עבודות שנמצאות ברשות הכלל ולא חלות עליהן זכויות יוצרים. עם זאת, עד שלא תתבצע חקיקה מפורשת, סביר להניח שהטכנולוגיות הללו ימשיכו להתפתח באין מפריע על חשבון האמנים.