וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

עולם הוידאו לעולם לא יהיה אותו דבר - הכירו את SORA

אור קורץ

עודכן לאחרונה: 28.2.2024 / 9:30

לא חשבנו שנגיע לפה כל כך מהר: מודל SORA של OpenAI מאפשר ליצור וידאו AI שנמשך דקה ונראה אמיתי לחלוטין, כמעט בלי פגמים, מטקסט בלבד. איך הוא מקדם את עולם השיווק ומה הסכנות הצפויות?

סרטון שנוצר באמצעות מודל SORA של OpenAI. OpenAI, אתר רשמי
סרטון שנוצר באמצעות מודל SORA של OpenAI/אתר רשמי, OpenAI

לפני שבוע ובלי הכנה מראש, חברת OpenAI שחררה אתר המדגים את היכולות של מודל הטקסט לוידאו שלה, Sora. העולם, ובעיקר עולם השיווק, לא יראו אותו דבר אחרי זה.

זה מרגיש כמעט בנאלי לדבר על עוד "חידוש" בתחום ה-AI, אבל אנחנו צריכים לדבר על Sora, כי לפי ההדגמות, נראה שהוא מתכנן לעשות לוידאו את מה שהחברה כבר עשתה לטקסט.

הרמה של וידאו AI עד להשקת SORA היתה סבירה במקרה הטוב. יש כמה חברות מוכרות בשוק כמו Kapwing ו-Canva, שאפשרו לייצר קטעי וידאו קצרצרים מפרומפט, ואז לחבר מספר קטעים כאלה יחד, אבל כל התהליך היה ארוך ומסורבל וזה הקשה על המשתמשים להגיע לתוצאות טובות. כעת, סורה טורפת את הקלפים ומביאה איכות חדשה שטרם נראתה במחוזות אלה.

המודל החדש מאפשר ליצור סרטונים של עד דקה, לשלב בין שני סרטונים קיימים, להנפיש תמונות ועוד, והכל באמצעות הנחיות טקסט. החברה מציינת באתר ש-Sora "יכול ליצור סצנות מציאותיות ומלאות דמיון מהוראות טקסט." כמה מציאותיות? תשפטו בעצמכם.

הכוח של SORA

באתר ההדגמה של SORA מצאנו סרטון קצר של חתול מציק לאישה שמנסה לישון. חוץ מהתנועה של האישה שנראית קצת מוזר, אין פה משהו מסגיר. החתול מתנהג כמו חתול, והאישה מתעצבנת. מדובר בסך הכל ב-8 שניות של וידאו, אבל דווקא סרטון תמים כזה מראה את היכולות האמיתיות של המודל לעומת מודלים אחרים. אין פה פיצוצים או חלליות, יש סיטואציה לגיטימית שיכולה לעלות ברילז או בטיקטוק, אבל היא נראית ממש ממש אמיתית. עוד על הסכנות של זה בהמשך.

אחד מסרטוני ההדגמה של יכולות מודל SORA./OpenAI

הפוטנציאל השיווקי של Sora

תארו לעצמכם סרטון פרסומת מותאם אישית המופיע בפיד שלכם ברשתות החברתיות. הסרטון מתחיל בתמונה שלכם, שצולמה בסביבה מוכרת לכם, כמו בית קפה אהוב או פארק שבו אתם נוהגים לרוץ. לאחר מכן, הסרטון מציג מוצר חדש של חברה מוכרת, תוך התאמה אישית של המוצר ויתרונותיו לצרכים ולהרגלים שלכם.

לדוגמא, אם אתם חובבי ריצה, הסרטון יתמקד ביכולות עמידות המים של נעלי הריצה החדשות; אם אתם חובבי קפה, הסרטון יציג את טעמו העשיר של פולי הקפה החדשים; אוהבים גיימינג? הסרטון יציג אתכם מול טלוויזיה חדשה עם כל הפיצ'רים שגיימרים אוהבים וכך הלאה. חברת תיירות יכולה להשתמש ב-Sora כדי ליצור סרטון המציג מסלול טיול מותאם אישית עבור לקוח, תוך התחשבות בתחומי העניין שלו, בתקציבו ובזמן העומד לרשותו.

כל המידע הזה כבר קיים במטא. חיבור בין היכולות של SORA לבסיס מידע כמו של מטא ויש לכם מכונה שיכולה לייצר הכל ומייתרת כמעט לחלוטין את הצורך בצוות הפקה - מעצבים, כותבי תוכן, עורכי וידאו, במאים, צלמים, מפיקים; אפילו למנהל הקמפיינים יש פחות עבודה כי הם לא צריכים לחשוב על קריאייטיב כל פעם מחדש.

סרטונים מותאמים אישית יכולים להוביל לחווית לקוח טובה יותר ומשם הדרך קלה יותר להמרה. הם רלוונטיים יותר ויעניינו את הלקוח הפוטנציאלי באופן אישי, כי הוא במרכז, ולא איזה פרזנטור או כוכבת רשת.

עם כח גדול מגיע פייק גדול

כמו בכל פריצה טכנולוגית, אנחנו חייבים לדבר על הסכנות. בשימוש זדוני, Sora יכולה לשמש ליצירת סרטונים ריאליסטים לחלוטין של אירועים שלא התרחשו כלל, ולהוביל להפצת מידע שגוי ופייק ניוז.

לדוגמא, גורם פוליטי יכול להשתמש ב-Sora כדי להציג אירוע דמיוני בו יריב פוליטי נראה במקום שהוא לא צריך להיות בו, או אומר דברים שפוגעים בשמו הטוב, באמצעות דיפ פייק שכבר היום עובד לא רע. זוכרים את הסרטון המטריד של ג'ו ביידן מלטף את אשתו של שר ההגנה החדש? אז עם Sora הוא יכול לעשות הרבה יותר מזה.

בנוסף, הטכנולוגיה החדשה יכולה לגרום לעליית מדרגה בתחום ה-Ransomware - תרמיות כופר. קיים סקאם מוכר בארה"ב, שבו מתקשרים להורה ממספר הטלפון של הילד או הילדה שלהם, ומודיעים שהם נחטפו ומבקשים כופר. ה"חוטפים" יוצרים תחושת לחץ ופאניקה בעזרת זיוף הקול של הילדים, כדי שההורים יעבירו את הכסף בהקדם תמורת ילדם שלא נחטף מעולם. כבר ראינו מה אפשר לעשות עם קצת מידע שיש לנו, כמו תמונות. סורה מעלה את האפשרויות לרמות אחרות ומסוכנות בהרבה.

איפה האמת?

ככל שסרטוני AI ימלאו את הרשתות החברתיות כך המציאות תיטשטש ולא נדע בכלל מה אמיתי ומה לא. אמנם קיימת מדיניות סימון של תכני AI בחלק מהרשתות, ומטא עובדת על כלי סימון אוטומטי, אבל במצב הביניים שאנחנו נמצאים בו אנשים עלולים לאבד אמון ביכולתם להבחין בין פייק למציאות. זה כבר קורה עם תמונות. סרטון, שיכול לספר סיפור שלם, הוא הרבה יותר מסוכן מהבחינה הזאת.

כמובן ש-OpenAI מציינים באתר שהם יציבו את ה"גדרות" המתאימים למודל החזק ויבנו אותו בצורה אחראית שלא תאפשר לגורמים עוינים לנצל אותו לרעה, אבל כשיש לך כלי שמספק תוצאות כל כך טובות וכל כך מהר (כנראה, המודל עוד לא בחוץ), יהיה מאוד קשה להחזיר את השד בחזרה לבקבוק.

ניתן לקוות שהמודל יסייע יותר לדברים חיוביים כמו שיווק, לעומת דברים אפלים.

סיכום

למודל החדש, Sora, יש פוטנציאל אדיר לקדם את תחום השיווק ואת העולם כולו, אך חשוב להשתמש בטכנולוגיה זו באופן אחראי ומוסרי. לפני שהוא משוחרר לקהל הרחב, יש להגביר את המודעות לסכנות הכרוכות בשימוש ב-Sora, ולנקוט בצעדים למניעת הפצת מידע שגוי ופייק ניוז.

ולמי שרץ לנסות להוריד את המודל, חכו שנייה, הוא כרגע רק תצוגת תכלית והמודל זמין לשימוש פנימי למספר אמנים, מעצבים ויוצרי קולנוע רק לקבלת משוב. עד שהוא ישוחרר, אני מקווה ש-OpenAI יקחו עוד כמה חודשים לשבת על המודל ולעשות אותו בטיחותי לכולם, בלי חשיבה על השורה התחתונה, בטח כשאנחנו לקראת תקופת בחירות בארה"ב.


אור קורץ הוא כתב ואסטרטג תוכן והבעלים של Light-Web.

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    4
    walla_ssr_page_has_been_loaded_successfully