פייק איט אנטיל יו מייק איט
צילום: לקסיקה
OpenAI, החבר'ה שהגישו לנו את נשק ההשמדה ההמונית של האמת המכונה chatGPT, פרסמו דו"ח על נושא שאני כבר ממש מלא זמן רוצה לדבר עליו. תופים, תופים: כמה מצב הדיסאינפורמיישן יהיה (עוד יותר) חרבנה כשנותנים לכל אחד להשתמש בבינה מלאכותית גנרטיבית ואפילו בלי רשיון.
הכתבה באדיבות עו"ד ורד חורש ופורסמה בעמוד הפייסבוק שלה. ללינקדין של עו"ד חורש .
האמור בכתבה לא מהווה ייעוץ משפטי.
אבל קודם, חידה: גוגל שופכת ים כסף על מחקר בתחום הבינה המלאכותית, אז למה היא לא משחררת את המודלים של DeepMind לשימוש הציבור כמו OpenAI (שעם כל הכבוד לזה שהיא ממומנת בנדיבות, ועכשיו מיקרוסופט שוקלת להזרים אליה עוד 10 מיליארד דולר, גוגל ככל הנראה לא רואה אותה ממטר)?
בחזרה לדו"ח שזכה לכותרת המנומסת: Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations
שזה שם מכובס ל<מדינה זרה> (אהמ..אהמ.. רוסיה) יכולה עכשיו לפמפם מסרים מתוזמרים באמצעות רשתות של בוטים בסושיאל מדיה אפילו יותר טוב, כדי להשפיע על דעת הקהל ב<מדינה אחרת> (ע"ע ארץ האפשרויות הבלתי מוגבלות) ולשים בבית הלבן את מי שהיא רוצה. לכאורה. יעני, קיימברידג' אנליטיקה על ספידים. אבל זה תרחיש ה"גלאם", קמפיינים שנועדו להשפיע על התודעה שלנו יכולים להיות גם יותר יומיומיים ולשרת פוליטיקה פנימית או אפילו אינטרסים מסחריים.
אז מה אומר הדו"ח? את מה שכולכם יודעים כבר בצורה די אינטואיטיבית: מודלים גנרטיביים ממש מעולים בלפברק דברים שנשמעים אחושילינג אותנטיים בצורה שנשמעת סופר אוטוריטטיבית ומשכנעת. הם גם יודעים להתאים את הטון והשפה והגישה שלהם לצרכים שלנו. מה שאומר שהם יכולים להציע מסרים מותאמים אישית, ולהשפיע בצורה מאוד אפקטיבית על קהלים רחבים.
הדו"ח בוחן על פני למעלה מ 80 עמודים את השפעות ה GenAI על קמפיינים לשינוי תודעה לפי מודל תלת-ממדי ABC – Actors, Behavior & Content. ברור שבינה מלאכותית יכולה פוטנציאלית להוריד את חסמי הכניסה ל"ביזנס" הזה, וכתוצאה יותר שחקנים יוכלו להשתתף בחגיגת ההפצה. טקטיקות חדשות לגמרי יכולות להתאפשר באמצעות כלי GenAI שלא התאפשרו עד היום בסקייל: למשל, ניתן לחשוב על בוטים שבמקום להדהד באופן ציבורי מסרים, נכנסים לשיחות פרטיות עם אנשים בקהל המטרה ומנהלים איתם שיחות השפעה עם פרסונליזציה מלאה.
הדו"ח מציע כל מיני דרכים טכנולוגיות וחברתיות (הגברת מודעות וכיו"ב) להתמודדות עם התופעה הזו שתהפוך את האמת לדבר מאוד נזיל. מצרפת לכם פה טבלה שמסכמת את ההצעות הבולטות בדו"ח. מה שמשותף לרובן הוא שהן מצריכות שיתוף פעולה בין שחקניות רבות: חברות שמפתחות מודלי בינה מלאכותית, כאלו שמפתחות אפליקציות בינה מלאכותית, פלטפורמרים (מטא, טוויטר, לינקדאין ואחרים), גופי מדיה ועוד ועוד. זה לא קל לייצר שיתוף פעולה בין הגופים האלו, שברגיל הם די מתחרים, ואם יש קלף שרבות מהן שומרות קרוב לחזה כרגע זה יכולות ה GenAI שלהן (כן, כן, חוץ ממך, OpenAI).
אחת ההצעות הכי חשובות בעיני נוגעת לסימון תוצרי בינה מלאכותית ב Digital Provenance ואימוץ התקן לסימון מקור דיגיטלי בידי כל מי שמציג לנו תכנים: רשתות חברתיות, גופי מדיה וכו'.
יש שמועות שגוגל "קונסת" אתרים שעושים שימוש בתכנים שגונרטו ע"י בינה מלאכותית בתוצאות החיפוש שלה. ניל פאטל שהוא מין SEO גורו ערך ניסוי שבו הוא הרים 100 אתרים לאוויר, חלקם נכתבו לגמרי ע"י AI וחלקם שילוב של AI ואדם. פאטל מדווח שהראשונים ראו 17% ירידה בטארפיק ואילו האחרונים 6% ירידה.
בעיני, הגישה של גוגל (בהנחה שהניסוי של פאטל נכון) היא פטרנליסטית. אבל למונופולים יש נטייה כזו. וגם אין כרגע תוכן שנכתב ע"י בינה מלאכותית של גוגל, אז אולי יש פה ניסיון עקיף לפגוע במתחרים.
הגישה שאני חושבת שראוי לאמץ בהקשר הזה היא הגישה שנוקטת בה הקואליציה למקור ואותנטיות תוכן (אויש, זה נשמע ממש גרוע בעברית: Coalition for Content Provenance & Authenticity). הקואליציה שמובילה אדובי יחד עם מיקרוסופט (הי, OpenAI), BBC וסוני ועוד יצרה תקן טכני לסימון תוכן מקורי. בדומה לפרובננס של יצירות אומנות, התוכן מקבל חתימה דיגיטלית ברגע היווצרותו ולאחר מכן כל מניפולציה שמכניסה שינויים בתוכן המקורי מצטרפת לתיעוד.
ההצעה שלי היא לייצר תקן שהוא המשלים של תקן ה C2PA של הקואליציה: תקן שיספר לנו האם התוכן נוצר בידי בינה מלאכותית והאם הוכנסו בו לאחר מכן שינויים.
הטמעה של שני התקנים הללו ברשתות החברתיות ובכלל תאפשר שקיפות ביחס לאופן יצירת התוכן. משם, כל אחד יעשה את ההחלטות שלו לגבי התוכן ואיזה משקל ראוי לתת לו בגיבוש השקפותיו לגבי המציאות. הרי תוכן שנוצר בידי מכונה לאו דווקא משוקץ, ולא כל התוכן האנושי הוא נזר הבריאה.
כמה הערות להשלמת התמונה:
1. ברור לי שההצעה שלי היא סכמתית למדי כי בתוך זמן קצר בינה מלאכותית גנרטיבית תפסיק להיות "דבר". במקום לעמוד סטנד-אלון, היא תוטמע כיכולת בתוך כלים שבני אנוש ישתמשו בהם ויהיה מורכב יותר ויותר לקבוע אילו חלקים מהתוכן נוצרו בידי אדם ואילו בידי מכונה. כשלעצמי, מדיניות השקיפות נותנת ערך גם בתרחישים האלו: "שימי לב, תוכן זה נוצר תוך שימוש בכלי שיש בו יכולות בינה מלאכותית כקופרודוקציה של אדם ומכונה. מה את עושה עם המידע הזה, זה כבר עלייך, בובה".
2. סימני מים (watermarks) ואימון רדיואקטיבי: יש דיבור שלם (וגם התייחסות לכך בדו"ח) על סימון סטטיסטי של תכנים שיוצרו באמצעות בינה מלאכותית, בעיקר כדי שמכונות אחרות ידעו שהם חשודים בהיותם כאלו. כבר היום יש כמה שירותים שמתיימרים לקבוע האם תוכן שמוצג להם נוצר בידי אדם או מכונה. מהטעם שציינתי בסעיף 1, אני חושבת שבקרוב האבחנה הזו תהיה לא רלבנטית. וחוץ מזה, זה יתחיל מרוץ דומה למה שקורה בתחום הסייבר. יהיו מודלים ש"יחמקו" מגלאי הבינה ואז יפותחו גלאי בינה טובים יותר בלאתר את תוצרי המודלים הללו וחוזר חלילה.
3. כדי שהאמת לא תהפוך למשאב נדיר, נדרשת הסכמה חברתית רחבה שזה חשוב לתת מידע לגבי האופן בו נוצר תוכן. כך, רוב התוכן יסומן כאנושי, מכונתי או משולב. ובשוליים יתקיים תוכן שלא יסומן בשום צורה וגם לגביו נצטרך להחליט אם הוא ראוי לצריכה ומה המשמעות שיש לתת לכך שהוא לא סומן בתקן.
פתרון החידה: אני לא באמת יודעת למה גוגל לא משחררים את המודלים שלהם לצריכה ציבורית. אבל ההשערה שלי קשורה לכך שלמעלה משנה לפני הדו"ח שפרסמה OpenAI אתמול, ב 8.12.2022, הם פרסמו ארבעה מאמרים מאוד מעניינים. שלושה מהם טכנולוגיים וכותרתו של הרביעי: Ethical and social risks of harm from Language Models. המאמר מתאר את הסיכונים הפוטנציאליים ממודלי שפה על פני מספר תחומים, ביניהם אפליה ורעילות, דיסאינפורמציה והסכנה שבמתן אמון מופרז במודלים. ייתכן שגוגל חושבים שלפני שמשחררים כלים עם יכולת נרחבת לפגיעה, ראוי לאמץ אמצעים לצמצומה.
לינק לדו"ח של OpenAI: https://cdn.openai.com/papers/forecasting-misuse.pdf
לינק לדו"ח של גוגל: https://arxiv.org/pdf/2112.04359.pdf
לכתבה הראשונה בסדרה - למי שייכות זכויות היוצרים?
לכתבה השניה בסדרה - עוד היבטים משפטיים
דיסקליימר #1: כרגע יש המון התפתחויות בכל מיני זירות משפטיות ודברים שמתרחשים הן באקדמיה והן בקרב ממשלות ולבסוף חלקם (בינתיים, המזערי) גם מגיע לפתחם של בתי המשפט. אז אני משתפת במה שידוע (לי) כעת ויכול להיות שכשאר אתם תקראו את הפוסטים הללו המצב כבר יהיה שונה, אז שווה לקבל ייעוץ משפטי מותאם לנסיבות הפרטניות שלכם ולא להסתמך על פוסט באינטרנט בהכוונת הפעילות שלכם.
דיסקליימר #2 (או יותר בקשה): אני עוקבת אחרי התחום באדיקות, אבל השטף מטורף וסביר להניח שיש דברים שפספסתי. מוזמנים מאוד לשתף אותי בתגובות וגם כמובן להעיר ולהציע את הפרשנויות והדעות שלכם. הרבה מהדברים רחוקים עדיין מלהיות "חלוטים" מבחינה משפטית, אז הם משקפים את הניתוח הפרטי שלי.