מלחמות מידע: חוקרים וממשלות נלחמים סוף-סוף נגד דיסאינפורמציה ברשת בדיוק כשהבינה המלאכותית צפויה להחריף את הבעיה
Lawton, G. (2023). Information wars: The final battle? Researchers and governments are finally fighting back against the deluge of online disinformation – just as artificial intelligence threatens to supercharge the problem, New Scientist, 12 September
עיקרי הדברים:
- הפתרון להפצת פייק ניוז ודיסאינפורמציה שמסכנים את החברה הוא קורסי אוריינות דיגיטלית שיסבירו לתלמידים איך להיות משתמשי טכנולוגיה מתוחכמים יותר
- אוריינות תקשורת היא חלק מתוכנית הלימודים הרשמית בפינלנד בבית הספר מאז שנות השבעים, לאחר שהמדינה סבלה מדיסאינפורמציה שברה"מ הפיצה אודותיה
- החינוך לאוריינות דיגיטלית בפינלנד מתחיל בגן ונמשך עד חינוך מבוגרים
- אחת הטכניקות המומלצות של חינוך לאוריינות דיגיטלית היא חיסון: חשיפת אנשים למינונים מוחלשים של טכניקות מניפולציה כגון הכחשה, הסטה מהנושא (וואטאבאוטיזם), תיאוריות קונספירציה, טרולים, גזלייטינג, הפחדה, הסתה, עירור זעם והצגת דילמות שווא כגון "אתה איתי או נגדי"
- אחרי החשיפה המבוקרת של טכניקות המניפולציה, מפרקים אותן כדי שהתלמידים יוכלו לדעת כיצד להתנגד להן כשייתקלו בהן בעתיד
- אוסף גדול של ראיות מצביע על כך שגישת החיסון הזו עובדת
סכנת הפייק ניוז נהפכה למאיימת במיוחד עם עלייתה של בינה מלאכותית יוצרת ויכולתה להפיק דיסאינפורמציה משכנעת בקנה מידה תעשייתי. חוקרים רבים טוענים שגורמים עברייניים וממשלות דיקטטוריות עם כיסים עמוקים מסלימים את מסעות הדיסאינפורמציה שלהם, בזמן שהחבר'ה הטובים נלחמים בחזרה. השאלה איזה צד ינצח תקבע כיצד ייראו סביבת המידע וכל מה שהיא מעצבת, מהאמונות של אנשים לגבי חיסונים ועד לתוצאות הבחירות. מידע שגוי ודיסאינפורמציה, המוגדרת כמידע מטעה המוזרם בכוונה, קיימים כבר אלפי שנים. אבל הופעתה של המדיה החברתית הייתה קו פרשת מים במובן זה שהיא מסרה את כלי הדיסאינפורמציה לידי ההמונים, וההשלכות אדירות. מחקרים מראים שחדשות מזויפות מתפשטות פי שישה מהחדשות האמיתיות, אומר עובד גוגל לשעבר טריסטן האריס, שמנהל כעת את המרכז לטכנולוגיה אנושית בסן פרנסיסקו.
לקריאה נוספת: כל סיכומי המאמרים בנושא פייק ניוז
לדברי האריס, "למרות שיש מספר קטן מאוד של קולות קיצוניים, המדיה החברתית לוקחת את ה-5% האלה מהאוכלוסייה ואז מציגה אותם על כל מסך הקולנוע של האנושות". כבר ידוע מדוע מידע כוזב מתפשט מהר כל כך. לאלגוריתמים שמגישים תוכן בפלטפורמות כמו פייסבוק, אינסטגרם ו-X (לשעבר טוויטר) יש שתי מטרות עיקריות: ללכוד ולשמר את תשומת הלב של אנשים, ולהניע אותם לשתף תוכן באמצעות תגמול על כך. ככל שהתוכן פרובוקטיבי יותר, האסטרטגיה הזו מוצלחת יותר. "אנשים מקבלים תגמולים חברתיים על שיתוף מידע מאוד מעורר רגשי או מידע שהוא לא הכי מדויק", אומרת גיזם סיילן מאוניברסיטת ייל. יתרה מכך, פעולת השיתוף הופכת להרגל. לדברי סיילן, "עם הזמן, אתה הופך להיות כמו יונה שמנקרת על כפתור בתקווה לקבל אוכל, אבל אתה לא מבין את זה". המחקר של סיילן מדגים כיצד הבעיה באה לידי ביטוי. בניסוי, היא ושני עמיתים הראו למשתמשי פייסבוק כותרות נכונות ומזויפות ושאלו אותם אם ישתפו כל אחת מהן. המשתמשים הכבדים ביותר של האתר אמרו שהם יחלקו 37 אחוז מהכותרות המזויפות ו-43 אחוז מהכותרות האמיתיות. "הם היו חסרי רגישות לחלוטין לאמיתות המידע", אומר סיילן.
קיטוב פוליטי, הכחשת אקלים והתנגדות לחיסונים
רוב האנשים מעוניינים בסביבת מידע לא מזוהמת. הצרה היא שמבנה התגמול של המדיה החברתית מסכל את רצון העם. דיסאינפורמציה הואשמה גם בהאצת תופעות חברתיות שליליות אחרות, כולל קיטוב פוליטי, הכחשת אקלים ובחירות וסנטימנט נגד חיסונים. הקיטוב הפוליטי נגרם בין השאר כתוצאה מכך שלאלגוריתמים של Meta (פייסבוק) יש השפעה עצומה על התוכן שאנשים רואים, ואנשים עם אידיאולוגיות שונות רואים תוכן פוליטי שונה מאוד – בדרך כלל הגולשים רואים תוכן שמחזק את הדעות שהם כבר ממילא מחזיקים בהן.
באחרונה הוקם גוף בינלאומי בנושא דיסאינפורמציה במודל של הפאנל הבין-ממשלתי לשינויי אקלים. הפאנל הבינלאומי על סביבת המידע, או IPIE, הושק רשמית באקדמיה הלאומית למדעים של ארה"ב בוושינגטון. בעבודתו הראשונה, IPIE סקר באופן שיטתי מאות מאמרים על אסטרטגיות להתמודדות עם דיסאינפורמציה במדיה החברתית. הוא מצא כי מבין מספר דרכים הגיוניות לעשות זאת, רק שתיים מוכחות כעובדות: תיוג תוכן, שבו פוסטים מתויגים עם בדיקות עובדות וגילויים לגבי מי שילם עבורם; ומידע מתקן, שבו מישהו בעל סמכות מפריך דיסאינפורמציה במדיה חברתית בקטע תוכן נפרד, לא מקושר.
מדיניות של התמתנות (moderation), שלפיה פלטפורמות מסירות תוכן או משעות וחוסמות חשבונות, עובדת במידה מסוימת, וכך גם הוראת אוריינות מדיה למשתמשים. אבל דברים אחרים שנוסו לא הוכחו כיעילים: לאפשר למשתמשים לדווח על דיסאינפורמציה, לעכב שיתוף של תוכן מפוקפק, להגיד למשתמשים שהם צרכו מידע מוטעה, להפנות משתמשים למקורות אמינים וכן הלאה.
ייתכן שהבעיה הגדולה ביותר היא האיום הממשמש ובא: כלי AI מחוללים שיכולים לייצר טקסט, תמונות ו-וידיאו משכנעים בתגובה להנחיות אנושיות. "כשאנחנו חושבים על האופן שבו דיסאינפורמציה מופקת ומופצת כרגע, בינה מלאכותית גנרטיבית תגביר את זה", אומר סטיבן קינג, מנכ"ל קרן Luminate, הפועלת לטיפול באיומים דיגיטליים על הדמוקרטיה. "מה שנראה בעוד שנה, שנתיים, הולך להיות בקנה מידה ובסדר גודל שאנחנו לא באמת יכולים לדמיין. הבעיה הולכת להחמיר לפני שהיא תשתפר". גורמים מזיקים עלולים להשתמש בבינה מלאכותית זמינה לציבור, כגון ChatGPT, או אפילו לבנות אלגוריתמי תעמולה משלהם המאומנים על דיסאינפורמציה. "עכשיו אתה יכול לייצר 10,000 שקרים שונים ולהבין מה הופך ויראלי", אומרת פרנסס האוגן, לשעבר מפייסבוק, שבשנת 2021 חשפה מסמכים המפרטים את כישלונה של החברה בבלימת מידע מוטעה, וכעת היא עובדת ב-Beyond the Screen, ארגון לא ממשלתי שמבצעת קמפיינים לשיפור בלמים ואיזונים בפלטפורמות המדיה החברתית.
"כשאתה מאמן AI יצירתי על תעמולה שנכתבה על ידי אדם, התעמולה של האלגוריתם נתפסת כמשכנעת יותר, לפחות קצת, כי היא תמציתית יותר, היא קצרה יותר, היא יותר מפוצצת", אומר סנדר ואן דר לינדן, פסיכולוג באוניברסיטה של קיימברידג'. ביולי פרסמה חברת טכנולוגיה הלוחמת בדיס-אינפורמציה את תוצאותיו של ניסוי מצמרר עם AI גנרטיבי. החוקרים שלה ביקשו משלושה מערכות AI יוצרות תמונות - Midjourney, DALL-E 2 ו- Stable Diffusion - לייצר תמונות מזויפות הקשורות לנושאים פוליטיים עם כפתורים חמים בארה"ב, הודו ובריטניה. לפעמים בינה מלאכותית יכולה לסרב לענות על שאילתות כאלה מכיוון שהמפתחים שלהן החליטו שהיא צועדת על טריטוריה בעייתית. עם זאת, רוב הנחיותיהם התקבלו וחלקם יצרו תמונות דיסאינפורמציה סבירות ביותר, כולל תמונות של הונאה-לכאורה של הבחירות בארה"ב ומפגינים שהפילו כביכול פסל של אייזק ניוטון בקיימברידג'.
נכון לעכשיו, בינה מלאכותית גנרטיבית יכולה לייצר טקסט, תמונות או וידאו, אבל לא בשילוב. הפיתוח הבא יהיה גרסאות מולטי-מודאליות המסוגלות ליצור את שלושתן באותו זמן באותו נושא, אומר סטיבי ברגמן מצוות מחקר האתיקה בחברת AI Google DeepMind. "ליכולת לעשות מספר כאלה יש השלכות מיוחדות על איך להגביל מידע שגוי או דיסאינפורמציה, ואיך נראה מידע שגוי או דיסאינפורמציה אפילו", היא אומרת.
אפשרות רחוקה יותר אך מתקבלת על הדעת היא מה שסם סטוקוול במכון אלן טיורינג בלונדון מכנה סוכנים אינטליגנטיים אוטונומיים: בינה מלאכותית יצירתית שניתן לתת לה משימה ואז מגלה כיצד לעשות זאת ללא פרומפטים (הנחיות) נוספים מבני אדם.
לצד הסכנות שמציבה טכנולוגיית הבינה המלאכותית, יש לה גם יתרונות פוטנציאליים. בודקי עובדות כבר משתמשים בבינה מלאכותית כדי לגלות דיסאינפורמציה ובינה מלאכותית יוצרת עשויה להפוך את המשימה הזו ליעילה יותר. "ללא בינה מלאכותית, איננו יכולים לבצע ניהול תוכן בקנה מידה בזמן", אומרת שרה שיראזיין, מנהלת מדיניות תוכן ב-Meta. "לדוגמה, בינה מלאכותית יכולה לזהות ולזהות באופן פעיל תוכן מזיק, בין אם זה דברי שטנה או ייצור המוני של חשבונות מזויפים, ולאחר מכן להוריד אותו לפני שאלפי משתמשים מדווחים על כך, או אפילו רואים אותו".
"הרבה אנשים אומרים שהפתרון לטווח ארוך הוא לקיים קורסי אוריינות דיגיטלית בבתי ספר תיכוניים כדי ללמד אנשים להיות משתמשי טכנולוגיה מתוחכמים יותר", אומר הווארד. "אבל לא תמיד ברור איך נראית תוכנית אוריינות דיגיטלית טובה. זה כנראה יהיה אחד הדברים הבאים שאנחנו עובדים עליהם ב-IPIE." יש לנו לפחות דגמים טובים, כמו בפינלנד.
לדברי Jussi Toivanen במרכז הלאומי לאבטחת סייבר של פינלנד, ארצו גובלת ברוסיה והייתה מושא לקמפיין דיסאינפורמציה שנתמך על ידי הקרמלין בטענה שעובדים סוציאליים פינים לוקחים ילדים ילידי רוסיה למשמורת ומוכרים אותם לזוגות הומוסקסואלים. "אוריינות תקשורת היא חלק מתוכנית הלימודים הרשמית שלנו בבית הספר מאז שנות ה-70", הוא אומר.
"זה מתחיל בגן, ממשיך לחינוך בסיסי וגם לחינוך מבוגרים". "פינלנד היא דוגמה ומופת לחינוך לאוריינות דיגיטלית", אומר ואן דר לינדן, שמצדו התנסה במה שהוא מכנה "חיסון". כלומר, חשיפת אנשים למינונים מוחלשים של טכניקות מניפולציה כגון הכחשה, הסטה מהנושא (וואטאבאוטיזם), תיאוריות קונספירציה, טרולים, גזלייטינג, הפחדה, הסתה, עירור זעם והצגת דילמות שווא כגון "אתה איתי או נגדי". לאחר החשיפה מפרקים את טכניקות המניפולציה כדי שאנשים יוכלו להתנגד להן כאשר ייתקלו בהן בהמשך. אוסף גדול של ראיות מצביע על כך שגישת החיסון הזו עובדת.