top of page
  • תמונת הסופר/תענבל אורפז

מה קורה כשמשתמשים בבינה המלאכותית נגדנו?

אז אמרו לי שה-Chat GPT לגמרי הגיע למיינסטרים - ושהגיע הזמן להשמיע ביקורת על יישומי ה-AI ליצירת תוכן ומה איתי (היי אמא, שלא תגידי שאני לא מקשיבה לך 😉❤️). אז עם כל הפוטנציאל וההזדמנויות שנפתחו בפנינו שיחסכו לנו זמן וכסף באמצעות Generative AI - כמובן שיש גם בעיות. היום אני רוצה להתייחס לדוגמה אחת שמראה איך אותם כלים נפלאים שיכולים לייצר כל תמונה בעולם גם יוצרים סכנה שכל אחד ואחת מאיתנו עלולים להיות מושפעים ממנה.


אבל לפני שנתחיל, אני רוצה להכיר לכם את ג׳ואנה ויליאמס. כילדה בדנוור קולורדו היא חלמה לרקוד בניו יורק סיטי בלט. היא הבת הבכורה במשפחה עם הורים רופאים ובילתה את ילדותה בקייטנות בהרי הרוקי. בסופו של דבר גדלה להיות מהנדסת סביבתית ומשקיעה את מירב זמנה בהובלת מאבק נגד דלקים מזהמים. היא פעילה בטוויטר, בלינקדאין ובפייסבוק, בעיקר בקבוצות של פעילי אקלים.

הכל טוב ויפה, אבל ג׳ואנה לא קיימת והמצאתי אותה כרגע. בין רגע גם יצרתי לה ברגע פרופיל מזוייף שמשלב פרטים מומצאים יחד עם פרטים אמיתיים שנלקחו מחשבון אחר ותמונת פרופיל של אדם שלא קיים אבל נראה אמיתי. כמו ג׳ואנה מסתובבים ברשתות החברתיות סביבנו המוני משתמשים פיקטיביים, שנראים רגילים לחלוטין, אבל נועדו להטעות אותנו.


לפעמים, החשבונות האלה ברשתות החברתיות, למשל בפייסבוק או לינקדאין, מעוררים את החשד שלנו. אז אנחנו נכנסים לעמוד הפרופיל, ומסתכלים על מה שהבנאדם כתב על עצמו והפוסטים שהוא פירסם וכו׳. בתהליך הבלשי הקצר הזה, השלב הראשון בבדיקת האותנטיות של משתמש חשוד יהיה בדרך כלל בחינה של תמונת הפרופיל שלו. אם נראה פרופיל עשיר בתמונות, שנראה בהן שזה בנאדם אמיתי, במגוון סיטואציות חיים - יגדלו הסיכויים שנחשוב שזהו משתמש אמיתי. זאת לעומת משתמש שמהר מאוד יגביר את החשד שלנו - שאין בפרופיל שלו אף תמונה ורק סמלים, שהתמונות יהיו גנובות מאתרי שאטרסטוק וכו׳.


כל זה היה נכון עד לא מזמן, וכאן נכנסים לתמונה כלים שמחוללים תמונות באמצעות בינה מלאכותית.


בדו״ח של Meta לסיכום שנת 2022 בתחום רשתות הפייקים בפייסבוק (המינוח המדוייק הוא ׳רשתות מתואמות לא אותנטיות׳ או באנגלית - Coordinated Inauthentic Behavior) הייתה התייחסות למגמה מעניינת: ביותר משני שלישים מרשתות החשבונות הפיקטיביים שזיהו בפייסבוק בשנה האחרונה השתמשו בתמונות שנוצרו באמצעות מנגנוני בינה מלאכותית. כלומר נעשה שימוש בתמונות שנראות כמו אנשים אמיתיים, אלא שהן פרי דימיונה של מכונת בינה מלאכותית שיצרה אותם על פי אלפי פרצופים אמיתיים עליהם אומנה. זוהי עליה של כפי שלושה בתוך שנה בנפח התמונות הסינטתיות בהן משתמשות ברשתות הפייקים.

תחשבו על המשמעות של זה עלינו, כמי שנסמכים על מידע שמפורסם על ידי חשבונות ברשתות החברתיות. למשל, כשאנחנו מחפשות המלצה למוצר או שירות והולכות ושואלות בקבוצות, ולא מעלות על דעתנו שזה חשבון פיקטיבי שנועד להטעות אותנו ולקדם אינטרסים מסויימים. זה עוד אפילו פחות נחמד כשיש מאחורי החשבונות גורמים איראנים למשל שרוצים להגביר את השיסוע בישראל.


כמובן שהמגמה הזו של שימוש בתמונות סינטתיות תקשה על ציידי הפייקים - אלו שמאתרים משתמשים פיקטיביים ברשת - כי התמונות יצירת הבינה המלאכותית גורמות לחשבונות להראות יותר אותנטיים ומקוריים ויהיה קשה ולא ניתן יהיה לאתר את המקור שלהן. אמנם, ישנן טכנולוגיות המאפשרות זיהוי תמונות סינטתיות (או deepfake או generative AI או כל באזזוורד אחר), אבל כמובן שזה מורכב יותר מאשר לעשות קליק ימני על תמונה ולאתר את המקור שלה באמצעות מנוע חיפוש שנגיש לכל אחד ואחת.


בקיצור, לצד הטוב והיעילות שמביאות טכנולוגיות הבינה המלאכותית שיודעת לייצר תוכן, היא גם גורמת לכך שנהיה יותר קל לעבוד עלינו, לרמות אותנו, ולעשות את זה קשה יותר לגלות כשמטעים אותנו.


אז מה עושים?

- שומרים על עירנות - ושואלים את עצמנו, האם זו ג׳ואנה או ״ג׳ואנה״?

- מרעננים את השיטות שמסייעות לזהות חשבונות פיקטיביים באמצעות המדריך שכתבתי ופורסם ב-INSS

- משחקים עם יישומים של בינה מלאכותית ליצירת תוכן, ליצירת טקסטים או תמונות או מה שבא לכם, כי זה הופך לחלק מהחיים שלנו ואתם רוצים להיות חלק מזה ולהשתמש בזה במקומות שיעזרו לכם - על אף הבעיות



לפוסט קודם בבלוג על ההזדמנויות הטמונות בבינה המלאכותית: אל תגידו לי זה לא יקרה: האם הבינה המלאכותית תהפוך אתכם למיותרים?



0 תגובות

Comments


bottom of page