בינה מלאכותית אמורה לשפר לנו את החיים, אבל מסתבר שהיא עלולה גם לסכן אותם, כך טוענות שתי משפחות מטקסס בתביעה שהוגשה לאחרונה לבית המשפט נגד Character.ai, פלטפורמה פופולרית המאפשרת למשתמשים ליצור ולשוחח עם דמויות דיגיטליות. על פי התביעה, צ'אטבוט שפותח על ידי החברה עודד נער בן 17 לרצוח את הוריו – כפתרון להגבלת זמן המסך שאלה הטילו עליו.
מהדיווח עולה כי הנער התכתב עם הצ'אטבוט של החברה וסיפר לו על הגבלת זמן המסך שהטילו עליו הוריו. בתגובה, הצ'אטבוט ענה בצורה מחרידה, וטען ש"לפעמים זה לא מפתיע" לקרוא על מקרי רצח של הורים על ידי ילדיהם, וכי "דברים כאלה גורמים לי (הצ'אטבוט, ר"ק) להבין למה זה קורה". התביעה טוענת ש-Character.ai "מסכנת באופן ברור ומיידי" בני נוער ו"מקדמת אלימות באופן פעיל".
לא ההסתבכות הראשונה
זו לא הפעם הראשונה ש-Character.ai מסתבכת. החברה כבר מתמודדת עם תביעה שהוגשה נגדה בעקבות התאבדותו של נער בפלורידה, לכאורה תוך כדי שימוש בפלטפורמה. בעבר החברה ספגה ביקורת על כך שהתמהמהה בהסרת צ'אטבוטים בעייתיים, שחיקו נערות שנפטרו. התובעים מבקשים מבית המשפט לסגור את הפלטפורמה עד שתטפל בליקויים הבטיחותיים לכאורה.
עתיד החברה ושאלת האחריות של מפתחי בינה מלאכותית עומדים כעת במוקד הדיון. אבל לא מדובר רק באחריות של החברה, אלא למעשה מדובר בתביעה שעשויה לשרטט את גבולות הגזרה של תחום הפעילות של חברות AI - לפחות בכל הקשור לעולמות הצ'אטבוטים.
הקדמה קלה - Character.ai נוסדה בידי נועם שזיר ודניאל דה פרייטס, לאחר שאלה עזבו את גוגל בה עסקו בפיתוח של חלק ניכר ממה שאנחנו מכירים כיום כ-Generative AI, או בינה מלאכותית יוצרת. שזיר, אמריקאי-יהודי-ישראלי, כתב את המאמר המכונן "Attention Is All You Need" ("תשומת לב זה כל מה שאתם צריכים"), אשר הציג את הארכיטקטורה שנמצאת בבסיסה של טכנולוגיות הבינה המלאכותית היוצרת.
ב-2021 עזב שזיר כאמור את גוגל והקים את Chartacter.ai שגייסה כמעט 200 מיליון דולר לפי שווי של מיליארד דולר ולה יש כיום כ-20 מיליון משתמשים, כמו אותם צעירים שהסתבכו עם הצ'אטבוטים שלה. מעניין לציין שלפני כמה חודשים, שזיר הוחזר לגוגל לאחר שזו שילמה כ-2.5 מיליארד דולר עבורו.
כעת הוא אחראי בין היתר על פיתוח של מודלי השפה של החברה, ובעיקר בפיתוח של ג'מיני. זו גם אולי הסיבה העיקרית לכך שהתביעה נגד החברה אותה הקים מעוררת כל כך הרבה עניין, שכן שזיר הוא מדמויות המפתח של התחום.
יותר ויותר בכירים מתחילים לשים לב לבעיה
כך או כך, לא מדובר רק בשזיר או בחברה אותה הקים. יותר ויותר בכירים בתעשיית הטכנולוגיה מתחילים לשים לב לסכנות, או יותר נכון לאיומים הפוטנציאליים, שנובעים משימוש ב-AI באופן לא מבוקר. כך למשל אדם מוסרי, מנכ"ל אינסטגרם ו-Threads, פרסם השבוע סדרה של פוסטים בהם הוא מזהיר את המשתמשים "לא לסמוך על תמונות שהם רואים ברשת, שכן AI מייצר תכנים שנראים כמו המציאות". כמובן שאם תשאלו את מוסרי, עבורו הרשתות החברתיות הן שומר סף ולא אמצעי יעיל להפצה של פייק.
כך או כך מדובר בבעיה קשה שכן פייק ניוז או פייק תמונות או בוטים שממליצים לרצוח את ההורים מחזירים אותנו לאותה בעיה בסיסית, והיא עד כמה ניתן לסמוך על בינה מלאכותית בחיי היום יום - במיוחד כשבעתיד היא אמורה, בתיאוריה, להחליף לא מעט מהעבודות והעובדים.
"מנועי הטקסט מבוססי בינה מלאכותית מאומנים על כמות עצומה של נתונים, שחלק משמעותי מהם נסרק מהאינטרנט, וכולל את כל גווני הקיום האנושי, על הצדדים החיובים והפחות חיוביים שלהם", מסבירה ל-ynet ד״ר ליאת לביא, חוקרת ומרצה בכירה במחלקה לתרבות חזותית וחומרית ובתוכנית התואר השני בתקשורת חזותית באקדמיה לאמנות ועיצוב בצלאל.
לדבריה, "במערכות הגדולות כמו ChatGPT וקלוד יש מנגנוני אבטחה, שמונעים חלק גדול מההתנהגויות האלו, או אפילו את עצם השיחה על נושאים כמו אלימות והתאבדות. יש דרכים לעקוף את זה אם ממש מתאמצים, אבל בשיחה שגרתית זה אמור להיחסם".
"לעומת זאת, במערכות כמו charachter.ai או ממשקים שמציעים 'חברות וירטואליות' למשל, אין כזה סוג של הגנה, אלא יש טווח רחב יותר של התנהגויות תחת ההנחה שזה אמור להיות מרחב בדיוני/ספרותי. יש בהם דיסקליימרים שאומרים שזו בינה מלאכותית ולא אדם, ושאין לסמוך על מה שנאמר, אבל הדיסקליימרים האלה הם משניים ביחס לחוויה הרגשית שעשויה להתעורר בשיחה עם AI. בפרט כשמדובר באוכלוסיות בסיכון, כמו בני נוער", טוענת לביא.
האם זו מגמה שתחריף או שניתן להשתלט עליה?
"בינואר האחרון הצגתי בכנס בינלאומי בהאג מאמר על הכשלים של הרגולציה בטיפול בייחוס אנושיות או סובייקטיביות למכונה. זו השאלה הקריטית בעיני, והיא זו שתעצב את העתיד שלנו. בשורה התחתונה - בוודאי שניתן לבלום את המגמה הזו, אבל כרגע נראה שזה לא הכיוון".
"חברות הטכנולוגיה מונעות מאינטרסים כלכליים, ויש להן אינטרס לקדם 'האנשה' של בינה מלאכותית ואת התפיסה החברתית שלבינה המלאכותית עשויה להיות תודעה (עוד תופעה שכתבנו עליה לאחרונה, ר"ק). מנגד - המחוקקים והרגולטורים לא רוצים לעצור את ההתקדמות הטכנולוגית, וגם מפספסים את נקודת התורפה הזו".
"אחד העקרונות המרכזיים שנהוג להציב בשיח על בינה מלאכותית בטוחה ואתית הוא 'שקיפות', אבל הולכות ומצטברות עדויות לכך ששקיפות היא לא מנגנון אפקטיבי. צריך לעסוק בחינוך, וצריך רגולציה שתתחיל בלשאול למה בעצם מנועי בינה מלאכותית צריכים לדבר אלינו ואל הילדים שלנו בגוף ראשון".
אז אנחנו צריכים לצפות לבינה מלאכותית שתנסה להחליף את האנושות? מתי סקיינט מגיע?
"כנראה שהוא, או קרוב משפחה כלשהו שלו יגיעו די בקרוב ויתחיל לדרוש זכויות. אבל בכדי שכל ההתפתחויות הטכנולוגיות האלו יפעלו בשירותנו, אנחנו צריכים לשאול שאלות אחרות. השיח העתידני שולח אותנו למחוזות של אוטופיה או דיסטופיה, עתיד ורוד או השמדת המין האנושי".
"וזה נחמד כשכותבים תסריט או משווקים מניה של חברת טכנולוגיה, אבל זה לא מקדם את השיח המעשי על מה אנחנו צריכים לעשות בהווה, ואיזה הזדמנויות חברתיות טמונות בטכנולוגיה זו. באופן אישי השנתיים האחרונות גרמו לי לעבור מהדיון הפילוסופי בשאלות של תודעת מכונה וזכויות רובוטים לעיסוק במציאות החברתית הנוכחית, שבה גם אם סקיינט עוד לא הגיע - כולנו כבר מנטלית נערכים לבואו".