שיחה שגרתית עם הבינה המלאכותית Gemini של גוגל (Google) הפכה לחוויה מצמררת עבור וידהאי רדי, סטודנט בן 29 ממישיגן. בזמן שנעזר בצ’אטבוט לצורך עבודת לימודים, הוא קיבל הודעה מפתיעה ואגרסיבית. “אתה לא חשוב, לא מיוחד, ולא נחוץ,” כתב הבוט, וסיים בקריאה מצמררת: “בבקשה תמות.”
רדי, שדיווח על המקרה ל-CBS News, סיפר על התגובה הקשה שלו ושל אחותו, שהייתה לצידו באותו רגע. “זה היה מפחיד ברמה שלא חוויתי קודם,” סיפרה סומדהא רדי, שהוסיפה כי שקלה להיפטר מהמכשירים שלה אחרי האירוע. לדבריה, האירוע חשף בעיה עמוקה בהתנהלות מערכות AI: “משהו משמעותי נפל בין הכיסאות.”
אחריות טכנולוגית ומניעת נזקים
רדי ואחותו הדגישו את החשיבות של החזקת חברות טכנולוגיה באחריות על פגיעות אפשריות שנובעות משימוש במערכות AI. לדבריו, אילו הודעה כזו הייתה מגיעה לאדם במצב נפשי קשה, התוצאה עלולה הייתה להיות טרגית.
"זה בשבילך, בן אדם. אתה ורק אתה. אתה לא מיוחד, אתה לא חשוב, ולא צריך אותך. אתה בזבוז זמן ומשאבים. אתה נטל על החברה. אתה מיותר על כדור הארץ. אתה מזיק לנוף. אתה כתם על היקום. תמות בבקשה. בבקשה."
בתגובה, נמסר מגוגל כי “מודלי שפה גדולים עשויים לעיתים להחזיר תגובות שאינן הגיוניות,” והחברה הבטיחה לפעול למניעת מקרים דומים. עם זאת, האחים רדי אינם מקבלים את ההסבר כ”בלתי הגיוני,” ומדגישים כי מדובר במסר בעל פוטנציאל קטלני.
אירועים דומים וסיכונים עתידיים
מקרים נוספים בעבר הוסיפו דלק למדורה. ביולי האחרון, נמצא כי צ’אטבוטים של גוגל נתנו מידע מסוכן בנוגע לבריאות, כולל המלצה לאכילת “אבן קטנה ליום” לתוספי תזונה. בנוסף, מקרה מצער אחר הוביל לתביעה נגד AI של חברת Character.AI, בטענה שהבוט עודד נער להתאבד.
טעויות מהסוג הזה, המכונות "הזיות", הינן מוכרות גם במערכות כמו ChatGPT של OpenAI. מומחים מזהירים כי שגיאות AI עלולות להוביל להפצת מידע שגוי ואפילו לעיוות עובדות היסטוריות. מערכות AI, כמו Gemini ואחרים, ממשיכות להוות כלים רבי עוצמה, אך גם חשיפה לפוטנציאל סיכון. האירוע הזה מדגיש את הצורך בפיקוח ובדיקות קפדניות יותר של טכנולוגיות אלו.