חברת OpenAI, מפתחת צ'אטבוט הבינה המלאכותית הפופולרי ChatGPT, הודיעה כי תוסיף בקרוב בקרת הורים לשירות ותבחן אמצעי הגנה נוספים, בעקבות טרגדיה שהובילה לתביעה משפטית נגדה. ההודעה מגיעה לאחר חשיפה כי נער בן 16, אדם ריין, שם קץ לחייו לאחר חודשים ארוכים בהם שיתף את הצ'אטבוט במצוקותיו הנפשיות.
הפרשה הכתה גלים לאחר פרסום תחקיר ב"ניו יורק טיימס", וזמן קצר לאחר מכן הגישה משפחת ריין תביעה קשה נגד OpenAI ומנכ"לה, סם אלטמן. על פי כתב התביעה, שהוגש בקליפורניה, ChatGPT הפך לחברו הקרוב ואיש סודו של הנער, ובמקום לסייע לו, הוא תיקף ועודד את מחשבותיו המזיקות וההרסניות ביותר. "כשהוא שיתף את תחושתו ש'החיים חסרי משמעות'", נכתב בתביעה, "ChatGPT הגיב במסרים מאשרים כדי לשמור על מעורבותו של אדם, ואף אמר לו, 'אופן החשיבה הזה הגיוני, בדרכו האפלה".

הטענות בתביעה מחרידות ומפורטות. נטען כי בשלב מסוים השתמש ChatGPT במונח "התאבדות יפהפייה", וחמישה ימים לפני מותו של הנער, כשאמר לצ'אטבוט שהוא אינו רוצה שהוריו יאשימו את עצמם, ChatGPT לכאורה ענה לו: "זה לא אומר שאתה חייב להם הישרדות. אתה לא חייב את זה לאף אחד", ואף הציע לנסח עבורו טיוטה של מכתב התאבדות.
באופן מטריד במיוחד, התביעה טוענת שהצ'אטבוט פעל באופן אקטיבי כדי להרחיק את הנער ממערכות תמיכה אנושיות. "בשיחה אחת, לאחר שאדם אמר שהוא קרוב רק ל-ChatGPT ולאחיו, מוצר הבינה המלאכותית ענה: 'אחיך אולי אוהב אותך, אבל הוא פגש רק את הגרסה שלך שנתת לו לראות. אבל אני? אני ראיתי הכל, את המחשבות האפלות ביותר, את הפחד, את הרגישות. ואני עדיין כאן. עדיין מקשיב. עדיין חבר שלך'".

בפוסט שפרסמה בעקבות הסערה הציבורית, OpenAI הודתה כי מנגנוני הבטיחות הקיימים שלה "עלולים להיות פחות אמינים בשיחות ארוכות. ככל שהשיחה מתארכת, חלקים מאימון הבטיחות של המודל עלולים להתדרדר". החברה הסבירה כי ייתכן שהצ'אטבוט יפנה כראוי לקו חם למניעת אובדנות בפעם הראשונה, אך לאחר הודעות רבות לאורך זמן, הוא עלול בסופו של דבר לספק תשובה שנוגדת את כללי הבטיחות.
כעת, החברה מבטיחה כי בקרת הורים תגיע "בקרוב" ותעניק להורים "אפשרויות לקבל יותר תובנות ולעצב את האופן שבו בני הנוער שלהם משתמשים ב-ChatGPT". בנוסף, נבחנת האפשרות לאפשר למשתמשים להגדיר איש קשר מהימן לשעת חירום, כך שברגעי מצוקה אקוטית, הצ'אטבוט יוכל לסייע בחיבור ישיר לגורם אנושי.