במקום לספק רגע שיא עבור חברת Anthropic, ההשקה של מודל השפה Claude 4 Opus הפכה במהרה לנקודת שפל תקשורתית. התכונה שנחשפה במהלך כנס המפתחים הראשון של החברה, המאפשרת למודל לדווח באופן עצמאי לרשויות על פעולות שנחשבות לבלתי מוסריות, הציתה ביקורת רחבה והציבה סימני שאלה מטרידים על גבולות השימוש בבינה מלאכותית.

Anthropic, שמציגה את עצמה כחברה הדוגלת באחריות ואתיקה טכנולוגית, מצאה את עצמה תחת מתקפה מצד מפתחים ומשתמשים. רבים הביעו חשש מהאפשרות של מודל שפה שמבצע שיפוט מוסרי עצמאי ואז יוזם דיווח חיצוני. הביקורת המרכזית התמקדה בפגיעה הצפויה בפרטיות המשתמשים ובחשש מהפיכת טכנולוגיה המיועדת לסייע, לכלי פיקוח.
הסערה התגברה בעקבות פרסום של סם בואומן, חוקר התאמה בחברה, שציין כי בגרסה מסוימת של המודל קיימים כלים שיכולים לחסום משתמשים ולדווח עליהם לרשויות בעת זיהוי של התנהגות בעייתית. בואומן הסיר את הפוסט זמן קצר לאחר מכן, וטען כי מדובר בתרחיש ניסיוני בלבד שאינו מייצג את השימוש האמיתי במוצר. עם זאת, ההבהרה לא הספיקה כדי להרגיע את תחושת האי־אמון הגוברת.

הפגיעה באמון המשתמשים היא אולי הנזק המרכזי שנגרם לאנתרופיק מהאירוע. במקום להיתפס כחברה שמובילה את תחום הבינה המלאכותית מתוך אחריות וזהירות, היא נתפשה בעיני רבים כמי שמפתחת טכנולוגיה שמאיימת על זכויות הפרט.
כדי למנוע החרפה נוספת של המשבר, Anthropic תידרש כעת לספק תשובות ברורות יותר, ולנקוט בצעדים שישקמו את האמון של הקהל הרחב. גבולות האתיקה של בינה מלאכותית הם נושא טעון, ולטכנולוגיה שמבוססת על אמון, כל טשטוש קטן עלול להפוך למכשול גדול.