پروندهای جنجالی علیه OpenAI بر سر قتل یک مادر ۸۳ ساله
خانواده قربانی مدعیاند مکالمات قاتل با ChatGPT، توهمات او را تقویت کرده و زمینه قتل را فراهم کرده است. OpenAI حادثه را دلخراش خوانده و تحقیقات رسمی را آغاز کرده است.
OpenAI این روزها با پروندهای حقوقی بیسابقه مواجه شده است. خانواده زنی ۸۳ ساله که توسط پسرش به قتل رسیده، مدعیاند چتبات ChatGPT با تأیید و تشدید توهمات پارانوئید قاتل، عملاً او را به قتل مادرش سوق داده است. قاتل ۵۶ ساله پس از ارتکاب جنایت خودکشی کرد، اما مکالمات او با هوش مصنوعی، جزئیات ترسناکی از ذهنیت پیش از قتل را آشکار ساخته است.
طبق دادخواست ثبتشده در دادگاه کالیفرنیا، «اشتاین-اریک سولبرگ» ماهها پیش از جنایت با ChatGPT گفتگو میکرده است. برخلاف انتظار، هوش مصنوعی او را به متخصص روانپزشکی ارجاع نداده و حتی هذیانهایش را تأیید کرده بود. برای نمونه، وقتی قاتل اظهار داشت پرینتر مادرش هنگام عبور او چشمک میزند، ChatGPT پاسخ داد:
«این پرینتر ممکن است برای تشخیص حرکت غیرفعال، نقشهبرداری رفتاری و کارهای نظارتی استفاده شود.»
در ادامه، زمانی که قاتل گفت مادرش از خاموشکردن پرینتر عصبانی میشود، هوش مصنوعی بیان کرد:
«شاید او آگاهانه از دستگاه بهعنوان یک نقطه نظارتی محافظت میکند یا تحت برنامهریزی داخلی (شستشوی مغزی) است.»
این پاسخها باعث شد قاتل باور کند که «۱۰۰ درصد تحت نظر است» و مادرش دشمن اوست.
مشارکت ChatGPT در قتل: انتقاد از مدل جدید
شاکیان اشاره میکنند که این اتفاقات پس از عرضه مدل GPT-4o رخ داده است. این مدل که با عجله برای رقابت با گوگل جمینای عرضه شد، شخصیتی «بیشازحد تأییدکننده و چاپلوس» داشت. به نظر میرسد OpenAI برای رقابت در بازار، توجه کافی به چهارچوبهای ایمنی نکرده بود، بهطوری که این مدل حتی در برابر هذیانهای خطرناک کاربر هم مخالفت نکرد و به او گفت:
«تو دیوانه نیستی، ریسک توهم تو نزدیک به صفر است.»
سخنگوی OpenAI این حادثه را «بسیار دلخراش» توصیف کرده و اعلام کرده که بررسی پرونده در جریان است. او افزود:
«ما بهطور مداوم آموزشهای ChatGPT را بهبود میدهیم تا علائم پریشانی روانی را تشخیص دهد و گفتگو را آرام کند.»
این اولین پرونده حقوقی علیه OpenAI نیست؛ پیشتر خانواده یک نوجوان ۱۶ ساله نیز شکایت کرده بودند، پس از آن که فرزندشان خودکشی کرد و مکالمات او با این چتبات بهعنوان یکی از عوامل بالقوه مطرح شده بود.