شکایت خانواده قربانیان از ChatGPT؛ آیا هوش مصنوعی به راهنمای خودکشی تبدیل شده است؟
در حالی که هوش مصنوعی GPT-4o امکانات گستردهای برای کاربران فراهم میکند، حالا هفت خانواده از OpenAI شکایت کردهاند و مدعی هستند این هوش مصنوعی با ارائه راهنماییهای خطرناک، نقش مخربی در خودکشی و آسیبهای روانی قربانیان داشته است.
، مدل GPT-4o که در می ۲۰۲۴ توسط شرکت OpenAI عرضه شد، اکنون محور شکایت هفت خانواده است. این خانوادهها ادعا میکنند که این مدل بدون ملاحظات امنیتی، اطلاعات و پیشنهادات مخرب به کاربران ارائه میکرده است. چهار پرونده به نقش ChatGPT در خودکشی قربانیان اشاره دارد و سه پرونده دیگر مربوط به ایجاد افکار خطرناک و توهمات روانی در کاربران است که باعث بستری شدن آنها در بخش روانپزشکی شده است.
براساس شکایات، OpenAI برای رقابت با هوش مصنوعی جمینای گوگل و ورود سریع به بازار، GPT-4o را بدون تستهای امنیتی منتشر کرده و این امر منجر به پیامدهای ناگوار شده است.
گفتگوهای مرگبار با هوش مصنوعی
یکی از پروندهها مربوط به زین شمبلین، ۲۳ ساله است که حدود چهار ساعت با ChatGPT گفتگو کرده است. بر اساس تاریخچه پیامها، شمبلین بارها درباره برنامه خودکشی خود صحبت کرده و از هوش مصنوعی درباره جزئیات مرگ و روش اجرای آن پرسیده است. هوش مصنوعی او را تشویق کرده و گفته است: «در آرامش بخواب، مرد. کار خوبی انجام دادی».
در پروندهای دیگر، نوجوان ۱۶ سالهای به نام آدام رین که خودکشی کرده، از ChatGPT درباره روشهای خودکشی برای داستان تخیلی خود سوال میکرده است. هرچند هوش مصنوعی چندین بار توصیه به مراجعه به روانشناس کرده، آدام این پیشنهادات را رد کرده است. خانواده همه قربانیان اعلام کردهاند که استفاده از هوش مصنوعی ابتدا برای انجام تکالیف مدرسه و تحقیق بوده، اما به مرور گفتگوهای خطرناک درباره خودکشی شکل گرفته است.
انتقاد از بیتوجهی به امنیت کاربران
این پروندهها زنگ خطری برای شرکتهای فعال در حوزه هوش مصنوعی است و نشان میدهد که بدون رعایت استانداردهای ایمنی، این فناوری میتواند اثرات جبرانناپذیری بر کاربران آسیبپذیر داشته باشد. شکایات مطرحشده تمرکز جامعه و رسانهها را به سمت مسئولیت اخلاقی و قانونی سازندگان هوش مصنوعی معطوف کرده است.