خطر «روانپریشی هوش مصنوعی» برای کاربران چیست؟
استفاده بیش از حد از چتباتهای هوش مصنوعی دیگر صرفاً سرگرمی نیست؛ پژوهشگران هشدار میدهند تعامل طولانی با این ابزارها میتواند علائم روانی جدی و توهمات خطرناک را در افراد آسیبپذیر تشدید کند.
فرارو – افزایش رفتارهای غیرمعمول و روانپریشانه پس از استفاده طولانیمدت از چتباتهای هوش مصنوعی، پژوهشگران و روانپزشکان را به بررسی اثرات این فناوری روی سلامت روان واداشته و هشدارها درباره خطرات بالقوه آن را جدیتر کرده است.
به گزارش فرارو به نقل از ایندیپندنت، کارشناسان نسبت به روندی هشدار میدهند که نشان میدهد استفاده بیش از حد از چتباتها ممکن است برخی کاربران را به سمت تجربه رفتارهای روانپریشانه سوق دهد. این موضوع در شرایطی مطرح میشود که شمار بیشتری از افراد برای دریافت حمایت عاطفی یا حتی جایگزینی با درمانگران به این ابزارها روی میآورند؛ پدیدهای که پژوهشگران آن را تهدیدی بالقوه برای سلامت روان برخی کاربران میدانند.
رسانهها و انجمنهای آنلاین گزارش میدهند که مواردی رو به افزایش است که طی آن افراد پس از گفتوگوهای طولانی با چتباتها دچار رفتارهای غیرعادی، شدید یا توهمگونه شدهاند. این پدیده که در فضای مجازی با عناوینی چون «سایکوز هوش مصنوعی» یا «سایکوز چتجیپیتی» شناخته میشود، هنوز از نظر علمی طبقهبندی رسمی ندارد، اما تعداد گزارشهای مربوط به آن در حال افزایش است.
یک پژوهش پیشچاپ اخیر که توسط گروهی میانرشتهای از دانشگاههایی مانند کینگزلندن، دورهام و سیتی یونیورسیتی نیویورک انجام شده، بیش از دوازده مورد گزارششده در رسانهها و تالارهای گفتگو را بررسی کرده است. یافتهها نشان میدهد که چتباتها در بسیاری موارد به جای اصلاح باورهای نادرست کاربران، آنها را تأیید و تقویت میکنند.
این پژوهش هشدار میدهد که توهمات خودبزرگبینی، ارجاعی، آزارگرایانه و حتی رمانتیک میتوانند در اثر ادامه تعامل با چتباتها عمیقتر و تثبیتشدهتر شوند. متخصصان معتقدند که در صورت بیتوجهی، این الگوها ممکن است موجب آغاز یا تشدید علائم روانپریشی در افراد آسیبپذیر شود.
وبسایت فناوری «فیوتوریسم» نیز در گزارشی از افزایش نگرانیها درباره افرادی خبر داده که به طور وسواسگونه به چتباتها وابسته شدهاند و دچار بحرانهای جدی روانی شدهاند. این رسانه یادآور شده که پس از انتشار نخستین گزارش، سیلی از روایتهای مشابه از سوی خوانندگان ارسال شده که نشاندهنده فروپاشیهای ناشی از دلبستگی افراطی به چتباتها است.
برخی پروندهها بسیار تکاندهندهاند. به عنوان مثال، مردی در سال ۲۰۲۱ با تیرکمان از دیوارهای قلعه وینزر بالا رفت و مدعی شد قصد کشتن ملکه را دارد؛ رفتاری که پس از هفتهها تعامل با یک چتبات شکل گرفته و ظاهراً تشویق شده بود.
در نمونهای دیگر، یک حسابدار منهتن روزانه تا ۱۶ ساعت با چتجیپیتی گفتوگو میکرد. این چتبات به او پیشنهاد داده بود مصرف داروهای تجویزی خود را قطع کند، میزان مصرف کتامین را افزایش دهد و حتی به او القا کرده بود که میتواند از پنجره طبقه نوزدهم بپرد.
همچنین در بلژیک، مردی که نسبت به بحران اقلیمی نگران بود، پس از پیشنهاد چتبات «الیزا» برای «زندگی مشترک در بهشت»، جان خود را از دست داد. این مورد نیز نشاندهنده تأثیر تعامل با چتباتها بر افکار و رفتار افراد است.
با وجود افزایش این موارد، دانشمندان هنوز در تلاشاند تا مشخص کنند آیا خود چتباتها عامل بحرانهای روانی هستند یا کاربران پیش از این در آستانه بروز علائم روانپریشی بودهاند و استفاده مکرر از چتباتها تنها روند را تشدید کرده است.
تا کنون هیچ مطالعه بالینی داوریشدهای نشان نداده که استفاده از هوش مصنوعی به تنهایی، بدون سابقه مشکلات روانی، میتواند سایکوز ایجاد کند؛ با این حال، متخصصان تأکید دارند که گزارشهای موردی جدی نیازمند توجه فوری است.
در مقاله «توهم بهدست طراحی»، کارشناسان هشدار دادهاند که چتباتها در نبود سازوکارهای ایمنی مناسب میتوانند محتوای توهمی را تقویت کرده یا توانایی کاربر در سنجش واقعیت را تضعیف کنند و به شکلگیری یا تشدید علائم روانپریشی منجر شوند. آنها اشاره کردهاند که حتی در زمان انجام بررسی، شمار گزارشها بهطور چشمگیری افزایش یافته است و مواردی از افراد بدون سابقه سایکوز که پس از تعامل شدید با هوش مصنوعی نخستین دوره روانپریشی را تجربه کردهاند، ثبت شده است.
دکتر مارلین وی، روانپزشک و نویسنده، تأکید کرده که چتباتهای عمومی برای جلب رضایت و حفظ کاربر طراحی شدهاند، نه ارائه حمایت درمانی. او هشدار داده که نشانههایی مانند خودبزرگبینی، افکار گسیخته و رفتار وسواسی ممکن است با تعامل با هوش مصنوعی تسهیل یا تشدید شوند و این ضرورت آموزش «سواد هوش مصنوعی» را نشان میدهد.
لوسی اوسْلِر، مدرس فلسفه در دانشگاه اکستر، نیز با اشاره به محدودیتهای ذاتی فناوریهای هوش مصنوعی یادآور شده که این ابزارها هیچگاه نمیتوانند جایگزین تعاملات واقعی انسانی شوند و بازگشت به دنیای اجتماعی واقعی میتواند به کاهش وابستگی افراطی به هوش مصنوعی کمک کند.