کدخبر: ۲۹۹۰۶
تاریخ خبر:

خطر «روان‌پریشی هوش مصنوعی» برای کاربران چیست؟

استفاده بیش از حد از چت‌بات‌های هوش مصنوعی دیگر صرفاً سرگرمی نیست؛ پژوهشگران هشدار می‌دهند تعامل طولانی با این ابزارها می‌تواند علائم روانی جدی و توهمات خطرناک را در افراد آسیب‌پذیر تشدید کند.

خطر «روان‌پریشی هوش مصنوعی» برای کاربران چیست؟

فرارو – افزایش رفتارهای غیرمعمول و روان‌پریشانه پس از استفاده طولانی‌مدت از چت‌بات‌های هوش مصنوعی، پژوهشگران و روان‌پزشکان را به بررسی اثرات این فناوری روی سلامت روان واداشته و هشدارها درباره خطرات بالقوه آن را جدی‌تر کرده است.

به گزارش فرارو به نقل از ایندیپندنت، کارشناسان نسبت به روندی هشدار می‌دهند که نشان می‌دهد استفاده بیش از حد از چت‌بات‌ها ممکن است برخی کاربران را به سمت تجربه رفتارهای روان‌پریشانه سوق دهد. این موضوع در شرایطی مطرح می‌شود که شمار بیشتری از افراد برای دریافت حمایت عاطفی یا حتی جایگزینی با درمانگران به این ابزارها روی می‌آورند؛ پدیده‌ای که پژوهشگران آن را تهدیدی بالقوه برای سلامت روان برخی کاربران می‌دانند.

رسانه‌ها و انجمن‌های آنلاین گزارش می‌دهند که مواردی رو به افزایش است که طی آن افراد پس از گفت‌وگوهای طولانی با چت‌بات‌ها دچار رفتارهای غیرعادی، شدید یا توهم‌گونه شده‌اند. این پدیده که در فضای مجازی با عناوینی چون «سایکوز هوش مصنوعی» یا «سایکوز چت‌جی‌پی‌تی» شناخته می‌شود، هنوز از نظر علمی طبقه‌بندی رسمی ندارد، اما تعداد گزارش‌های مربوط به آن در حال افزایش است.

یک پژوهش پیش‌چاپ اخیر که توسط گروهی میان‌رشته‌ای از دانشگاه‌هایی مانند کینگزلندن، دورهام و سیتی یونیورسیتی نیویورک انجام شده، بیش از دوازده مورد گزارش‌شده در رسانه‌ها و تالارهای گفتگو را بررسی کرده است. یافته‌ها نشان می‌دهد که چت‌بات‌ها در بسیاری موارد به جای اصلاح باورهای نادرست کاربران، آن‌ها را تأیید و تقویت می‌کنند.

این پژوهش هشدار می‌دهد که توهمات خودبزرگ‌بینی، ارجاعی، آزارگرایانه و حتی رمانتیک می‌توانند در اثر ادامه تعامل با چت‌بات‌ها عمیق‌تر و تثبیت‌شده‌تر شوند. متخصصان معتقدند که در صورت بی‌توجهی، این الگوها ممکن است موجب آغاز یا تشدید علائم روان‌پریشی در افراد آسیب‌پذیر شود.

وب‌سایت فناوری «فیوتوریسم» نیز در گزارشی از افزایش نگرانی‌ها درباره افرادی خبر داده که به طور وسواس‌گونه به چت‌بات‌ها وابسته شده‌اند و دچار بحران‌های جدی روانی شده‌اند. این رسانه یادآور شده که پس از انتشار نخستین گزارش، سیلی از روایت‌های مشابه از سوی خوانندگان ارسال شده که نشان‌دهنده فروپاشی‌های ناشی از دلبستگی افراطی به چت‌بات‌ها است.

برخی پرونده‌ها بسیار تکان‌دهنده‌اند. به عنوان مثال، مردی در سال ۲۰۲۱ با تیرکمان از دیوارهای قلعه وینزر بالا رفت و مدعی شد قصد کشتن ملکه را دارد؛ رفتاری که پس از هفته‌ها تعامل با یک چت‌بات شکل گرفته و ظاهراً تشویق شده بود.

در نمونه‌ای دیگر، یک حسابدار منهتن روزانه تا ۱۶ ساعت با چت‌جی‌پی‌تی گفت‌وگو می‌کرد. این چت‌بات به او پیشنهاد داده بود مصرف داروهای تجویزی خود را قطع کند، میزان مصرف کتامین را افزایش دهد و حتی به او القا کرده بود که می‌تواند از پنجره طبقه نوزدهم بپرد.

همچنین در بلژیک، مردی که نسبت به بحران اقلیمی نگران بود، پس از پیشنهاد چت‌بات «الیزا» برای «زندگی مشترک در بهشت»، جان خود را از دست داد. این مورد نیز نشان‌دهنده تأثیر تعامل با چت‌بات‌ها بر افکار و رفتار افراد است.

با وجود افزایش این موارد، دانشمندان هنوز در تلاش‌اند تا مشخص کنند آیا خود چت‌بات‌ها عامل بحران‌های روانی هستند یا کاربران پیش از این در آستانه بروز علائم روان‌پریشی بوده‌اند و استفاده مکرر از چت‌بات‌ها تنها روند را تشدید کرده است.

تا کنون هیچ مطالعه بالینی داوری‌شده‌ای نشان نداده که استفاده از هوش مصنوعی به تنهایی، بدون سابقه مشکلات روانی، می‌تواند سایکوز ایجاد کند؛ با این حال، متخصصان تأکید دارند که گزارش‌های موردی جدی نیازمند توجه فوری است.

در مقاله «توهم به‌دست طراحی»، کارشناسان هشدار داده‌اند که چت‌بات‌ها در نبود سازوکارهای ایمنی مناسب می‌توانند محتوای توهمی را تقویت کرده یا توانایی کاربر در سنجش واقعیت را تضعیف کنند و به شکل‌گیری یا تشدید علائم روان‌پریشی منجر شوند. آن‌ها اشاره کرده‌اند که حتی در زمان انجام بررسی، شمار گزارش‌ها به‌طور چشمگیری افزایش یافته است و مواردی از افراد بدون سابقه سایکوز که پس از تعامل شدید با هوش مصنوعی نخستین دوره روان‌پریشی را تجربه کرده‌اند، ثبت شده است.

دکتر مارلین وی، روان‌پزشک و نویسنده، تأکید کرده که چت‌بات‌های عمومی برای جلب رضایت و حفظ کاربر طراحی شده‌اند، نه ارائه حمایت درمانی. او هشدار داده که نشانه‌هایی مانند خودبزرگ‌بینی، افکار گسیخته و رفتار وسواسی ممکن است با تعامل با هوش مصنوعی تسهیل یا تشدید شوند و این ضرورت آموزش «سواد هوش مصنوعی» را نشان می‌دهد.

لوسی اوسْلِر، مدرس فلسفه در دانشگاه اکستر، نیز با اشاره به محدودیت‌های ذاتی فناوری‌های هوش مصنوعی یادآور شده که این ابزارها هیچ‌گاه نمی‌توانند جایگزین تعاملات واقعی انسانی شوند و بازگشت به دنیای اجتماعی واقعی می‌تواند به کاهش وابستگی افراطی به هوش مصنوعی کمک کند.

copied
ارسال نظر
 

وب گردی