وقتی هوش مصنوعی میتواند سلامت روان شما را تهدید کند
افزایش استفاده از چتباتهای هوش مصنوعی برای دریافت حمایت روانی، نگرانیهای تازهای را به همراه داشته است.
اعتماد به چتباتها؛ واقعیت تلخ پشت پرده هوش مصنوعی در رواندرمانی
با گسترش استفاده از هوش مصنوعی در نقش مشاور و درمانگر، تحقیق تازهای از دانشگاه براون هشدار میدهد که مدلهای زبانی بزرگ (LLM) در بسیاری موارد توانایی رعایت استانداردهای اخلاقی درمانی را ندارند و تعامل آنها در شرایط حساس ممکن است خطرآفرین باشد.
به گزارش فرارو به نقل از سایتک دیلی، پژوهشها نشان میدهد که با افزایش مراجعه کاربران به چت جیپیتی و سایر مدلهای زبانی برای دریافت حمایت روانی، حتی دستورهای مبتنی بر شیوههای علمی و معتبر، در عمل مانع از تخلفات اخلاقی نمیشوند و مدلها همچنان میتوانند پاسخهایی ارائه دهند که گمراهکننده یا آسیبزا باشند.
مطالعه دانشگاه براون که با همکاری متخصصان سلامت روان انجام شد، نشان میدهد چتباتهای LLM ممکن است مرتکب طیف گستردهای از تخلفات اخلاقی شوند؛ از پاسخهای نامناسب در شرایط بحرانی گرفته تا ایجاد توهم همدلی بدون توانایی واقعی در درک عاطفی.
پژوهشگران مینویسند: «در این پژوهش، ما چارچوبی مبتنی بر تجربه درمانگران برای شناسایی ۱۵ نوع خطر اخلاقی ارائه میکنیم تا نشان دهیم چگونه مشاوران مبتنی بر LLM استانداردهای اخلاقی حوزه سلامت روان را نقض میکنند. از پژوهشهای آینده انتظار میرود استانداردهای اخلاقی، آموزشی و حقوقی مشخصی برای این مشاورها تدوین شود تا بازتابدهنده کیفیت و سختگیری مورد انتظار در رواندرمانی انسانی باشد.»
تأثیر پرامپتها بر رفتار چتباتها
زینب افتخار، دانشجوی دکتری علوم کامپیوتر دانشگاه براون و نویسنده اصلی تحقیق، بررسی کرده است که طراحی دستورها یا «پرامپتها» چگونه میتواند رفتار چتباتها را در حوزه سلامت روان شکل دهد. هدف او، یافتن این سؤال بود که آیا با طراحی هدفمند پرامپت میتوان مدلها را به رفتاری نزدیکتر به اصول اخلاقی رواندرمانی حرفهای هدایت کرد یا نه.
افتخار توضیح میدهد: «پرامپتها دستورالعملهایی هستند که برای انجام یک کار مشخص به مدل داده میشوند. شما ساختار مدل را تغییر نمیدهید و داده تازهای هم اضافه نمیکنید، اما مسیر خروجی مدل را با تکیه بر دانش پیشین آن هدایت میکنید.»
به گفته او، کاربران ممکن است از مدل بخواهند «بهعنوان درمانگر شناختی ـ رفتاری عمل کن و افکارم را بازچارچوببندی کن» یا «از اصول درمان دیالکتیکی ـ رفتاری استفاده کن تا احساساتم را مدیریت کنم.» افتخار تأکید میکند که مدلها این روشها را اجرا نمیکنند؛ بلکه پاسخهایی با شباهت سطحی به CBT یا DBT تولید میکنند.
رواج استفاده از پرامپتهای درمانی در شبکههای اجتماعی مانند تیکتاک، اینستاگرام و ردیت، باعث شده کاربران به دنبال بهترین پرامپتها برای دریافت حمایت روانی باشند. بسیاری از چتباتهای سلامت روان موجود در بازار، نسخههای اصلاحشده LLMهای عمومی هستند و عملکردشان به همین پرامپتها وابسته است.
بررسی عملی عملکرد چتباتها
افتخار و تیمش گروهی از «مشاوران همتا» در یک پلتفرم آنلاین سلامت روان را زیر نظر گرفتند. هفت مشاور آموزشدیده در تکنیکهای شناختی ـ رفتاری با نسخههای مختلف GPT، کلود و لاما جلسات «خوددرمانی» را شبیهسازی کردند. سپس سه روانشناس بالینی گفتوگوهای بازسازیشده را بررسی کردند تا تخلفات اخلاقی شناسایی شود.
نتایج مطالعه نشان داد ۱۵ نوع خطر اخلاقی در پنج دسته اصلی وجود دارد:
-
فقدان درک زمینهای: ارائه توصیههای عمومی و غیرشخصی بدون توجه به شرایط فرد.
-
همکاری درمانی ضعیف: کنترل بیش از حد مکالمه یا تأیید باورهای غلط و زیانآور.
-
همدلی مصنوعی: استفاده از عباراتی مثل «میفهمم چه میگویی» بدون درک واقعی عاطفی.
-
سوگیری و رفتار ناعادلانه: بروز پیشداوریهای جنسیتی، فرهنگی یا مذهبی.
-
فقدان ایمنی در بحران: عدم کمک در موضوعات حساس، ارجاع ندادن به خدمات مناسب یا واکنش سرد در شرایط بحرانی مانند افکار خودکشی.
افتخار تأکید میکند که حتی درمانگران انسانی ممکن است خطا کنند، اما تفاوت کلیدی در مسئولیتپذیری است: «درمانگران انسانی تابع هیئتهای نظارتی هستند و در صورت خطا مسئول شناخته میشوند، اما مشاوران مبتنی بر LLM چنین چارچوبی ندارند.»
هوش مصنوعی در خدمت مسئولانه یا خطرناک؟
یافتهها نشان میدهد که هوش مصنوعی میتواند در کاهش موانعی مانند هزینه، کمبود نیروی متخصص و دشواری دسترسی به خدمات رواندرمانی مفید باشد، اما استفاده از این ابزارها نیازمند نظارت و طراحی آگاهانه است. افتخار میگوید: «اگر با چتبات درباره سلامت روان صحبت میکنید، باید بدانید چنین خطراتی وجود دارد.»
الی پاولیک، استاد علوم کامپیوتر دانشگاه براون، که در این پژوهش مشارکت نداشته، معتقد است این تحقیق ضرورت بررسی علمی دقیق سامانههای هوش مصنوعی در حوزه سلامت روان را نشان میدهد: «ساخت و عرضه سامانههای هوش مصنوعی آسانتر از ارزیابی و فهم دقیق آنهاست. این مطالعه بیش از یک سال زمان و همکاری متخصصان بالینی را نیاز داشت.»
او میافزاید: «فرصتی واقعی وجود دارد که هوش مصنوعی نقش مثبتی در مقابله با بحران سلامت روان ایفا کند، اما لازم است سامانهها در هر مرحله بهطور انتقادی و دقیق بررسی شوند تا از آسیبهای احتمالی جلوگیری شود. این پژوهش نمونهای از نحوه انجام چنین ارزیابیای ارائه میدهد.»