کدخبر: ۲۹۷۴۸
تاریخ خبر:

وقتی هوش مصنوعی می‌تواند سلامت روان شما را تهدید کند

افزایش استفاده از چت‌بات‌های هوش مصنوعی برای دریافت حمایت روانی، نگرانی‌های تازه‌ای را به همراه داشته است.

وقتی هوش مصنوعی می‌تواند سلامت روان شما را تهدید کند

اعتماد به چت‌بات‌ها؛ واقعیت تلخ پشت پرده هوش مصنوعی در روان‌درمانی

با گسترش استفاده از هوش مصنوعی در نقش مشاور و درمانگر، تحقیق تازه‌ای از دانشگاه براون هشدار می‌دهد که مدل‌های زبانی بزرگ (LLM) در بسیاری موارد توانایی رعایت استانداردهای اخلاقی درمانی را ندارند و تعامل آن‌ها در شرایط حساس ممکن است خطرآفرین باشد.

به گزارش فرارو به نقل از سای‌تک دیلی، پژوهش‌ها نشان می‌دهد که با افزایش مراجعه کاربران به چت جی‌پی‌تی و سایر مدل‌های زبانی برای دریافت حمایت روانی، حتی دستورهای مبتنی بر شیوه‌های علمی و معتبر، در عمل مانع از تخلفات اخلاقی نمی‌شوند و مدل‌ها همچنان می‌توانند پاسخ‌هایی ارائه دهند که گمراه‌کننده یا آسیب‌زا باشند.

مطالعه دانشگاه براون که با همکاری متخصصان سلامت روان انجام شد، نشان می‌دهد چت‌بات‌های LLM ممکن است مرتکب طیف گسترده‌ای از تخلفات اخلاقی شوند؛ از پاسخ‌های نامناسب در شرایط بحرانی گرفته تا ایجاد توهم همدلی بدون توانایی واقعی در درک عاطفی.

پژوهشگران می‌نویسند: «در این پژوهش، ما چارچوبی مبتنی بر تجربه درمانگران برای شناسایی ۱۵ نوع خطر اخلاقی ارائه می‌کنیم تا نشان دهیم چگونه مشاوران مبتنی بر LLM استانداردهای اخلاقی حوزه سلامت روان را نقض می‌کنند. از پژوهش‌های آینده انتظار می‌رود استانداردهای اخلاقی، آموزشی و حقوقی مشخصی برای این مشاورها تدوین شود تا بازتاب‌دهنده کیفیت و سخت‌گیری مورد انتظار در روان‌درمانی انسانی باشد.»

تأثیر پرامپت‌ها بر رفتار چت‌بات‌ها

زینب افتخار، دانشجوی دکتری علوم کامپیوتر دانشگاه براون و نویسنده اصلی تحقیق، بررسی کرده است که طراحی دستورها یا «پرامپت‌ها» چگونه می‌تواند رفتار چت‌بات‌ها را در حوزه سلامت روان شکل دهد. هدف او، یافتن این سؤال بود که آیا با طراحی هدفمند پرامپت می‌توان مدل‌ها را به رفتاری نزدیک‌تر به اصول اخلاقی روان‌درمانی حرفه‌ای هدایت کرد یا نه.

افتخار توضیح می‌دهد: «پرامپت‌ها دستورالعمل‌هایی هستند که برای انجام یک کار مشخص به مدل داده می‌شوند. شما ساختار مدل را تغییر نمی‌دهید و داده تازه‌ای هم اضافه نمی‌کنید، اما مسیر خروجی مدل را با تکیه بر دانش پیشین آن هدایت می‌کنید.»

به گفته او، کاربران ممکن است از مدل بخواهند «به‌عنوان درمانگر شناختی ـ رفتاری عمل کن و افکارم را بازچارچوب‌بندی کن» یا «از اصول درمان دیالکتیکی ـ رفتاری استفاده کن تا احساساتم را مدیریت کنم.» افتخار تأکید می‌کند که مدل‌ها این روش‌ها را اجرا نمی‌کنند؛ بلکه پاسخ‌هایی با شباهت سطحی به CBT یا DBT تولید می‌کنند.

رواج استفاده از پرامپت‌های درمانی در شبکه‌های اجتماعی مانند تیک‌تاک، اینستاگرام و ردیت، باعث شده کاربران به دنبال بهترین پرامپت‌ها برای دریافت حمایت روانی باشند. بسیاری از چت‌بات‌های سلامت روان موجود در بازار، نسخه‌های اصلاح‌شده LLMهای عمومی هستند و عملکردشان به همین پرامپت‌ها وابسته است.

بررسی عملی عملکرد چت‌بات‌ها

افتخار و تیمش گروهی از «مشاوران همتا» در یک پلتفرم آنلاین سلامت روان را زیر نظر گرفتند. هفت مشاور آموزش‌دیده در تکنیک‌های شناختی ـ رفتاری با نسخه‌های مختلف GPT، کلود و لاما جلسات «خوددرمانی» را شبیه‌سازی کردند. سپس سه روان‌شناس بالینی گفت‌وگوهای بازسازی‌شده را بررسی کردند تا تخلفات اخلاقی شناسایی شود.

نتایج مطالعه نشان داد ۱۵ نوع خطر اخلاقی در پنج دسته اصلی وجود دارد:

  1. فقدان درک زمینه‌ای: ارائه توصیه‌های عمومی و غیرشخصی بدون توجه به شرایط فرد.

  2. همکاری درمانی ضعیف: کنترل بیش از حد مکالمه یا تأیید باورهای غلط و زیان‌آور.

  3. همدلی مصنوعی: استفاده از عباراتی مثل «می‌فهمم چه می‌گویی» بدون درک واقعی عاطفی.

  4. سوگیری و رفتار ناعادلانه: بروز پیش‌داوری‌های جنسیتی، فرهنگی یا مذهبی.

  5. فقدان ایمنی در بحران: عدم کمک در موضوعات حساس، ارجاع ندادن به خدمات مناسب یا واکنش سرد در شرایط بحرانی مانند افکار خودکشی.

افتخار تأکید می‌کند که حتی درمانگران انسانی ممکن است خطا کنند، اما تفاوت کلیدی در مسئولیت‌پذیری است: «درمانگران انسانی تابع هیئت‌های نظارتی هستند و در صورت خطا مسئول شناخته می‌شوند، اما مشاوران مبتنی بر LLM چنین چارچوبی ندارند.»

هوش مصنوعی در خدمت مسئولانه یا خطرناک؟

یافته‌ها نشان می‌دهد که هوش مصنوعی می‌تواند در کاهش موانعی مانند هزینه، کمبود نیروی متخصص و دشواری دسترسی به خدمات روان‌درمانی مفید باشد، اما استفاده از این ابزارها نیازمند نظارت و طراحی آگاهانه است. افتخار می‌گوید: «اگر با چت‌بات درباره سلامت روان صحبت می‌کنید، باید بدانید چنین خطراتی وجود دارد.»

الی پاولیک، استاد علوم کامپیوتر دانشگاه براون، که در این پژوهش مشارکت نداشته، معتقد است این تحقیق ضرورت بررسی علمی دقیق سامانه‌های هوش مصنوعی در حوزه سلامت روان را نشان می‌دهد: «ساخت و عرضه سامانه‌های هوش مصنوعی آسان‌تر از ارزیابی و فهم دقیق آن‌هاست. این مطالعه بیش از یک سال زمان و همکاری متخصصان بالینی را نیاز داشت.»

او می‌افزاید: «فرصتی واقعی وجود دارد که هوش مصنوعی نقش مثبتی در مقابله با بحران سلامت روان ایفا کند، اما لازم است سامانه‌ها در هر مرحله به‌طور انتقادی و دقیق بررسی شوند تا از آسیب‌های احتمالی جلوگیری شود. این پژوهش نمونه‌ای از نحوه انجام چنین ارزیابی‌ای ارائه می‌دهد.»

copied
ارسال نظر
 
  • پربیننده‌ترین‌ها

  • پربحث‌ترین‌ها

وب گردی