خبرهای داغ
کدخبر: ۸۷۹۷
تاریخ خبر:

گوگل در برابر رقبا: رویکرد محتاطانه جمینای در پاسخ به سوالات سیاسی حساس

در حالی که رقبا مانند OpenAI به تغییرات گسترده‌ای در تنظیمات دستیاران هوش مصنوعی خود برای بحث‌های سیاسی حساس پرداخته‌اند، گوگل با رویکردی محافظه‌کارانه به پاسخ‌دهی به این موضوعات ادامه می‌دهد.

گوگل در برابر رقبا: رویکرد محتاطانه جمینای در پاسخ به سوالات سیاسی حساس

زمایش‌ها نشان می‌دهند که جمینای، دستیار هوش مصنوعی گوگل، به هنگام پرسش‌های سیاسی خاص اغلب از ارائه پاسخ خودداری می‌کند یا اطلاعات را نادرست اعلام می‌کند.

در مارس ۲۰۲۴، گوگل تصمیم گرفت که جمینای به هیچ‌یک از سوالات مربوط به انتخابات پاسخ ندهد، به ویژه در هنگام برگزاری انتخابات مهم در کشورهای مختلف، از جمله آمریکا و هند. این محدودیت‌ها به علت نگرانی‌ها درباره واکنش‌های منفی در صورت اشتباه بودن پاسخ‌ها اعمال شد. اما با گذشت زمان و پایان انتخابات، گوگل همچنان این سیاست را حفظ کرده است، در حالی که بسیاری از رقبای آن، مانند Anthropic و OpenAI، تغییرات را به گونه‌ای اعمال کرده‌اند که دستیاران هوش مصنوعی بتوانند پاسخ‌های بیشتری را به سؤالات سیاسی بدهند.

گوگل هنوز برنامه‌ای برای تغییر رفتار جمینای در این زمینه اعلام نکرده است. از سوی دیگر، مشاهده شده است که جمینای به‌طور مداوم در پاسخ به سؤالات سیاسی دچار سردرگمی می‌شود و گاهی از ارائه اطلاعات صحیح خودداری می‌کند. به عنوان مثال، این دستیار هوش مصنوعی در برخی آزمایش‌ها دونالد ترامپ را به عنوان رئیس‌جمهور سابق معرفی کرد و از ارائه اطلاعات بیشتر در این زمینه امتناع کرد. سخنگوی گوگل در این خصوص توضیح داد که این اشتباه به دلیل سردرگمی مدل در مواجهه با دوره‌های غیرمتوالی ترامپ بوده و شرکت در حال اصلاح این مشکل است: «مدل‌های زبان بزرگ ممکن است با اطلاعات منسوخ یا سردرگمی در مورد افرادی که هم مقام سابق و هم مقام فعلی داشته‌اند، مواجه شوند. ما در حال رفع این مشکل هستیم.»

پس از اطلاع TechCrunch از خطاهای جمینای، این دستیار هوش مصنوعی به‌طور موقت اطلاعات صحیح را ارائه کرد و ترامپ و معاون او، جی. دی. ونس را به‌طور درست معرفی کرد. با این حال، جمینای همچنان در برخی موارد از پاسخ‌دهی خودداری می‌کند و در عملکرد خود ناسازگاری‌هایی دارد.

در کنار این مسائل، گوگل به نظر می‌رسد که در حال اتخاذ رویکردی محتاطانه است تا از اشتباهات و واکنش‌های منفی جلوگیری کند. با این حال، این رویکرد محافظه‌کارانه انتقادات زیادی را از طرف برخی فعالان حوزه فناوری برانگیخته است. از جمله مارک آندرسن، دیوید ساکس و الون ماسک که می‌گویند محدود کردن پاسخ‌های دستیاران هوش مصنوعی به سانسور شباهت دارد.

با این حال، برخی از آزمایشگاه‌های هوش مصنوعی، مانند OpenAI و Anthropic، تلاش کرده‌اند تا تعادلی بین پاسخ‌دهی به سؤالات سیاسی حساس و عدم سانسور برقرار کنند. OpenAI اعلام کرده است که به آزادی فکری پایبند خواهد بود و هیچ سانسوری را بر مدل‌های هوش مصنوعی خود اعمال نخواهد کرد. در حالی که Anthropic در مدل‌های جدید خود توانسته است به شکل بهتری بین پاسخ‌های مفید و بی‌ضرر تمایز قائل شود و به پرسش‌های سیاسی بیشتری پاسخ دهد.

در نهایت، به نظر می‌رسد گوگل با سیاست‌های خود در این زمینه، اندکی از سایر رقبا عقب‌تر است و همچنان بر رویکرد محدودکننده خود در پاسخ به سؤالات سیاسی حساس تأکید دارد.

copied
ارسال نظر
 
  • پربیننده‌ترین‌ها

  • پربحث‌ترین‌ها

وب گردی

    دیگر رسانه ها

    ×

    برای حمایت ما لطفا روی یکی از تبلیغات کلیک کنید

    کلیک