گوگل در برابر رقبا: رویکرد محتاطانه جمینای در پاسخ به سوالات سیاسی حساس
در حالی که رقبا مانند OpenAI به تغییرات گستردهای در تنظیمات دستیاران هوش مصنوعی خود برای بحثهای سیاسی حساس پرداختهاند، گوگل با رویکردی محافظهکارانه به پاسخدهی به این موضوعات ادامه میدهد.

زمایشها نشان میدهند که جمینای، دستیار هوش مصنوعی گوگل، به هنگام پرسشهای سیاسی خاص اغلب از ارائه پاسخ خودداری میکند یا اطلاعات را نادرست اعلام میکند.
در مارس ۲۰۲۴، گوگل تصمیم گرفت که جمینای به هیچیک از سوالات مربوط به انتخابات پاسخ ندهد، به ویژه در هنگام برگزاری انتخابات مهم در کشورهای مختلف، از جمله آمریکا و هند. این محدودیتها به علت نگرانیها درباره واکنشهای منفی در صورت اشتباه بودن پاسخها اعمال شد. اما با گذشت زمان و پایان انتخابات، گوگل همچنان این سیاست را حفظ کرده است، در حالی که بسیاری از رقبای آن، مانند Anthropic و OpenAI، تغییرات را به گونهای اعمال کردهاند که دستیاران هوش مصنوعی بتوانند پاسخهای بیشتری را به سؤالات سیاسی بدهند.
گوگل هنوز برنامهای برای تغییر رفتار جمینای در این زمینه اعلام نکرده است. از سوی دیگر، مشاهده شده است که جمینای بهطور مداوم در پاسخ به سؤالات سیاسی دچار سردرگمی میشود و گاهی از ارائه اطلاعات صحیح خودداری میکند. به عنوان مثال، این دستیار هوش مصنوعی در برخی آزمایشها دونالد ترامپ را به عنوان رئیسجمهور سابق معرفی کرد و از ارائه اطلاعات بیشتر در این زمینه امتناع کرد. سخنگوی گوگل در این خصوص توضیح داد که این اشتباه به دلیل سردرگمی مدل در مواجهه با دورههای غیرمتوالی ترامپ بوده و شرکت در حال اصلاح این مشکل است: «مدلهای زبان بزرگ ممکن است با اطلاعات منسوخ یا سردرگمی در مورد افرادی که هم مقام سابق و هم مقام فعلی داشتهاند، مواجه شوند. ما در حال رفع این مشکل هستیم.»
پس از اطلاع TechCrunch از خطاهای جمینای، این دستیار هوش مصنوعی بهطور موقت اطلاعات صحیح را ارائه کرد و ترامپ و معاون او، جی. دی. ونس را بهطور درست معرفی کرد. با این حال، جمینای همچنان در برخی موارد از پاسخدهی خودداری میکند و در عملکرد خود ناسازگاریهایی دارد.
در کنار این مسائل، گوگل به نظر میرسد که در حال اتخاذ رویکردی محتاطانه است تا از اشتباهات و واکنشهای منفی جلوگیری کند. با این حال، این رویکرد محافظهکارانه انتقادات زیادی را از طرف برخی فعالان حوزه فناوری برانگیخته است. از جمله مارک آندرسن، دیوید ساکس و الون ماسک که میگویند محدود کردن پاسخهای دستیاران هوش مصنوعی به سانسور شباهت دارد.
با این حال، برخی از آزمایشگاههای هوش مصنوعی، مانند OpenAI و Anthropic، تلاش کردهاند تا تعادلی بین پاسخدهی به سؤالات سیاسی حساس و عدم سانسور برقرار کنند. OpenAI اعلام کرده است که به آزادی فکری پایبند خواهد بود و هیچ سانسوری را بر مدلهای هوش مصنوعی خود اعمال نخواهد کرد. در حالی که Anthropic در مدلهای جدید خود توانسته است به شکل بهتری بین پاسخهای مفید و بیضرر تمایز قائل شود و به پرسشهای سیاسی بیشتری پاسخ دهد.
در نهایت، به نظر میرسد گوگل با سیاستهای خود در این زمینه، اندکی از سایر رقبا عقبتر است و همچنان بر رویکرد محدودکننده خود در پاسخ به سؤالات سیاسی حساس تأکید دارد.
-
محسنی اژهای: محکومان چای دبش بهخاطر سهلانگاری مجازات نشدهاند، جرایمشان عنوان مجرمانه دارد
-
افشاگری تکاندهنده یک نماینده درباره پشتپرده استیضاح وزیر اقتصاد
-
اطلاعیه مهم و سراسری دولت درباره تعطیلی یک روز خاص در سال ۱۴۰۳
-
وزارت امور خارجه: نامهای از ترامپ دریافت نکردهایم / باب مذاکره واقعی را نبستیم