افشای نقش هوش مصنوعی در عملیات ربایش مادورو / پنتاگون از مدل کلود در حمله به ونزوئلا استفاده کرد
وال استریت ژورنال و آکسیوس فاش کردند ارتش آمریکا در عملیات جنجالی ربایش نیکولاس مادورو، رئیسجمهور ونزوئلا، از هوش مصنوعی کلود آنتروپیک استفاده کرده است. این نخستین بار است که یک مدل هوش مصنوعی به صورت فعال و نه صرفاً مقدماتی، در یک عملیات نظامی نقش ایفا میکند. در این گزارش جزئیات تکاندهنده این افشاگری را میخوانید.
دو رسانه معتبر آمریکایی، وال استریت ژورنال و آکسیوس، گزارش دادهاند که ارتش ایالات متحده در عملیات متجاوزانه ماه ژانویه برای ربایش نیکولاس مادورو، رئیسجمهور ونزوئلا، از یک مدل هوش مصنوعی استفاده کرده است. بر اساس این گزارشها، هوش مصنوعی «کلود آنتروپیک» در طول عملیات فعال، نه صرفاً در مراحل مقدماتی، مورد استفاده قرار گرفت.
نقش نامشخص اما بیسابقه هوش مصنوعی
نقش دقیق این هوش مصنوعی در عملیات ربایش هنوز مشخص نیست، اگرچه ارتش آمریکا پیشتر از مدلهای هوش مصنوعی برای تجزیه و تحلیل تصاویر ماهوارهای و اطلاعات در زمان واقعی استفاده کرده بود. با این حال، استفاده فعالانه از هوش مصنوعی در جریان یک عملیات نظامی، رویدادی بیسابقه محسوب میشود.
نقض احتمالی قوانین شرکت سازنده
سیاستهای استفاده از آزمایشگاه هوش مصنوعی مستقر در سانفرانسیسکو، استفاده از فناوری آن را برای «تسهیل خشونت، توسعه سلاح یا انجام نظارت» ممنوع میکند. این موضوع پرسشهای جدی درباره نقض احتمالی این قوانین توسط پنتاگون ایجاد کرده است.
واکنش شرکت آنتروپیک
یکی از سخنگویان شرکت آنتروپیک در این باره گفت: «ما نمیتوانیم درباره این مساله اظهارنظر کنیم که آیا هوش مصنوعی کلود یا هر مدل دیگری از هوش مصنوعی برای عملیاتی ویژه یا محرمانه استفاده شده باشد. هرگونه استفاده از این هوش مصنوعی خواه در بخش خصوصی یا در دیگر بخشهای دولت آمریکا ملزم به تبعیت از سیاستهای استفاده از آن است.»
تلفات سنگین حمله
در این حمله که سوم ژانویه انجام شد، هیچ آمریکایی کشته نشد، اما دهها سرباز و پرسنل امنیتی ونزوئلایی و کوبایی جان خود را از دست دادند.
رقابت شرکتهای هوش مصنوعی برای همکاری با پنتاگون
رقبای آنتروپیک، از جمله اوپنایآی، گوگل و ایکسایآی ایلان ماسک، همگی قراردادهایی دارند که بدون بسیاری از ضمانتهایی که برای کاربران عادی اعمال میشود، به پنتاگون اجازه دسترسی به مدلهایشان را میدهد.
اما تنها کلود، از طریق همکاری با شرکت پالانتیر تکنولوژیس، در پلتفرمهای محرمانهای که برای حساسترین کارهای ارتش ایالات متحده استفاده میشوند، مستقر شده است.
بنبست ۲۰۰ میلیون دلاری بر سر محدودیتها
این افشاگری در حالی رخ داده که گزارش شده شرکت آنتروپیک در حال گفتوگو با پنتاگون است تا بررسی کند آیا محدودیتهای بهکارگیری هوش مصنوعی برای استفاده از سلاحهای خودکار و نظارت داخلی را کاهش دهد یا خیر.
این بنبست، قراردادی به ارزش حداکثر ۲۰۰ میلیون دلار را متوقف کرده است. پیت هگست، وزیر جنگ ایالات متحده، قول داده است که از مدلهایی که به گفته او «به شما اجازه جنگیدن نمیدهند» استفاده نخواهد کرد.