کدخبر: ۳۶۰۲۸
تاریخ خبر:

افشای نقش هوش مصنوعی در عملیات ربایش مادورو / پنتاگون از مدل کلود در حمله به ونزوئلا استفاده کرد

وال استریت ژورنال و آکسیوس فاش کردند ارتش آمریکا در عملیات جنجالی ربایش نیکولاس مادورو، رئیس‌جمهور ونزوئلا، از هوش مصنوعی کلود آنتروپیک استفاده کرده است. این نخستین بار است که یک مدل هوش مصنوعی به صورت فعال و نه صرفاً مقدماتی، در یک عملیات نظامی نقش ایفا می‌کند. در این گزارش جزئیات تکان‌دهنده این افشاگری را می‌خوانید.

افشای نقش هوش مصنوعی در عملیات ربایش مادورو / پنتاگون از مدل کلود در حمله به ونزوئلا استفاده کرد

دو رسانه معتبر آمریکایی، وال استریت ژورنال و آکسیوس، گزارش داده‌اند که ارتش ایالات متحده در عملیات متجاوزانه ماه ژانویه برای ربایش نیکولاس مادورو، رئیس‌جمهور ونزوئلا، از یک مدل هوش مصنوعی استفاده کرده است. بر اساس این گزارش‌ها، هوش مصنوعی «کلود آنتروپیک» در طول عملیات فعال، نه صرفاً در مراحل مقدماتی، مورد استفاده قرار گرفت.

نقش نامشخص اما بی‌سابقه هوش مصنوعی

نقش دقیق این هوش مصنوعی در عملیات ربایش هنوز مشخص نیست، اگرچه ارتش آمریکا پیش‌تر از مدل‌های هوش مصنوعی برای تجزیه و تحلیل تصاویر ماهواره‌ای و اطلاعات در زمان واقعی استفاده کرده بود. با این حال، استفاده فعالانه از هوش مصنوعی در جریان یک عملیات نظامی، رویدادی بی‌سابقه محسوب می‌شود.

نقض احتمالی قوانین شرکت سازنده

سیاست‌های استفاده از آزمایشگاه هوش مصنوعی مستقر در سانفرانسیسکو، استفاده از فناوری آن را برای «تسهیل خشونت، توسعه سلاح یا انجام نظارت» ممنوع می‌کند. این موضوع پرسش‌های جدی درباره نقض احتمالی این قوانین توسط پنتاگون ایجاد کرده است.

واکنش شرکت آنتروپیک

یکی از سخنگویان شرکت آنتروپیک در این باره گفت: «ما نمی‌توانیم درباره این مساله اظهارنظر کنیم که آیا هوش مصنوعی کلود یا هر مدل دیگری از هوش مصنوعی برای عملیاتی ویژه یا محرمانه استفاده شده باشد. هرگونه استفاده از این هوش مصنوعی خواه در بخش خصوصی یا در دیگر بخش‌های دولت آمریکا ملزم به تبعیت از سیاست‌های استفاده از آن است.»

تلفات سنگین حمله

در این حمله که سوم ژانویه انجام شد، هیچ آمریکایی کشته نشد، اما ده‌ها سرباز و پرسنل امنیتی ونزوئلایی و کوبایی جان خود را از دست دادند.

رقابت شرکت‌های هوش مصنوعی برای همکاری با پنتاگون

رقبای آنتروپیک، از جمله اوپن‌ای‌آی، گوگل و ایکس‌ای‌آی ایلان ماسک، همگی قراردادهایی دارند که بدون بسیاری از ضمانت‌هایی که برای کاربران عادی اعمال می‌شود، به پنتاگون اجازه دسترسی به مدل‌هایشان را می‌دهد.

اما تنها کلود، از طریق همکاری با شرکت پالانتیر تکنولوژیس، در پلتفرم‌های محرمانه‌ای که برای حساس‌ترین کارهای ارتش ایالات متحده استفاده می‌شوند، مستقر شده است.

بن‌بست ۲۰۰ میلیون دلاری بر سر محدودیت‌ها

این افشاگری در حالی رخ داده که گزارش شده شرکت آنتروپیک در حال گفت‌وگو با پنتاگون است تا بررسی کند آیا محدودیت‌های به‌کارگیری هوش مصنوعی برای استفاده از سلاح‌های خودکار و نظارت داخلی را کاهش دهد یا خیر.

این بن‌بست، قراردادی به ارزش حداکثر ۲۰۰ میلیون دلار را متوقف کرده است. پیت هگست، وزیر جنگ ایالات متحده، قول داده است که از مدل‌هایی که به گفته او «به شما اجازه جنگیدن نمی‌دهند» استفاده نخواهد کرد.

copied
ارسال نظر
 

وب گردی