| به نقل از ایسنا، وال استریت ژورنال و آکسیوس فاش کردند که ارتش آمریکا ماه گذشته میلادی از مدل هوش مصنوعی کلود آنتروپیک در جریان عملیات ربایش نیکولاس مادورو رییس جمهور ونزوئلا استفاده کرد. این هوش مصنوعی در طول عملیات فعال، نه صرفا در مراحل مقدماتی، مورد استفاده قرار گرفت. نقش دقیق آن هنوز مشخص نیست، اگرچه ارتش آمریکا قبلا از مدل های هوش مصنوعی برای تجزیه و تحلیل تصاویر ماهواره ای و اطلاعات در زمان واقعی استفاده کرده بود. سیاست های استفاده از آزمایشگاه این هوش مصنوعی مستقر در سانفرانسیسکو استفاده از فناوری آن را برای تسهیل خشونت، توسعه سلاح یا انجام نظارت ممنوع می کند. در این حمله هیچ آمریکایی کشته نشد، اما ده ها سرباز و پرسنل امنیتی ونزوئلایی و کوبایی در این حمله که سوم ژانویه انجام شد، کشته شدند. یکی از سخنگوهای این شرکت هوش مصنوعی گفت: ما نمی توانیم درباره این مساله اظهارنظر کنیم که آیا هوش مصنوعی کلود یا هر مدل دیگری از هوش مصنوعی برای عملیاتی ویژه یا محرمانه استفاده شده باشد. هرگونه استفاده از این هوش مصنوعی خواه در بخش خصوصی یا در دیگر بخش های دولت آمریکا ملزم به تبعیت از سیاست های استفاده از آن است. رقبای آنتروپیک، اوپن ای آی، گوگل و ایکس ای آی ایلان ماسک، همگی قراردادهایی دارند که بدون بسیاری از ضمانت هایی که برای کاربران عادی اعمال می شود، به پنتاگون اجازه دسترسی به مدل هایشان را می دهد. اما فقط کلود، از طریق همکاری با پالانتیر تکنولوژیس، در پلتفرم های محرمانه ای که برای حساس ترین کارهای ارتش ایالات متحده استفاده می شوند، مستقر شده است. این افشاگری در حالی رخ داده که گزارش شده شرکت آنتروپیک در حال گفت وگو با پنتاگون برای این مساله است که ببیند آیا محدودیت های به کارگیری هوش مصنوعی برای بکارگیری سلاح های خودکار و نظارت داخلی را کاهش دهد یا خیر. این بن بست، قراردادی به ارزش حداکثر 200 میلیون دلار را متوقف کرده است، چرا که پیت هگست، وزیر جنگ ایالات متحده قول داده است که از مدل هایی که به گفته او به شما اجازه جنگیدن نمی دهند استفاده نکند. |