وزارت دفاع آمریکا قصد دارد به زودی از راهبرد جدید خود برای استفاده اخلاقی از هوش مصنوعی در سلاح‌های جنگی رونمایی کند.

 

وزارت دفاع آمریکا”(DOD) قصد دارد اوایل هفته آینده، از یک راهبرد جدید هوش مصنوعی رونمایی کند. تمرکز این راهبرد، بر ابداع و تنظیم ابزاری برای دستورات و شاخه‌های خدمات خاص است که شامکان انتقال سریع‌تر آنها را به عملکردهای هوش مصنوعی فراهم می‌کند.

به گزارش ایسنا, یکی از مقامات مربوط در این باره گفت: وزارت دفاع آمریکا، حدود ۵۰ سال با هوش مصنوعی مانند یک موضوع مربوط به حوزه علم و فناوری برخورد کرده است. راهبرد جدید ما می‌تواند این فناوری را به تصمیم تبدیل کند و بر عملیات تأثیر بگذارد.

سرنخ‌های ابتدایی این طرح، از پروژه “ماون”(Maven) گرفته شده است. براساس این پروژه، قرار بود الگوریتم‌های هوش مصنوعی گوگل در اختیار پنتاگون قرار گیرند تا این سازمان بتواند تصاویر ویدئویی را تفسیر کند و اهداف حملات پهپادی را ارتقا دهد. به گفته این مقام آمریکایی، این راهبرد جدید، بسیار گسترده‌تر از پروژه ماون خواهد بود.

گفتنی است که از زمان اعلام این تصمیم، اعتراضات بسیاری علیه پروژه ماون شکل گرفت و در ماه دسامبر سال جاری نیز گروهی از اخلاق‌گرایان مؤسسه هوش مصنوعی “دانشگاه نیویورک” (NYU)، مقاله‌ای در مورد ضررهای اخلاقی این طرح منتشر کردند.

از آنجا که نیروی نظامی آمریکا در گسترش هوش مصنوعی، سابقه‌ای طولانی دارد، این سازمان تلاش می‌کند اطلاعاتی را از صنایع خصوصی به ویژه شرکت‌های خصوصی کوچکی که عملکرد خوبی در این زمینه دارند، یاد بگیرد. این مقام آمریکایی افزود: ما روش این شرکت‌ها را بررسی کرده‌ایم و درس‌های بسیاری را از آنها آموخته‌ایم.

این راهبرد جدید، فلسفه نیروی نظامی را در استفاده از سیستم‌های خودران تغییر نمی‌دهد. در دستورالعمل‌های مربوط به این طرح، همیشه باید یک اپراتور انسان برای بررسی عملکرد سیستم‌های خودکار حضور داشته باشد.

در واقع، دلیل تمرکز این راهبرد جدید بر کاربردهای فوری و اجرایی، وادار کردن اپراتورها و فرماندهان به تفکر در مورد پیامدهای ایمنی و اخلاقی است تا آنچه از هوش مصنوعی انتظار دارند، انجام دهند.

هنگامی که از فناوری در عملیات‌ها استفاده می‌شود، باید به صورت جدی‌تر در مورد موارد اخلاقی و ایمنی فکر کرد. امنیت، تمرکز اصلی این راهبرد به شمار می‌رود و میزان اهمیت آن واضح است.