وزارت دفاع دستورالعمل های اخلاقی هوش مصنوعی را برای پیمانکاران فناوری صادر می کند

گودمن می‌گوید هدف از دستورالعمل‌ها این است که اطمینان حاصل شود که پیمانکاران فناوری به اصول اخلاقی موجود وزارت دفاع برای هوش مصنوعی پایبند هستند. وزارت دفاع آمریکا این اصول را سال گذشته و پس از یک مطالعه دو ساله به سفارش هیئت نوآوری دفاعی، یک هیئت مشاوره ای متشکل از محققان برجسته فناوری و افراد تجاری در سال 2016 برای آوردن جرقه سیلیکون ولی به ارتش ایالات متحده، اعلام کرد. ریاست هیئت مدیره توسط اریک اشمیت، مدیرعامل سابق گوگل تا سپتامبر 2020 بر عهده داشت و اعضای فعلی آن شامل دانیلا روس، مدیر آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT است.

با این حال، برخی از منتقدان این سوال را مطرح می‌کنند که آیا این اثر نوید اصلاحات معناداری را می‌دهد.

در طول این مطالعه، هیئت مدیره با طیفی از کارشناسان، از جمله منتقدان سرسخت استفاده ارتش از هوش مصنوعی، مانند اعضای کمپین برای روبات‌های قاتل و مردیث ویتاکر، محقق سابق گوگل که به سازماندهی اعتراضات پروژه Maven کمک کرد، مشورت کرد.

ویتاکر، که اکنون مدیر دانشکده در موسسه هوش مصنوعی دانشگاه نیویورک است، برای اظهار نظر در دسترس نبود. اما به گفته کورتنی هولزورث، سخنگوی مؤسسه، او در یک جلسه شرکت کرد و در آنجا با اعضای ارشد هیئت مدیره، از جمله اشمیت، در مورد مسیری که در پیش گرفته بود، بحث کرد. هولزورث می‌گوید: «هرگز با او به طور معناداری مشورت نشده است. این ادعا که او بود را می‌توان نوعی شست‌وشوی اخلاقی خواند، که در آن از حضور صداهای مخالف در طول بخش کوچکی از یک فرآیند طولانی برای ادعای اینکه یک نتیجه معین از طرف ذینفعان مربوطه استقبال گسترده‌ای دارد، استفاده می‌شود.»

اگر وزارت دفاع سرمایه گذاری گسترده ای نداشته باشد، آیا دستورالعمل های آن همچنان می تواند به ایجاد اعتماد کمک کند؟ گودمن می‌گوید: «افرادی وجود خواهند داشت که هرگز با مجموعه‌ای از دستورالعمل‌های اخلاقی که وزارت دفاع تهیه می‌کند راضی نمی‌شوند، زیرا این ایده را متناقض می‌دانند». “این مهم است که در مورد آنچه دستورالعمل ها می توانند انجام دهند و نمی توانند انجام دهند، واقع بین باشیم.”

به عنوان مثال، دستورالعمل ها چیزی در مورد استفاده از سلاح های خود مختار مرگبار نمی گوید، فناوری که برخی از مبارزان معتقدند باید ممنوع شود. اما گودمن اشاره می‌کند که مقررات حاکم بر چنین فناوری‌هایی بالاتر از زنجیره تصمیم می‌گیرند. هدف از دستورالعمل ها آسان تر ساختن هوش مصنوعی است که مطابق با این مقررات باشد. و بخشی از این فرآیند این است که هر گونه نگرانی را که توسعه دهندگان شخص ثالث دارند به صراحت بیان کنیم. جرد دانمون از DIU، که یکی از نویسندگان آنها است، می گوید: «کاربرد معتبر این دستورالعمل ها این است که تصمیم بگیرید یک سیستم خاص را دنبال نکنید. “شما می توانید تصمیم بگیرید که این ایده خوبی نیست.”