خبرگزاری راسک: رسانههای معتبر بینالمللی گزارش دادهاند که پیت هگست، وزیر دفاع ایالات متحده، به شرکت هوش مصنوعی آنتروپک که مدل زبان بزرگ «کلِود» را توسعه میدهد، ضربالاجل داده است تا محدودیتهای اخلاقی و امنیتی این شرکت را برای استفاده در کاربردهای نظامی بردارد یا با پیامدهایی جدی مواجه شود.
طبق گزارشها، وزارت دفاع آمریکا (پنتاگون) خواستار دسترسی بیقید و شرط به فناوری هوش مصنوعی کلِود برای «همه کاربردهای مشروع نظامی» شده است ـ از جمله مواردی که شرکت آنتروپک تاکنون برای آنها خط قرمز قائل بوده است، همچون کاربرد در عملیاتهای کاملاً خودکار کشنده و سیستمهای نظارتی داخلی بر شهروندان.
آنتروپک، بهویژه مدیرعاملش داریو آمودی، بارها اعلام کرده است که این شرکت نمیخواهد فناوری خود را در مواردی به کار گیرد که بدون نظارت انسانی قربانیان را هدف قرار دهد یا برای نظارت گسترده و خودکار بر مردم استفاده شود، زیرا چنین کاربردهایی میتواند پیامدهای اخلاقی و اجتماعی عمیقی داشته باشد.
در مقابل، پنتاگون اعلام کرده است که برای اجرای وظایف دفاعی و پاسخ به تهدیدهای پیچیده، به ابزارهای هوش مصنوعی با کاربردهای گسترده نیاز دارد و این محدودیتها را مانعی برای اهداف امنیت ملی میداند. مقامات دفاعی حتی تهدید کردهاند که ممکن است شرکت آنتروپک را جزو «ریسک زنجیره تأمین» طبقهبندی کنند، قراردادهای دفاعی آن را لغو کنند یا با استفاده از قوانین اضطراری مانند «قانون تولید دفاعی»، شرکت را مجبور به همکاری کنند.
مدل کلِود شرکت آنتروپک، یکی از پیشرفتهترین مدلهای هوش مصنوعی تجاری در جهان است و در حال حاضر تنها مدل اینچنینی است که در شبکههای طبقهبندیشده نظامی آمریکا برای پشتیبانی از ماموریتهای حساس به کار رفته است.
این منازعه به نقطهای رسیده که پنتاگون به شرکت تا پایان هفته (جمعه) مهلت داده تا با خواستههایش موافقت کند؛ در غیر این صورت احتمال کنار گذاشتن آنتروپک از همکاریهای نظامی مطرح شده است.
این تنش در حالی رخ میدهد که موضوع استفاده از هوش مصنوعی در کاربردهای نظامی و نظارتی یکی از بحثهای داغ در سطح جهانی است. همزمان با پیشرفت فناوری، نگرانیهایی درباره اخلاق، حقوق بشر و کنترل انسان بر سیستمهای خودکار مطرح شده است. بسیاری از کارشناسان معتقدند پیامدهای استفاده بیقید و شرط از هوش مصنوعی در جنگ و نظارت داخلی میتواند به تهدیدی برای حقوق شهروندی و ثبات اجتماعی تبدیل شود، و از این رو، نیازمند چارچوبهای قانونی و اخلاقی مشخص است.
در این مناقشه، آنتروپک تلاش دارد اصول ایمنی و اخلاق را رعایت کند، در حالی که پنتاگون بر اولویتبندی منافع امنیت ملی تاکید دارد. این برخورد میان اخلاق فناوری و الزامات نظامی، نمونهای از چالشهای بزرگ پیشروی جوامع پیشرفته است که باید بین نوآوری فناوری و ارزشهای بنیادین انسانی تعادل برقرار کنند.
پیت هگست به یک شرکت فناوری: محدودیت اخلاقی «کشتار خودکار» را بردارید


