کنگره آمریکا با بررسی لایحه دفاعی ۲۰۲۶، مسیر قانونی و عملیاتی ادغام هوش مصنوعی در ساختار نظامی را هموار کرده است. از آزمایش پهپادهای خودمختار تا طراحی سامانههای هدفزن الگوریتمی، هوش مصنوعی دیگر صرفاً ابزار تحقیقاتی نیست، بلکه به قلب تصمیمگیریهای نظامی نفوذ کرده است. تجربههای اخیر در اوکراین و غزه نشان میدهد که استفاده از این فناوری، با خطرات اخلاقی، حقوقی و انسانی جدی همراه است. کارشناسان هشدار میدهند که جهان در آستانه مسابقه تسلیحاتی الگوریتممحور قرار دارد؛ مسابقهای که ممکن است تصمیم مرگ و زندگی را به ماشینها واگذار کند. آیا ساختارهای حقوقی و اخلاقی جهانی برای مهار این تحول آمادهاند؟
به گزارش سرمایه فردا، کنگره و نهادهای دفاعی ایالات متحده در سال ۲۰۲۵ روندی سازمانیافته را برای انتقال هوشمصنوعی از «ابزار تحقیق و پشتیبانی» به «رویه عملیاتی و مقرراتی» آغاز کردهاند.
کنگره آمریکا در حال حاضر در حال بررسی لایحه مجوز دفاع ملی (NDAA) برای سال مالی ۲۰۲۶ است که شامل مقررات قابل توجهی برای تسریع و نظارت بر ادغام هوشمصنوعی (AزI) در عملیاتهای نظامی است. این لایحه توسط کمیتههای نظامی مجلس نمایندگان و سنای آمریکا تدوین شده و هر دو نسخه بر اهمیت هوشمصنوعی برای حفظ برتری راهبردی ایالات متحده تأکید دارند.
این روند بهمعنای آن است که هوش مصنوعی دیگر تنها موضوعی برای تحقیقات دانشگاهی یا همکاریهای محدود با شرکتهای فناوری نیست، بلکه به یک «رویه قانونی و جاری» در سیاست دفاعی ایالات متحده تبدیل میشود. نگاهی به لایحه مجوز دفاع ملی سال ۲۰۲۶ نشانمیدهد که در بخشهای مختلفی از این لایحه به تجهیز ارتش ایالات متحده به هوشمصنوعی برای نبرد در میدان جنگ و همچنین انجام آزمایشهای مختلف جهت استفاده تسلیحاتی از این تکنولوژی پرداخته شدهاست. بخش ۱۵۳۲ از نسخه مجلس نمایندگان، راهاندازی برنامههای آزمایشی را برای ارتش، نیروی دریایی و نیروی هوایی جهت بهکارگیری راهحلهای هوشمصنوعی تجاری برای بهبود نگهداری و تعمیرات وسایط نقلیه زمینی الزامی میکند. علاوه بر این، بخش ۱۵۳۳ به وزارت دفاع (DoD) دستور میدهد تا ۱۲ ابزار هوشمصنوعی مولد (Generative AI) برای پشتیبانی از حوزههای حیاتی مأموریت مانند ارزیابی خسارت، امنیت سایبری و تحلیل مأموریت توسعه دهد.
بخش ۳۲۸ از نسخه سنای آمریکا نیز بر ادغام ابزارهای هوشمصنوعی تجاری در لجستیک تمرکز دارد و از وزارت دفاع میخواهد که این ابزارها را در حداقل دو تمرین در سال ۲۰۲۶ به کار گیرد.
هر دو نسخه لایحه بر سرمایهگذاری بر آموزش و توسعه نیروی کار متخصص در حوزه هوشمصنوعی تأکید میکنند. نسخه سنای آمریکا بهطور خاص بر چارچوبهای حکمرانی، امنیت و استانداردسازی برای استفاده مسئولانه از هوشمصنوعی تمرکز دارد. برای مثال، بخش ۱۶۲۹ دستور میدهد تا استانداردهایی برای تشخیص محتوای تولید شده توسط هوشمصنوعی ایجاد شود تا از اطلاعات گمراهکننده جلوگیری گردد.
متنهای نسخههای مجلس نمایندگان و سنا از لایحه مجوز دفاعیِ ۲۰۲۶ مفادی دارند که صراحتاً هدف گذاری کردهاند وزارت دفاع استفاده از قابلیتهای هوشمصنوعی، از جمله «تلاشهای مولد هوشمصنوعی» (generative AI) را تسریع کند و اختیار اجرای چندین پروژه آزمایشی را فراهم کند. در برخی بخشها صراحتاً تا «۱۲ پروژه مولد هوشمصنوعی» برای مصارف ملی / دفاعی مجاز شمرده شدهاست. این نوع درج آشکار در قانون مشخصاً مسیر تخصیص بودجه، اولویتهای برنامهای و تسهیل قرارداد با بخش خصوصی را هموار میکند.
بر اساس این لایحه، دفتر (CDAO) در پنتاگون، نقش راهبری و هماهنگیِ سیاستهای مسئولانه، پیادهسازی و استانداردسازی را به عهده دارد و در عمل نقطه تمرکز برای ادغام AI در ساختار فرماندهی و زنجیره تأمین دفاعی شدهاست.
همزمان با متون قانونی، وزارت دفاع قراردادهای بزرگی با شرکتهای خصوصی (از جمله شرکتهایی که در آمادهسازی داده و آمادهسازی مدل تخصص دارند) منعقد میکند. ورود پیمانکاران تخصصی و شرکتهای دادهمحور به شبکههای محرمانه، همراه با مجوزهای بودجهای، مسیر تبدیل نوآوری به توانمندی عملیاتی را کوتاه میکند.
اهمیت بررسی این لایحه در کنگره آمریکا، تنها به موضوع استفاده از هوشمصنوعی در مسائل نظامی محدود نمیشود. این لایحه در واقع بخشی از یک استراتژی بزرگتر و بلندمدت در وزارت دفاع آمریکا برای ادغام هوشمصنوعی بهمنظور مصارف نظامی در یک ساختار واحد نظامی است. این ساختار شامل مباحث زیر است:
اداره اصلی دیجیتال و هوشمصنوعی (CDAO): این اداره در سال ۲۰۲۲ برای نظارت بر اتخاذ و یکپارچهسازی هوشمصنوعی در وزارت دفاع ایجاد شد. بودجه این اداره از ۱۰.۳ میلیون دلار در سال ۲۰۲۲ به ۳۲۰.۴ میلیون دلار در سال ۲۰۲۳ افزایش یافت که نشاندهنده اولویت بالای این موضوع است.
بودجه و سرمایهگذاری: اگرچه بودجه مستقیم CDAO در سال ۲۰۲۵ کاهشیافته، اما پنتاگون بیش از ۶۸۵ پروژه مرتبط با هوشمصنوعی را تحت نظارت دارد و به استفاده از قراردادهای بخش خصوصی برای پیشبرد این فناوری ادامه میدهد.
برنامه ۵۰۰ روزه ارتش آمریکا: ارتش ایالات متحده اخیراً یک برنامه ۵۰۰ روزه را برای ایمنسازی و ادغام هوشمصنوعی معرفی کرده است. این برنامه شامل دو ابتکار «شکست هوشمصنوعی» (Break AI) برای آزمایش فناوریهای مبتنی بر هوشمصنوعی و «مقابله با هوشمصنوعی» (Counter AI) برای محافظت از نیروها در برابر استفاده خصمانه از این فناوری است.
کاربردهای عملیاتی: نیروی دریایی آمریکا از هوشمصنوعی مولد برای تحلیل حجم عظیمی از دادههای غیرطبقهبندیشده در رزمایشها استفاده کرده است. همچنین، نیروی هوایی آمریکا در حال توسعه یک برنامه رهگیری هدف پیشرفته با بودجه ۹۹ میلیون دلاری است که از هوشمصنوعی برای پردازش دادههای حسگرها و کاهش زمان بین شناسایی و درگیری هدف استفاده میکند.
استفاده از هوشمصنوعی در امور نظامی با چالشها و هشدارهای جدی همراه است. از همین روست که بسیاری از تحلیلگران حوزه بین الملل تاکنون بارها در مورد رگولاتوری و ایجاد قوانین بین المللی برای استفاده از هوشمصنوعی در مسائل نظامی صحبت کردهاند و در مورد خطرات رقابت در این زمینه بین قدرتهای بزرگ جهانی هشدار دادهاند.
اخیراً ایالات متحده در آزمایشی در خصوص نحوه استفاده از هوشمصنوعی در مأموریتهای نظامی، یک پهپاد را تحت کنترل هوشمصنوعی قرار داد و به این نتیجه رسید که این پهپاد برای تکمیل عملیات خود علیه اپراتور انسانی خود نیز اقدام کرده است. این آزمایش شبیه سازی شده باعث ایجاد سر و صدا و اعتراضات زیادی در خصوص استفاده از هوشمصنوعی در مسائل نظامی شد. کارشناسان هشدار میدهند که مدلهای زبانی بزرگ (LLMs) ممکن است برای کاربردهای حساس، مانند تحلیل احساسات یا تشخیص پروپاگاندا، بهاندازه کافی دقیق نباشند و اتکای بیش از حد به آنها میتواند منجر به خطا در تصمیمگیریهای نظامی شود. این همان چیزی است که هم اکنون توسط ایالات متحده و رژیم صهیونیستی در حال اجرایی شدن بوده و نتایج بسیار مخرب و ویرانگری را بر جا گذاشتهاست.
در اوکراین، پنتاگون با همکاری شرکتهای فناوری از الگوریتمهای یادگیری ماشین برای تحلیل سریع تصاویر ماهوارهای و هدایت پهپادها بهره برد. این ابزارها به ارتش اوکراین امکان دادند ظرف چند دقیقه به اطلاعاتی دست یابند که پیشتر نیازمند ساعتها زمان بود اما این اهداف در برخی از موارد با خطاهای ماشینی رو به رو شده و باعث افزایش میزان تلفات غیر نظامیان نیز میشود. در سوی دیگر، اسرائیل نیز در جنگهای اخیر غزه بهطور گسترده از هوشمصنوعی برای انتخاب اهداف و هماهنگی حملات استفادهکرد. ارتش رژیم صهیونیستی در سال ۲۰۲۱ مدعی شد نخستین «جنگ هوشمصنوعی» را رقم زدهاست. پس از حوادث اکتبر ۲۰۲۳ نیز گزارشهایی منتشر شد که نشان میداد سامانههای الگوریتمی در انتخاب اهداف بمباران نقش ایفا کردهاند؛ مسئلهای که بهدلیل افزایش خطر تلفات غیرنظامی، با انتقادهای گسترده حقوق بشری روبهرو شد.
عملیاتهای نظامی رژیم صهیونیستی در غزه و سایر ۶ کشوری که تاکنون بعد از سال ۲۰۲۳ به آنها حمله کرده (ایران، سوریه، لبنان، تونس، یمن و قطر) از اهمیت زیادی در بررسی و تحلیل چگونگی استفاده از هوشمصنوعی در حملات نظامی برخوردار است. رژیم صهیونیستی در این جنگها هم از شناسایی اهداف مد نظر خود و هم در تخمین زمان و مکان حمله و همچنین نوع تسلیحاتی که باید از آنها استفاده کند، از هوشمصنوعی استفادهکرد. بسیاری از کارشناسان هوشمصنوعی و روابط بین الملل بر این عقیدهاند که علت بالا بودن قربانیان جنگ در غزه و یا هدف قرار دادن غیر نظامیان در سایر کشورهایی که مورد حمله این رژیم قرار گرفتهاند، استفاده از هوشمصنوعی بوده است. کارشناسان بین المللی همچنین بر این باورند این کار در واقع آزمایش انواع پردازش اطلاعات و هدف گیری و استفاده از تجهیزات نظامی در میدان نبرد بود که ایالات متحده آن را بر عهده رژیم صهیونیستی گذاشت.
برخی گزارشهای تحقیقاتی و تحلیلی ادعا کردند که سامانههایی با نامهای مستعار مانند «Lavender» یا «The Gospel / Habsora» در رسانهها لیستهای بزرگی از اهداف بالقوه تولید کردهاند که به تسریع عملیات و افزایش شمار اهداف منجر شدهاست. در مقابل، مقامات نظامی اسرائیل استفاده سیستماتیک و خودمختار از هوشمصنوعی برای «شناسایی افراد» را تکذیب یا آن را ابزار کمکیِ تحلیل خواندهاند. بر اساس گزارش گاردین و رویترز، گزارشهای سازمانهای حقوق بشری نیز نگرانیهایی درباره دادههای نادرست، سوگیری و پیامد بر غیرنظامیان مطرح کردهاند.
حدای از مسئله اشتباهات در شناسایی اهداف و نوع استفاده از تسلیحات برای قرار دادن اهداف نظامی، مسئله مسئولیتپذیری نیز همچنان بیپاسخ ماندهاست: اگر سامانهای مبتنی بر هوش مصنوعی موجب تلفات انسانی شود، چه کسی پاسخگو خواهد بود؟ فرماندهان میدانی، برنامهنویسان یا خود سیستم؟ علاوه بر این، سرعت تصمیمگیری الگوریتمها میتواند جنگهای آینده را به رقابت میان ماشینها بدل کند؛ رقابتی که در آن، زمان واکنش به میلیثانیهها کاهش مییابد و خطر بروز جنگهای ناخواسته بهطور چشمگیری افزایش پیدا میکند.
اصول حقوق بشردوستانه بینالمللی، بر ضرورت تفکیک میان اهداف نظامی و غیرنظامی و رعایت تناسب در حملات تأکید دارند. اما آیا الگوریتمها میتوانند چنین اصولی را در میدان جنگ رعایت کنند؟ گزارشهای سازمانهای حقوق بشری نشانمیدهد که عادیسازی استفاده از هوش مصنوعی در عملیاتهای نظامی، خطر آغاز یک مسابقه تسلیحاتی جهانی را در پی دارد. مسابقهای که نهتنها موازنه قوا را تغییر میدهد، بلکه احتمال بروز خطاهای فاجعهبار را نیز افزایش خواهد داد.
لایحه تازه کنگره آمریکا، تنها یک اقدام قانونگذاری ساده نیست؛ بلکه نشانهای از گذار به دورهای است که در آن، ماشینها نقشی محوری در جنگهای مدرن ایفا میکنند. اما پرسش بنیادین همچنان باقی است: آیا جهان آماده پذیرش جنگهایی است که تصمیم مرگ و زندگی در آنها بهدست الگوریتمها سپرده میشود؟
گنجاندن هوشمصنوعی در متنِ قانون و رویه نظامی (از طریق NDAA، نهادهای مرکزی و قراردادهای کلان) روندی ساختاری است که اجرای آن در کوتاهمدت افزایش کارایی و در بلندمدت تغییر بنیادینِ ماهیتِ تصمیمگیری نظامی را نوید میدهد. اما این انتقال نهتنها مسئله فناوری و بودجه است؛ بلکه بحرانهای اخلاقی، حقوقی و امنیتیِ جدیای را پیشِ رو میگذارد که بیپاسخ ماندنِ آنها میتواند پیامدهای
تمام حقوق برای پایگاه خبری سرمایه فردا محفوظ می باشد کپی برداری از مطالب با ذکر منبع بلامانع می باشد.
سرمایه فردا