هوش مصنوعی در خدمت جنگ‌های مدرن

هوش مصنوعی در خدمت جنگ‌های مدرن

کنگره آمریکا با بررسی لایحه دفاعی ۲۰۲۶، مسیر قانونی و عملیاتی ادغام هوش مصنوعی در ساختار نظامی را هموار کرده است. از آزمایش پهپادهای خودمختار تا طراحی سامانه‌های هدف‌زن الگوریتمی، هوش مصنوعی دیگر صرفاً ابزار تحقیقاتی نیست، بلکه به قلب تصمیم‌گیری‌های نظامی نفوذ کرده است. تجربه‌های اخیر در اوکراین و غزه نشان می‌دهد که استفاده از این فناوری، با خطرات اخلاقی، حقوقی و انسانی جدی همراه است. کارشناسان هشدار می‌دهند که جهان در آستانه مسابقه تسلیحاتی الگوریتم‌محور قرار دارد؛ مسابقه‌ای که ممکن است تصمیم مرگ و زندگی را به ماشین‌ها واگذار کند. آیا ساختارهای حقوقی و اخلاقی جهانی برای مهار این تحول آماده‌اند؟

به گزارش سرمایه فردا، کنگره و نهادهای دفاعی ایالات متحده در سال ۲۰۲۵ روندی سازمان‌یافته را برای انتقال هوش‌مصنوعی از «ابزار تحقیق و پشتیبانی» به «رویه عملیاتی و مقرراتی» آغاز کرده‌اند.

کنگره آمریکا در حال حاضر در حال بررسی لایحه مجوز دفاع ملی (NDAA) برای سال مالی ۲۰۲۶ است که شامل مقررات قابل توجهی برای تسریع و نظارت بر ادغام هوش‌مصنوعی (AزI) در عملیات‌های نظامی است. این لایحه توسط کمیته‌های نظامی مجلس نمایندگان و سنای آمریکا تدوین شده و هر دو نسخه بر اهمیت هوش‌مصنوعی برای حفظ برتری راهبردی ایالات متحده تأکید دارند.

این روند به‌معنای آن است که هوش مصنوعی دیگر تنها موضوعی برای تحقیقات دانشگاهی یا همکاری‌های محدود با شرکت‌های فناوری نیست، بلکه به یک «رویه قانونی و جاری» در سیاست دفاعی ایالات متحده تبدیل می‌شود. نگاهی به لایحه مجوز دفاع ملی سال ۲۰۲۶ نشان‌می‌دهد که در بخش‌های مختلفی از این لایحه به تجهیز ارتش ایالات متحده به هوش‌مصنوعی برای نبرد در میدان جنگ و همچنین انجام آزمایش‌های مختلف جهت استفاده تسلیحاتی از این تکنولوژی پرداخته شده‌است. بخش ۱۵۳۲ از نسخه مجلس نمایندگان، راه‌اندازی برنامه‌های آزمایشی را برای ارتش، نیروی دریایی و نیروی هوایی جهت به‌کارگیری راه‌حل‌های هوش‌مصنوعی تجاری برای بهبود نگهداری و تعمیرات وسایط نقلیه زمینی الزامی می‌کند. علاوه بر این، بخش ۱۵۳۳ به وزارت دفاع (DoD) دستور می‌دهد تا ۱۲ ابزار هوش‌مصنوعی مولد (Generative AI) برای پشتیبانی از حوزه‌های حیاتی مأموریت مانند ارزیابی خسارت، امنیت سایبری و تحلیل مأموریت توسعه دهد.

بخش ۳۲۸ از نسخه سنای آمریکا نیز بر ادغام ابزارهای هوش‌مصنوعی تجاری در لجستیک تمرکز دارد و از وزارت دفاع می‌خواهد که این ابزارها را در حداقل دو تمرین در سال ۲۰۲۶ به کار گیرد.

 

امنیت و استانداردسازی برای استفاده مسئولانه از هوش‌مصنوعی

هر دو نسخه لایحه بر سرمایه‌گذاری بر آموزش و توسعه نیروی کار متخصص در حوزه هوش‌مصنوعی تأکید می‌کنند. نسخه سنای آمریکا به‌طور خاص بر چارچوب‌های حکمرانی، امنیت و استانداردسازی برای استفاده مسئولانه از هوش‌مصنوعی تمرکز دارد. برای مثال، بخش ۱۶۲۹ دستور می‌دهد تا استانداردهایی برای تشخیص محتوای تولید شده توسط هوش‌مصنوعی ایجاد شود تا از اطلاعات گمراه‌کننده جلوگیری گردد.

متن‌های نسخه‌های مجلس نمایندگان و سنا از لایحه مجوز دفاعیِ ۲۰۲۶ مفادی دارند که صراحتاً هدف گذاری کرده‌اند وزارت دفاع استفاده از قابلیت‌های هوش‌مصنوعی، از جمله «تلاش‌های مولد هوش‌مصنوعی» (generative AI) را تسریع کند و اختیار اجرای چندین پروژه آزمایشی را فراهم کند. در برخی بخش‌ها صراحتاً تا «۱۲ پروژه مولد هوش‌مصنوعی» برای مصارف ملی / دفاعی مجاز شمرده شده‌است. این نوع درج آشکار در قانون مشخصاً مسیر تخصیص بودجه، اولویت‌های برنامه‌ای و تسهیل قرارداد با بخش خصوصی را هموار می‌کند.

بر اساس این لایحه، دفتر  (CDAO) در پنتاگون، نقش راهبری و هماهنگیِ سیاست‌های مسئولانه، پیاده‌سازی و استانداردسازی را به عهده دارد و در عمل نقطه تمرکز برای ادغام AI در ساختار فرماندهی و زنجیره تأمین دفاعی شده‌است.

همزمان با متون قانونی، وزارت دفاع قراردادهای بزرگی با شرکت‌های خصوصی (از جمله شرکت‌هایی که در آماده‌سازی داده و آماده‌سازی مدل تخصص دارند) منعقد می‌کند. ورود پیمانکاران تخصصی و شرکت‌های داده‌محور به شبکه‌های محرمانه، همراه با مجوزهای بودجه‌ای، مسیر تبدیل نوآوری به توانمندی عملیاتی را کوتاه می‌کند.

 

استراتژی کلان دفاعی آمریکا در حوزه هوش‌مصنوعی

اهمیت بررسی این لایحه در کنگره آمریکا، تنها به موضوع استفاده از هوش‌مصنوعی در مسائل نظامی محدود نمی‌شود. این لایحه در واقع بخشی از یک استراتژی بزرگ‌تر و بلندمدت در وزارت دفاع آمریکا برای ادغام هوش‌مصنوعی به‌منظور مصارف نظامی در یک ساختار واحد نظامی است. این ساختار شامل مباحث زیر است:

اداره اصلی دیجیتال و هوش‌مصنوعی (CDAO): این اداره در سال ۲۰۲۲ برای نظارت بر اتخاذ و یکپارچه‌سازی هوش‌مصنوعی در وزارت دفاع ایجاد شد. بودجه این اداره از ۱۰.۳ میلیون دلار در سال ۲۰۲۲ به ۳۲۰.۴ میلیون دلار در سال ۲۰۲۳ افزایش یافت که نشان‌دهنده اولویت بالای این موضوع است.

بودجه و سرمایه‌گذاری: اگرچه بودجه مستقیم CDAO در سال ۲۰۲۵ کاهش‌یافته، اما پنتاگون بیش از ۶۸۵ پروژه مرتبط با هوش‌مصنوعی را تحت نظارت دارد و به استفاده از قراردادهای بخش خصوصی برای پیشبرد این فناوری ادامه می‌دهد.

برنامه ۵۰۰ روزه ارتش آمریکا: ارتش ایالات متحده اخیراً یک برنامه ۵۰۰ روزه را برای ایمن‌سازی و ادغام هوش‌مصنوعی معرفی کرده است. این برنامه شامل دو ابتکار «شکست هوش‌مصنوعی» (Break AI) برای آزمایش فناوری‌های مبتنی بر هوش‌مصنوعی و «مقابله با هوش‌مصنوعی» (Counter AI) برای محافظت از نیروها در برابر استفاده خصمانه از این فناوری است.

کاربردهای عملیاتی: نیروی دریایی آمریکا از هوش‌مصنوعی مولد برای تحلیل حجم عظیمی از داده‌های غیرطبقه‌بندی‌شده در رزمایش‌ها استفاده کرده است. همچنین، نیروی هوایی آمریکا در حال توسعه یک برنامه رهگیری هدف پیشرفته با بودجه ۹۹ میلیون دلاری است که از هوش‌مصنوعی برای پردازش داده‌های حسگرها و کاهش زمان بین شناسایی و درگیری هدف استفاده می‌کند.

 

خطرات هوش‌مصنوعی نظامی آمریکا برای جهان

استفاده از هوش‌مصنوعی در امور نظامی با چالش‌ها و هشدارهای جدی همراه است. از همین روست که بسیاری از تحلیلگران حوزه بین الملل تاکنون بارها در مورد رگولاتوری و ایجاد قوانین بین المللی برای استفاده از هوش‌مصنوعی در مسائل نظامی صحبت کرده‌اند و در مورد خطرات رقابت در این زمینه بین قدرت‌های بزرگ جهانی هشدار داده‌اند.

اخیراً ایالات متحده در آزمایشی در خصوص نحوه استفاده از هوش‌مصنوعی در مأموریت‌های نظامی، یک پهپاد را تحت کنترل هوش‌مصنوعی قرار داد و به این نتیجه رسید که این پهپاد برای تکمیل عملیات خود علیه اپراتور انسانی خود نیز اقدام کرده است. این آزمایش شبیه سازی شده باعث ایجاد سر و صدا و اعتراضات زیادی در خصوص استفاده از هوش‌مصنوعی در مسائل نظامی شد. کارشناسان هشدار می‌دهند که مدل‌های زبانی بزرگ (LLMs) ممکن است برای کاربردهای حساس، مانند تحلیل احساسات یا تشخیص پروپاگاندا، به‌اندازه کافی دقیق نباشند و اتکای بیش از حد به آن‌ها می‌تواند منجر به خطا در تصمیم‌گیری‌های نظامی شود. این همان چیزی است که هم اکنون توسط ایالات متحده و رژیم صهیونیستی در حال اجرایی شدن بوده و نتایج بسیار مخرب و ویرانگری را بر جا گذاشته‌است.

در اوکراین، پنتاگون با همکاری شرکت‌های فناوری از الگوریتم‌های یادگیری ماشین برای تحلیل سریع تصاویر ماهواره‌ای و هدایت پهپادها بهره برد. این ابزارها به ارتش اوکراین امکان دادند ظرف چند دقیقه به اطلاعاتی دست یابند که پیش‌تر نیازمند ساعت‌ها زمان بود اما این اهداف در برخی از موارد با خطاهای ماشینی رو به رو شده و باعث افزایش میزان تلفات غیر نظامیان نیز می‌شود. در سوی دیگر، اسرائیل نیز در جنگ‌های اخیر غزه به‌طور گسترده از هوش‌مصنوعی برای انتخاب اهداف و هماهنگی حملات استفاده‌کرد. ارتش رژیم صهیونیستی در سال ۲۰۲۱ مدعی شد نخستین «جنگ هوش‌مصنوعی» را رقم زده‌است. پس از حوادث اکتبر ۲۰۲۳ نیز گزارش‌هایی منتشر شد که نشان می‌داد سامانه‌های الگوریتمی در انتخاب اهداف بمباران نقش ایفا کرده‌اند؛ مسئله‌ای که به‌دلیل افزایش خطر تلفات غیرنظامی، با انتقادهای گسترده حقوق بشری روبه‌رو شد.

 

چرا عملیات‌های نظامی رژیم صهیونیستی مهم است؟

عملیات‌های نظامی رژیم صهیونیستی در غزه و سایر ۶ کشوری که تاکنون بعد از سال ۲۰۲۳ به آنها حمله کرده (ایران، سوریه، لبنان، تونس، یمن و قطر) از اهمیت زیادی در بررسی و تحلیل چگونگی استفاده از هوش‌مصنوعی در حملات نظامی برخوردار است. رژیم صهیونیستی در این جنگ‌ها هم از شناسایی اهداف مد نظر خود و هم در تخمین زمان و مکان حمله و همچنین نوع تسلیحاتی که باید از آنها استفاده کند، از هوش‌مصنوعی استفاده‌کرد. بسیاری از کارشناسان هوش‌مصنوعی و روابط بین الملل بر این عقیده‌اند که علت بالا بودن قربانیان جنگ در غزه و یا هدف قرار دادن غیر نظامیان در سایر کشورهایی که مورد حمله این رژیم قرار گرفته‌اند، استفاده از هوش‌مصنوعی بوده است. کارشناسان بین المللی همچنین بر این باورند این کار در واقع آزمایش انواع پردازش اطلاعات و هدف گیری و استفاده از تجهیزات نظامی در میدان نبرد بود که ایالات متحده آن را بر عهده رژیم صهیونیستی گذاشت.

برخی گزارش‌های تحقیقاتی و تحلیلی ادعا کردند که سامانه‌هایی با نام‌های مستعار مانند «Lavender» یا «The Gospel / Habsora» در رسانه‌ها لیست‌های بزرگی از اهداف بالقوه تولید کرده‌اند که به تسریع عملیات و افزایش شمار اهداف منجر شده‌است. در مقابل، مقامات نظامی اسرائیل استفاده سیستماتیک و خودمختار از هوش‌مصنوعی برای «شناسایی افراد» را تکذیب یا آن را ابزار کمکیِ تحلیل خوانده‌اند. بر اساس گزارش گاردین و رویترز، گزارش‌های سازمان‌های حقوق بشری نیز نگرانی‌هایی درباره داده‌های نادرست، سوگیری و پیامد بر غیرنظامیان مطرح کرده‌اند.

 

اخلاق در استفاده از هوش مصنوعی نظامی

حدای از مسئله اشتباهات در شناسایی اهداف و نوع استفاده از تسلیحات برای قرار دادن اهداف نظامی، مسئله مسئولیت‌پذیری نیز همچنان بی‌پاسخ مانده‌است: اگر سامانه‌ای مبتنی بر هوش مصنوعی موجب تلفات انسانی شود، چه کسی پاسخ‌گو خواهد بود؟ فرماندهان میدانی، برنامه‌نویسان یا خود سیستم؟ علاوه بر این، سرعت تصمیم‌گیری الگوریتم‌ها می‌تواند جنگ‌های آینده را به رقابت میان ماشین‌ها بدل کند؛ رقابتی که در آن، زمان واکنش به میلی‌ثانیه‌ها کاهش می‌یابد و خطر بروز جنگ‌های ناخواسته به‌طور چشمگیری افزایش پیدا می‌کند.

اصول حقوق بشردوستانه بین‌المللی، بر ضرورت تفکیک میان اهداف نظامی و غیرنظامی و رعایت تناسب در حملات تأکید دارند. اما آیا الگوریتم‌ها می‌توانند چنین اصولی را در میدان جنگ رعایت کنند؟ گزارش‌های سازمان‌های حقوق بشری نشان‌می‌دهد که عادی‌سازی استفاده از هوش مصنوعی در عملیات‌های نظامی، خطر آغاز یک مسابقه تسلیحاتی جهانی را در پی دارد. مسابقه‌ای که نه‌تنها موازنه قوا را تغییر می‌دهد، بلکه احتمال بروز خطاهای فاجعه‌بار را نیز افزایش خواهد داد.

لایحه تازه کنگره آمریکا، تنها یک اقدام قانون‌گذاری ساده نیست؛ بلکه نشانه‌ای از گذار به دوره‌ای است که در آن، ماشین‌ها نقشی محوری در جنگ‌های مدرن ایفا می‌کنند. اما پرسش بنیادین همچنان باقی است: آیا جهان آماده پذیرش جنگ‌هایی است که تصمیم مرگ و زندگی در آن‌ها به‌دست الگوریتم‌ها سپرده می‌شود؟

گنجاندن هوش‌مصنوعی در متنِ قانون و رویه نظامی (از طریق NDAA، نهادهای مرکزی و قراردادهای کلان) روندی ساختاری است که اجرای آن در کوتاه‌مدت افزایش کارایی و در بلندمدت تغییر بنیادینِ ماهیتِ تصمیم‌گیری نظامی را نوید می‌دهد. اما این انتقال نه‌تنها مسئله فناوری و بودجه است؛ بلکه بحران‌های اخلاقی، حقوقی و امنیتیِ جدی‌ای را پیشِ رو می‌گذارد که بی‌پاسخ ماندنِ آنها می‌تواند پیامدهای

دیدگاهتان را بنویسید