نقش هوش مصنوعی در جنگ علیه ایران

نقش هوش مصنوعی در جنگ علیه ایران

حمله مشترک آمریکا و اسرائیل به ایران بیش از تشدید مناقشه منطقه‌ای بی‌ثبات بوده است. این حمله نشان داد که چگونه هدف‌گیری الگوریتم محور و اطلاعات مبتنی بر داده، مکانیک جنگ را شکل می‌دهند.

به گزارش ایسنا، به نقل از IA، نیروهای آمریکایی و اسرائیلی در 12 ساعت اول جنگ، نزدیک به 900 حمله به اهداف ایرانی انجام دادند. این در حالی است که این سرعت عملیاتی در درگیری های قبلی روزها یا حتی هفته ها ادامه داشت.

فراتر از مقیاس حملات، که شامل صدها ماموریت با استفاده از بمب افکن های پنهان کار، موشک های کروز و هواپیماهای بدون سرنشین انتحاری است، آنچه بیش از همه برای تحلیلگران نظامی و اخلاق شناسان قابل توجه است، نقش فزاینده هوش مصنوعی در برنامه ریزی، تحلیل و اجرای احتمالی این عملیات است.

منتقدان هشدار می‌دهند که این فرآیند می‌تواند جدول‌های زمانی تصمیم‌گیری را به سطوحی فشرده کند که قضاوت انسانی در آن به حاشیه رانده شود و آغازگر دوره‌ای از جنگ باشد که «سریع‌تر از سرعت فکر» توصیف می‌شود.

در اصطلاح نظامی، «کوتاه کردن زنجیره کشتار» به معنای محدود کردن فرآیند از شناسایی هدف و تأیید اطلاعات به مجوز قانونی و انتشار سلاح در یک چرخه عملیاتی بسیار فشرده‌تر است.

این کوتاه شدن پنجره زمانی این نگرانی را ایجاد می کند که متخصصان انسانی ممکن است به سادگی توصیه های ایجاد شده توسط الگوریتم ها را تأیید کنند.

در محیطی که با سرعت و اتوماسیون هدایت می شود، فضای شک، نظرات متفاوت یا محدودیت های اخلاقی ممکن است به همان سرعت در حال کاهش باشد.

هوش مصنوعی و زنجیره کشتار؛ چه چیزی تغییر کرد

سیستم‌های هوش مصنوعی که می‌توانند جریان‌های عظیم داده را پردازش کنند به منابعی مانند داده‌های هواپیماهای بدون سرنشین، تصاویر ماهواره‌ای و مداخلات مخابراتی با سرعتی متصل می‌شوند که هیچ تیم انسانی نمی‌تواند به آن برسد.

به گزارش گاردین، این ابزارها برای ایجاد توصیه‌های هدف‌گیری در طول حملات آمریکا و اسرائیل به ایران، فشرده‌سازی چرخه‌های برنامه‌ریزی که از لحاظ تاریخی روزها یا هفته‌ها را به ساعت‌ها یا حتی دقیقه‌ها می‌بردند، استفاده شده است.

کریگ جونز، مدرس ارشد جغرافیای سیاسی در دانشگاه نیوکاسل و کارشناس زنجیره‌های کشتار نظامی، به گاردین گفت که سیستم‌های هوش مصنوعی اکنون توصیه‌های هدف‌گیری را با سرعتی ارائه می‌کنند که در برخی موارد از پردازش شناختی انسان فراتر می‌رود.

او استدلال کرد: “نتیجه اعدام های همزمان در مقیاس گسترده است.” هدف‌گیری رهبری، حملات موشکی و حملات زیرساختی به‌جای متوالی به‌طور موازی اتفاق می‌افتد.

دیوید لزلی، استاد اخلاق، فناوری و جامعه در دانشگاه کوئین مری لندن، نیز به گاردین گفت که چنین سیستم‌هایی جدول زمانی برنامه‌ریزی را به «دریچه بسیار باریک‌تری» برای بازبینی انسانی تبدیل می‌کنند. در حالی که فرماندهان از نظر فنی “در حلقه” باقی می مانند، فرصت برای مذاکره معنادار به میزان قابل توجهی کاهش می یابد.

این فشرده سازی سرعت عملیاتی، که اغلب به عنوان فشرده سازی تصمیم گیری نامیده می شود، فقط در مورد کارایی نیست. این امر ساختار اقتدار نظامی را تغییر می‌دهد و اتاقی را محدود می‌کند که در آن مشاوران حقوقی، تحلیلگران و فرماندهان می‌توانند پیش از شلیک سلاح، مفروضات را زیر سوال ببرند.

جایگاه اخلاق در جنگ تقویت‌شده با هوش مصنوعی

کارشناسان اخلاق و فناوری هشدار می دهند که با افزایش نقش سیستم های هوش مصنوعی در برنامه ریزی نظامی، ماهیت نظارت انسانی اساساً تغییر خواهد کرد. یکی از نگرانی ها تخلیه شناختی است، جایی که تصمیم گیرندگان به راحتی تسلیم توصیه های الگوریتمی می شوند و به طور موثر مسئولیت پذیری انسان را برای انتخاب های استراتژیک کاهش می دهند.

به گفته گاردین، این جدایی به ویژه زمانی نگران کننده است که تلفات غیرنظامی در میان باشد. در حمله اخیر در جنوب ایران دست کم 150 نفر که اکثراً دانش آموزان دختر بودند کشته شدند. سازمان ملل این اقدام را «نقض فاحش حقوق بشر» توصیف کرد.

حقوق بین‌الملل بشردوستانه بر اساس فرض قضاوت انسانی در چارچوب تناسب و تمایز شکل گرفته است. از آنجایی که سیستم‌های هوش مصنوعی خطوط زمانی را فشرده می‌کنند و به سرعت گزینه‌های حمله را ایجاد می‌کنند، خطر فزاینده‌ای وجود دارد که نیاز به سرعت بر این ملاحظات قانونی و اخلاقی غلبه کند.

کار آکادمیک بر روی هوش مصنوعی نظامی به تاکید بر نیاز به چارچوب هایی برای جلوگیری از فرسایش عامل انسانی در زمینه های کشنده و اطمینان از اینکه اثربخشی میدان نبرد ملاحظات آسیب به غیرنظامیان و رعایت قانون را نادیده نمی گیرد، ادامه دارد.

تنش های اخلاقی پیرامون هوش مصنوعی نظامی انتزاعی نیستند. مدل هوش مصنوعی کلود Anthropic که با مشارکت Palantir توسعه یافته است، در جریان کار امنیت ملی ایالات متحده برای کمک به تجزیه و تحلیل اطلاعاتی و برنامه ریزی جنگ ادغام شده است. با این حال، Entropic با استفاده از سیستم های خود برای سلاح های کاملاً مستقل یا برنامه های نظارت محلی مخالف است.

در روزهای قبل از حملات به ایران، دولت آمریکا اعلام کرد که انتروپیک تحت این محدودیت‌ها از برخی سیستم‌های دفاعی حذف خواهد شد. اندکی پس از آن، OpenAI توافق نامه ای با پنتاگون برای کاربردهای نظامی مدل های خود امضا کرد.

موقعیت آنتروپیک نشان دهنده تنش اصلی این دوره جدید جنگ است. همان مدل‌هایی که می‌توانند اطلاعات را با سرعت بی‌سابقه‌ای ترکیب کنند، می‌توانند برای نظارت یا سیستم‌های مرگ‌آور مستقل نیز مورد استفاده مجدد قرار گیرند. اینکه آیا اقتدار انسانی ضروری خواهد بود نه تنها به دکترین نظامی بلکه به نحوه انتخاب شرکت های فناوری برای تعیین محدودیت های مشارکت خود بستگی دارد.

نگران‌کننده است که در بازی‌های جنگی شبیه‌سازی‌شده که برای انعکاس بحران‌های هسته‌ای به سبک جنگ سرد طراحی شده‌اند، مدل‌های هوش مصنوعی به شدت در برابر گزینه‌های هسته‌ای تعصب داشتند و در ۹۵ درصد از سناریوها، اقدام هسته‌ای تاکتیکی را انتخاب می‌کردند و به ندرت به سمت کاهش تنش حرکت می‌کردند.

در حالی که شبیه‌سازی‌ها نشان نمی‌دهند که هوش مصنوعی لزوماً تشدید تنش‌های هسته‌ای را در درگیری‌های واقعی انتخاب می‌کند، اما نشان می‌دهد که چگونه الگوهای استدلال استراتژیک می‌توانند تحت فشار به نتایج ناخوشایندی منجر شوند.

هوش مصنوعی عملیاتی فراتر از ایران؛ غزه، ونزوئلا و چشم انداز جهانی

هوش مصنوعی نظامی پیشرفته مدتی است که برای شناسایی اهداف و برنامه ریزی حملات استفاده می شود. برای مثال، در نوار غزه، نیروهای دفاعی اسرائیل از ابزارهای هوش مصنوعی مانند انجیل و اسطوخودوس برای بررسی خودکار داده‌های نظارتی گسترده و تولید فهرست‌های روزانه از اهداف بمباران برای تحلیل‌گران استفاده کردند تا بررسی و اقدام کنند.

بر اساس تحقیقات و منابع نظامی، انجیل روزانه ده ها هدف تولید می کند. این نرخ بسیار بالاتر از فرآیندهای سنتی هدایت شده توسط انسان است. Lavender پایگاه‌های اطلاعاتی جامعی از مظنونان و مکان‌های مرتبط با پرچم‌گذاری شده توسط الگوریتم‌های هوش مصنوعی نگهداری می‌کند.

فراتر از خاورمیانه، ایالات متحده ابزارهای هوش مصنوعی را در مناطق دیگر آزمایش کرده است. بر اساس گزارش‌های متعدد، مدل ابری آنتروپیک توسط ارتش ایالات متحده برای پشتیبانی از تجزیه و تحلیل اطلاعاتی و انتخاب هدف در یک عملیات بزرگ برای دستگیری نیکلاس مادورو، رئیس‌جمهور سابق ونزوئلا در اوایل سال ۲۰۲۶ استفاده شد.

برنامه‌های طولانی‌مدت مانند Project Maven که توسط وزارت دفاع ایالات متحده در سال ۲۰۱۷ راه‌اندازی شد، از فناوری یادگیری ماشین برای تجزیه و تحلیل تصاویر و پشتیبانی از تصمیم‌گیری‌های هدف‌گیری در درگیری‌های مختلف از عراق و سوریه گرفته تا اوکراین استفاده کرده‌اند، جایی که پهپادهای مجهز به هوش مصنوعی به شناسایی و درگیری اهداف در محیط‌های پیچیده جنگ الکترونیک کمک می‌کنند.

در سطح ژئوپلیتیک، تلاش ها برای ایجاد هنجارهای مربوط به استفاده نظامی از هوش مصنوعی چالش برانگیز بوده است. بیانیه سیاستی در مورد استفاده مسئولانه نظامی از هوش مصنوعی و خودمختاری توسط سیاستگذاران ایالات متحده اعلام شد و ده ها کشور در تأیید اقدامات مسئولانه برای خودمختاری مرگبار و نظارت انسانی پیوسته اند.

با این حال، قدرت های نظامی، از جمله ایالات متحده و چین، گاهی اوقات تمایلی به پذیرش کامل محدودیت های الزام آور ندارند، که منعکس کننده اولویت های رقابتی بین مزیت استراتژیک و محدودیت اخلاقی است.

کشورهای دیگر نیز در ساخت سلاح های مجهز به هوش مصنوعی پیشرفت می کنند. موشک کروز Baykar Bayraktar Kemankeş 1 ترکیه از هدایت نوری با پشتیبانی از هوش مصنوعی برای شناسایی خودکار هدف در شرایط نامطلوب استفاده می کند.

در هند، پروژه های تحقیقاتی دفاعی مانند پروژه Anumaan و Trinetra در حال بررسی پتانسیل هوش مصنوعی برای جاسازی اطلاعات در شبکه ها و امکان ارزیابی اولیه تهدید هستند.

آنچه که کمپین ایران را متمایز می کند فقط شدت حملات نیست، بلکه عادی سازی هدف گیری در مقیاس بزرگ با کمک هوش مصنوعی است. از فهرست‌های حملات خودکار گرفته تا بررسی‌های قانونی شدید، میانجی‌گری الگوریتمی به روش‌های بی‌سابقه‌ای در درگیری‌های مدرن گنجانده شده است.