حمله مشترک آمریکا و اسرائیل به ایران بیش از تشدید مناقشه منطقهای بیثبات بوده است. این حمله نشان داد که چگونه هدفگیری الگوریتم محور و اطلاعات مبتنی بر داده، مکانیک جنگ را شکل میدهند.
به گزارش ایسنا، به نقل از IA، نیروهای آمریکایی و اسرائیلی در 12 ساعت اول جنگ، نزدیک به 900 حمله به اهداف ایرانی انجام دادند. این در حالی است که این سرعت عملیاتی در درگیری های قبلی روزها یا حتی هفته ها ادامه داشت.
فراتر از مقیاس حملات، که شامل صدها ماموریت با استفاده از بمب افکن های پنهان کار، موشک های کروز و هواپیماهای بدون سرنشین انتحاری است، آنچه بیش از همه برای تحلیلگران نظامی و اخلاق شناسان قابل توجه است، نقش فزاینده هوش مصنوعی در برنامه ریزی، تحلیل و اجرای احتمالی این عملیات است.
منتقدان هشدار میدهند که این فرآیند میتواند جدولهای زمانی تصمیمگیری را به سطوحی فشرده کند که قضاوت انسانی در آن به حاشیه رانده شود و آغازگر دورهای از جنگ باشد که «سریعتر از سرعت فکر» توصیف میشود.
در اصطلاح نظامی، «کوتاه کردن زنجیره کشتار» به معنای محدود کردن فرآیند از شناسایی هدف و تأیید اطلاعات به مجوز قانونی و انتشار سلاح در یک چرخه عملیاتی بسیار فشردهتر است.
این کوتاه شدن پنجره زمانی این نگرانی را ایجاد می کند که متخصصان انسانی ممکن است به سادگی توصیه های ایجاد شده توسط الگوریتم ها را تأیید کنند.
در محیطی که با سرعت و اتوماسیون هدایت می شود، فضای شک، نظرات متفاوت یا محدودیت های اخلاقی ممکن است به همان سرعت در حال کاهش باشد.
هوش مصنوعی و زنجیره کشتار؛ چه چیزی تغییر کرد
سیستمهای هوش مصنوعی که میتوانند جریانهای عظیم داده را پردازش کنند به منابعی مانند دادههای هواپیماهای بدون سرنشین، تصاویر ماهوارهای و مداخلات مخابراتی با سرعتی متصل میشوند که هیچ تیم انسانی نمیتواند به آن برسد.
به گزارش گاردین، این ابزارها برای ایجاد توصیههای هدفگیری در طول حملات آمریکا و اسرائیل به ایران، فشردهسازی چرخههای برنامهریزی که از لحاظ تاریخی روزها یا هفتهها را به ساعتها یا حتی دقیقهها میبردند، استفاده شده است.
کریگ جونز، مدرس ارشد جغرافیای سیاسی در دانشگاه نیوکاسل و کارشناس زنجیرههای کشتار نظامی، به گاردین گفت که سیستمهای هوش مصنوعی اکنون توصیههای هدفگیری را با سرعتی ارائه میکنند که در برخی موارد از پردازش شناختی انسان فراتر میرود.
او استدلال کرد: “نتیجه اعدام های همزمان در مقیاس گسترده است.” هدفگیری رهبری، حملات موشکی و حملات زیرساختی بهجای متوالی بهطور موازی اتفاق میافتد.
دیوید لزلی، استاد اخلاق، فناوری و جامعه در دانشگاه کوئین مری لندن، نیز به گاردین گفت که چنین سیستمهایی جدول زمانی برنامهریزی را به «دریچه بسیار باریکتری» برای بازبینی انسانی تبدیل میکنند. در حالی که فرماندهان از نظر فنی “در حلقه” باقی می مانند، فرصت برای مذاکره معنادار به میزان قابل توجهی کاهش می یابد.
این فشرده سازی سرعت عملیاتی، که اغلب به عنوان فشرده سازی تصمیم گیری نامیده می شود، فقط در مورد کارایی نیست. این امر ساختار اقتدار نظامی را تغییر میدهد و اتاقی را محدود میکند که در آن مشاوران حقوقی، تحلیلگران و فرماندهان میتوانند پیش از شلیک سلاح، مفروضات را زیر سوال ببرند.
جایگاه اخلاق در جنگ تقویتشده با هوش مصنوعی
کارشناسان اخلاق و فناوری هشدار می دهند که با افزایش نقش سیستم های هوش مصنوعی در برنامه ریزی نظامی، ماهیت نظارت انسانی اساساً تغییر خواهد کرد. یکی از نگرانی ها تخلیه شناختی است، جایی که تصمیم گیرندگان به راحتی تسلیم توصیه های الگوریتمی می شوند و به طور موثر مسئولیت پذیری انسان را برای انتخاب های استراتژیک کاهش می دهند.
به گفته گاردین، این جدایی به ویژه زمانی نگران کننده است که تلفات غیرنظامی در میان باشد. در حمله اخیر در جنوب ایران دست کم 150 نفر که اکثراً دانش آموزان دختر بودند کشته شدند. سازمان ملل این اقدام را «نقض فاحش حقوق بشر» توصیف کرد.
حقوق بینالملل بشردوستانه بر اساس فرض قضاوت انسانی در چارچوب تناسب و تمایز شکل گرفته است. از آنجایی که سیستمهای هوش مصنوعی خطوط زمانی را فشرده میکنند و به سرعت گزینههای حمله را ایجاد میکنند، خطر فزایندهای وجود دارد که نیاز به سرعت بر این ملاحظات قانونی و اخلاقی غلبه کند.
کار آکادمیک بر روی هوش مصنوعی نظامی به تاکید بر نیاز به چارچوب هایی برای جلوگیری از فرسایش عامل انسانی در زمینه های کشنده و اطمینان از اینکه اثربخشی میدان نبرد ملاحظات آسیب به غیرنظامیان و رعایت قانون را نادیده نمی گیرد، ادامه دارد.
تنش های اخلاقی پیرامون هوش مصنوعی نظامی انتزاعی نیستند. مدل هوش مصنوعی کلود Anthropic که با مشارکت Palantir توسعه یافته است، در جریان کار امنیت ملی ایالات متحده برای کمک به تجزیه و تحلیل اطلاعاتی و برنامه ریزی جنگ ادغام شده است. با این حال، Entropic با استفاده از سیستم های خود برای سلاح های کاملاً مستقل یا برنامه های نظارت محلی مخالف است.
در روزهای قبل از حملات به ایران، دولت آمریکا اعلام کرد که انتروپیک تحت این محدودیتها از برخی سیستمهای دفاعی حذف خواهد شد. اندکی پس از آن، OpenAI توافق نامه ای با پنتاگون برای کاربردهای نظامی مدل های خود امضا کرد.
موقعیت آنتروپیک نشان دهنده تنش اصلی این دوره جدید جنگ است. همان مدلهایی که میتوانند اطلاعات را با سرعت بیسابقهای ترکیب کنند، میتوانند برای نظارت یا سیستمهای مرگآور مستقل نیز مورد استفاده مجدد قرار گیرند. اینکه آیا اقتدار انسانی ضروری خواهد بود نه تنها به دکترین نظامی بلکه به نحوه انتخاب شرکت های فناوری برای تعیین محدودیت های مشارکت خود بستگی دارد.
نگرانکننده است که در بازیهای جنگی شبیهسازیشده که برای انعکاس بحرانهای هستهای به سبک جنگ سرد طراحی شدهاند، مدلهای هوش مصنوعی به شدت در برابر گزینههای هستهای تعصب داشتند و در ۹۵ درصد از سناریوها، اقدام هستهای تاکتیکی را انتخاب میکردند و به ندرت به سمت کاهش تنش حرکت میکردند.
در حالی که شبیهسازیها نشان نمیدهند که هوش مصنوعی لزوماً تشدید تنشهای هستهای را در درگیریهای واقعی انتخاب میکند، اما نشان میدهد که چگونه الگوهای استدلال استراتژیک میتوانند تحت فشار به نتایج ناخوشایندی منجر شوند.
هوش مصنوعی عملیاتی فراتر از ایران؛ غزه، ونزوئلا و چشم انداز جهانی
هوش مصنوعی نظامی پیشرفته مدتی است که برای شناسایی اهداف و برنامه ریزی حملات استفاده می شود. برای مثال، در نوار غزه، نیروهای دفاعی اسرائیل از ابزارهای هوش مصنوعی مانند انجیل و اسطوخودوس برای بررسی خودکار دادههای نظارتی گسترده و تولید فهرستهای روزانه از اهداف بمباران برای تحلیلگران استفاده کردند تا بررسی و اقدام کنند.
بر اساس تحقیقات و منابع نظامی، انجیل روزانه ده ها هدف تولید می کند. این نرخ بسیار بالاتر از فرآیندهای سنتی هدایت شده توسط انسان است. Lavender پایگاههای اطلاعاتی جامعی از مظنونان و مکانهای مرتبط با پرچمگذاری شده توسط الگوریتمهای هوش مصنوعی نگهداری میکند.
فراتر از خاورمیانه، ایالات متحده ابزارهای هوش مصنوعی را در مناطق دیگر آزمایش کرده است. بر اساس گزارشهای متعدد، مدل ابری آنتروپیک توسط ارتش ایالات متحده برای پشتیبانی از تجزیه و تحلیل اطلاعاتی و انتخاب هدف در یک عملیات بزرگ برای دستگیری نیکلاس مادورو، رئیسجمهور سابق ونزوئلا در اوایل سال ۲۰۲۶ استفاده شد.
برنامههای طولانیمدت مانند Project Maven که توسط وزارت دفاع ایالات متحده در سال ۲۰۱۷ راهاندازی شد، از فناوری یادگیری ماشین برای تجزیه و تحلیل تصاویر و پشتیبانی از تصمیمگیریهای هدفگیری در درگیریهای مختلف از عراق و سوریه گرفته تا اوکراین استفاده کردهاند، جایی که پهپادهای مجهز به هوش مصنوعی به شناسایی و درگیری اهداف در محیطهای پیچیده جنگ الکترونیک کمک میکنند.
در سطح ژئوپلیتیک، تلاش ها برای ایجاد هنجارهای مربوط به استفاده نظامی از هوش مصنوعی چالش برانگیز بوده است. بیانیه سیاستی در مورد استفاده مسئولانه نظامی از هوش مصنوعی و خودمختاری توسط سیاستگذاران ایالات متحده اعلام شد و ده ها کشور در تأیید اقدامات مسئولانه برای خودمختاری مرگبار و نظارت انسانی پیوسته اند.
با این حال، قدرت های نظامی، از جمله ایالات متحده و چین، گاهی اوقات تمایلی به پذیرش کامل محدودیت های الزام آور ندارند، که منعکس کننده اولویت های رقابتی بین مزیت استراتژیک و محدودیت اخلاقی است.
کشورهای دیگر نیز در ساخت سلاح های مجهز به هوش مصنوعی پیشرفت می کنند. موشک کروز Baykar Bayraktar Kemankeş 1 ترکیه از هدایت نوری با پشتیبانی از هوش مصنوعی برای شناسایی خودکار هدف در شرایط نامطلوب استفاده می کند.
در هند، پروژه های تحقیقاتی دفاعی مانند پروژه Anumaan و Trinetra در حال بررسی پتانسیل هوش مصنوعی برای جاسازی اطلاعات در شبکه ها و امکان ارزیابی اولیه تهدید هستند.
آنچه که کمپین ایران را متمایز می کند فقط شدت حملات نیست، بلکه عادی سازی هدف گیری در مقیاس بزرگ با کمک هوش مصنوعی است. از فهرستهای حملات خودکار گرفته تا بررسیهای قانونی شدید، میانجیگری الگوریتمی به روشهای بیسابقهای در درگیریهای مدرن گنجانده شده است.






ارسال پاسخ