به گزارش خبرنگار بینالملل ایبنا، وزارت دفاع آمریکا در ماههای اخیر گام بزرگی برای ادغام هوش مصنوعی در شبکههای طبقهبندیشده و عملیات نظامی برداشته است؛ گامی که به گفته مقامهای پنتاگون، قرار است ساختار تصمیمگیری، تحلیل داده و برنامهریزی مأموریت را متحول کند. اما این تحول فقط یک پروژه فناورانه نیست؛ بلکه نشانهای از بازآرایی عمیق «اتاق جنگ» آمریکا با محوریت شرکتهای بزرگ فناوری است.
بر اساس گزارشهای منتشرشده، پنتاگون بهطور همزمان با چند غول فناوری از جمله Nvidia، Microsoft، Amazon Web Services (AWS)، Google، OpenAI، SpaceX و Reflection AI وارد همکاری شده تا ابزارهای هوش مصنوعی این شرکتها را به شبکههای حساس و طبقهبندیشده نظامی بیاورد. این همکاریها بخشی از راهبرد گستردهتر برای تبدیل ارتش آمریکا به یک نیروی رزمی مبتنی بر هوش مصنوعی است.
از جنگ سنتی تا جنگ الگوریتمی
هدف پنتاگون فقط استفاده از چند ابزار نرمافزاری نیست، بلکه مقامات دفاعی آمریکا تلاش میکنند هوش مصنوعی را به لایههای اصلی فرماندهی، تحلیل تهدید، شناسایی اهداف، پردازش اطلاعات و پشتیبانی عملیاتی وارد کنند تا این فناوری در مرکز ثقل تصمیمسازی نظامی قرار بگیرد.
در چنین چارچوبی، هوش مصنوعی دیگر یک کمکابزار جانبی برای افسران و تحلیلگران نیست، بلکه به صورت مستقیم در زنجیره تصمیمگیری و طراحی عملیات نقشآفرینی میکند و خروجیهای آن میتواند بر برنامهریزی مأموریتها، تخصیص منابع و حتی انتخاب اهداف در میدان نبرد تأثیر بگذارد.
به گزارش رویترز، وزارت دفاع آمریکا آشکارا اعلام کرده که میخواهد ارتش این کشور به یک «نیروی رزمیِ هوشمصنوعیمحور» (AI-first fighting force) تبدیل شود. این عبارت نشان میدهد که در نگاه پنتاگون، هوش مصنوعی باید در مرکز طراحی عملیات، طرحریزی جنگ و فرایندهای کلان فرماندهی قرار گیرد، نه در حاشیه آن و صرفاً در قالب ابزارهای کمکی یا آزمایشی. به بیان دیگر، ارتش آمریکا خود را وارد مرحلهای میکند که در آن الگوریتمها، مدلهای یادگیری ماشینی و سامانههای تحلیل خودکار، به بخشی از هسته سخت قدرت نظامی تبدیل میشوند و نه یک لایه فرعی در حاشیه ساختار سنتی فرماندهی.
چرا پنتاگون سراغ چندین فروشنده رفت؟
یکی از مهمترین نکات این پروژه، تکیه پنتاگون بر چند شرکت مختلف بهجای یک فروشنده واحد است. این رویکرد برای جلوگیری از چیزی است که در صنعت فناوری به آن Vendor Lock-in یا «قفل شدن به یک تأمینکننده» گفته میشود؛ وضعیتی که در آن همه زیرساختها و سامانههای حیاتی به یک شرکت وابسته میشوند و هرگونه تغییر، مهاجرت یا بازطراحی، با هزینههای فنی و سیاسی سنگین همراه است.
این امر نشان میدهد پنتاگون نگران است که اگر همه زیرساختهای هوش مصنوعی نظامیاش به یک شرکت وابسته شود، در آینده از نظر فنی، امنیتی و حتی سیاسی آسیبپذیر شود و دست آن در برابر تصمیمها، محدودیتها یا حتی بحرانهای آن شرکت بسته بماند.
به همین دلیل، مسئولان دفاعی آمریکا تلاش کردهاند یک اکوسیستم چندلایه و متنوع از شرکتهای فناوری بسازند تا هر بخش از زنجیره، وابسته به یک بازیگر واحد نباشد و بتوان در صورت نیاز، قطعات این زنجیره را جابهجا یا جایگزین کرد. در این میان، Nvidia نقشی کلیدی در تأمین توان محاسباتی و تراشههای پیشرفته ایفا میکند و عملاً قلب سختافزاری پردازش مدلهای بزرگ هوش مصنوعی را در اختیار دارد.
در مقابل، Microsoft و AWS وظیفه تأمین زیرساخت ابری، خدمات طبقهبندیشده و بسترهای امن ذخیرهسازی و پردازش داده را بر عهده گرفتهاند و محیطهایی را فراهم میکنند که بتوان روی آنها سامانههای حساس نظامی را اجرا کرد.
Google در این معماری، بیشتر بر حوزه مدلهای هوش مصنوعی و قابلیتهای تحلیلی متمرکز است و ابزارهایی را ارائه میدهد که به تحلیل دادههای پیچیده، شناسایی الگوها و حمایت از تصمیمسازی کمک میکنند. OpenAI نیز بخشی از توان مدلهای زبانی و تحلیلی را فراهم میکند و با مدلهایی از جنس ChatGPT و همخانوادههای آن، امکان پردازش متن، خلاصهسازی، تولید گزارش و تفسیر دادهها را برای کاربران نظامی فراهم میآورد.
در کنار این بازیگران، SpaceX با زیرساختهای ارتباطی و فضایی خود و Reflection AI با فناوریهای مکمل، لایههای دیگر این معماری را تکمیل میکنند. این چینش نشان میدهد که پنتاگون فقط به دنبال خرید یک محصول واحد از یک شرکت خاص نیست؛ بلکه در حال ساختن یک زنجیره صنعتی-عملیاتی گسترده و قابل انعطاف برای جنگ مدرن است که در آن هر شرکت، بخشی از پازل جنگ الگوریتمی را تکمیل میکند.

شکست در توافق با Anthropic و بحث «ریسک زنجیره تأمین»
یکی از جنجالیترین بخشهای این ماجرا، اختلاف پنتاگون با Anthropic است. این شرکت که یکی از بازیگران مهم حوزه مدلهای هوش مصنوعی محسوب میشود، در ابتدا در فهرست گزینههای جدی همکاری با وزارت دفاع آمریکا قرار داشت و انتظار میرفت بخشی از توان مدلهای زبانی و تحلیلی در ساختار نظامی را تأمین کند. اما اختلاف بر سر ایمنی، محدودیتهای استفاده نظامی و نگرانیهای مربوط به زنجیره تأمین باعث شد مسیر همکاری به بحران کشیده شود و پروژه مشترک عملاً متوقف یا بهشدت کند شود.
طبق گزارش DW و The Hill، پنتاگون در روند مذاکرات با Anthropic فشار زیادی وارد کرده و تلاش کرده است تا این شرکت را متقاعد کند مدلهای خود را برای استفاده در شبکههای نظامی و حتی در برخی موارد، در بسترهای طبقهبندیشده در اختیار وزارت دفاع قرار دهد.
در مقابل، Anthropic بر ضرورت رعایت استانداردهای ایمنی، محدودیتهای اخلاقی و کنترل استفاده از مدلها در زمینههای حساس نظامی تأکید کرده است. شدت این اختلافها به جایی رسید که در برخی تحلیلها، Anthropic از سوی برخی مقامات یا گزارشهای داخلی بهعنوان «ریسک زنجیره تأمین» توصیف شد؛ عبارتی که نشان میدهد دولت آمریکا از منظر امنیتی، تنها به قابلیت فنی مدلها نگاه نمیکند، بلکه درباره منبع توسعه، مالکیت، کنترل دسترسی، شفافیت داخلی و سیاستهای استفاده از این مدلها نیز حساس است و هر شرکتی را که نتواند یا نخواهد در این چارچوب قرار بگیرد، بهعنوان یک ریسک بالقوه برای زنجیره تأمین هوش مصنوعی در حوزه دفاعی تلقی میکند.
پلتفرمی که کار چندماهه را به چند روز رسانده است
یکی از مهمترین بخشهای این تحول، پلتفرم GenAI.mil است؛ سامانهای که به گفته گزارشها، اکنون بیش از ۳ میلیون کاربر نظامی دارد یا در آستانه رسیدن به چنین مقیاسی قرار گرفته است و به نوعی به درگاه اصلی دسترسی نیروهای نظامی به ابزارهای هوش مصنوعی تبدیل شده است.
این پلتفرم با طراحی ویژه برای محیطهای دفاعی، امکان استفاده نسبتاً کنترلشده از مدلهای زبانی، ابزارهای تولید متن، تحلیل داده و سایر قابلیتهای هوش مصنوعی را در اختیار واحدهای مختلف ارتش و نهادهای وابسته قرار میدهد.
طبق گزارش بریکینگ دیفنس، چتجیپیتی نیز از طریق این بستر برای کاربران نظامی در دسترس قرار گرفته و همین موضوع باعث شده برخی فرآیندهای اداری، تحلیلی و عملیاتی که پیشتر بهصورت دستی و زمانبر انجام میشد، اکنون در بازههای زمانی بسیار کوتاهتر تکمیل شود.
در متنهای منتشرشده آمده است که پروژههایی که قبلاً ماهها طول میکشیدند – از نگارش گزارشهای طولانی گرفته تا تحلیل اولیه انبوهی از دادههای متنی – حالا میتوانند در چند روز انجام شوند و خروجیهایی قابل استفاده برای فرماندهان و مدیران ستادی تولید کنند.
این تغییر، فقط یک بهبود ساده در بهرهوری اداری نیست؛ بلکه نشان میدهد هوش مصنوعی میتواند سرعت تصمیمسازی نظامی را بهطور بنیادین تغییر دهد و چرخه «جمعآوری داده – تحلیل – تصمیم – اقدام» را به شکل بیسابقهای کوتاه کند. در ارتشی که زمان واکنش، سرعت تحلیل اطلاعات و شتاب در فرماندهی میتواند تفاوت میان شکست و پیروزی در میدان نبرد را رقم بزند، چنین شتابی میتواند مزیت راهبردی بزرگی ایجاد کند و موازنه توان را به نفع نیرویی تغییر دهد که زودتر و دقیقتر تصمیم میگیرد.
نقش شرکتها در لایههای مختلف «اتاق جنگ»
بر اساس گزارشهای موجود، شرکتهای فناوری در سطوح مختلف این پروژه نقش دارند و هرکدام بخشی از معماری دیجیتال نظامی را پوشش میدهند و در یک تقسیم کار نسبتاً روشن، لایهای از «اتاق جنگ» جدید آمریکا را میسازند. در لایه زیرساخت، مایکروسافت و AWS ستونهای اصلی زیرساخت ابری و پردازش امن را شکل میدهند و این دو شرکت، محیطهایی را فراهم میکنند که در آن دادههای طبقهبندیشده و حساس نظامی میتواند ذخیره، پردازش و توزیع شود، بدون اینکه اصول امنیتی و الزامات حفاظتی زیر پا گذاشته شود.
در لایه محاسباتی، انویدیا با پردازندههای گرافیکی و توان پردازشی خود، موتور اصلی اجرای مدلهای بزرگ هوش مصنوعی را فراهم میکند و عملاً بدون این قدرت محاسباتی، اجرای مدلهای پیچیده و حجیم در مقیاس دفاعی – با دادههای عظیم و نیاز به پاسخگویی سریع – امکانپذیر نخواهد بود. لایه بعدی، لایه مدل و تصمیمسازی است که در آن گوگل و OpenAI نقش برجستهتری دارند؛ زیرا ابزارهای مبتنی بر مدلهای زبانی و تحلیلی این شرکتها میتوانند در برنامهریزی مأموریت، تحلیل تهدیدها، اولویتبندی اهداف و خلاصهسازی انبوهی از اطلاعات خام وارد عمل شوند و به فرماندهان کمک کنند تا درک سریعتری از میدان نبرد و محیط سیاسی-امنیتی داشته باشند.
در نهایت، در لایه کاربرد عملیاتی، هوش مصنوعی مستقیماً وارد کار روزمره نیروهای نظامی میشود و از تولید گزارش و تحلیل گرفته تا طراحی سناریو، شبیهسازی وضعیتهای مختلف و حتی پیشنهاد گزینههای عملیاتی در کنار افسران و تحلیلگران انسانی قرار میگیرد. این تقسیمبندی نشان میدهد که آمریکا فقط به دنبال خرید فناوریهای پراکنده و آزمایشی نیست، بلکه در حال نهادینهکردن هوش مصنوعی در بدنۀ نظامی خود و تبدیل آن به جزئی جداییناپذیر از سازوکار فرماندهی و عملیات است.

جنگ، اخلاق و مرزهای استفاده نظامی از هوش مصنوعی
گرچه پنتاگون از این همکاریها بهعنوان جهشی در آمادگی دفاعی یاد میکند، اما این روند پرسشهای سنگینی هم ایجاد کرده است. مهمترین پرسش این است که آیا واگذاری بخشهایی از تصمیمسازی نظامی به هوش مصنوعی، خطر خطا، سوءاستفاده یا کاهش نظارت انسانی را افزایش نمیدهد و آیا ساختار جدید، قابلیت پاسخگویی شفاف در برابر پیامدهای تصمیمهای نظامی را تضعیف نخواهد کرد؟ منتقدان میگویند هرچه هوش مصنوعی بیشتر وارد میدان جنگ شود، خطرهای زیر هم بیشتر میشود و باید بهطور جدی مورد توجه قرار گیرد.
به باور این منتقدان، تصمیمگیری سریع، اما غیرشفاف – که در آن الگوریتمها نتیجه نهایی را تولید میکنند، ولی سازوکار داخلی آنها برای ناظران و حتی برای تصمیمگیران انسانی روشن نیست – میتواند مسئولیتپذیری را کاهش دهد. وابستگی شدید به شرکتهای خصوصی نیز، که مالک و توسعهدهنده این سامانهها هستند، میتواند توازن قدرت میان دولت و بخش خصوصی را به زیان حاکمیت عمومی تغییر دهد.
در عین حال دشواری در پاسخگویی حقوقی، بهویژه زمانی که خطای یک مدل هوش مصنوعی منجر به تلفات انسانی یا تشدید یک درگیری شود، از دیگر نگرانیهاست. علاوه بر این، احتمال استفاده از دادههای حساس در سناریوهای نامطمئن و ترکیب آن با دادههای دیگر، میتواند ریسکهای تازهای برای حریم خصوصی و امنیت اطلاعات ایجاد کند. افزایش احتمال اتکای بیش از حد به خروجی مدلها و کمرنگ شدن نقش قضاوت انسانی نیز خطری است که بارها از سوی متخصصان اخلاق هوش مصنوعی گوشزد شده است.
اختلاف با Anthropic دقیقاً در همین نقطه اهمیت پیدا میکند: مرز میان کاربرد دفاعی که از منظر پنتاگون ضروری و اجتنابناپذیر جلوه داده میشود و ریسک اخلاقی که از منظر فعالان حوزه ایمنی و حقوق بشر، ممکن است خطرناک و غیرقابل کنترل باشد.
چرا این تحول فقط به پنتاگون محدود نمیشود؟
این پروژه فقط یک ماجرای درونسازمانی و صرفاً نظامی نیست. وقتی وزارت دفاع آمریکا چنین تقاضای بزرگی برای پردازنده گرافیکی، زیرساخت ابری، مدلهای زبانی و ابزارهای تحلیلی ایجاد میکند، کل بازار فناوری، از تولیدکنندگان تراشه تا ارائهدهندگان خدمات ابری و توسعهدهندگان نرمافزار، تحتتأثیر قرار میگیرند و اولویتهای سرمایهگذاری و تحقیق و توسعه در سطح جهانی جابهجا میشود.
بر این اساس، افزایش تقاضای پنتاگون میتواند فشار بر زنجیره تأمین تراشهها را بیشتر کند و رقابت بر سر دسترسی به سختافزارهای پیشرفته را شدت ببخشد؛ میتواند شرکتهای ابری را به رقابت شدیدتر برای کسب قراردادهای نظامی و امنیتی بکشاند و باعث شود استانداردهای خاصی برای محصولات «مناسب استفاده دفاعی» تعریف شود.
همزمان، این موج میتواند توسعه مدلهای امنتر، اختصاصیتر و قابلکنترلتر را سرعت دهد، زیرا دولتها و نهادهای نظامی، خواستار ویژگیهایی هستند که در محصولات مصرفی معمولی کمتر مورد توجه قرار میگیرد. از سوی دیگر، شکاف میان فناوری مصرفی و فناوری امنیتی را عمیقتر میکند و لایهای از فناوریهای طبقهبندیشده و اختصاصی را شکل میدهد که دسترسی به آنها محدود است و اثر آنها بهطور غیرمستقیم بر بازار و جامعه سایه میافکند.
به بیان دیگر، جنگ الگوریتمی فقط در میدان نبرد اتفاق نمیافتد؛ بلکه در بازار، زنجیره تأمین و حتی در معماری توسعه محصولات شرکتهای فناوری هم اثر میگذارد و جهتگیری کلی صنعت را تحت تأثیر قرار میدهد.
با توجه به موارد ذکر شده، همکاری پنتاگون با غولهای فناوری، نشانه آغاز مرحلهای تازه در تاریخ جنگ و امنیت است؛ مرحلهای که در آن هوش مصنوعی از ابزار پشتیبان به عنصر مرکزی قدرت نظامی تبدیل میشود. از قراردادهای چندجانبه با غولهای فناوری گرفته تا اختلاف با Anthropic و توسعه GenAI.mil، همهچیز نشان میدهد که ارتش آمریکا در حال بازطراحی خود بر پایه الگوریتم، داده و محاسبه است.
اما این تحول، فقط وعده سرعت و دقت نیست؛ بلکه همراه با پرسشهای جدی درباره اخلاق، امنیت، شفافیت و وابستگی به بخش خصوصی پیش میرود. اگرچه پنتاگون میخواهد نیرویی «هوشمصنوعیمحور» بسازد، هنوز روشن نیست که در جنگ آینده، کنترل نهایی در دست انسان خواهد ماند یا در لایهای از مدلها، کدها و سامانههای بسته پنهان میشود.