13 ارديبهشت 1405 - 17:57

بازطراحی «اتاق جنگ» آمریکا با تکیه بر هوش مصنوعی

بازطراحی «اتاق جنگ» آمریکا با تکیه بر هوش مصنوعی
تلاش پنتاگون برای ساختن یک ارتش «AI-first» با کمک غول‌های فناوری جهان شکاف‌های اخلاقی، امنیتی و سیاسی تازه‌ای را آشکار کرده است.
کد خبر : ۱۸۲۸۳۱

به گزارش خبرنگار بین‌الملل ایبنا، وزارت دفاع آمریکا در ماه‌های اخیر گام بزرگی برای ادغام هوش مصنوعی در شبکه‌های طبقه‌بندی‌شده و عملیات نظامی برداشته است؛ گامی که به گفته مقام‌های پنتاگون، قرار است ساختار تصمیم‌گیری، تحلیل داده و برنامه‌ریزی مأموریت را متحول کند. اما این تحول فقط یک پروژه فناورانه نیست؛ بلکه نشانه‌ای از بازآرایی عمیق «اتاق جنگ» آمریکا با محوریت شرکت‌های بزرگ فناوری است.

بر اساس گزارش‌های منتشرشده، پنتاگون به‌طور هم‌زمان با چند غول فناوری از جمله Nvidia، Microsoft، Amazon Web Services (AWS)، Google، OpenAI، SpaceX و Reflection AI وارد همکاری شده تا ابزار‌های هوش مصنوعی این شرکت‌ها را به شبکه‌های حساس و طبقه‌بندی‌شده نظامی بیاورد. این همکاری‌ها بخشی از راهبرد گسترده‌تر برای تبدیل ارتش آمریکا به یک نیروی رزمی مبتنی بر هوش مصنوعی است.

از جنگ سنتی تا جنگ الگوریتمی

هدف پنتاگون فقط استفاده از چند ابزار نرم‌افزاری نیست، بلکه مقامات دفاعی آمریکا تلاش می‌کنند هوش مصنوعی را به لایه‌های اصلی فرماندهی، تحلیل تهدید، شناسایی اهداف، پردازش اطلاعات و پشتیبانی عملیاتی وارد کنند تا این فناوری در مرکز ثقل تصمیم‌سازی نظامی قرار بگیرد.

در چنین چارچوبی، هوش مصنوعی دیگر یک کمک‌ابزار جانبی برای افسران و تحلیلگران نیست، بلکه به صورت مستقیم در زنجیره تصمیم‌گیری و طراحی عملیات نقش‌آفرینی می‌کند و خروجی‌های آن می‌تواند بر برنامه‌ریزی مأموریت‌ها، تخصیص منابع و حتی انتخاب اهداف در میدان نبرد تأثیر بگذارد.

به گزارش رویترز، وزارت دفاع آمریکا آشکارا اعلام کرده که می‌خواهد ارتش این کشور به یک «نیروی رزمیِ هوش‌مصنوعی‌محور» (AI-first fighting force) تبدیل شود. این عبارت نشان می‌دهد که در نگاه پنتاگون، هوش مصنوعی باید در مرکز طراحی عملیات، طرح‌ریزی جنگ و فرایند‌های کلان فرماندهی قرار گیرد، نه در حاشیه آن و صرفاً در قالب ابزار‌های کمکی یا آزمایشی. به بیان دیگر، ارتش آمریکا خود را وارد مرحله‌ای می‌کند که در آن الگوریتم‌ها، مدل‌های یادگیری ماشینی و سامانه‌های تحلیل خودکار، به بخشی از هسته سخت قدرت نظامی تبدیل می‌شوند و نه یک لایه فرعی در حاشیه ساختار سنتی فرماندهی.

چرا پنتاگون سراغ چندین فروشنده رفت؟

یکی از مهم‌ترین نکات این پروژه، تکیه پنتاگون بر چند شرکت مختلف به‌جای یک فروشنده واحد است. این رویکرد برای جلوگیری از چیزی است که در صنعت فناوری به آن Vendor Lock-in یا «قفل شدن به یک تأمین‌کننده» گفته می‌شود؛ وضعیتی که در آن همه زیرساخت‌ها و سامانه‌های حیاتی به یک شرکت وابسته می‌شوند و هرگونه تغییر، مهاجرت یا بازطراحی، با هزینه‌های فنی و سیاسی سنگین همراه است.

این امر نشان می‌دهد پنتاگون نگران است که اگر همه زیرساخت‌های هوش مصنوعی نظامی‌اش به یک شرکت وابسته شود، در آینده از نظر فنی، امنیتی و حتی سیاسی آسیب‌پذیر شود و دست آن در برابر تصمیم‌ها، محدودیت‌ها یا حتی بحران‌های آن شرکت بسته بماند.

به همین دلیل، مسئولان دفاعی آمریکا تلاش کرده‌اند یک اکوسیستم چندلایه و متنوع از شرکت‌های فناوری بسازند تا هر بخش از زنجیره، وابسته به یک بازیگر واحد نباشد و بتوان در صورت نیاز، قطعات این زنجیره را جابه‌جا یا جایگزین کرد. در این میان، Nvidia نقشی کلیدی در تأمین توان محاسباتی و تراشه‌های پیشرفته ایفا می‌کند و عملاً قلب سخت‌افزاری پردازش مدل‌های بزرگ هوش مصنوعی را در اختیار دارد.

در مقابل، Microsoft و AWS وظیفه تأمین زیرساخت ابری، خدمات طبقه‌بندی‌شده و بستر‌های امن ذخیره‌سازی و پردازش داده را بر عهده گرفته‌اند و محیط‌هایی را فراهم می‌کنند که بتوان روی آنها سامانه‌های حساس نظامی را اجرا کرد.

Google در این معماری، بیشتر بر حوزه مدل‌های هوش مصنوعی و قابلیت‌های تحلیلی متمرکز است و ابزار‌هایی را ارائه می‌دهد که به تحلیل داده‌های پیچیده، شناسایی الگو‌ها و حمایت از تصمیم‌سازی کمک می‌کنند. OpenAI نیز بخشی از توان مدل‌های زبانی و تحلیلی را فراهم می‌کند و با مدل‌هایی از جنس ChatGPT و هم‌خانواده‌های آن، امکان پردازش متن، خلاصه‌سازی، تولید گزارش و تفسیر داده‌ها را برای کاربران نظامی فراهم می‌آورد.

در کنار این بازیگران، SpaceX با زیرساخت‌های ارتباطی و فضایی خود و Reflection AI با فناوری‌های مکمل، لایه‌های دیگر این معماری را تکمیل می‌کنند. این چینش نشان می‌دهد که پنتاگون فقط به دنبال خرید یک محصول واحد از یک شرکت خاص نیست؛ بلکه در حال ساختن یک زنجیره صنعتی-عملیاتی گسترده و قابل انعطاف برای جنگ مدرن است که در آن هر شرکت، بخشی از پازل جنگ الگوریتمی را تکمیل می‌کند.

چالش‌های بازطراحی «اتاق جنگ» آمریکا با تکیه بر غول‌های فناوری

شکست در توافق با Anthropic و بحث «ریسک زنجیره تأمین»

یکی از جنجالی‌ترین بخش‌های این ماجرا، اختلاف پنتاگون با Anthropic است. این شرکت که یکی از بازیگران مهم حوزه مدل‌های هوش مصنوعی محسوب می‌شود، در ابتدا در فهرست گزینه‌های جدی همکاری با وزارت دفاع آمریکا قرار داشت و انتظار می‌رفت بخشی از توان مدل‌های زبانی و تحلیلی در ساختار نظامی را تأمین کند. اما اختلاف بر سر ایمنی، محدودیت‌های استفاده نظامی و نگرانی‌های مربوط به زنجیره تأمین باعث شد مسیر همکاری به بحران کشیده شود و پروژه مشترک عملاً متوقف یا به‌شدت کند شود.

طبق گزارش DW و The Hill، پنتاگون در روند مذاکرات با Anthropic فشار زیادی وارد کرده و تلاش کرده است تا این شرکت را متقاعد کند مدل‌های خود را برای استفاده در شبکه‌های نظامی و حتی در برخی موارد، در بستر‌های طبقه‌بندی‌شده در اختیار وزارت دفاع قرار دهد.

در مقابل، Anthropic بر ضرورت رعایت استاندارد‌های ایمنی، محدودیت‌های اخلاقی و کنترل استفاده از مدل‌ها در زمینه‌های حساس نظامی تأکید کرده است. شدت این اختلاف‌ها به جایی رسید که در برخی تحلیل‌ها، Anthropic از سوی برخی مقامات یا گزارش‌های داخلی به‌عنوان «ریسک زنجیره تأمین» توصیف شد؛ عبارتی که نشان می‌دهد دولت آمریکا از منظر امنیتی، تنها به قابلیت فنی مدل‌ها نگاه نمی‌کند، بلکه درباره منبع توسعه، مالکیت، کنترل دسترسی، شفافیت داخلی و سیاست‌های استفاده از این مدل‌ها نیز حساس است و هر شرکتی را که نتواند یا نخواهد در این چارچوب قرار بگیرد، به‌عنوان یک ریسک بالقوه برای زنجیره تأمین هوش مصنوعی در حوزه دفاعی تلقی می‌کند.

پلتفرمی که کار چندماهه را به چند روز رسانده است

یکی از مهم‌ترین بخش‌های این تحول، پلتفرم GenAI.mil است؛ سامانه‌ای که به گفته گزارش‌ها، اکنون بیش از ۳ میلیون کاربر نظامی دارد یا در آستانه رسیدن به چنین مقیاسی قرار گرفته است و به نوعی به درگاه اصلی دسترسی نیرو‌های نظامی به ابزار‌های هوش مصنوعی تبدیل شده است.

این پلتفرم با طراحی ویژه برای محیط‌های دفاعی، امکان استفاده نسبتاً کنترل‌شده از مدل‌های زبانی، ابزار‌های تولید متن، تحلیل داده و سایر قابلیت‌های هوش مصنوعی را در اختیار واحد‌های مختلف ارتش و نهاد‌های وابسته قرار می‌دهد.

طبق گزارش بریکینگ دیفنس، چت‌جی‌پی‌تی نیز از طریق این بستر برای کاربران نظامی در دسترس قرار گرفته و همین موضوع باعث شده برخی فرآیند‌های اداری، تحلیلی و عملیاتی که پیش‌تر به‌صورت دستی و زمان‌بر انجام می‌شد، اکنون در بازه‌های زمانی بسیار کوتاه‌تر تکمیل شود.

در متن‌های منتشرشده آمده است که پروژه‌هایی که قبلاً ماه‌ها طول می‌کشیدند – از نگارش گزارش‌های طولانی گرفته تا تحلیل اولیه انبوهی از داده‌های متنی – حالا می‌توانند در چند روز انجام شوند و خروجی‌هایی قابل استفاده برای فرماندهان و مدیران ستادی تولید کنند.

این تغییر، فقط یک بهبود ساده در بهره‌وری اداری نیست؛ بلکه نشان می‌دهد هوش مصنوعی می‌تواند سرعت تصمیم‌سازی نظامی را به‌طور بنیادین تغییر دهد و چرخه «جمع‌آوری داده – تحلیل – تصمیم – اقدام» را به شکل بی‌سابقه‌ای کوتاه کند. در ارتشی که زمان واکنش، سرعت تحلیل اطلاعات و شتاب در فرماندهی می‌تواند تفاوت میان شکست و پیروزی در میدان نبرد را رقم بزند، چنین شتابی می‌تواند مزیت راهبردی بزرگی ایجاد کند و موازنه توان را به نفع نیرویی تغییر دهد که زودتر و دقیق‌تر تصمیم می‌گیرد.

نقش شرکت‌ها در لایه‌های مختلف «اتاق جنگ»

بر اساس گزارش‌های موجود، شرکت‌های فناوری در سطوح مختلف این پروژه نقش دارند و هرکدام بخشی از معماری دیجیتال نظامی را پوشش می‌دهند و در یک تقسیم کار نسبتاً روشن، لایه‌ای از «اتاق جنگ» جدید آمریکا را می‌سازند. در لایه زیرساخت، مایکروسافت و AWS ستون‌های اصلی زیرساخت ابری و پردازش امن را شکل می‌دهند و این دو شرکت، محیط‌هایی را فراهم می‌کنند که در آن داده‌های طبقه‌بندی‌شده و حساس نظامی می‌تواند ذخیره، پردازش و توزیع شود، بدون اینکه اصول امنیتی و الزامات حفاظتی زیر پا گذاشته شود.

در لایه محاسباتی، انویدیا با پردازنده‌های گرافیکی و توان پردازشی خود، موتور اصلی اجرای مدل‌های بزرگ هوش مصنوعی را فراهم می‌کند و عملاً بدون این قدرت محاسباتی، اجرای مدل‌های پیچیده و حجیم در مقیاس دفاعی – با داده‌های عظیم و نیاز به پاسخ‌گویی سریع – امکان‌پذیر نخواهد بود. لایه بعدی، لایه مدل و تصمیم‌سازی است که در آن گوگل و OpenAI نقش برجسته‌تری دارند؛ زیرا ابزار‌های مبتنی بر مدل‌های زبانی و تحلیلی این شرکت‌ها می‌توانند در برنامه‌ریزی مأموریت، تحلیل تهدیدها، اولویت‌بندی اهداف و خلاصه‌سازی انبوهی از اطلاعات خام وارد عمل شوند و به فرماندهان کمک کنند تا درک سریع‌تری از میدان نبرد و محیط سیاسی-امنیتی داشته باشند.

در نهایت، در لایه کاربرد عملیاتی، هوش مصنوعی مستقیماً وارد کار روزمره نیرو‌های نظامی می‌شود و از تولید گزارش و تحلیل گرفته تا طراحی سناریو، شبیه‌سازی وضعیت‌های مختلف و حتی پیشنهاد گزینه‌های عملیاتی در کنار افسران و تحلیل‌گران انسانی قرار می‌گیرد. این تقسیم‌بندی نشان می‌دهد که آمریکا فقط به دنبال خرید فناوری‌های پراکنده و آزمایشی نیست، بلکه در حال نهادینه‌کردن هوش مصنوعی در بدنۀ نظامی خود و تبدیل آن به جزئی جدایی‌ناپذیر از سازوکار فرماندهی و عملیات است.

چالش‌های بازطراحی «اتاق جنگ» آمریکا با تکیه بر غول‌های فناوری

جنگ، اخلاق و مرز‌های استفاده نظامی از هوش مصنوعی

گرچه پنتاگون از این همکاری‌ها به‌عنوان جهشی در آمادگی دفاعی یاد می‌کند، اما این روند پرسش‌های سنگینی هم ایجاد کرده است. مهم‌ترین پرسش این است که آیا واگذاری بخش‌هایی از تصمیم‌سازی نظامی به هوش مصنوعی، خطر خطا، سوءاستفاده یا کاهش نظارت انسانی را افزایش نمی‌دهد و آیا ساختار جدید، قابلیت پاسخ‌گویی شفاف در برابر پیامد‌های تصمیم‌های نظامی را تضعیف نخواهد کرد؟ منتقدان می‌گویند هرچه هوش مصنوعی بیشتر وارد میدان جنگ شود، خطر‌های زیر هم بیشتر می‌شود و باید به‌طور جدی مورد توجه قرار گیرد.

به باور این منتقدان، تصمیم‌گیری سریع، اما غیرشفاف – که در آن الگوریتم‌ها نتیجه نهایی را تولید می‌کنند، ولی سازوکار داخلی آنها برای ناظران و حتی برای تصمیم‌گیران انسانی روشن نیست – می‌تواند مسئولیت‌پذیری را کاهش دهد. وابستگی شدید به شرکت‌های خصوصی نیز، که مالک و توسعه‌دهنده این سامانه‌ها هستند، می‌تواند توازن قدرت میان دولت و بخش خصوصی را به زیان حاکمیت عمومی تغییر دهد.

در عین حال دشواری در پاسخ‌گویی حقوقی، به‌ویژه زمانی که خطای یک مدل هوش مصنوعی منجر به تلفات انسانی یا تشدید یک درگیری شود، از دیگر نگرانی‌هاست. علاوه بر این، احتمال استفاده از داده‌های حساس در سناریو‌های نامطمئن و ترکیب آن با داده‌های دیگر، می‌تواند ریسک‌های تازه‌ای برای حریم خصوصی و امنیت اطلاعات ایجاد کند. افزایش احتمال اتکای بیش از حد به خروجی مدل‌ها و کم‌رنگ شدن نقش قضاوت انسانی نیز خطری است که بار‌ها از سوی متخصصان اخلاق هوش مصنوعی گوشزد شده است.

اختلاف با Anthropic دقیقاً در همین نقطه اهمیت پیدا می‌کند: مرز میان کاربرد دفاعی که از منظر پنتاگون ضروری و اجتناب‌ناپذیر جلوه داده می‌شود و ریسک اخلاقی که از منظر فعالان حوزه ایمنی و حقوق بشر، ممکن است خطرناک و غیرقابل کنترل باشد.

چرا این تحول فقط به پنتاگون محدود نمی‌شود؟

این پروژه فقط یک ماجرای درون‌سازمانی و صرفاً نظامی نیست. وقتی وزارت دفاع آمریکا چنین تقاضای بزرگی برای پردازنده گرافیکی، زیرساخت ابری، مدل‌های زبانی و ابزار‌های تحلیلی ایجاد می‌کند، کل بازار فناوری، از تولیدکنندگان تراشه تا ارائه‌دهندگان خدمات ابری و توسعه‌دهندگان نرم‌افزار، تحت‌تأثیر قرار می‌گیرند و اولویت‌های سرمایه‌گذاری و تحقیق و توسعه در سطح جهانی جابه‌جا می‌شود.

بر این اساس، افزایش تقاضای پنتاگون می‌تواند فشار بر زنجیره تأمین تراشه‌ها را بیشتر کند و رقابت بر سر دسترسی به سخت‌افزار‌های پیشرفته را شدت ببخشد؛ می‌تواند شرکت‌های ابری را به رقابت شدیدتر برای کسب قرارداد‌های نظامی و امنیتی بکشاند و باعث شود استاندارد‌های خاصی برای محصولات «مناسب استفاده دفاعی» تعریف شود.

هم‌زمان، این موج می‌تواند توسعه مدل‌های امن‌تر، اختصاصی‌تر و قابل‌کنترل‌تر را سرعت دهد، زیرا دولت‌ها و نهاد‌های نظامی، خواستار ویژگی‌هایی هستند که در محصولات مصرفی معمولی کمتر مورد توجه قرار می‌گیرد. از سوی دیگر، شکاف میان فناوری مصرفی و فناوری امنیتی را عمیق‌تر می‌کند و لایه‌ای از فناوری‌های طبقه‌بندی‌شده و اختصاصی را شکل می‌دهد که دسترسی به آنها محدود است و اثر آنها به‌طور غیرمستقیم بر بازار و جامعه سایه می‌افکند.

به بیان دیگر، جنگ الگوریتمی فقط در میدان نبرد اتفاق نمی‌افتد؛ بلکه در بازار، زنجیره تأمین و حتی در معماری توسعه محصولات شرکت‌های فناوری هم اثر می‌گذارد و جهت‌گیری کلی صنعت را تحت تأثیر قرار می‌دهد.

با توجه به موارد ذکر شده، همکاری پنتاگون با غول‌های فناوری، نشانه آغاز مرحله‌ای تازه در تاریخ جنگ و امنیت است؛ مرحله‌ای که در آن هوش مصنوعی از ابزار پشتیبان به عنصر مرکزی قدرت نظامی تبدیل می‌شود. از قرارداد‌های چندجانبه با غول‌های فناوری گرفته تا اختلاف با Anthropic و توسعه GenAI.mil، همه‌چیز نشان می‌دهد که ارتش آمریکا در حال بازطراحی خود بر پایه الگوریتم، داده و محاسبه است.

اما این تحول، فقط وعده سرعت و دقت نیست؛ بلکه همراه با پرسش‌های جدی درباره اخلاق، امنیت، شفافیت و وابستگی به بخش خصوصی پیش می‌رود. اگرچه پنتاگون می‌خواهد نیرویی «هوش‌مصنوعی‌محور» بسازد، هنوز روشن نیست که در جنگ آینده، کنترل نهایی در دست انسان خواهد ماند یا در لایه‌ای از مدل‌ها، کد‌ها و سامانه‌های بسته پنهان می‌شود.

ارسال‌ نظر