dangeros of ai in military sphere

آخرالزمان واقعی: خطر سپردن مسائل نظامی به هوش مصنوعی

هر فناوری پیشرفته‌ای، با جادو تفاوت چندانی ندارد. آرتور سی کلارک

با توسعه سریع هوش مصنوعی، این فناوری به‌سرعت به یکی از مهم‌ترین ابزارهای ژئوپلیتیک تبدیل شده است. کشورهایی مانند ایالات متحده آمریکا به دنبال تسلط بر این حوزه هستند، نه تنها برای پیشبرد نوآوری‌های صنعتی، بلکه برای استفاده از آن به‌عنوان یک سلاح استراتژیک. نشست اخیر هوش مصنوعی در پاریس و سخنان جی دی ونس، معاون رئیس‌جمهور آمریکا، گواهی بر این واقعیت است که آمریکا به‌طور علنی در حال استفاده از هوش مصنوعی به‌عنوان اهرمی برای کنترل ژئوپلیتیک است. اما یکی از خطرناک‌ترین ابعاد این مسئله، ورود هوش مصنوعی به حوزه نظامی و امنیتی است.

۱.  تصمیم‌گیری مستقل هوش مصنوعی در جنگ: یک فاجعه بالقوه

وقتی صحبت از استفاده نظامی از هوش مصنوعی می‌شود، یک مسئله مهم مطرح است: آیا این فناوری می‌تواند به‌طور مستقل در مورد حملات، هدف‌گیری‌ها و حتی کشتن افراد تصمیم بگیرد؟ اگر این اتفاق بیفتد، ما با چالشی بی‌سابقه در تاریخ بشر روبه‌رو خواهیم شد. سیستم‌های هوش مصنوعی، برخلاف انسان‌ها، فاقد حس اخلاقی، همدلی و توانایی سنجش عواقب بلندمدت تصمیمات خود هستند. حتی اگر این سیستم‌ها تحت قوانین و پروتکل‌های بین‌المللی برنامه‌ریزی شوند، باز هم امکان بروز خطاها، سوءتفاهم‌های الگوریتمی و تصمیم‌گیری‌های فاجعه‌بار وجود دارد.

۲.  خطر رقابت تسلیحاتی مبتنی بر هوش مصنوعی

کشورهایی که بر هوش مصنوعی تسلط دارند، به‌دنبال استفاده نظامی از آن برای برتری ژئوپلیتیک هستند. این امر می‌تواند منجر به آغاز یک رقابت تسلیحاتی جدید شود که بر پایه سیستم‌های خودمختار و هوش مصنوعی بنا شده است. در گذشته، رقابت تسلیحاتی هسته‌ای جهان را تا آستانه نابودی کشاند، اما حداقل تصمیم نهایی برای استفاده از تسلیحات هسته‌ای همیشه در اختیار انسان‌ها بود. در دنیای هوش مصنوعی، ممکن است این تصمیم‌گیری به ماشین‌ها سپرده شود، که احتمال وقوع جنگ‌های ناخواسته و کنترل‌نشده را افزایش می‌دهد.

فراموش نکنیم که هوش مصنوعی دیگر ابزار نیست، یک ایجنت (عامل) است که خود می‌توانند بدون نیاز به یک کنترل‌گر انسانی تصمیم بگیرد.

۳.  دستکاری در سیستم‌های هوش مصنوعی نظامی

یکی از بزرگ‌ترین تهدیدهای استفاده از هوش مصنوعی در حوزه نظامی، امکان هک شدن یا دستکاری سیستم‌های آن توسط دشمنان است. هرچند آمریکا و متحدانش تلاش دارند که کنترل کامل بر این فناوری داشته باشند، اما تاریخ نشان داده که هیچ سیستمی ۱۰۰٪ غیرقابل نفوذ نیست. اگر یک سیستم تسلیحاتی مبتنی بر هوش مصنوعی هک شود یا اطلاعات غلط به آن داده شود، می‌تواند تصمیمات فاجعه‌باری بگیرد که جان میلیون‌ها نفر را به خطر بیندازد. خطر زیستی با به انحراف رفتن هوش مصنوعی و به دنبال آن انقراض انسان بسیار بالاست.

۴.  نبود شفافیت و پاسخگویی

هنوز چارچوب قضایی مناسب و جهان شمولی برای خطاهای هوش مصنوعی ایجاد نشده است. زمانی که ارتش‌ها از هوش مصنوعی برای تصمیم‌گیری‌های نظامی استفاده کنند، موضوع پاسخگویی به یک چالش جدی تبدیل خواهد شد. اگر یک سیستم هوش مصنوعی مرتکب جنایت جنگی شود، چه کسی باید پاسخگو باشد؟ طراحان این سیستم؟ ارتش استفاده‌کننده؟ یا شرکت‌هایی که این فناوری را توسعه داده‌اند؟ نبود یک چارچوب شفاف برای پاسخگویی در برابر اقدامات هوش مصنوعی می‌تواند به فجایع حقوق بشری و بی‌عدالتی‌های گسترده منجر شود.

۵.  از بین رفتن تعادل ژئوپلیتیک

یکی از جنبه‌های نگران‌کننده، تلاش آمریکا برای تسلط انحصاری بر هوش مصنوعی نظامی است. ونس در سخنان خود تأکید کرد که ایالات متحده قصد دارد “تمام اجزای هوش مصنوعی” را کنترل کند و مسیر دستیابی رقبا به این فناوری را ببندد. این رویکرد، هوش مصنوعی را به ابزاری برای سلطه‌جویی و انحصارطلبی تبدیل می‌کند، نه یک فناوری برای همکاری و پیشرفت جهانی. در چنین شرایطی، کشورهایی که به این فناوری دسترسی ندارند، در برابر تهدیدات نظامی آسیب‌پذیر خواهند شد و تعادل قدرت در جهان به‌شدت به نفع آمریکا تغییر خواهد کرد.

از سویی انحصارگرایی در هوش مصنوعی مانند آن است که تنها یک کشور بمب اتمی داشته باشد. این مساله سبب از بین رفتن تعادل قدرت و آغاز عصر وحشت خواهد شد.

۶.  بی‌اعتنایی به اصول اخلاقی و انسانی

ونس همچنین تأکید کرد که “هوش مصنوعی باید از تعصب ایدئولوژیک آزاد باشد”، اما این جمله در عمل به این معناست که تنها دیدگاه‌های مورد قبول آمریکا باید در توسعه هوش مصنوعی نقش داشته باشند. اگر این تفکر در سطح نظامی نیز اعمال شود، می‌توان انتظار داشت که هوش مصنوعی نه بر اساس اصول جهانی، بلکه مطابق با منافع سیاسی یک کشور خاص عمل کند. این مسئله می‌تواند به جنگ‌های ایدئولوژیک جدیدی دامن بزند و تنش‌های بین‌المللی را افزایش دهد.

ورود هوش مصنوعی به عرصه نظامی، یک چالش عظیم برای امنیت جهانی است. اگر این فناوری بدون کنترل و نظارت بین‌المللی در اختیار ارتش‌ها قرار گیرد، پیامدهای آن می‌تواند فاجعه‌بار باشد. رقابت تسلیحاتی، خطر تصمیم‌گیری‌های غیرانسانی، دستکاری سیستم‌ها، نبود شفافیت و انحصارطلبی برخی کشورها، همگی عواملی هستند که نشان می‌دهند سپردن مسائل نظامی به هوش مصنوعی می‌تواند به یک بحران جهانی منجر شود.

جهان باید به‌جای رقابت در تسلیحات هوش مصنوعی، به سمت همکاری بین‌المللی برای توسعه این فناوری به‌عنوان یک ابزار صلح حرکت کند. همان‌طور که در دوران جنگ سرد، کنترل تسلیحات هسته‌ای از طریق معاهدات بین‌المللی انجام شد، امروز نیز لازم است که برای هوش مصنوعی یک چارچوب جهانی تدوین شود. در غیر این صورت، بشریت در آستانه ورود به دوره‌ای قرار خواهد گرفت که در آن جنگ‌ها نه توسط انسان‌ها، بلکه توسط ماشین‌ها آغاز می‌شوند – و این شاید خطرناک‌ترین سناریوی ممکن برای آینده باشد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *