هر فناوری پیشرفتهای، با جادو تفاوت چندانی ندارد. آرتور سی کلارک
با توسعه سریع هوش مصنوعی، این فناوری بهسرعت به یکی از مهمترین ابزارهای ژئوپلیتیک تبدیل شده است. کشورهایی مانند ایالات متحده آمریکا به دنبال تسلط بر این حوزه هستند، نه تنها برای پیشبرد نوآوریهای صنعتی، بلکه برای استفاده از آن بهعنوان یک سلاح استراتژیک. نشست اخیر هوش مصنوعی در پاریس و سخنان جی دی ونس، معاون رئیسجمهور آمریکا، گواهی بر این واقعیت است که آمریکا بهطور علنی در حال استفاده از هوش مصنوعی بهعنوان اهرمی برای کنترل ژئوپلیتیک است. اما یکی از خطرناکترین ابعاد این مسئله، ورود هوش مصنوعی به حوزه نظامی و امنیتی است.
۱. تصمیمگیری مستقل هوش مصنوعی در جنگ: یک فاجعه بالقوه
وقتی صحبت از استفاده نظامی از هوش مصنوعی میشود، یک مسئله مهم مطرح است: آیا این فناوری میتواند بهطور مستقل در مورد حملات، هدفگیریها و حتی کشتن افراد تصمیم بگیرد؟ اگر این اتفاق بیفتد، ما با چالشی بیسابقه در تاریخ بشر روبهرو خواهیم شد. سیستمهای هوش مصنوعی، برخلاف انسانها، فاقد حس اخلاقی، همدلی و توانایی سنجش عواقب بلندمدت تصمیمات خود هستند. حتی اگر این سیستمها تحت قوانین و پروتکلهای بینالمللی برنامهریزی شوند، باز هم امکان بروز خطاها، سوءتفاهمهای الگوریتمی و تصمیمگیریهای فاجعهبار وجود دارد.
۲. خطر رقابت تسلیحاتی مبتنی بر هوش مصنوعی
کشورهایی که بر هوش مصنوعی تسلط دارند، بهدنبال استفاده نظامی از آن برای برتری ژئوپلیتیک هستند. این امر میتواند منجر به آغاز یک رقابت تسلیحاتی جدید شود که بر پایه سیستمهای خودمختار و هوش مصنوعی بنا شده است. در گذشته، رقابت تسلیحاتی هستهای جهان را تا آستانه نابودی کشاند، اما حداقل تصمیم نهایی برای استفاده از تسلیحات هستهای همیشه در اختیار انسانها بود. در دنیای هوش مصنوعی، ممکن است این تصمیمگیری به ماشینها سپرده شود، که احتمال وقوع جنگهای ناخواسته و کنترلنشده را افزایش میدهد.
فراموش نکنیم که هوش مصنوعی دیگر ابزار نیست، یک ایجنت (عامل) است که خود میتوانند بدون نیاز به یک کنترلگر انسانی تصمیم بگیرد.
۳. دستکاری در سیستمهای هوش مصنوعی نظامی
یکی از بزرگترین تهدیدهای استفاده از هوش مصنوعی در حوزه نظامی، امکان هک شدن یا دستکاری سیستمهای آن توسط دشمنان است. هرچند آمریکا و متحدانش تلاش دارند که کنترل کامل بر این فناوری داشته باشند، اما تاریخ نشان داده که هیچ سیستمی ۱۰۰٪ غیرقابل نفوذ نیست. اگر یک سیستم تسلیحاتی مبتنی بر هوش مصنوعی هک شود یا اطلاعات غلط به آن داده شود، میتواند تصمیمات فاجعهباری بگیرد که جان میلیونها نفر را به خطر بیندازد. خطر زیستی با به انحراف رفتن هوش مصنوعی و به دنبال آن انقراض انسان بسیار بالاست.
۴. نبود شفافیت و پاسخگویی
هنوز چارچوب قضایی مناسب و جهان شمولی برای خطاهای هوش مصنوعی ایجاد نشده است. زمانی که ارتشها از هوش مصنوعی برای تصمیمگیریهای نظامی استفاده کنند، موضوع پاسخگویی به یک چالش جدی تبدیل خواهد شد. اگر یک سیستم هوش مصنوعی مرتکب جنایت جنگی شود، چه کسی باید پاسخگو باشد؟ طراحان این سیستم؟ ارتش استفادهکننده؟ یا شرکتهایی که این فناوری را توسعه دادهاند؟ نبود یک چارچوب شفاف برای پاسخگویی در برابر اقدامات هوش مصنوعی میتواند به فجایع حقوق بشری و بیعدالتیهای گسترده منجر شود.
۵. از بین رفتن تعادل ژئوپلیتیک
یکی از جنبههای نگرانکننده، تلاش آمریکا برای تسلط انحصاری بر هوش مصنوعی نظامی است. ونس در سخنان خود تأکید کرد که ایالات متحده قصد دارد “تمام اجزای هوش مصنوعی” را کنترل کند و مسیر دستیابی رقبا به این فناوری را ببندد. این رویکرد، هوش مصنوعی را به ابزاری برای سلطهجویی و انحصارطلبی تبدیل میکند، نه یک فناوری برای همکاری و پیشرفت جهانی. در چنین شرایطی، کشورهایی که به این فناوری دسترسی ندارند، در برابر تهدیدات نظامی آسیبپذیر خواهند شد و تعادل قدرت در جهان بهشدت به نفع آمریکا تغییر خواهد کرد.
از سویی انحصارگرایی در هوش مصنوعی مانند آن است که تنها یک کشور بمب اتمی داشته باشد. این مساله سبب از بین رفتن تعادل قدرت و آغاز عصر وحشت خواهد شد.
۶. بیاعتنایی به اصول اخلاقی و انسانی
ونس همچنین تأکید کرد که “هوش مصنوعی باید از تعصب ایدئولوژیک آزاد باشد”، اما این جمله در عمل به این معناست که تنها دیدگاههای مورد قبول آمریکا باید در توسعه هوش مصنوعی نقش داشته باشند. اگر این تفکر در سطح نظامی نیز اعمال شود، میتوان انتظار داشت که هوش مصنوعی نه بر اساس اصول جهانی، بلکه مطابق با منافع سیاسی یک کشور خاص عمل کند. این مسئله میتواند به جنگهای ایدئولوژیک جدیدی دامن بزند و تنشهای بینالمللی را افزایش دهد.
ورود هوش مصنوعی به عرصه نظامی، یک چالش عظیم برای امنیت جهانی است. اگر این فناوری بدون کنترل و نظارت بینالمللی در اختیار ارتشها قرار گیرد، پیامدهای آن میتواند فاجعهبار باشد. رقابت تسلیحاتی، خطر تصمیمگیریهای غیرانسانی، دستکاری سیستمها، نبود شفافیت و انحصارطلبی برخی کشورها، همگی عواملی هستند که نشان میدهند سپردن مسائل نظامی به هوش مصنوعی میتواند به یک بحران جهانی منجر شود.
جهان باید بهجای رقابت در تسلیحات هوش مصنوعی، به سمت همکاری بینالمللی برای توسعه این فناوری بهعنوان یک ابزار صلح حرکت کند. همانطور که در دوران جنگ سرد، کنترل تسلیحات هستهای از طریق معاهدات بینالمللی انجام شد، امروز نیز لازم است که برای هوش مصنوعی یک چارچوب جهانی تدوین شود. در غیر این صورت، بشریت در آستانه ورود به دورهای قرار خواهد گرفت که در آن جنگها نه توسط انسانها، بلکه توسط ماشینها آغاز میشوند – و این شاید خطرناکترین سناریوی ممکن برای آینده باشد.