به گزارش خبرنگارمهر؛ در دهه اخیر، ورود هوش مصنوعی به عرصه نظامی یکی از جنجالیترین و در عین حال تحولآفرینترین رویدادهای فناورانه قرن بیستویکم بوده هست. این فناوری که زمانی صرفاً در تحلیل دادهها و پیشبینی الگوهای رفتاری کاربرد دارای بود، اکنون در قلب سامانههای دفاعی، اطلاعاتی و تهاجمی قدرتهای بزرگ جهان جای گرفته هست. از سامانههای شناسایی تهدید و تحلیل میدان نبرد گرفته تا کنترل پهپادها و موشکهای هدایتشونده، هوش مصنوعی در جهان امروز به بخشی از شاکله تصمیمسازی نظامی تبدیل شده هست. اما پرسش بنیادینی همچنان در این میان مطرح هست: وقتی ماشینها در میدان نبرد تصمیم میگیرند، چه کسی پاسخگو خواهد قرار دارای بود؟ آیا مرز میان اراده انسانی و منطق الگوریتمی از میان رفته هست؟
پنی وونگ وزیر امور خارجه استرالیا در سخنرانی اخیر خود در شورای امنیت سازمان ملل، هشدار داد که استفاده از هوش مصنوعی در تسلیحات هستهای و سامانههای بدون سرنشین، نهتنها نظم امنیت جهانی بلکه اساس بقای بشریت را تهدید انجام میدهد. وونگ یادآور گردید که تا امروز مهار جنگ هستهای به واسطه قضاوت انسانی و وجدان اخلاقی رهبران ممکن شده هست، اما هوش مصنوعی فاقد هرگونه احساس، قضاوت و مسئولیت هست. به گفتهی او، این فناوریها امکان داردند بدون هشدار و بدون درک پیامد اقدامات، موجب تشدید غیرقابل پیشبینی درگیریها شوند. این نگرانی جهانی در قالب مفهومی موسوم به «شکاف مسئولیت»(Accountability Gap) بازتاب یافته؛ پدیدهای که اکنون در محافل حقوقی، نظامی و اخلاقی به یکی از بحثبرانگیزترین موضوعات عصر حاضر تبدیل شده هست.
ابعاد استفاده از هوش مصنوعی در جنگ
هوش مصنوعی پدیدهای جدید نیست؛ قدمت این اصطلاح به دهه ۱۹۵۰ بازمیگردد، اما تحولات اخیر در یادگیری ماشین و شبکههای عصبی عملاً مرز میان تصمیمسازی انسانی و ماشینی را کمرنگ کردهاند. امروز هوش مصنوعی از شبیهسازیهای آموزشی و بازیهای جنگی گرفته تا سامانههای تصمیمیار در هدفگیری، هوش مصنوعی در ساختار عملیاتی نیروهای نظامی نفوذ کرده هست.
نمونه بحثبرانگیز اخیر، سامانه «Lavender» متعلق به رژیم اشغالگر قدس محسوب خواهد گردید که ارتش رژیم صهیونیستی از آن در نسل کشی شهروندان فلسطینی ساکن نوار غزه استفاده کرده هست. بر اساس گزارشهای منتشر شده، این سامانه، مبتنی بر تحلیل دادههای کلان، فهرستی از اهداف بالقوه تولید میکرد که سپس در عملیات هوایی مورد استفاده قرار میگرفت. به عقیده کارشناسان، این قبیل کاربردهای هوش مصنوعی، در مرز میان فناوری و اخلاق حرکت میکنند، زیرا تصمیم دربارهی مرگ و زندگی را از انسان به الگوریتم میسپارند.
از جهات دیگر، بسیاری از متخصصان بر این باورند که نمیشود تمام کاربردهای نظامی هوش مصنوعی را همسنگ دانست. بخش بزرگی از این فناوریها صرفاً برای آموزش، شبیهسازی، تحلیل اطلاعات و پشتیبانی لجستیکی استفاده میشوند. بنابراین، نقطهی بحران دقیقاً در بخشی که هوش مصنوعی در فرآیند تصمیمگیری مرگبار دخالت مستقیم پیدا انجام میدهد.
شکاف مسئولیت: از افسانه «ربات قاتل» تا واقعیت تصمیم انسانی
بحث «شکاف مسئولیت» زمانی مطرح خواهد گردید که یک سامانه هوشمند در جنگ مرتکب اشتباه شود؛ در چنین شرایطی باید به این پرسش بنیادین پاسخ داد که چه کسی باید مسئول اقدامات نظامی صورت گرفته باشد؟ رسانهها این مسئله را با واژههایی همچون «رباتهای قاتل» دامن زدهاند، اما از دیدگاه تحلیلی، چنین گفتمانی بیشتر به اسطورهسازی شباهت دارد تا واقعیت فنی.
حقیقت این هست که هیچ سامانهی خودکاری تاکنون موضوع مسئولیت حقوقی نبوده هست. مسئولیت همواره متوجه طراحان، مجریان و فرماندهان هست و شامل ابزارها نخواهد گردید. همانگونه که در پروندهی رسوایی تخصیص اعتبار وام «Robodebt» در کشور استرالیا، نه سیستم محاسبهگر بدهی، بلکه دولت مسئول شناخته گردید، در حوزهی نظامی نیز پرسش از مسئولیت باید متوجه تصمیمگیرندگان انسانی باشد.
این امر به خاطر آن هست که هوش مصنوعی خارج از سلسلهمراتب فرماندهی نظامی وجود ندارد. هر سیستم هوشمند، از طراحی تا استقرار، در چارچوب تصمیمهای انسانی ساخته و بهکار گرفته خواهد گردید. بنابراین، انتساب «مسئولیت» به خود سیستم، یک خطای مفهومی هست و مسئلهی واقعی، شفافیت در زنجیرهی تصمیمسازی و تنظیمگری انسانها به شمار میرود.
زنجیره مسئولیت در چرخه عمر سیستمهای نظامی هوش مصنوعی
هر سیستم پیچیدهای، شامل سامانههای هوش مصنوعی نظامی، در چرخهای متشکل از مراحل طراحی، توسعه، استقرار، بهرهبرداری و بازنشستگی عمل انجام میدهد. در هر یک از این مراحل، انسانها تصمیمهایی میگیرند که بر قابلیتها و محدودیتهای سیستم تأثیر میگذارد. از مهندسان الگوریتم تا مقامات نظامی، هر حلقه از این زنجیره حامل بخشی از مسئولیت اخلاقی و عملیاتی هست.
در واقع، خطاهای سیستمهای هوشمند، بازتابی از تصمیمهای انسانی در طراحی و آموزش آنهاست. اگر سامانهای در جنگ اهداف غیرنظامی را اشتباه شناسایی انجام میدهد، مسئولیت به دادههای آموزشی، معیارهای هدفگیری و سیاستهای اجرایی بازمیگردد و هوش مصنوعی بهعنوان موجودی مستقل در این فرایند مسئول نیست.
بنابراین، مقرراتگذاری در حوزهی تسلیحات مبتنی بر هوش مصنوعی در اصل باید بر انسانهای فعال در زنجیره بهکارگیری ابزار، شامل طراحان، تولیدکنندگان، ناظران، فرماندهان و کاربران نهایی متمرکز باشد. تدوین چارچوبهای نظارتی بدون درک این چرخه، در بهترین حالت ناکارآمد و در بدترین حالت خطرناک هست.
آیا هوش مصنوعی حقیقتاً ماهیت جنگ را تغییر میدهد؟
ادعای «تغییر ماهیت جنگ» توسط هوش مصنوعی نسبتاً اغراقآمیز هست. جنگ در طول تاریخ، میدان ارادهها و قضاوتهای انسانی بوده هست؛ تصمیماتی که نه تنها بر اساس داده و منطق، بلکه بر مبنای ترس، امید، ایدئولوژی و قدرت اتخاذ میشوند. فناوریهای نوین صرفاً ابزارهایی هستند که این تصمیمات را سریعتر، دقیقتر و گاه بیرحمانهتر میسازند و به هیچ وجه جایگزینی برای انسان نیستند. اگرچه هوش مصنوعی امکان داردد سرعت، دقت و حجم تحلیلهای اطلاعاتی را چندین برابر کند، اما هنوز در چارچوب ارادهی انسانی و منطق سیاستگذاری نظامی عمل انجام میدهد.
در این میان، مسئلهی بنیادین نه حذف انسان از چرخهی تصمیمگیری، بلکه «انتقال بار مسئولیت» از سطح عملیاتی به لایههای پیشینیتر یعنی طراحی، آموزش و تصمیمسازی الگوریتمی هست. در جنگهای دادهمحور، اشتباهات اخلاقی و حقوقی غالباً پیش از شلیک اولین گلوله و هنگام انتخاب الگوریتمهای تشخیص هدف، تعریف آستانههای تصمیم، تنظیم دادههای آموزشی و تعیین قواعد درگیری شکل میگیرند. در این ساختار جدید، فرمانده امکان داردد در ظاهر از صحنهی تصمیمگیری کنار بایستد، در حالی که خطا درون کدها و مدلها نهادینه شده هست.
از این منظر، هوش مصنوعی نه ماهیت جنگ را بهطور ماهوی دگرگون انجام میدهد و نه از الزامهای اخلاقی میگریزد؛ بلکه لایههای مسئولیت را بازتوزیع انجام میدهد و میان خطوط کد، تصمیمات طراحی و فرمانهای اجرایی پنهان میسازد. بدین ترتیب، خطر اصلی نه در هوشمندی ماشین، بلکه در بیتوجهی انسان به عمق اثرات تصمیمات فناورانه نهفته هست.
بازتعریف مسئولیت در عصر جنگ هوشمند
هوش مصنوعی، علیرغم تمام پیچیدگیهای فنی، فلسفی و اخلاقی، نه موجودی خودمختار هست و نه بیوجدان؛ بلکه آینهای از انتخابها، سوگیریها و ارزشهای انسانی هست که در طراحی، آموزش و استفاده از آن نقش دارند. به بیان دیگر، آنچه از هوش مصنوعی در میدان نبرد میبینیم، در واقع بازتاب تفکر استراتژیک و نظام اخلاقی جوامعی هست که آن را به کار میگیرند. بحران مسئولیت در کاربردهای نظامی فناوری مذکور از آنجا ناشی خواهد گردید که سازوکارهای سنتی پاسخگویی که مبتنی بر فرماندهی متمرکز، تصمیمگیری انسانی و ساختارهای سلسلهمراتبی بودهاند، دیگر با واقعیت زنجیرههای تصمیمسازی شبکهای و فناورانه سازگار نیستند. امروز، هر تصمیم نظامی نه فقط نتیجه دستور یک فرمانده، بلکه محصول همزمان طراحی نرمافزار، پردازش داده، تنظیم الگوریتم و تفسیر خروجی مدل هست.
از همین روی، چالش پیشرو، ایجاد نظامی از تنظیمگری هوشمند و میانرشتهای هست که بتواند این زنجیرهی چندینلایهی مسئولیت را شفاف و قابل ردیابی کند. این نظام باید هم شفافیت فنی داشته باشد و هم پاسخگویی حقوقی، تا از فاجعهی «شکاف مسئولیت» در میدان نبرد جلوگیری نماید.
سرانجام، همانطور که بسیاری از تحلیلهای جدید در حوزه امنیت بینالملل تأکید دارند، هوش مصنوعی جنگ را بهصورت خودکار و مستقل از انسان اداره نانجام میدهد؛ بلکه مسئولیت انسانی را در شبکهای پیچیدهتر از تعامل میان کد، داده، سیاست و تصمیم توزیع انجام میدهد. اگر جامعه جهانی نتواند این مسئولیت را بهدرستی بازتعریف و نهادینه کند، خطر واقعی نه از جانب رباتهای قاتل، بلکه از سوی انسانهایی هست که در پشت آنها پنهان میشوند و از پاسخگویی میگریزند.
دیدگاهها