خدمت هوشمصنوعی به ماشین کشتار آمریکا

به گزارش سرویس علم و فناوری تابناک، هوش مصنوعی در جنگهای کنونی به کانون توجه تبدیل شده است، اما آنچه در میدان رخ میدهد، نه ظهور یک قدرت مستقل، بلکه بهکارگیری این فناوری در چارچوب همان ساختارهای سنتی جنگطلبانه است.
آمریکا با بهرهگیری از هوش مصنوعی، تلاش کرده سرعت پردازش اطلاعات و اجرای عملیات نظامی را افزایش دهد؛ روندی که آمریکا را در مسیر آشنای استفاده از ابزارهای پیشرفته برای پیشبرد اهداف کشتار و جنگافروزی قرار داده است.
نقش هوش مصنوعی در زنجیره کشتار
هوش مصنوعی بیش از آنکه بهعنوان یک بازیگر مستقل عمل کند، در نقش یک ابزار تحلیلی و پشتیبان به ساختارهای موجود نظامی اضافه شده است. گزارشها نشان میدهد ارتش آمریکا از این فناوری برای پردازش حجم عظیمی از دادههای اطلاعاتی از تصاویر پهپادی تا دادههای ماهوارهای استفاده میکند. اتکا بیش از حد به این فناوری در جنگ خطرات جدی ایجاد کرده است.
در واقع، آنچه از آن با عنوان «زنجیره کشتار» یاد میشود، یعنی مسیر از شناسایی هدف تا اجرای حمله با کمک هوش مصنوعی کوتاهتر شده است.
سوگیری به نفع ماشین
یکی از مهمترین چالشهایی که در استفاده از هوش مصنوعی در میدان جنگ مطرح میشود، پدیدهای است که تحلیلگران از آن با عنوان «سوگیری به نفع ماشین» یاد میکنند؛ وضعیتی که در آن، اپراتورها و فرماندهان نظامی بهطور ناخودآگاه تمایل پیدا میکنند پیشنهادها و خروجیهای سیستمهای هوش مصنوعی را دقیقتر، بیطرفتر و قابلاعتمادتر از ارزیابی انسانی بدانند. این مسئله بهویژه در شرایطی که حجم دادهها بسیار بالاست و زمان تصمیمگیری محدود است، تشدید میشود؛ جایی که فشار برای واکنش سریع میتواند باعث شود بررسیهای انسانی به حداقل برسد و پیشنهاد الگوریتمها بدون راستیآزمایی کافی پذیرفته شود. در چنین فضایی، در عمل میتواند جهت تصمیمگیری را تعیین کند، زیرا انسانها در برابر خروجیهای بهظاهر دقیق و مبتنی بر داده، کمتر دچار تردید میشوند.
منتقدان هشدار میدهند که این اتکا خطر تبدیل شدن اشتباهات فنی به خطاهای مرگبار را بهطور جدی افزایش میدهد.
اختلافات در داخل آمریکا درمورد اتکا به هوش مصنوعی
گزارشهای منتشرشده در رسانههایی مانند نیچر و گاردین نشان میدهد که میان دولت آمریکا، نهادهای نظامی و شرکتهای فناوری اختلاف نظر جدی درباره میزان اتکای مستقیم به سیستمهای هوش مصنوعی وجود دارد؛ بهویژه در زمینه اینکه چه نهادی باید پاسخگوی خطاهای احتمالی این سیستمها باشد و آیا میتوان تصمیمگیریهای حساس نظامی را به الگوریتمهایی سپرد که ماهیت عملکردشان برای کاربران نهایی شفاف نیست.
از یک سو، بخشهایی از ساختار نظامی آمریکا این فناوری را ابزاری ضروری میدانند، اما از سوی دیگر، برخی شرکتهای فناوری و کارشناسان مستقل نسبت به پیامدهای اخلاقی و حقوقی آن هشدار میدهند و تأکید دارند که نبود شفافیت در نحوه عملکرد مدلها و دادههای آموزشی میتواند ریسک خطاهای جبرانناپذیر را افزایش دهد. این اختلاف دیدگاهها نشان میدهد که حتی در سطح سیاستگذاری داخلی نیز اجماع روشنی درباره نقش نهایی هوش مصنوعی در جنگ شکل نگرفته است.
قرارداد کشتار شرکت پلانتیر
یکی از نمونههای مهم پیوند شرکتهای فناوری با ساختار نظامی آمریکا، قرارداد شرکت پلانتیر با پنتاگون در قالب پروژه «Maven» است؛ قراردادی که بهطور مشخص بر استفاده از هوش مصنوعی برای تحلیل تصاویر پهپادی و شناسایی اهداف متمرکز بوده است. این پروژه در ابتدا با مشارکت گوگل آغاز شد، اما بهدلیل اعتراض گسترده کارکنان این شرکت نسبت به کاربرد نظامی و کشنده این فناوری، گوگل از ادامه همکاری انصراف داد و در ادامه پالانتیر جایگزین آن شد. پس از آن، این شرکت به یکی از بازیگران اصلی توسعه زیرساختهای هوش مصنوعی نظامی آمریکا تبدیل شد و قراردادهای چندصد میلیون دلاری برای توسعه سیستمهای هدفگیری و تحلیل داده دریافت کرد. با این حال، همین روند با انتقادهای گستردهای همراه بوده است؛ منتقدان میگویند استفاده از هوش مصنوعی برای شناسایی اهداف میتواند به کاهش نظارت انسانی و افزایش ریسک خطاهای مرگبار منجر شود، در حالی که مسئولیت این تصمیمها میان ارتش و شرکتهای فناوری بهطور شفاف مشخص نیست.



