رژیم صهیونیستی هوش مصنوعی را ماشین نسلکشی کرد
آنا گزارش میدهد؛
رژیم صهیونیستی با سوءاستفاده از فناوری هوش مصنوعی، هزاران غیرنظامی غزه را هدف بمبارانهای کور قرار داد.
خبرگزاری علم و فناوری آنا؛ دو رسانه اسرائیلی گزارش کردهاند که رژیم صهیونیستی برای شناسایی اهداف و کشتار در غزه از هوش مصنوعی سوءاستفاده کرده است.
سیستمی که رژیم صهیونیستی از آن استفاده کرده است لَوِندر (Lavender) نام دارد و کارشناسان حقوق بشر و فناوری از آن به «جنایت جنگی» یاد کردهاند.
نشریه اسرائیلی-فلسطینی «۹۷۲+» و رسانه عبریزبان لوکال کال (Local Call) بهتازگی گزارش کردهاند که ارتش رژیم صهیونیستی با استفاده از یک سیستم هدفگیری مجهز به هوش مصنوعی هزاران فلسطینی را به عنوان اهداف بالقوه برای بمباران شناسایی کرده است.
به گفته منابع اطلاعاتی درگیر در جنگ، کمپین بمباران ارتش رژیم صهیونیستی در غزه از یک پایگاه داده مجهز به هوش مصنوعی که قبلاً فاش نشده بود استفاده کرد که در یک مرحله ۳۷ هزار هدف بالقوه را بر اساس ارتباط آنها با حماس شناسایی کرد.
اسرائیل تلاش میکند فناوری اشغالگری را به جهان صادر کند
اذعان به کشتار غیرنظامیان
منابع اطلاعاتی علاوه بر صحبت در مورد استفاده از سیستم هوش مصنوعی موسوم به لَوِندر، ادعا میکنند که مقامات نظامی اسرائیل بهویژه در هفتهها و ماههای اولیه درگیری، مجوز کشتن تعداد زیادی از غیرنظامیان فلسطینی را صادر کردهاند.
شهادت غیرمعمول و صریح آنها نگاهی نادر به تجربیات دست اول مقامات اطلاعاتی اسرائیل که از سیستمهای یادگیری ماشینی برای کمک به شناسایی اهداف در طول جنگ ششماهه استفاده کردهاند، ارائه میدهد.
شهادت غیرمعمول و صریح مقامات اطلاعاتی نشان میدهد که آنها در طول جنگ ششماهه از سیستمهای یادگیری ماشینی برای شناسایی اهداف خود استفاده کردهاند.
روری چالندز (Rory Challands)، خبرنگار الجزیره، که از اورشلیم شرقی گزارش میدهد، گفت: «این پایگاه داده مسئول تهیه فهرستهای ۳۷ هزار هدف کشتار است».
بیتوجهی به خطای سیستم لوِندر
مقامات اطلاعاتی اسرائیل که نامشان فاش نشده است در گفتگو با رسانهها اعلام کردند که لَوِندر حدود ۱۰ درصد خطا دارد. چالانز افزود: «اما این میزان از خطا مانع استفاده اسرائیلیها نشد و آنها برای ردیابی سریع و شناسایی عوامل غالباً رده پایین حماس در غزه و بمباران آنها از لِوندر استفاده کردند.»
مارک اوون جونز، استادیار گروه مطالعات خاورمیانه و علوم انسانی دیجیتال در دانشگاه حمید بن خلیفه در قطر، به الجزیره گفت: «مشخص شده است که ارتش اسرائیل در حال استقرار سیستمهای هوش مصنوعی آزمایشنشده است و از آنها برای تصمیمگیری درباره مرگ و زندگی غیرنظامیان استفاده میکند.»
جونز افزود: «بیایید صریح باشیم: این یک نسلکشی به کمک هوش مصنوعی است و در آینده باید خواستار توقف استفاده از هوش مصنوعی در جنگ باشیم.» نشریات اسرائیلی گزارش دادند که این روش منجر به کشته شدن هزاران غیرنظامی در غزه شده است.
روز پنجشنبه، وزارت بهداشت غزه اعلام کرد که از ۷ اکتبر تاکنون بیش از ۳۳ هزار فلسطینی در حملات اسرائیل کشته و بیش از ۷۵ هزار نفر زخمی شدهاند.
آگاه کردن انسانها از بزرگی مقیاس جنگ و نظارت بر هوش مصنوعی بسیار سخت است
نقض قوانین بشردوستانه با هوش مصنوعی
انسانهایی که با پایگاه داده هوش مصنوعی در تعامل بودند، بیهیچ مطالعه یا بررسی دقیق فقط با دستور حمله موافق کردند. آنها احتمالاً ظرف ۲۰ ثانیه فهرست کشتار را بررسی کرده و تصمیم میگیرند که آیا اجازه حمله هوایی را بدهند یا نه.»
در پاسخ به انتقادات گسترده، ارتش رژیم صهیونیستی گفت که تحلیلگرانش باید «بررسیهای مستقلی» انجام دهند تا تعاریفی مطابق با اهداف شناساییشده ارائه شود و این تصور که این فناوری یک «سیستم» است را رد کرد و گفت «آن فقط یک پایگاه داده است که هدفش ارجاع متقابل منابع اطلاعاتی بهمنظور تولید لایههای اطلاعات بهروز درباره عملیات نظامی سازمانهای تروریستی است».
استدلالهای حقوقی و دشواری آگاهیرسانی
اما به گفته چالانز، به ازای هر مبارز فلسطینی (هدف مورد نظر اسرائیلیها)، «۵ تا ۱۰ غیرنظامی کشته شده است» و این واقعیت نشان میدهد که چرا شمار غیرنظامیان در غزه تا این حد زیاد است.
پروفسور توبی والش (Toby Walsh)، کارشناس هوش مصنوعی در دانشگاه نیو ساوت ولز در سیدنی، گفت که استدلال پژوهشگران حقوقی احتمالاً بر این خواهد بود که هدفگیری جنگی با هوش مصنوعی، نقض قوانین بشردوستانه بینالمللی است.
والش به الجزیره گفت: «از منظر فنی، این آخرین اخبار نشان میدهد که آگاه کردن انسانها و نیز نظارت معنیدار بر سیستمهای هوش مصنوعی که مقیاس جنگ را بهطور وحشتناک و غمانگیزی بزرگ میکنند چقدر سخت است.»
جرائم جنگی و کشتارهای بیهدف
رسانهها به نقل از منابع مختلف اعلام کردند که تصمیمات ارتش رژیم صهیونیستی در هفتههای اول درگیری منجر به آن شد که «به ازای هر عامل کوچک حماس که سیستم لَوندر علامتگذاری میکرد، ۱۵ تا ۲۰ غیرنظامی کشته میشدند.»
این منابع همچنین گفتند که اگر در این سیستم مقامات ارشد حماس هدف قرار میگرفتند، ارتش اسرائیل در چندین نوبت اجازه کشتن بیش از ۱۰۰ غیرنظامی را در ترور یک فرمانده صادر میکرد.
استفاده از بمبهای هدایتناپذیر برای ویرانی خانههای هزاران فلسطینی که به تشخیص هوش مصنوعی به گروههای شبهنظامی در غزه مرتبط بودند، میتواند به توضیح آمار بالا و تکاندهندۀ تلفات جنگ کمک کند. وزارت بهداشت در منطقه تحت کنترل حماس میگوید ۳۳ هزار فلسطینی در درگیریهای شش ماه گذشته کشته شدهاند و بر اساس دادههای سازمان ملل تنها در ماه اول جنگ، ۱۳۴۰ خانواده خسارت دیدهاند و ۳۱۲ خانواده بیش از ۱۰ عضو خود را در همان ماه اول از دست دادند.
مقامات رژیم صهیونیستی برای شناسایی اهداف جنگ غزه از سیستمهای یادگیری ماشینی استفاده کردهاند
صدور فناوری اشغالگری
بن سائول (Ben Saul)، گزارشگر ویژه سازمان ملل در امور حقوق بشر و مبارزه با تروریسم، گفت: اگر جزئیات گزارش صحت داشته باشد، «بسیاری از حملات اسرائیل در غزه جنایت جنگی بوده و حملات نابرابر صورت گرفته است.»
آنتونی لوونشتاین (Antony Loewenstein)، روزنامهنگار استرالیایی و نویسنده کتاب «آزمایشگاه فلسطین: چگونه اسرائیل فناوری اشغالگری را به جهان صادر کرد» میگوید: «اسرائیل در حال حاضر تلاش میکند این ابزارها را به نهادهای خارجی بفروشد، به دولتهایی که نه با انزجار، بلکه با تحسین، دنبال کارهای اسرائیل در غزه هستند. ما در ماهها و سالهای آینده خواهیم فهمید که آنها چه کسانی هستند …»
گزارش حاضر از پایگاههای خبری الجزیره و گاردین به فارسی برگردان شده است.