الجمعة 03 مايو 2024
رئيس مجلسى الإدارة والتحرير
عبدالرحيم علي
رئيس مجلسي الإدارة والتحرير
عبدالرحيم علي

سياسة

الذكاء الاصطناعي في خدمة الإرهاب.. والتكنولوجيا تقتل الإنسان.. الاغتيال عن بعد باستخدام الروبوت وبدون ملاحقة قضائية

الذكاء الاصطناعي
الذكاء الاصطناعي في خدمة الإرهاب.. والتكنولوجيا تقتل الإنسان
تابع أحدث الأخبار عبر تطبيق google news

أثار التقدم السريع في مجال الذكاء الاصطناعي artificial intelligence  (AI) مخاوف بشأن احتمال إساءة استخدام هذه التكنولوجيا من قبل التنظيمات الإرهابية، بعد أن أصبحت سلاحًا ذا حدين، في ظل كثرة أدواتها وإمكانية امتلاكها وسهولة استخدامها وسرعة انتشارها وقوة تأثيرها، مما زاد الطلب على استخدامها من قبل المتطرفين، الأمر الذي يشكل خطورة على مستقبل الظاهرة الإرهابية القابلة للتوسع، وانتشار الإرهاب السيبراني.

على الرغم من أن طيور الظلام مثل داعش والقاعدة وغيرهما من التنظيمات الإرهابية، يعيشون في كهوفهم الفكرية، إلا أنهم ليسوا بمنأى عن التقدم التكنولوجي الهائل الذي يتطور كل لحظة، ويسعون بشكل مستمر لتطوير قدراتهم، واستكشاف كل ما هو جديد ويخدم أهدافهم الأساسية، مثل تقنيات الذكاء الاصطناعي التي تمكنهم من تعزيز قدراتهم التشغيلية. 

التعرف على الوجوه

يقول جون ديفيس، أستاذ القانون في جامعة هارفارد، في دراسة له بعنوان: "الخصوصية والأمن في عصر التعرف على الوجوه"، أن خاصية التعرف على الوجوه أحد أهم الخصائص التي كشف عنها الذكاء الاصطناعي، فمن خلال عدسة كاميرا يمكن التعرف على هوية شخص من صورة وجهه، وهو ما يمكن الإرهابيين من تتبع شخص بعينة واستهدافه حتى ولو كان بين آخرين، بحيث يتم توجيه الضربة له واغتياله بشكل دقيق.

وأشار إلى أن  تحليل بيانات التعرف على الوجوه تساعد الإرهابيين على التنبؤ بالأماكن التي قد يتواجد بها الأفراد المستهدفون في المستقبل، بالإضافة لاستخدام التحليلات التنبؤية لتحديد أنماط السلوك والتنبؤ بأنشطة هؤلاء الأفراد المحتملة، والتنبؤ بالأنماط الأمنية ونقاط الضعف، مما يمكن التنظيمات من التخطيط الجيد لعمليات إرهابية محددة.

الأسلحة المستقلة

تسلط دراسة أجراها مركز الدراسات الاستراتيجية والدولية (CSIS) الضوء على كيفية استخدام الإرهابيين لأنظمة الأسلحة المستقلة، التي تستطيع اختيار وملاحقة الأهداف واستخدام القوة بدون تدخل بشري مباشر؛ بالاعتماد على الذكاء الاصطناعي والروبوتات لتنفيذ المهام العسكرية، مؤكدة أن هذه الأنظمة لديها القدرة على اتخاذ القرارات بشكل مستقل دون تحكم بشري مباشر، وهو ما يتعلق بقدر الآلة على التعلم والتصرف كإنسان.

وأشارت الدراسة إلى أن تقنيات الذكاء الاصطناعي تحقق أهدافًا استراتيجيةً للإرهابيين، فمن ناحية تنفذ العمليات المخططة بدقة عالية تفوق البشر، وسرعة في التنفيذ مع قلة احتمالية الخطأ، والهروب من الملاحقة القانونية، وحماية عناصر التنظيم من الموت والقبض عليهم، كما أن أنظمة الأسلحة المستقلة التي تعمل بالذكاء الاصطناعي يمكنها العمل في بيئات معقدة وديناميكية، قد لا يتحمها البشر العاديون.

إلى جانب ما سبق يمكن للإرهابيين إساءة استخدام أنظمة الأسلحة المستقلة للسيطرة على الأنظمة من خلال الهجمات السيبرانية لمهاجمة أهدافهم الخاصة، والتسبب في خسائر غير مقصودة في صفوف المدنيين، تسلط هذه التهديدات الضوء على الحاجة إلى لوائح دولية صارمة وتدابير أمنية وضوابط لاستخدام أنظمة الأسلحة المستقلة لمنع وقوعها سوء الاستخدام من قبل الإرهابيين.

التجنيد

يساعد الذكاء الاصطناعي التنظيمات الإرهابية على التجنيد عن بعد، حيث أكدت دراسة أجرتها وكالة الاتحاد الأوروبي للتعاون في مجال إنفاذ القانون (يوروبول) أن المنظمات المتطرفة تستخدم بشكل متزايد خوارزميات وسائل التواصل الاجتماعي المدعومة بالذكاء الاصطناعي لتحديد واستهداف الأفراد الضعفاء، وتصميم رسائلهم ومحتواها لتحقيق أقصى قدر من تأثير دعايتها.

وأكدت الدراسة أنه من خلال الاستفادة من التحليلات التنبؤية ومعالجة اللغة الطبيعية، يمكن لهذه المجموعات تخصيص تواصلها بشكل أكثر فعالية مع المظالم المحددة ونقاط الضعف النفسية للمجندين المحتملين.

بالإضافة لاستخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي والمساعدين الافتراضيين "chatboot"، لإجراء المحادثات والتفاعلات الفردية، وبناء الثقة والعلاقة مع الأفراد من أجل السيطرة عليهم وتجنيدهم تدريجيًا، وتتميز هذه الأنظمة بالردود الآلية المتاحة على مدار الساعة طوال أيام الأسبوع، ما يعني أن جهود تجنيد المتطرفين المحتملين إلكترونيًا ستتزايد؛ لتعوض الفقد الكبير لعناصر التنظيمات الإرهابية التي تتم خلال المواجهات العسكرية مع أجهزة الأمن في مختلف مناطق الصراعات، حسبما يؤكد تقرير معهد الأمم المتحدة الأقليمي لبحوث الجريمة والعدالة (UNICRI) علم 2019.

 التزييف العميق

لا يخفى على أحد لجوء التنظيمات الإرهابية لاستخدام تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي لإنشاء مواد دعائية (مصورة) ذات مظهر واقعي وأدلة مزورة، مما يزيد من تعقيد الجهود المبذولة لمواجهة هذه الدعايات المزيفة، التي يشكل انتشارها إلى جانب التطور المتزايد لأنظمة الذكاء الاصطناعي الأخرى، تحديًا كبيرًا للحكومات وشركات التكنولوجيا في اكتشاف وتخفيف انتشار المعلومات المضللة.