العربية

توظيف الجماعات الإرهابية للذكاء الاصطناعي

نشرت وكالة “أعماق” الإخبارية – الذراع الإعلامي لتنظيم “داعش” الإرهابي – مقطع فيديو مدته 92 ثانية بعد أيام من هجوم داعش على حفل موسيقى في ضواحي موسكو في مارس الماضي، ويُظهر في الفيديو مذيع إخباري يرتدي زيًا عسكريًا يحتفي بالهجوم ويشير إلى أنه جزء من سياق الحرب المشتعلة بين التنظيم الإرهابي و”الدول التي تحارب الإسلام”، إلا أن عدة مصادر منها صحيفة “واشنطن بوست” الأمريكية أكدت أن المذيع كان “مزيفًا”، وتم إنشاؤه بواسطة الذكاء الاصطناعي عبر برنامج يسمى “نيوز هارفست”[1]؛ وهو ما أثار حالة من الزخم تعلق بنطاق وحدود توظيف الجماعات الإرهابية للذكاء الاصطناعي في خدمة تحقيق أهدافها في الانتشار وسرعة تنفيذ هجمات مباغتة (أو نوعية) في أماكن متفرقة حول العالم.

وكشف المقطع عن امتلاك تنظيم داعش القدرات التقنية اللازمة التي تمكنه من هيكلة الأطر الإعلامية له بما يتناسب مع واقع التطورات التكنولوجية المتسارعة، مما يمكن التنظيم من تعزيز محتواه وتنوعه وجاذبيته ومدى انتشاره بين القطاعات المختلفة عن طريق وسائل أسهل وأقل تكلفة نسبيًا.

تأثير إليزا:

يتقاطع هذا الزخم مع نشر المركز الدولي لمكافحة الإرهاب (ICCT) تقريرًا في 1 مايو الجاري بعنوان “إمكانات الذكاء الاصطناعي في التطرف ومكافحته”، حيث ناقش التقرير مجالات التوظيف الإرهابي للتقنيات الحديثة القائمة على الذكاء الاصطناعي، وكذا الارتدادات العكسية للذكاء الاصطناعي على الحرب ضد الإرهاب[2].

سلط التقرير الضوء على أثر التعاطي مع تقنيات الذكاء الاصطناعي في تعزيز التطرف الفكري والسلوكي لدى الأفراد، وهو ما يتجلى بصورة رئيسية في “تأثير إليزا Eliza Effect“، ذلك التأثير الذي يشير إلى ميل البشر نحو المبالغة الخاطئة في تعظيم قدرات الذكاء الاصطناعي، وبالتالي الاعتقاد بأن النظام أكثر ذكاء مما هو عليه في الواقع، وهو ما يمكن توضيحه في ضوء ما يلي:  

  • أن قطاع كبير من مستخدمي برامج الذكاء الاصطناعي يتعاملون معها كما لو كانت واعية كالبشر، مما يضاعف من احتمالات تطرف الأفراد الذين يعانون على المستوى النفسي، لاسيما أن قطاعات شبابية واسعة تسعى بشكل متزايد إلى استخدام الذكاء الاصطناعي لتلبية عدد من الاحتياجات النفسية، مما يمكن تلك البرامج ومطوريها من معرفة رغبات وتحيزات أولئك الأفراد ومن ثم تغذية تلك الرغبات وفقًا لخط منضبط يستهدف إنتاج فرد متطرف كاره للمجتمع المحيط به.
  • أدى تطور روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لتصبح أكثر تشابهًا مع السلوك البشري، إلى بروز نوع خطير من التفاعل بين بعض القطاعات الساخطة والمهمشة وتلك الروبوتات، إذ تستجيب تلك القطاعات للمطالبات التي تولدها تلك البرامج – اعتمادًا على قاعدة من البيانات تم تغذيتها من قبل بعض العناصر الإرهابية والمتطرفة – والتي تزيد من تعزيز بعض الأفكار المتطرفة ومن ثم التحرك نحو سلوك عنيف، وهو تفاعل من الصعب اكتشافه أو منعه.

مجالات التوظيف الإرهابي للذكاء الاصطناعي:

ناقش التقرير في سياقٍ موازي، بعض المجالات التي تسعى – أو قد تسعى – التنظيمات الإرهابية من خلالها إلى توظيف الذكاء الاصطناعي وتقنياته الحديثة على المستوى الدعائي أو حتى العملياتي من أجل تحقيق بعض الأهداف، لعل من أبرزها ما يلي:

  • تجنيد الأفراد لتنفيذ مخططات إرهابية من خلال أتمتة التفاعلات على منصات وسائل التواصل الاجتماعي المستخدمة مثل “فيسبوك”، و”تيليجرام”، والشبكة الروسية “OK.ru”، وتستخدم العناصر الإرهابية في ذلك الإطار الذكاء الاصطناعي التوليدي من أجل التحايل على سياسات الإشراف على المحتوى المتطرف المنشور على وسائل التواصل الاجتماعي.
  • التقارب المحتمل لبرامج الذكاء الاصطناعي والواقع المعزز أو الواقع الافتراضي (VR)، وهو ما قد يحمل عواقب خطيرة تتعلق بتزايد القدرة على تجنيد الإرهابيين، وتأجيج التطرف، وحتى التدريب على تكتيكات معينة، وتحديد الأهداف، ويتحقق كل ذلك من خلال تلك البرامج التي تتيح للمجندين المحتملين تجربة شبه واقعية، وذلك رغم أنه لا يوجد اهتمام راهن بتداعيات تضمين الذكاء الاصطناعي في تلك التقنيات الناشئة مثل الواقع المعزز أو الافتراضي.
  • نقل المعلومات المضللة في صورة تجارب تقنية ثلاثية الأبعاد تجتذب حواس الفرد، وهو ما سيؤدي بأولئك الأفراد المحتمل تجنيدهم بأن ينخرطوا في بيئة محاطة بالمحتوى الذي يعتمد على بيانات أيديولوجية متطرفة.
  • استخدام التنظيمات الإرهابية للذكاء الاصطناعي التوليدي لبرمجة العشرات من القنوات الدعائية مسبقًا والمصممة لتتناسب مع مظالم مؤيدي العناصر الإرهابية أو المتطرفة في بلدان متعددة، في وقت واحد، وعلى نطاق واسع. 

وبشكل عام، تركز التقارير المعنية بتناول التوظيف الإرهابي للذكاء الاصطناعي على ثلاثة مجالات رئيسية؛ يتضح المجال الأول في استخدام الجماعات الإرهابية للذكاء الاصطناعي، لإنشاء محتوى دعائي تعززه روبوتات إلكترونية متطورة، من أجل تسهيل عمليات الاستقطاب والتجنيد، أو لنشر خطابات الكراهية والأيديولوجيات المتطرفة، ويتعلق المجال الثاني بالاهتمام بـ “روبوتات الدردشة” المتفاعلة، والتي تتفاعل عن طريق الذكاء الاصطناعي مع بعض العناصر المحتمل تجنيدها من خلال تزويدهم بالمعلومات التي تتناسب مع اهتماماتهم، بينما يتصل المجال الثالث بالهجمات السيبرانية المتمثلة في بعض الاختراقات الإلكترونية التي تشنها الفواعل الإرهابية ضد البنية التحتية والرقمية لمجموعة معينة من الأشخاص أو المؤسسات أو الدول[3].

وفي سياق متصل، هناك إشكالية خطرة أخرى تتعلق باحتمالية أن تمتلك الجماعات الإرهابية الروبوتات القاتلة أو الطائرات بدون طيار، لاسيما في ظل تصاعد حدة التوتر الأمني داخل الشرق الأوسط (الحرب على غزة) وخارجه، مما يتيح مساحة لدى الجماعات الإرهابية للتشبيك مع أطراف بعينها قد توفر لها تلك الأدوات.

تحديات وطنية:

ثمة بعض التحديات التي تواجه الدول والحكومات في مسار تقويض الاستخدام المتطرف والإرهابي للذكاء الاصطناعي، أشار لها التقرير على النحو التالي:

  • سياسة المراوغة والتحايل المستمرة التي تعتمد عليها التنظيمات الإرهابية في استخدامها للذكاء الاصطناعي، إذ أنها في الأغلب ما تستخدم قواعد وأماكن من الصعب على أجهزة الأمن تعقبها وتحديدها.
  • أن مكافحة استخدام الإرهابيين للذكاء الاصطناعي يتطلب تطويرًا جمعيًا وشاملًا لخبرات المطورين والجهات المعنية في جميع أنحاء العالم في استخدام الذكاء الاصطناعي لمكافحة الإرهاب بنفس الوتيرة تقريبًا، مما سيواجه بطبيعة الحال عراقيل نابعة من أن هذا سيعتمد في النهاية على توافر المزيد من المعلومات والتقنيات والتدريب المتاح بشكل عام في كل بلد؛ لذلك فإن أي تطوير متزامن وشامل يُعد من الصعب حدوثه نتيجة التباين الشديد في حجم القدرات والإمكانات التكنولوجية المتاحة لدى الدول.
  • بروز بعض المخاطر المتعلقة باستخدام برامج الذكاء الاصطناعي في استراتيجيات المكافحة المضادة، منها على سبيل المثال ضرورة التأكد من الالتزام بقيم ومعايير كل مجتمع في تطبيقات الذكاء الاصطناعي، ومواءمة الذكاء الاصطناعي مع القيم والأهداف الإنسانية وذلك بهدف تقليل المخاطر والآثار السلبية.
  • الانشغال الدولي بالأزمات والصراعات التي نشأت في مناطق متفرقة حول العالم منها أوروبا والشرق الأوسط، عطفًا على سباق التنافس الدولي المستمر على مناطق النفوذ الاستراتيجية حول العالم، مما يدفع القوى الكبرى نحو تخصيص الموارد المتاحة لديها في تلك المنافسة بدلًا من توظيفها في مجالات مكافحة الإرهاب والفكر المتطرف.

وختامًا، فقد أظهرت الممارسات المستجدة والراهنة للتنظيمات الإرهابية والأطر الإعلامية الخاصة بها أن تقنيات وبرامج الذكاء الاصطناعي قد وفرت فرصًا جديدة لها، أدت إلى الـتأثير على المشهد الإرهابي، ذلك أن إنتاج المحتويات التي تتسق مع الروايات الإرهابية والمتطرفة المغلوطة التي كانت تستغرق أسابيع أو حتى أشهر ليتم تصديرها عبر الأطر الإعلامية لتلك الجماعات، أصبحت باستخدام أدوات الذكاء الاصطناعي من السهولة بمكان أن يتم إنتاجها وتصديرها بواسطة شخص واحد في ساعات قليلة وبتكلفة أقل؛ وهو ما يتطلب تبني موقف جمعي استباقي من قبل الدول والوكالات المعنية، من أجل الحيلولة دون التمكن الأعمق لتلك الجماعات والتنظيمات من هذه الأدوات والبرامج.


[1] Pranshu Verma, “These ISIS news anchors are AI fakes. Their propaganda is real”, Washington Post. 17 May 2024. Available at https://www.washingtonpost.com/technology/2024/05/17/ai-isis-propaganda/

[2] Priyank Mathur, Clara Broekaert and Colin P. Clarke, “The Radicalization (and Counter-radicalization) Potential of Artificial Intelligence”, ICCT. 1 May 2024. Available at https://www.icct.nl/publication/radicalization-and-counter-radicalization-potential-artificial-intelligence 

[3] Gabriel Weimann, et al, “Generating Terror: The Risks of Generative AI Exploitation”, Combating Terrorism Center. January 2024. Available at https://ctc.westpoint.edu/generating-terror-the-risks-of-generative-ai-exploitation/

burkina
غاية معلقة: مكافحة الإرهاب في "بوركينا فاسو"
ISIS Russia
ارتدادات موسكو: مخاطر عودة داعش في الشرق الأوسط
russia Africa
مقاربة جديدة: حدود الدور الروسي في مكافحة الإرهاب في أفريقيا
الصومال
بروباجندا الإرهاب: الدعاية الإعلامية لحركة الشباب الصومالية
Scroll to Top