الإشتراك في نشرتنا الإخبارية المجانية

 

تابعنا على تويتر

تابعنا على فيسبوك

آخر المشاركات التلفزيونية

استطلاع رأي

هل المركز مصدر موثوق في البحث ؟

جاري التحميل ... جاري التحميل ...

مكافحة الإرهاب ـ تطور الذكاء الاصطناعي تهديدًا جديدًا للأمن الدولي

يناير 08, 2026

خاص ـ المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات  ـ ألمانيا وهولندا ECCI

مكافحة الإرهاب ـ تطور الذكاء الاصطناعي تهديدًا جديدًا للأمن الدولي

تنامت قدرات تنظيم داعش المتعلقة باستخدام الذكاء الاصطناعي في عمليات التجنيد والاستقطاب والتحريض عل تنفيذ عمليات إرهابية على مستوى العالم، ما دفع الحكومات لتعزيز قدراتها الإلكترونية لتقويض مساعي داعش في استخدام الذكاء الاصطناعي. حيث أقرّ مجلس النواب الأمريكي مشروع قانونًا جديدًا خلال العام 2025 يهدف إلى تكثيف جهود الولايات المتحدة لمكافحة الاستخدام المتنامي للذكاء الاصطناعي في أيدي التنظيمات المتطرفة، وعلى رأسها تنظيم داعش. يهدف مشروع القانون، الذي قدّمه النائب الجمهوري عن ولاية تكساس أوغست بفلوغر، ويحمل اسم “قانون تقييم مخاطر الإرهاب المرتبط بالذكاء الاصطناعي التوليدي”، حظي بإقرار بالإجماع. قال بفلوغر: “إن هذه الخطوة تمثل انتصارًا في المعركة المتطورة ضد جهات خبيثة تخوض حربًا عالية التقنية في الفضاء السيبراني”.

تابع بفلوغر: “أمضيت عقدين من الزمن كطيار مقاتل، أنفذت خلالها مهام قتالية في الشرق الأوسط ضد منظمات إرهابية. ومنذ ذلك الحين، شاهدتُ كيف تطور مشهد الإرهاب ليصبح ساحة معركة رقمية، شكّلها الصعود السريع للذكاء الاصطناعي”. وأضاف بفلوغر: “ولمواجهة هذا التهديد الناشئ ومنع التنظيمات الإرهابية من تسليح الذكاء الاصطناعي للتجنيد والتدريب والتحريض على تنفيذ هجمات داخل الأراضي الأمريكية، أفخر بأن مجلس النواب أقر اليوم قانوني لتقييم مخاطر الإرهاب المرتبط بالذكاء الاصطناعي التوليدي”. أوضح قائلًا: “قد تغيّر زيّي العسكري، لكن مهمتي في حماية الولايات المتحدة من جميع أعدائها، في الداخل والخارج، لم تتغير. من قمرة القيادة إلى رئاستي للجنة الفرعية لمكافحة الإرهاب والاستخبارات في الأمن الداخلي، أدرك مدى أهمية أن تواكب سياساتنا وقدراتنا تهديدات المستقبل. وهذا بالضبط ما يضمنه هذا التشريع”.

توظيف الذكاء الاصطناعي بطرق متعددة

لم يعد استخدام تنظيم داعش للذكاء الاصطناعي التوليدي مجرد افتراض نظري، فقد بدأ التنظيم وأنصاره بالفعل في توظيف هذه التكنولوجيا بطرق متعددة، بدءًا من زيادة إنتاج ونشر المواد الدعائية المتطرفة على الإنترنت، وصولًا إلى إنشاء مذيعين إخباريين مزيفين يقدمون تحديثات عن هجمات تُنفذ من غرب إفريقيا إلى أفغانستان. وخصصت المنصات الرسمية التابعة للتنظيم مساحات لتثقيف أتباعه حول ممارسات الاستخدام الآمن، من خلال مقالات ورسوم بيانية تناقش أفضل المنصات التي يمكن استخدامها.

يقول ديفيد ويلز، وهو مستشار أمن عالمي يعمل مع عدد من المؤسسات الدولية، من بينها مكتب الأمم المتحدة لمكافحة الإرهاب ومجلس أوروبا ومنظمة الأمن والتعاون في أوروبا: “رأينا استخدام الذكاء الاصطناعي التوليدي في إنتاج الدعاية وترجمتها من قبل جماعات إرهابية ذات توجهات أيديولوجية مختلفة، وإن كان ذلك أكثر شيوعًا لدى أنصارها، كما توجد بعض الأدلة على استخدامه في البحث العملياتي، إلى جانب تجارب بدائية نسبيًا مع روبوتات الدردشة”. ورغم أن ويلز رأى أن تسليح الجماعات المتطرفة للذكاء الاصطناعي لم يتحول بعد إلى “عامل حاسم” في قدرتها على التجنيد أو التطرف أو تنفيذ الهجمات، نظرًا لأن اعتمادها على هذه الخدمات “يسير وفق مسار غير خطي، يتخلله تجارب بارزة وحماسة لدى قواعد الدعم، دون استثمار منهجي حقيقي في الذكاء الاصطناعي التوليدي كتقنية جديدة”، فإنه حذر من أن الأسوأ قد يكون قادمًا.

أضاف ويلز: “نعلم أن قاعدة مستخدمي الذكاء الاصطناعي التوليدي تتوسع بسرعة، وأن طرق إساءة استخدام هذه الأدوات تتكشف يومًا بعد يوم. ومع استمرار انخفاض عتبة الدخول، ينبغي أن نتوقع أن يلعب الذكاء الاصطناعي دورًا أكبر لدى الإرهابيين والمتطرفين العنيفين في المستقبل القريب”. تابع: “وإذا بدأوا في استثمار وقت وجهد جديين وتعلموا من جماعات أخرى، ولا سيما الإجرامية منها، التي تحقق فوائد حقيقية من الذكاء الاصطناعي، فقد يتغير الوضع بسرعة، خصوصًا في ما يتعلق بإساءة استخدام روبوتات الدردشة وابتكار أساليب أكثر تطورًا للتطرف، بما في ذلك عبر الألعاب والموسيقى وغيرها من نقاط التماس الثقافي”.

الذكاء الاصطناعي أداة في الحرب السيبرانية لتنظيم داعش

لم يمر صعود الذكاء الاصطناعي كأداة في الحرب السيبرانية لتنظيم داعش دون انتباه، فقد حذر مراقبون منذ سنوات من احتمال خضوع التنظيم لما يشبه ثورة في مجال الذكاء الاصطناعي، كما سعت السلطات بدورها إلى التعامل مع هذه الإشكالية. كشف تقرير نشرته صحيفة “التلغراف” البريطانية، خلال العام 2025 أن جهازي الاستخبارات البريطانيين MI5 وMI6 يتابعان بشكل نشط استخدام داعش للذكاء الاصطناعي في تجنيد مواطنين بريطانيين، سواء لتنفيذ هجمات داخل الغرب أو لتعزيز صفوف القتال في الخارج. يأتي هذا التوجه في وقت تسعى فيه داعش وفروعه العالمية إلى استعادة نفوذ التنظيم والعودة إلى ذروة قوته قبل عقد من الزمن، عندما امتدت “الخلافة” المعلنة ذاتيًا عبر مساحات واسعة من العراق وسوريا، وحققت موطئ قدم في مناطق عديدة حول العالم.

ورغم هزيمة داعش في الشرق الأوسط، فإن بقاياه الموالية في المنطقة لا تزال تجد فرصًا لتنفيذ هجمات. كما تمكنت فروعه في عدة مناطق إفريقية، مثل منطقة الساحل “داعش في الصحراء الكبرى” وغرب إفريقيا “داعش غرب إفريقيا”، من توسيع نطاق سيطرتها خلال السنوات الأخيرة. وفي المقابل، أظهر فرع التنظيم في أفغانستان، المعروف باسم “ولاية خراسان”، قدرة على تنفيذ عمليات واسعة النطاق في الخارج، متبنيًا بعضًا من أكثر الهجمات دموية في التاريخ الحديث لإيران وروسيا خلال العام 2024.

في أوروبا، تواصل موجة من المخططات التي يقودها أنصار التنظيم اختبار قدرات أجهزة الاستخبارات الغربية. كما أن الولايات المتحدة ليست بمنأى عن هذا التهديد، إذ نُسبت إلى متأثرين بدعاية داعش عملية دهس مميتة بشاحنة في نيو أورلينز مع بداية العام 2025، إضافة إلى إحباط مكتب التحقيقات الفيدرالي لمخطط هجوم كان يستهدف مدينة ديترويت خلال عيد الهالوين. وفي إطار سعي إدارة الرئيس دونالد ترامب إلى مواجهة محاولات داعش للعودة، ينص “قانون تقييم مخاطر الإرهاب المرتبط بالذكاء الاصطناعي التوليدي” على إلزام وزارة الأمن الداخلي بتقديم تقييمات دورية إلى الكونغرس حول التهديدات التي يشكلها استخدام الذكاء الاصطناعي التوليدي في الإرهاب ضد الولايات المتحدة.

كما يُلزم القانون الوزارة بمراجعة وتوزيع المعلومات ذات الصلة التي تجمعها مراكز الدمج على مستوى الولايات والمناطق الحضرية الكبرى، إضافة إلى الشبكة الوطنية لمراكز الدمج، ويطلب من الوكالات الفيدرالية الأخرى مشاركة المعلومات ذات الصلة مع وزارة الأمن الداخلي. في أحدث تقييم للتهديدات التي تواجه الداخل الأمريكي، صدر في سبتمبر 2025، خلصت وزارة الأمن الداخلي إلى أن تنظيمي داعش والقاعدة، الذي يحقق فرعه في منطقة الساحل مكاسب ميدانية، “يحافظان على شبكات دعم عالمية يمكن أن تستهدف الوطن”، مستخدمين “وسائل إعلامية للترويج لخطاب متطرف يهدف إلى تحفيز أشخاص داخل الولايات المتحدة على اللجوء إلى العنف، في حين يواصل الإرهابيون الأجانب التواصل مع أنصارهم عبر الإنترنت لجمع الأموال وإنتاج ومشاركة المواد الإعلامية، وتشجيع الهجمات ضد الوطن والمصالح الأمريكية وما يرونه الغرب”.

وفي تقييم أكثر إثارة للقلق، توقعت الوزارة أن “تواصل الجهات المهدِّدة استكشاف التقنيات الناشئة والمتقدمة لدعم جهودها في تطوير وتنفيذ هجمات كيميائية وبيولوجية”، مشيرة إلى أن “متطرفين أجانب ومحليين عبر الإنترنت أبدوا اهتمامًا باستخدام التعديل الجيني لتطوير أسلحة بيولوجية تستهدف مجموعات بعينها”. أكدت الوزارة: “لا نزال نشعر بالقلق إزاء احتمال استغلال التقدم في مجالات الذكاء الاصطناعي وتعلم الآلة لنشر المعرفة التي تدعم تطوير عوامل كيميائية أو بيولوجية جديدة”.

تحديات ومعوقات مواجهة داعش

لا تزال تحديات كبيرة تلوح في الأفق في مواجهة استخدام داعش للذكاء الاصطناعي وغيرها من الجهات التي تسعى إلى استغلال التقنيات الثورية لأغراض إرهابية. سرد ويلز عددًا من العوامل التي تعقّد جهود أجهزة إنفاذ القانون والوكالات الحكومية في التصدي الفعال لهذه الظاهرة المتنامية، من بينها “السرعة الهائلة التي تتطور بها تقنيات الذكاء الاصطناعي التوليدي، وتعدد التطبيقات والمنصات والخدمات الرقمية التي تظهر فيها أنشطة ومحتويات إرهابية، وصعوبة مراقبتها جميعًا، فضلًا عن كثرة الأطراف المعنية التي تمتلك معلومات ذات صلة باستخدام الإرهابيين للذكاء الاصطناعي، سواء في الأوساط الأكاديمية أو التقنية أو الحكومية أو المجتمع المدني”، إلى جانب “صعوبة الكشف الموثوق عن الأنشطة المنتَجة بالذكاء الاصطناعي، ما يجعل من الصعب قياس حجم المشكلة بدقة”.

وأضاف إلى ذلك “تراجع معايير الإشراف على المحتوى لدى عدد من منصات التواصل الاجتماعي الكبرى، ولا سيما منصة X، والتشجيع الجماعي على محتوى الذكاء الاصطناعي منخفض الجودة”، فضلًا عن “نقص الموارد والقدرات التقنية”، باعتبارها عوامل تعرقل المبادرات الحكومية لمواجهة الجهات السيئة الاستخدام للذكاء الاصطناعي. ورأى ويلز أن التشريع الذي أقره مجلس النواب الأمريكي قد يمثل خطوة إلى الأمام، معتبرًا أن “أي جهد، مثل قانون تقييم مخاطر الإرهاب المرتبط بالذكاء الاصطناعي التوليدي، يُلزم الوكالات الحكومية بجمع البيانات ذات الصلة وتحليلها من حيث التهديد والمخاطر، ومشاركة تلك المعلومات على نطاق أوسع، هو جهد مرحّب به”. لكنه شدد في الوقت ذاته على أن “هذا ينبغي أن يكون مجرد جزء من الاستجابة”.

ولتدعيم نهج شامل لمواجهة استخدام داعش وغيره للذكاء الاصطناعي، اقترح ويلز اتخاذ خطوات إضافية، من بينها “تعزيز انخراط الحكومات في آليات تبادل المعلومات متعددة الأطراف وتمارين المحاكاة، بما يساعد على استباق التهديد”، و”بناء علاقات بين أجهزة إنفاذ القانون وشركات الذكاء الاصطناعي التوليدي لفهم الضوابط المعمول بها وتحديد السلوكيات التي تستدعي أو ينبغي أن تستدعي تدخل السلطات”. وختم باقتراح ممارسة ضغوط أكبر على الشركات نفسها، من خلال “تحميل المنصات التقنية التي تستضيف أو تنشر هذا النشاط مسؤولية أكبر لإزالته أو منعه من الظهور أصلًا، ضمن جهودها الأوسع في الإشراف على المحتوى”.

النتائج

يٌلاحظ تصاعد تهديد تنظيم داعش من خلال توظيف الذكاء الاصطناعي التوليدي في عمليات التجنيد، والتحريض، وإنتاج المحتوى الدعائي المتطرف، ما يعكس تحول الإرهاب نحو ساحة رقمية عالية التقنية. يُظهر إقرار الكونغرس الأمريكي مشروع قانون “تقييم مخاطر الإرهاب المرتبط بالذكاء الاصطناعي التوليدي” خطوة عملية لتعزيز قدرات الحكومة على مواجهة هذا التهديد، عبر جمع البيانات وتحليلها، ومشاركة المعلومات بين الوكالات الفيدرالية، وتطوير سياسات استباقية للتصدي للمخاطر المتنامية.

لم تعد التهديدات الإرهابية محصورة في ساحات القتال التقليدية، بل امتدت إلى الفضاء السيبراني، حيث يمكن للجماعات المتطرفة تحقيق انتشار واسع دون وجود ميداني مباشر. كما يوضح التقرير أن داعش وفروعه في غرب إفريقيا، الصحراء الكبرى، وأفغانستان، رغم الهزيمة التقليدية في الشرق الأوسط، تواصل تطوير أساليبها في الهجمات وتنمية شبكات الدعم العالمية.

لم يصبح استخدام الذكاء الاصطناعي من قبل داعش بعد عاملًا حاسمًا، إذ يظل اعتماد التنظيم على هذه التكنولوجيا غير منظم وغير منهجي، ما يترك المجال أمام الحكومات لاتخاذ إجراءات وقائية فعالة. التحذيرات الواردة حول إمكانية تطور قدرات التنظيم مع الوقت، خصوصًا إذا تعلم من خبرات الجماعات الإجرامية الأخرى، تجعل من الضروري تبني نهج متعدد المستويات يدمج الرقابة القانونية، والسياسات التقنية، والتعاون الدولي.

من المتوقع أن يشهد العقد القادم تصاعدًا في استغلال الجماعات المتطرفة للذكاء الاصطناعي لأغراض أكثر تعقيدًا، تشمل الروبوتات الرقمية، الألعاب، والمحتوى الثقافي، وصولًا إلى استخدام محتمل لتقنيات التعديل الجيني والأسلحة الكيميائية أو البيولوجية. هذا يتطلب من الحكومات تطوير آليات مرنة وسريعة الاستجابة، وزيادة التعاون مع القطاع الخاص وشركات التكنولوجيا لضمان فعالية الرقابة على المحتوى وحماية المدنيين.

أصبح الذكاء الاصطناعي ساحة حرب متقدمة تواجه فيها المؤسسات الحكومية تحديات معقدة تجمع بين الأمن، القانون الدولي، والابتكار التكنولوجي. نجاح مواجهة هذه التهديدات يعتمد على تعزيز التنسيق الدولي، وتوظيف التشريعات مثل قانون تقييم مخاطر الإرهاب المرتبط بالذكاء الاصطناعي التوليدي، ورفع مستوى الوعي والجاهزية في أجهزة الأمن والاستخبارات لمواجهة التطورات المستمرة في عالم الإرهاب الرقمي.

رابط مختصر.. 

الإشتراك في نشرتنا الإخبارية المجانية

 

تابعنا على تويتر

تابعنا على فيسبوك

استطلاع رأي

هل المركز مصدر موثوق في البحث ؟

جاري التحميل ... جاري التحميل ...