الإشتراك في نشرتنا الإخبارية المجانية

 

تابعنا على تويتر

تابعنا على فيسبوك

آخر المشاركات التلفزيونية

استطلاع رأي

هل المركز مصدر موثوق في البحث؟

جاري التحميل ... جاري التحميل ...

أمن قومي ـ تحذيرات من استخدام الذكاء الاصطناعي

أمن قومي
يونيو 28, 2023

المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات ـ ألمانيا  وهولندا

بون ـ  إعداد وحدة الدراسات والتقارير “3” 

أمن قومي ـ تحذيرات من استخدام الذكاء الاصطناعي

يُمكّن الذكاء الاصطناعي مستخدميه من التعامل مع المحيط وتحليل المعطيات والاستفادة منها، واستشراف المستقبل واتخاذ القرار المناسب، لكن مع التطور السريع تصاعدت التحذيرات لمواجهة التحديات التي يفرضها الذكاء الاصطناعي في قطاعات “عالية المخاطر” مثل الأمن والطاقة والصحة ، لا سيما أن هناك تحديات لم يتم حلها، بالإضافة إلى الافتقار إلى قوانين “الذكاء الاصطناعي” التي تحمي الحقوق الأساسية.

تغيير عمل الاستخبارات وطرق التجسس

نجحت الخوارزميات القائمة على الشبكات العصبية في تقديم مستوى عالي الدقة من الترجمة، ما يسمح لمحللي الاستخبارات بالتعامل المباشر مع المواد الخام وتنهي اعتماد المحللين على وحدات تجميع المعلومات. يؤدي دمج الذكاء الاصطناعي في العمل الاستخباراتي إلى تغيير الطريقة التي يتم بها التعامل مع المعلومات الاستخباراتية لفترة طويلة في المستقبل، ولكن لا تزال هناك تحديات لم يتم حلها. فلا تزال الآلات لا تعرف كيفية طرح الأسئلة أو تلخيص رؤى البحث بمستوى كاف. بالإضافة إلى ذلك، فإن تكليف آلة بمسؤولية تحديد ومهاجمة الأهداف يمكن أن يؤدي إلى عواقب وخيمة ويخلق معضلات أخلاقية.

يعمل الذكاء الاصطناعي على تغيير عمل الاستخبارات وطرق التجسس، من المتوقع في المستقبل ستتجسس الآلات على بعضها البعض لمعرفة ما تفعله أو تخطط للقيام به، وسيستمر عمل الاستخبارات في سرقة الأسرار وحمايتها، لكن الطريقة التي يتم بها جمع هذه الأسرار وتحليلها ونشرها ستكون مختلفة اختلافاً جوهرياً. وأدرك العسكريون حدوث هذا التغيير الجذري، وأطلق البعض على صعود أنظمة الذكاء الاصطناعي وقدرتها على التحكم بالأسلحة بأنها “ثورة في الشؤون العسكرية”، وهو ما انعكس أيضاً على الذكاء المستخدم في أجهزة المخابرات، حيث أطلقوا عليه مصطلح “ثورة في شؤون المخابرات” التي تعرف اختصاراً بـ”آر آي إيه” (RIA). الأمن المجتمعي في أوروبا ـ طرق استخدام الذكاء الاصطناعي

تحديات أخلاقية وعواقب وخيمة

تعرض فيسبوك لعدة حوادث نالت من سمعته فيما يتعلق بخصوصية المستخدمين، وقد سبق انتقاد سياسات الشركة عدة مرات مما آدى لتحقيق الكونغرس الأمريكي مع “مارك زوكربرغ” صاحب ومؤسس شركة “ميتا”، فيسبوك سابقاً. فاحتمالية أن التطبيق يتجسس على المستمعين ليست بعيدة، ولكن ربما سيسهل اكتشافها بطريقة الهندسة العكسية reverse engineering، والتي يمكن من خلالها تحليل أنشطة التطبيق. وقد أتاحت شركة آبل خاصية مشابهة في هواتفها الحديثة في عام 2020، على الرغم من إخفاء هذه التطبيقات المماثلة لأكواد تشغيلها في 21 يوليو 2022.

توجد تحديات أخلاقية كبيرة بات تصاحب الذكاء الاصطناعي ففي أبريل 2023 شهد أول حالة وفاة ناجمة عن استخدام تطبيق للدردشة، ووقعت تحديدا في بلجيكا، إذ انتحر باحث ومهتم بالبيئة بعد استخدام مفرط للمحادثة مع منصة “إليزا” إحدى أقدم منصات الذكاء الاصطناعي، وهي معروفة بتقديم المشورة النفسية ودعم الأفراد نفسياً عندما يحتاجون الحديث.

تحذيرات من “أسلحة مستقلة” و “روبوتات قاتلة”

حذر رائد الذكاء الاصطناعي “جيفري هينتون” في الرابع من مايو 2023 من خطورة تطوير GOOGLE و OpenAI أنظمة عصبية قادرة على معالجة كميات كبيرة جداً من البيانات، التي يمكن أن تجعل هذه الأنظمة أكثر كفاءة من الدماغ البشري وحذر من تعطيل التكنولوجيا لسوق العمل بشكل كبير، بالإضافة إنها تكون قادرة مستقبلاً على تطوير سلوكيات غير متوقعة بعد تحليل كمية كبيرة من البيانات، وقد أصبح هذا ممكناً، لأن أنظمة الذكاء الاصطناعي تولد الكود الخاص بها وتوجهه، مما قد يحولها إلى “أسلحة مستقلة” و”روبوتات قاتلة”.

تجنيد المتطرفين والذكاء الاصطناعي

تنامت التحذيرات في بريطانيا من خطورة الذكاء الاصطناعي على الأمن القومي للدول في الخامس من يونيو 2023، وسط مخاوف من إمكانية استخدام هذه التكنولوجيا الجديدة للسيطرة على أفكار الأشخاص البسطاء حيث تنامى القلق في بريطانيا من برامج الدردشة الإلكترونية للذكاء الاصطناعي، خاصة بسبب قدرتها على تجنيد وإقناع المتطرفين بشن هجمات إرهابية، خاصة الأطفال والمراهقين وتبادل المحتوى المتطرف. حيث بات تهديد الأمن القومي من جانب الذكاء الاصطناعي أصبح أكثر وضوحاً من أي وقت مضى، وأن هذه التكنولوجيا بحاجة إلى إعادة الضبط مع وضع نوايا الإرهابيين في الاعتبار.

تحذيرات من نشر معلومات مضللة

وقّع مجموعة من كبار رجال الأعمال والخبراء من بينهم مبتكر برنامج “تشات جي بي تي”، بياناً يحذر من إمكانية إلحاق الذكاء الاصطناعي أضراراً جسيمة بالإنسانية، من خلال قدرته على التلاعب بمستخدميه وتضليلهم عبر نشر أخبار زائفة. دعا مئات من الخبراء العالميين من بينهم “إيلون ماسك” الذي كان بين مؤسسي شركة “أوبن إيه آي” عام 2015 وترك مجلس إدارتها 2018، إلى التوقف لستة أشهر عن إجراء أبحاث ترمي للتوصل إلى تقنيات ذكاء اصطناعي أقوى من “تشات جي بي تي”، معربين عن تخوفهم مما تحمله هذه التكنولوجيا من “مخاطر كبيرة في 31 مايو 2023. أظهر قادة الأعمال انقسامًا حادًا في استطلاع الرأي في 16 يونيو 2023 حول مدى خطورة الذكاء الاصطناعي على الحضارة، حيث أكد (34%) من الرؤساء التنفيذيين إن الذكاء الاصطناعي يمكن أن يدمر البشرية في غضون عشر سنوات، بينما أكد (8%) إن ذلك قد يحدث في غضون خمس سنوات، فيما أكد (58%) من الرؤساء التنفيذيين أن هذا لن يحدث أبدًا وهم “غير قلقين”.

إنشاء أصوات بشرية مستنسخة

تسمح أدوات الذكاء الاصطناعي لأي شخص بتزييف صور وفيديوهات وأصوات تتسم بالواقعية بما يكفي لخداع البشر وسط تحذيرات من إنشاء أصوات بشرية مستنسخة وصور ومقاطع فيديو وصوت فائقة الواقعية في ثوانٍ وبأقل تكلفة بالإضافة إلى إنشاء وسائط تركيبية لأغراض إرباك الناخبين أو التشهير بمرشح أو حتى التحريض على العنف. وإرسال رسائل آلية بصوت المرشح لإرشاد الناخبين إلى الإدلاء بأصواتهم في التاريخ الخطأ، أو خروج تسجيلات صوتية لمرشح يفترض أنه اعترف بجريمة أو يعبر عن آراء عنصرية، أو فبركة لقطات فيديو تظهر شخصا يلقي خطاباً أو مقابلة لم تحدث مطلقاً. كما يمكن بكل سهولة إنشاء صور مزيفة مصممة لتبدو وكأنها تقارير إخبارية محلية تدعي كذبا انسحاب مرشح من السباق في 15 مايو 2023.

منعت الوكالة الوطنية الإيطالية لحماية البيانات الوصول إلى متصفح خدمة تشات جي بي تي، واتهمت الوكالة القائمين على تطوير نظام هذه الخدمة بجمع وتخزين البيانات لتدريب خوارزمياته دون الاستناد إلى أي أساس قانوني. وطلبت الهيئة من شركة OpenAI إبلاغها في غضون (20) يومًا بالإجراءات التي تم اتخاذها لمعالجة هذا الوضع. وإلا فسيعرضون أنفسهم لغرامة مالية قد تصل إلى عشرين مليون يورو. بالفعل في 27 مارس 2023، أعرب يوروبولفي تقرير رابط خارجي له عن قلقه بشأن الاستخدام السيء المحتمل لـخدمة تشات جي بي تي من قبل مجرمي الإنترنت. أمن قومي ـ مخاطر الذكاء الاصطناعي

الذكاء الاصطناعي يضاهي الحرب النووية

يقول الأمين العام للأمم المتحدة “أنطونيو غوتيريش” في 12 يونيو 2022 إن أجراس الخطر التي تدق تحذيرا من الصورة الجديدة للذكاء الاصطناعي وهي الذكاء الاصطناعي التوليدي، تصم الآذان” مشيراً إلى أن التحذيرات الأعلى صوتاً يطلقها مصممو تلك التقنيات والذين وصفوا الذكاء الاصطناعي بأنه خطر وجودي يهدد البشرية يضاهي خطورة الحرب النووية. ونبه “غوتيريش” إلى أن التطور المتسارع للذكاء الاصطناعي التوليدي، يجب ألا يغيّب الضرر الذي سببته التقنيات الرقمية قائلاً: “إن نشر الكراهية والأكاذيب عبر الفضاء الرقمي يسبب خطرا جسيما الآن، ويؤجج الصراع والموت والدمار الآن، ويهدد الديمقراطية وحقوق الإنسان الآن، ويضر بالصحة العامة والجهود المناخية الآن”. تجربة الاتحاد الأوروبي بتوظيف “الذكاء الاصطناعي” في مواجهة فيروس كورونا

استخدام الذكاء الاصطناعي لتصميم أسلحة كيميائية

يحذر علماء من إمكانية إساءة استخدام الذكاء الاصطناعي لتصميم أسلحة كيميائية وبيولوجية شديدة السمية. ووجدوا الآن أنه يمكن التلاعب بهذه التقنية بسهولة للبحث عن العوامل السامة للتأثير في الأعصاب. بدأ الذكاء الاصطناعي  في 13 فبراير 2023 في أحدى التجارب “إنتاج كل هذه الجزيئات السامة، والتي يبدو الكثير منها وكأنه عوامل حرب كيميائية”. وكانت بعض الجزيئات “أكثر سمية من VX”، وهو عامل أعصاب طوره مختبر العلوم والتكنولوجيا الدفاعية في المملكة المتحدة في الخمسينيات من القرن الماضي، والذي يقتل من خلال شل العضلات .

تقييم وقراءة مستقبلية

– تدرس العديد من الدول كيفية التخفيف من مخاطر التكنولوجيا الناشئة، وتسعى الهيئات التنظيمية على مستوى العالم لوضع قواعد تحكم استخدام الذكاء الاصطناعي. حيث تحتاج تطبيقات الذكاء الاصطناعي إلى تنسيق دائم ومستمر بين الدول للحد من إساءة الاستخدام من قبل الجهات الفاعلة.

– يتطور الذكاء الاصطناعي بسرعة كبيرة ومن المجالات الرئيسية التي تشهد التطورات هي الاستخبارات، والبرمجة، والتعليم ،والقانون، وتشجع التطورات على “أتمتة” الذكاء الاصطناعي ، مايجعل مخاطر أمان البيانات والمعلومات عالية.

– تلعب المخاوف واللوائح الأخلاقية أيضاً دوراً مهماً في تشكيل مستقبل الذكاء الاصطناعي، مما يتطلب قوانين ولوائح جديدة، وحظر تطبيقات الذكاء الاصطناعي التي لا يمكن استخدامها بما يتماشى والقانون الدولي لحقوق الإنسان.

– يعد مستقبل الذكاء الاصطناعي في عام 2050 غير واضحاً، لكن سيكون أكثر تقدماً واندماجاً . ومن الممكن للذكاء الاصطناعي أن يحل العديد من مشاكل العالم ويخلق فرصاً جديدة للابتكار والنمو. ومن المرجح أن يكشف استخدام الذكاء الاصطناعي في المراقبة عن معلومات سرية للغاية تشجع الجريمة والإرهاب.

رابط مختصر..  https://www.europarabct.com/?p=89114

*جميع الحقوق محفوظة إلى المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات

الهوامش

The Coming Revolution in Intelligence Affairs
https://tinyurl.com/5uy9npxx

How Artificial Intelligence Is Transforming Israeli Intelligence Collection
https://tinyurl.com/2sjtbw9n

‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead
https://tinyurl.com/3hu9hjeh

ChatGPT – the impact of Large Language Models on Law Enforcement
https://tinyurl.com/mryzmyrr

الإشتراك في نشرتنا الإخبارية المجانية

 

تابعنا على تويتر

تابعنا على فيسبوك

استطلاع رأي

هل المركز مصدر موثوق في البحث؟

جاري التحميل ... جاري التحميل ...