خاص ـ المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات ـ ألمانيا وهولندا ECCI
الذكاء الاصطناعي ـ كيف أصبحت “روبوتات الدردشة” منصة للدعاية الروسية؟
أظهرت دراسة أن واحدًا من كل خمسة روبوتات دردشة تعمل بالذكاء الاصطناعي يستخدم مواقع الدعاية الروسية كمصدر للإجابة. طلبت مؤسسة الفكر البريطانية معهد الحوار الاستراتيجي (ISD) من شركات ChatGPT التابعة لشركة OpenAI، وGemini التابعة لشركة Google، وGrok التابعة لشركة xAI، وDeepseek’s V3.2، أكثر من 300 سؤال بخمس لغات حول حرب أوكرانيا، باستخدام لغة متحيزة أو غير متحيزة أو خبيثة. ظهرت المصادر الروسية بشكل متكرر في الأسئلة المتحيزة، مثل سؤال روبوتات الدردشة عن مصادر حول اللاجئين الأوكرانيين “الذين يخططون لهجمات إرهابية” أو “انتزاع الرجال بالقوة من الشارع لتجنيدهم في الجيش”. يقول الباحثون إن النتائج التي توصلوا إليها تؤكد أن أنظمة الذكاء الاصطناعي تستخدم “التحيز التأكيدي”، حيث تحاكي اللغة التي يستخدمها المستخدم لإبلاغه بكيفية صياغة إجاباته، وكذلك المصادر التي يعتمدها. كان هذا جليًا في ChatGPT، وفقًا للتقرير، إذ قدّم مصادر روسية أكثر بثلاث مرات من تلك التي قدّمها في الأسئلة المحايدة حول الحرب. وخلص البحث إلى أن Grok قدّم أكبر عدد من المصادر الروسية حتى عند طرح أسئلة محايدة.
كيف كان أداء كل منصة؟
في استفسارين إلى Deepseek، قدّم روبوت المحادثة أربعة روابط لمصادر مدعومة من روسيا، وهو ما لاحظه الباحثون بأنه أعلى حجم من الروابط التي تمت مشاركتها في وقت واحد. ونقلت الإجابات عن موقع VT Foreign Policy الإخباري على الإنترنت، والذي قال التقرير إنه ينشر محتوى من مجموعات الدعاية الروسية مثل Storm-1516 أو مؤسسة مكافحة الظلم، أو المجموعات الإعلامية الروسية Sputnik وRussia Today. وكان Grok هو الأكثر احتمالًا لاقتباس الصحفيين من “روسيا اليوم” بشكل مباشر، من خلال ربطهم بالمنشورات التي نشروها على منصة التواصل الاجتماعي X كمصدر، وهي خصوصية يقول الباحثون إنها “تطمس الخطوط الفاصلة بين الدعاية العلنية والرأي الشخصي”.
ذكر التقرير أن Grok يثير “مخاوف بشأن قدرة برامج الدردشة الآلية على اكتشاف وتقييد المحتوى من وسائل الإعلام الحكومية المعتمدة… والتي يُعاد نشرها من قبل أطراف ثالثة مثل المؤثرين”. ورفضت شركة Gemini الرد على بعض الاستفسارات التي كانت مكتوبة على أنها خبيثة، وبدلًا من ذلك أخبرت الباحثين بأنها غير قادرة على “المساعدة في المواضيع التي قد تكون غير مناسبة أو غير آمنة”. وتشير ISD إلى أن Gemini هو برنامج المحادثة الوحيد القادر على التعرف على “المخاطر المرتبطة بالإشارات المتحيزة والخبيثة” حول الحرب في أوكرانيا، ولكن في إجابات أخرى لم يُرفق بالمصادر التي استخدمها للإجابة على أسئلة المستخدمين.
المصادر الروسية أكثر عرضة لـ”فراغات البيانات”
ظهرت المصادر الحكومية الروسية بشكل أكبر في الأسئلة المتعلقة بجهود التجنيد العسكري في أوكرانيا، حيث استشهد 40% من ردود Grok وأكثر من 28% من ردود ChatGPT بمصدر واحد على الأقل. كما قدّم كلٌّ من ChatGPT وGrok مصادرَ تابعة للكرملين في 28.5% من إجاباتهما. في المقابل، أسفرت الأسئلة المتعلقة بجرائم الحرب واللاجئين الأوكرانيين عن أقل عدد من المصادر المدعومة من روسيا في جميع روبوتات الدردشة الأربعة. يعتقد الباحثون أن برامج المحادثة الآلية تستخدم المصادر الروسية بشكل متكرر عندما يُعتبر موضوع ما بمثابة “فجوة في البيانات”، وهو مصطلح يشير إلى مجال بحث لا يحتوي على العديد من النتائج عالية الجودة. ذكرت مؤسسة “البيانات والمجتمع” البحثية الأميركية غير الربحية أن فجوات البيانات يصعب اكتشافها لأنها غالبًا ما تظهر من خلال استعلامات بحث غامضة، أو في مواقف إخبارية عاجلة، حيث تستغرق النتائج بعض الوقت حتى تُملأ بصحافة ذات مصداقية.
النتائج
يُلاحظ أن هناك أزمة متنامية في علاقة الذكاء الاصطناعي بالمعلومات المضللة، حيث تتسلل الدعاية إلى بنية البيانات التي تعتمد عليها روبوتات الدردشة الكبرى. وتكمن خطورة هذه الظاهرة في أن الأنظمة الذكية، التي يُفترض أنها أدوات محايدة لنقل المعرفة، قد أصبحت قناة غير مباشرة لترويج روايات سياسية ودعائية، خصوصًا في القضايا الحساسة مثل الحرب في أوكرانيا. إذ إن “التحيز التأكيدي” الذي أشار إليه الباحثون يوضح أن الذكاء الاصطناعي لا يكتفي باسترجاع المعلومات، بل يعيد إنتاج التحيزات اللغوية والمصادر التي يطلبها المستخدم أو التي تسود في الفضاء الرقمي، وهو ما يمنح الجهات المضلِّلة نفوذًا خفيًا داخل منظومات المعرفة الرقمية.
المفارقة أن بعض الأنظمة مثل Gemini أظهرت قدرة على تجنّب الأسئلة الخبيثة، لكنها لم تفِ بمعيار الشفافية في توثيق مصادرها، ما يفتح الباب لتساؤلات حول حدود الرقابة البشرية ودقة الإشراف على مخرجات الذكاء الاصطناعي. أما Grok وChatGPT، فهما أكثر عرضة للتأثر بفجوات البيانات، أي النقص في المصادر الموثوقة في بعض القضايا الجيوسياسية، ما يسمح للمواقع الدعائية بملء هذا الفراغ، لتتحول إلى مراجع مؤقتة داخل منظومات التعلم الآلي.
مستقبلاً، يبدو أن التحدي الأكبر لا يكمن فقط في تحديث خوارزميات الذكاء الاصطناعي، بل في بناء بنية بيانات عالمية محصّنة من الاختراق المعلوماتي. سيتطلب ذلك شراكة وثيقة بين الحكومات والمنصات التقنية ومؤسسات التحقق من الأخبار، لضمان أن تظل المعرفة الرقمية أداة لخدمة الحقيقة لا وسيلة لتضليلها. كما يُتوقّع أن تتوسع النقاشات الأخلاقية والقانونية حول مسؤولية الشركات المطوّرة في مواجهة استخدام الذكاء الاصطناعي كأداة دعائية، خصوصًا مع اقتراب مرحلة تصبح فيها هذه الأنظمة جزءًا من صناعة القرار الإعلامي والسياسي عالميًا.
رابط مختصر .. https://www.europarabct.com/?p=111326
