الإشتراك في نشرتنا الإخبارية المجانية

 

تابعنا على تويتر

تابعنا على فيسبوك

آخر المشاركات التلفزيونية

استطلاع رأي

هل المركز مصدر موثوق في البحث؟

جاري التحميل ... جاري التحميل ...

الذكاء الاصطناعي والإعلام ـ الفرص والتحديات في ظل التحولات الرقمية. ملف

media22
أبريل 25, 2025

المركز الأوروبي لدراسات مكافحة الإرهاب والاستخبارات ـ ألمانيا وهولندا،ECCI

الذكاء الاصطناعي والإعلام ـ الفرص والتحديات في ظل التحولات الرقمية. ملف

1 ـ الذكاء الاصطناعي في الإعلام ـ الفرص والتطورات

أحدث الذكاء الاصطناعي تطورا كبيرا في صناعة الإعلام والمحتوى، يتمثل التطور في تحليل البيانات الإعلامية بشكل أكثر دقة، تحسين التفاعل مع الجمهور، وتوليد المحتوى بشكل آلي، وأتمتة العمليات، والحد من التكاليف. ومع ذلك، يواجه القطاع تحديات تتعلق بمخاطر التلاعب بالمحتوى وتدابير الحوكمة. ما يتطلب  تبني ممارسات قانونية واجتماعية واضحة، وشفافية في استخدام الخوارزميات لضمان تحقيق أفضل النتائج في مواجهة هذه الفرص والتحديات.

الذكاء الاصطناعي في الإعلام

يُشير مصطلح “الذكاء الاصطناعي في الإعلام” إلى استخدام تقنيات وأدوات الذكاء الاصطناعي في معالجة وتحليل البيانات الإعلامية مثل تحليل تفاعل الجمهور مع المحتوى الإعلامي لفهم اهتماماتهم وتقديم محتوى مناسب. كذلك تطوير الأدوات لتحسين الإنتاج والمحتوى الإعلامي، يشمل ذلك العديد من التطبيقات وأدوات مثل تحليل الأخبار. كذلك توليد المحتوى المرئي أو الصوتي تلقائيا ككتابة المقالات أو الأخبار بناءً على بيانات مدخلة. التوصية بالمحتوى، وتحسين تجربة المستخدمين عبر تخصيص المحتوى الذي يتم تقديمه للجمهور بناءً على تفضيلاتهم، والتفاعل مع الجمهور عبر روبوتات المحادثة أو أدوات الذكاء الاصطناعي التي تساعد في تقديم إجابات فورية.

تشير الاحصائيات إلى أن قيمة الذكاء الاصطناعي العالمي في سوق الإعلام والترفيه بلغ (10.87) مليار دولار أمريكي في عام 2021. ويستعد هذا القطاع المزدهر لتوسع ملحوظ، مع معدل نمو سنوي مركب متوقع بنسبة (26.9%) من عام 2022 إلى عام 2030.

الذكاء الاصطناعي تأثيره على الإعلام

تستطيع أدوات الذكاء الاصطناعي تحليل كميات هائلة من البيانات بسرعات يعجز العقل البشري عن استيعابها. ما يُحدث نقلة نوعية في مجال محو الأمية الإعلامية، إذ يُتيح تحليلًا سريعًا وفعالًا للمعلومات. يُحسّن الذكاء الاصطناعي استهداف الجمهور من خلال تحليل بيانات هائلة، والتنبؤ بالسلوكيات، وتمكين التخصيص الفوري.

يستخدم الذكاء الاصطناعي لتسريع عملية تحرير البودكاست، ونسخ الاجتماعات المهمة، وتحديد الموضوعات، واستخراج الاقتباسات من النصوص والتقارير. ويُقسّم الذكاء الاصطناعي المستخدمين بناءً على سلوكهم،  ويُحسّن الحملات لتحقيق نتائج أفضل. يُوفّر المحتوى المُولّد بالذكاء الاصطناعي، مثل نصوص الإعلانات والمقالات، وفوراتٍ كبيرة في الوقت وخفض التكلفة في إنتاج المحتوى. تُبسّط إمكانيات التوليد الآلي هذه العملية الإبداعية وتُعزّز الكفاءة.

يستغل الذكاء الاصطناعي التعلم الآلي لتخصيص المحتوى الصوتي والمرئي بناءً على تفضيلات المستخدم وتفاعلاته السابقة.  حيث تُحسّن أنظمة التوصيات المُدارة بالذكاء الاصطناعي تجربة المستخدم من خلال اقتراح محتوى مدعوم ومُصمم خصيصًا لتفضيلاته الشخصية. ورغم أن هذا قد يُؤدي إلى ترشيحات، إلا أنه قد يُتيح للمستخدم الاطلاع على وجهات نظر ومعلومات مُتنوعة قد يجدونها مُناسبة له. ويكمن السر في توعية المستخدمين بالطبيعة الخوارزمية لهذه التوصيات.

أتمتة العمليات الإعلامية والتحليل الذكي للبيانات

تُبسّط الأتمتة المُدارة بالذكاء الاصطناعي الجهود، مما يجعلها أكثر فعالية من حيث التكلفة وتركيزًا.  لايعزز الذكاء الاصطناعي الإبداع البشري فحسب، بل يفتح آفاقًا جديدة كليًا. من أتمتة المهام المُملة من خلال أتمتة العمليات الإعلامية والتحليل الذكي للبيانات و خلال أتمتة المهام المتكررة مثل إدخال البيانات وإنشاء التقارير، أتمتة مهام التحقق من صحة البيانات والتحقق منها، وأتمتة عمليات دمج المحتوى وإدارة البيانات الوصفية. ويُبشر الذكاء الاصطناعي بعصر جديد في صناعة المحتوى. ويتعين على قطاع الإعلام الآن التعامل مع الإمكانات الهائلة والآثار المعقدة لثورة الذكاء الاصطناعي التوليدي.

الذكاء الاصطناعي وكشف التزييف العميق

أثار صعود تقنية التزييف العميق مخاوف بشأن مصداقية محتوى الوسائط. يمكن لخوارزميات الذكاء الاصطناعي المصممة لكشف التزييف العميق أن تساعد في تحديد الصور أو الصوت المُتلاعب به، مما يُسهم في زيادة وعي الجمهور.  كما تُمكّن خوارزميات التحقق الآلي من صحة الادعاءات من التحقق منها بسرعة، مما يُساعد المستخدمين على التمييز بين المحتوى الموثوق والمُضلّل.

يقول “مارك أوين جونز، أستاذ تحليلات وسائل الإعلام في جامعة “نورث وسترن : ”  “إن بعض العبارات المبتذلة هي مؤشر قوي على أن بعض الادعاءات قد لا تكون كما تبدو”.  يضيف جونز: “إن الأساليب البلاغية هي مؤشرات قوية جدًا وأشياء قد تقولها المنشورات المضللة مثل “وسائل الإعلام الغربية لا تخبرك”، أو أشياء “وسائل الإعلام السائدة لا تخبرك بها”… هذه علامات حمراء”.  تظهر هذه التصريحات غالبًا أثناء الأحداث الحاسمة، مثل الانتخابات، أو في المنشورات المتعلقة بالحرب، مما يؤثر على آراء المستخدمين وسلوكهم.

مخاطر الذكاء الاصطناعي على الإعلام

يُتيح الذكاء الاصطناعي فرصا غير مسبوقة للابتكار والتقدم، فإنه يُثير أيضا مخاطر وتحديات جسيمة تستدعي الاهتمام. تُبرز المخاوف بشأن إساءة استخدام الذكاء الاصطناعي لأغراض المراقبة والتلاعب والسيطرة الاجتماعية أهمية وجود أطر حوكمة قوية وآليات مساءلة. يُسلط انتشار التزييف العميق، والتمييز الخوارزمي، والهجمات الإلكترونية المدعومة بالذكاء الاصطناعي الضوء على إمكانية استغلال الجهات الخبيثة لثغرات أنظمة الذكاء الاصطناعي لأغراض خبيثة. علاوة على ذلك، يُشكل ظهور الذكاء الاصطناعي فائق الذكاء مخاطر وجودية، مما يثير تساؤلات عميقة حول المسار طويل الأمد لتطوير الذكاء الاصطناعي وتأثيره على البشرية.

أفادت دراسة في 17 يوليو 2024 ارتفاع القلق بشأن ما هو حقيقي وما هو زائف على الإنترنت، فيما يتعلق بالأخبار الإلكترونية، بنسبة (3%) خلال العام 2023، حيث أعرب حوالي ستة من كل عشرة (59%) عن قلقهم.  ترتفع هذه النسبة بشكل ملحوظ في جنوب أفريقيا (81%) والولايات المتحدة (72%).  وأضافت الدراسة إلى أن الثقة بالأخبار (40%) ظلت مستقرة خلال العام 2023، لكنها لا تزال أقل بأربع نقاط مئوية إجمالاً مما كانت عليه في ذروة جائحة فيروس كورونا. تعد فنلندا الدولة صاحبة أعلى مستويات الثقة الإجمالية (69%)، بينما سجلت اليونان (23%) والمجر (23%) أدنى مستويات الثقة، وسط مخاوف من التأثير السياسي والتجاري غير المبرر على وسائل الإعلام.

**

2 ـ الذكاء الاصطناعي ـ التحديات التي تواجه المؤسسات الإعلامية

يزداد انتشار المحتوى المُولّد بالذكاء الاصطناعي في قطاع الإعلام، بفضل قدرته على تحليل البيانات وإنشاء محتوى بناءً على التوجهات وتفضيلات المستخدمين، وتعزيز الأمن السيبراني، إلا إنها تثير أيضًا مخاوف بشأن الأخبار المزيفة والخصوصية ونزوح الوظائف.

ـ المخاوف الأخلاقية والخصوصية

غالبًا ما تعتمد أنظمة الذكاء الاصطناعي على بيانات ضخمة لتدريب خوارزمياتها وتحسين أدائها. قد تشمل هذه البيانات معلومات شخصية كالأسماء والعناوين والمعلومات المالية، بالإضافة إلى معلومات حساسة كأرقام الضمان الاجتماعي. قد يثير جمع هذه البيانات ومعالجتها مخاوف بشأن كيفية استخدامها ومن يمكنه الوصول إليها.

تستغل العديد من تقنيات الذكاء الاصطناعي المعلومات الشخصية دون فهم الأفراد الكامل لكيفية استخدام بياناتهم أو موافقتهم عليها. وقد يؤدي هذا إلى انتهاكات جسيمة للخصوصية، حيث تُستغل البيانات الشخصية أو تُشارك دون علم أو موافقة الأشخاص المعنيين، وقد يجد الأفراد أنفسهم عرضة لإعلانات مُستهدفة، وتصنيفات غير مرغوب فيها، وحتى سرقة هويات. كما يُثير دمج البيانات البيومترية مثل بصمات الأصابع، والتعرف على الوجه، ومسح القزحية في تطبيقات الذكاء الاصطناعي معضلات أخلاقية جسيمة. على سبيل المثال، في حين أن تقنية التعرف على الوجه تُعزز التدابير الأمنية، إلا أنها غالبًا ما تعمل دون موافقة صريحة من الأفراد، مما يؤدي إلى مراقبة غير مبررة. وفي حالات اختراق هذه البيانات أو إساءة استخدامها، مثل الوصول غير المصرح به إلى الحسابات الشخصية أو إنشاء مقاطع فيديو مزيفة، قد يجعل المواطنين عرضة لسرقة الهوية والاحتيال..

ـ انتشار الأخبار المزيفة وخوارزميات التضليل

تُسهّل أدوات الذكاء الاصطناعي على أي شخص إنشاء صور وأخبار زائفة ومقاطع صوتية وفيديوهات مُضلّلة ومُقنعة يُشار إليها غالبًا باسم “التزييف العميق”، يصعب تمييزها عن المعلومات الدقيقة. مما قد يؤثر على سلوك الناخبين ويقوّض العملية الديمقراطية. وقد تُؤثّر هذه التقنيات على الانتخابات، وتتضاءل ثقة الجمهور بالمؤسسات، وتُشعل فتيل الاضطرابات الاجتماعية، بل وقد تندلع أعمال عنف.

وفقًا لشركة News Guard، التي تتعقب مواقع الأخبار المزيفة، زاد عدد مواقع الأخبار المزيفة التي تعتمد على الذكاء الاصطناعي عشرة أضعاف في عام 2023. ويتم تشغيل هذه المواقع من خلال إشراف بشري ضئيل أو معدوم.  فيما حدد تقرير المخاطر العالمية لعام 2024 الصادر عن المنتدى الاقتصادي العالمي المعلومات المضللة والمعلومات المضللة باعتبارها تهديدات خطيرة في السنوات القادمة، مما يسلط الضوء على الارتفاع المحتمل للدعاية المحلية والرقابة.

من جهة أخرى، للخوارزميات التي تعتمد عليها غالبية شبكات التواصل الاجتماعي لتحديد المنشورات التي سيشاهدها المستخدمون القدرة على توليد حلقة تغذية راجعة، بمجرد بدئها، بالتالي يمكن أن تزيد بشكل كبير من انتشار المعلومات المضللة. فعندما يتفاعل المستخدمون مع محتوى مضلل، يزداد احتمال مواجهتهم له مرة أخرى، وتستمر المعلومات المضللة في الظهور على صفحاتهم، مما يعزز قناعاتهم.مع ذلك، يلعب الذكاء الاصطناعي أيضًا دورًا حاسمًا في مكافحة التضليل الإعلامي. تستطيع الأنظمة المتقدمة المدعومة بالذكاء الاصطناعي تحليل الأنماط واستخدام اللغة والسياق للمساعدة في إدارة المحتوى والتحقق من الحقائق وكشف المعلومات الكاذبة.

على سبيل المثال أُطلقت أداة “مدقق الحقائق” في يناير 2024، وهي أداة متخصصة في التحقق من الحقائق (GPT) متوفرة في متجر OpenAI GPT، وهي مصممة لتوفير إمكانيات دقيقة للتحقق من الحقائق. يستخدم مدقق الحقائق الخوارزميات لتقييم مصداقية المعلومات من خلال مقارنتها بقاعدة بيانات ضخمة من الحقائق المُتحققة والبيانات التاريخية.

ـ تأثير الذكاء الاصطناعي على مستقبل الوظائف الإعلامية

هناك تهديد محتمل آخر للذكاء الاصطناعي في الوسائط الرقمية، وهو إزاحة العمالة البشرية؛ فمع تقدم تكنولوجيا الذكاء الاصطناعي، هناك خطر أتمتة الوظائف، وفقدان الأدوار التقليدية في صناعة الإعلام، ويمكن أن يؤدي هذا إلى البطالة والتفاوت الاقتصادي والاضطرابات الاجتماعية.ﺗُﻈﻬﺮ ﺗﻮﻗﻌﺎت “جامعة جورج تاون” أنه ﺑﺤﻠﻮل ﻋﺎم 2031 سينخفض ﻋﺪد اﻟﻮﻇﺎﺋﻒ اﻟﺼﺤﻔﻴﺔ ﺑﻨﺴﺒﺔ أكثر من الثُلث (٪35) ﺗﻘﺮﻳﺒًﺎ، ﻣﻤﺎ ﻳﻌﻨﻲ ﺧﺴﺎرة أﻛﺜﺮ ﻣﻦ (20) ألف وﻇﻴﻔﺔ.

بالمقابل، تشير تقارير إلى أنّ التغيير الأهم لن يكون في القضاء التام على الوظائف، بل في تغيير طبيعة المهارات المطلوبة. توصل تقرير نشرته جامعة Maryville الأميركية عن تأثير التطورات التكنولوجية على تشكيل مستقبل الصحافة أنه تم التأكيد على أن الذكاء الاصطناعي برغم قدرته على المساعدة في إنشاء المحتوى، فإنه لا يمكنه أن يكون بديلاً عن التقارير البشرية. على سبيل المثال لا تحل أداة  Lynx Insight ( أداة أنشأتها وكالة رويترز تعمل بالذكاء الاصطناعي  لتحليل الأخبار محل المراسلين، ولكنها مصممة بدلاً من ذلك لفرز البيانات ولتحديد الأنماط، والسماح للموظفين البشريين بطرح الأسئلة وفهم السياق.

ـ التحديات القانونية والمسؤولية عن المحتوى

تُنتج أنظمة الذكاء الاصطناعي، مثل ChatGPT وDALL-E، أعمالًا إبداعية يتخطى بعضها حدود الإبداع البشري، وتثير هذه التحول تساؤلات جوهرية حول ملكية حقوق النشر، والمسؤولية، والخصوصية، والاعتبارات الأخلاقية.

فيما بدأت الحكومات والمنظمات حول العالم باتخاذ خطوات لتنظيم أدوات الذكاء الاصطناعي من خلال فرض لوائح وتعزيز التعاون المشترك. فعلى سبيل المثال، وضع الاتحاد الأوروبي قانون الذكاء الاصطناعي (AI Act) الذي يحدد قواعد شاملة، تتضمن متطلبات الشفافية والمساءلة، خاصةً للتطبيقات عالية المخاطر مثل إنشاء المحتوى.وبالمثل، بدأت الولايات المتحدة في مناقشة تنظيم الذكاء الاصطناعي، حيث أكدت جهات مثل لجنة التجارة الفيدرالية (FTC) على ضرورة مكافحة الممارسات التضليلية التي تعتمد على الذكاء الاصطناعي التوليدي.من جانبها، تعمل شركات التكنولوجيا على تقليل المخاطر المرتبطة بهذه التقنيات. فقد اقترحت OpenAI وGoogle وغيرها من الشركات الرائدة في المجال أطرًا طوعية لتعزيز الشفافية، مثل وضع علامات مائية على المحتوى المُنتج بالذكاء الاصطناعي وتحسين معايير الحماية في النماذج الذكية.

**

3 ـ الذكاء الاصطناعي ـ استراتيجيات تكيف وتطوير الإعلام في ظل التطور التكنولوجي

يواجه الإعلام تحديات جسيمة، في ظل التطور التكنولوجي وتحول وسائل التواصل الاجتماعي من منصات تواصل بين المستخدمين، إلى منصات ناقلة للمعلومات والأخبار، وأصبحت عملية تقديم محتوى عبر هذه المنصات متاحة، ما يؤدي لزيادة المنافسة مع وسائل الإعلام. ومع انتشار التقنيات التكنولوجية الحديثة مثل “شات جي بي تي”، واستغلال الإعلام لتوجيه الرأي العام في أوقات الأزمات والحروب، زادت التحديات أمام وسائل الإعلام التقليدية، بانتشار المعلومات المضللة وفقدان الثقة في هذه الوسائل.

هل انخفضت الثقة في وسائل الإعلام في زمن الذكاء الاصطناعي؟

تغيرت النظرة إلى وسائل الإعلام التقليدية خلال جائحة “كوفيد-19″، وأصبحت منصات الإعلام الرقمية هي المسيطرة على نقل المعلومات. ويقول مدير معهد رويترز لدراسة الصحافة راسموس كلايس نيلسن، إن “وسائل الإعلام الرقمية هي الوضع الطبيعي الجديد، وعلى الصحفيين ووسائل الإعلام الإخبارية أن يحجزوا مكاناً إذا أرادوا التواصل مع الجمهور”.

ووفقاً لتقرير رويترز “الأخبار الرقمية 2023″، فإن نسبة الجمهور المتابع لمواقع الأخبار الإلكترونية تتراجع، ويستهلك خمسهم الأخبار عبر منصات الأخبار التقليدية. ويلجأ الشباب للبحث عبر مواقع التواصل الاجتماعي أو مواقع تجميع الأخبار. ويهتم مستخدمو مواقع التواصل الاجتماعي، بالمشاهير والمؤثرين بدلاً من الإعلاميين والصحفيين، في نقل المعلومة وطرح قضايا للنقاش.يشير مقياس “إيدلمان للثقة 2023” إلى تراجع وسائل الإعلام التقليدية بنسبة (50%) وانخفضت نقطتين مئويتين خلال عام واحد. مع تفاقم الاستقطاب عبر وسائل الإعلام، انحدرت الثقة في هذه الوسائل الإعلامية، ويقول المدير التنفيذي لمعهد “إيدلمان للثقة” جاستن بليك، إن عدد أقل من الأشخاص الذين يتم استقطابهم يثقون في الإعلام.

كانت قضايا تغير المناخ وحرب أوكرانيا وفيروس كورونا والانتخابات الأمريكية 2020، دليلاً على تصاعد الاستقطاب وانعدام الثقة في وسائل الإعلام، لانتشار المعلومات المضللة. وأشارت دراسة أجريت على مستخدمي “فيسبوك” بالانتخابات الأمريكية 2020، إلى أن ناشري الأخبار المضللة حصلوا على تفاعلات أكثر بـ (6) أضعاف على المنصة، مقارنة بمصادر الأخبار الموثوقة مثل قناة “سي إن إن”. أوضح تقرير التوقعات العالمية للترفيه والإعلام (2023-2027)، تباطؤ نمو صناعة الإعلام في 2022 بنسبة (5.4%)، ومن المتوقع استمرار التباطؤ في السنوات الـ (5) المقبلة.

دور المؤسسات الإعلامية لتعزيز المصداقية في ظل الذكاء الاصطناعي

 رغم أن الذكاء الاصطناعي أثر سلباً على تفاعل الجمهور مع الإعلام التقليدي، فإنه يمكن توظيفه في تحليل المعلومات وتحديد اهتمامات الجمهور، وتخصيص المحتوى والإعلانات وفقاً لهذه البيانات، ومكافحة الأخبار الزائفة وتعزيز الوعي الرقمي لدى الجمهور، وتقديم محتوى صحفي أو تليفزيوني، باستخدام صوت آلي أو الرسائل النصية المحررة تلقائياً.كان عام 2024 اختباراً حقيقياً لوسائل الإعلام، نظراً لمشاركة أكثر من ملياري شخص حول العالم في انتخابات مختلفة، شملت الولايات المتحدة ودول الاتحاد الأوروبي والهند.

ينبغي أن تعمل وسائل الإعلام الإخبارية على بناء الوعي، بالمبادئ الأساسية التي تضمن جودة المحتوى، وتقديم التوصيات للقراء والتعامل مع مصادر المعلومات، خاصة وأن تطور الذكاء الاصطناعي وتدفق الأخبار بشكل واسع، زاد من انعدام الثقة في وسائل الإعلام التقليدية والإلكترونية. ويقول الكاتب الرئيسي لتقرير رويترز للأخبار الرقمية نيك نيومان، إن “معظم المستهلكين يبحثون عن الأخبار التي تساعدهم على فهم القضايا المعقدة”.أوضح كبير مسؤولي الأبحاث في “نيلسن” بيت دو، أن المبادئ الأساسية للبحث الموثوق لم تتغير، ما تغير هو تنوع مصادر البيانات، لاعتماد مناهج التعليم الآلي والذكاء الاصطناعي، على بيانات ضخمة تعتمد على البيانات التجريبية لتعزيز  الثقة وتقليل التحيز. لذا يعد الوصول للمحتوى عالي الجودة وبأسعار ممكنة، بالغ الأهمية للحفاظ على جمهور وسائل الإعلام، وتقليل فجوة الثقة مع الجمهور.

أشار تقرير “الأخبار الرقمية 2023″، إلى أن (32%) من الجمهور الذين لا يملكون اشتراكات في وسائل الإعلام الإخبارية، سيتشجعون على الاشتراك لو كان أرخص وأكثر مرونة. رواج الفيديوهات والبث الصوتي على منصات “تيك توك” و”يوتيوب” و”انستغرام”، يدفع وسائل الإعلام لتلبية احتياجات الجمهور، لإنتاج محتوى مرئي. يقول نائب رئيس تحرير صحيفة “دي تسايت” الألمانية هولجر ستارك، إن “التحول في وسائل الإعلام نحو المحتوى المرئي والبودكاست، يستقطب فئة أصغر سناً، ويخلق علاقة وثيقة غير اعتيادية بين الصحفيين والجمهور، لمواجهة تراجع الثقة في وسائل الإعلام”.

 

 التعاون بين المؤسسات الإعلامية والجهات الأكاديمية بشأن الذكاء الاصطناعي

 

إعادة الثقة بالإعلام يتطلب الحد من المحتوى الضار عبر الإنترنت، وإلغاء الربح من الأخبار الكاذبة، بالتعاون مع أوساط أكاديمية وحكومية. ويقول نائب رئيس العلاقات الحكومية والسياسات العامة لأوروبا بـ”تيك توك” تيو بيرترام، إن” تزايد بحث المستخدمين عن المحتوى الإخباري عبر تيك توك، يتطلب تمكين المستخدمين من العثور على الصحفيين والمؤسسات الإخبارية التي يثقون بها”. بحسب دراسة لشركة “أكسيوس”، فمن المتوقع أن يكون (90%) من المحتوى المتاح على الإنترنت مركباً بحلول (2026)، ما يؤدي لانخفاض المحتوى التي تنتجه وسائل الإعلام. أوضح المدير السابق لمركز تو-نايت للصحافة بكلية “كريج نيومارك” جيف جارفيس، أنه يجب على الصحفيين تطوير دورهم في خدمة المجتمعات، وتقديم المحتوى الصحفي عبر الجهات الأكاديمية. وأكد الرئيس التنفيذي لشركة “هوبرت بوردا ميديا” مارتن فايس، أن التقارير الصحفية المتوازنة والمدعومة بالذكاء الاصطناعي، تعزز الثقة وتنوع الآراء في تناول القضايا الاجتماعية.

تطوير مهارات العاملين بالإعلام لمواكبة التكنولوجيا

يحتاج الإعلامي تطوير مهاراته للتعامل مع التحول الرقمي، بفهم تقنيات الذكاء الاصطناعي التي يمكن استخدمها في الإعلام. وينبغي أن يتمتع بمهارات تحليلية وقدرة على تطوير المحتوى، للتوافق مع توجهات الجمهور. ينبغي أن يكون الإعلامي قادراً على التعلم المستمر، وعلى دراية بالتحديات الاجتماعية والثقافية والسياسية، وأن يتميز بالمصداقية في نشر المعلومات والتحقق من المصادر، والقدرة على إطلاق الحوار والتفاعل مع الجمهور.  اتفق الحضور في مؤتمر الأسبوع العالمي للدراية الإعلامية والمعلوماتية، التي نظمته منظمة “اليونسكو” في 30 أكتوبر 2024، على ضرورة فهم تأثير الذكاء الاصطناعي على الإعلام، بمحاربة المعلومات المضللة وتعزيز قدرات المتعاملين فيه.

تشريعات دولية لتنظيم استخدام الذكاء الاصطناعي

– وافق الاتحاد الأوروبي، في 28 سبتمبر 2023، على اتفاق يضمن جودة البيانات المستخدمة في تطوير الخوارزميات، والتأكد من أنها لا تنتهك تشريعات حقوق النشر، ويلزم المطورين الإشارة إلى أن الأصوات والصور والنصوص منتجة بالذكاء الاصطناعي.

– وافق برلمان الاتحاد الأوروبي في 13 مارس 2024، على أول مجموعة رئيسية من القواعد التنظيمية الأساسية لإدارة الذكاء الاصطناعي المتطور.

-اعتمدت الأمم المتحدة قراراً، في 21 مارس 2024، بشأن الاستفادة من فرص الذكاء الاصطناعي لأغراض التنمية المستدامة وسد الفجوات بين البلدان.

– وقع الاتحاد الأوروبي والولايات المتحدة وبريطانيا، في 5 سبتمبر 2024، أول معاهدة دولية ملزمة حول مخاطر الذكاء الاصطناعي، وتعزيز الابتكار وحماية المتضررين من أنظمة الذكاء الاصطناعي.

نماذج ناجحة في استخدام الذكاء الاصطناعي في الإعلام

– تعاونت صحيفتا “كورييري ديلا سيرا” و”لا جازيتا ديلو سبورت”، مع شركة “أوبن أي إيه” لبناء أرشيف إخباري تفاعلي باستخدام الذكاء الاصطناعي، ويمكن المستخدمين من الوصول لأكثر من (30) ألف مقال أرشيفي.

– أجرت مجلة “تايم” تجربة باستخدام “شات جي بي تي”، لتحليل أرشيفها الذي يضم (200) مليون صفحة، وانشأت اختبارات لقياس مدى معرفة القراء بالشؤون الجارية.

– تستخدم صحيفة “التايمز” أدوات الذكاء الاصطناعي مثل JAMES ، لمساعدة ناشري الأخبار على تعزيز تفاعل القراء عبر رسائل البريد الإلكتروني، وتوزيع النشرات الإخبارية بقراءة تفضيلات القراء.

– يعتمد تطبيق “دقائق نيكي Minutes by Nikkei” على أداة ذكاء اصطناعي داخلية تسمى، “نيكي تايلور”، لتلخيص المقالات الخبرية، ما أدى لانخفاض ساعات عمل المحررين في الصياغة بنسبة (50%)، ويساعدهم على التركيز في مراقبة الجودة.

– أطلقت صحيفة “كلارين” الأرجنتينية، مساعد قراءة مدعوماً بالذكاء الاصطناعي باسم “والتر إيه أي”، بتوفير صيغ متعددة للمقالات الإخبارية.

**

التوصيات

– تحتاج المؤسسات الإعلامية إلى بيانات جيدة وإرشادات حوكمة لتحقيق النجاح في مجال الذكاء الاصطناعي.

– ينبغي على المؤسسات تدريب فرقها على كيفية استخدام الذكاء الاصطناعي وعلى أفضل الممارسات ووضع أهداف واضحة.

– على صانعي القرار ضمان تدريب نماذج الذكاء الاصطناعي على مجموعات بيانات متنوعة لتجنب تعزيز التحيزات القائمة.

– تعزيز التعاون الدولي في تطبيق ممارسات الذكاء الاصطناعي الأخلاقية، ودراسة  فرص وتحديات تعزيز تقنيات الذكاء الاصطناعي عالميًا.

– تدقيق خوارزميات الذكاء الاصطناعي لاسيما الذكاء الاصطناعي التوليدي بانتظام للتأكد من أنها تلبي المعايير القانونية والاجتماعية.

– التأكد من أن الخوارزميات والنماذج التي تقوم عليها الأنظمة شفافة ويمكن للجمهور  الوصول إليها عند استخدام الذكاء الاصطناعي لإنشاء المحتوى أو تعديله أو تقديم التوصيات.

**

ـ على الرغم من الفرص العديدة التي يوفرها الذكاء الاصطناعي في مجال الوسائط الرقمية، هناك أيضًا تهديدات كبيرة يجب مراعاتها. أحد المخاوف الرئيسية هو إمكانية مفاقمة الذكاء الاصطناعي لقضايا مثل الأخبار المزيفة والمعلومات المضللة والدعاية.

ـ يُشكّل الذكاء الاصطناعي تحدياتٍ مُتعددة تتعلق بالخصوصية، بما في ذلك الاستخدام غير المُصرّح به للبيانات، ومخاوف البيانات البيومترية، وجمع البيانات سرًّا، والتحيز الخوارزمي. ويمكن أن تُؤثّر هذه القضايا سلبًا على الأفراد والمجتمع. ولمعالجة هذه القضايا المُلحة، من الضروري أن تتخذ المؤسسات والشركات التي تستخدم تقنيات الذكاء الاصطناعي تدابير استباقية لحماية خصوصية الأفراد. ويشمل ذلك تطبيق بروتوكولات قوية لأمن البيانات، وضمان استخدام البيانات للغرض المخصص لها فقط، وتصميم أنظمة ذكاء اصطناعي تلتزم بالمبادئ الأخلاقية.

ـ مع تطور تقنيات الذكاء الاصطناعي، باتت عملية تزييف الحقائق ونشر المعلومات المضللة أكثر تعقيداً وشيوعاً في العالم، إلا أنه يمكن الاستفادة من الذكاء الصناعي في التحقق من الأخبار المزيفة، بالاعتماد على تقنيات معالجة البيانات، التي تساعد في تحليل النصوص الرقمية بسرعة كبيرة واكتشاف الأنماط المشبوهة. هذا النوع من التحليل يمكنه تحديد سياق المحتوى المتداول على الإنترنت، مما يسهل التفريق بين الأخبار الصحيحة والمعلومات المضللة.

ـ إنّ تنمية مهارات الصحافيين والمحررين في التعامل مع تقنيات الذكاء الصناعي أمرٌ أساسي لضمان التوظيف الأمثل للقدرات التقنية والحفاظ على المستوى المهني والأخلاقي للمحتوى. يمكن تحقيق ذلك من خلال برامج تدريب مستمرة في غرف الأخبار حول أدوات تحليل البيانات.، إضالة إلى دمج مقررات حول الذكاء الصناعي في مناهج كليات الإعلام والصحافة.

– من المهم أن تضطلع الحكومات والهيئات التنظيمية بدور فاعل في الإشراف على تطوير تقنيات الذكاء الاصطناعي ونشرها. ويشمل ذلك وضع اللوائح والمعايير وتشكيل هيئات رقابية تضمن الاستخدام المسؤول والأخلاقي للذكاء الاصطناعي، مع حماية حقوق الخصوصية الفردية. ويُعد التعاون بين خبراء التكنولوجيا والخبراء القانونيين وصانعي السياسات أمرًا أساسيًا لتطوير أطر قانونية متوازنة وفعّالة قادرة على التكيف مع الوتيرة السريعة لابتكارات الذكاء الاصطناعي.

من المرجح أن تتزايد استخدامات الذكاء الاصطناعي في قطاع الإعلام خلال العام 2025 والأعوام القادمة، مع توجه الناشرين نحو تخصيص التنسيقات كوسيلة لزيادة التفاعل كتحويل المقالات النصية إلى صوتية، أو تقديم ملخصات الذكاء الاصطناعي في أعلى القصص، أو ترجمة المقالات الإخبارية إلى لغات مختلفة.

**

– ينبغي أن يواكب الإعلام التطور التكنولوجي، بتحسين جودة المحتوى المقدم، وإعادة بناء الثقة مع الجمهور، بالتحقق من مصادر المعلومات، حتى يثبت للمتابع الفرق بين المحتوى الصحفي والمحتوى عبر منصات التواصل الاجتماعي.

– إدخال أدوات الذكاء الاصطناعي، للتحقق من البيانات وأرشفة الأخبار وتنظيم العمل، تصب في صالح المحتوى الإعلامي، وتقلل من مخاطر التطور المتسارع للتكنولوجيا.

– يجب أن تصقل المؤسسات الإعلامية، قدرات العاملين فيها، بالتدريب على أدوات التكنولوجيا الحديثة، ومراجعة المبادئ الأساسية للصحافة والميثاق الإعلامي، حتى تضمن المؤسسات تقديم محتوى مميز يعتمد على الدقة والمصداقية.

– يجب أن تتولى دول الاتحاد الأوروبي مسألة إقرار تشريعات دولية، لتنظيم استخدام الذكاء الاصطناعي، نظراً لخبرتها في هذا المجال وحرصها على تأطير التكنولوجيا الحديثة.

– ينبغي أن تظهر وسائل الإعلام، أهمية الاعتماد على العنصر البشري بدلاً من الروبوتات في هذه الصناعة، خاصة وأنها تحتاج إلى الإبداع وخبرة إنسانية ومهنية، بجانب سرعة التأقلم مع المتغيرات الطارئة.

– ينبغي ألا تنخرط وسائل الإعلام مع طبيعة المحتوى المقدم على وسائل التواصل الاجتماعي، بل تحتفظ بالمحتوى الصحفي الذي يتميز بالجودة والمصداقية والتطور.

رابط مختصر.. https://www.europarabct.com/?p=103330

*حقوق النشر محفوظة إلى المركز الأوروبي لدراسات مكافحة الارهاب والاستخبارات ـ ألمانيا وهولندا ECCI

 

هوامش

The Global Landscape of Artificial Intelligence

https://tinyurl.com/4mc3x379

How can you spot fake news online?

https://tinyurl.com/ycj3mwb2

People are worried about the media using AI for stories of consequence, but less so for sports and entertainment

https://tinyurl.com/bdfjc2cp

Overview and key findings of the 2024 Digital News Report

https://tinyurl.com/5hy9kkjh

**

Stopping AI disinformation: Protecting truth in the digital world

bit.ly/3XQaohz

AI and Privacy: The privacy concerns surrounding AI, its potential impact on personal data

https://bit.ly/42xQKtn

Can journalism survive AI?

https://bit.ly/3YiBkXm

EU AI Act: first regulation on artificial intelligence

https://bit.ly/42jsE4d

How to keep up with Artificial Intelligence: Navigating the fast-paced world of AI

https://shorturl.at/efuUe

أميركا وبريطانيا والاتحاد الأوروبي يستعدون لتوقيع أول معاهدة دولية لتنظيم الذكاء الاصطناعي

https://shorturl.at/caVe8

AI in media and entertainment: Use cases, benefits and solution

https://shorturl.at/lvdx1

12 Ways Journalists Use AI Tools in the Newsroom

https://shorturl.at/8rCSB

“حتى نحكمه ولا يحكمنا”: الجمعية العامة تعتمد أول قرار من نوعه حول الذكاء الاصطناعي

https://shorturl.at/7mvQ8

 

 

 

الإشتراك في نشرتنا الإخبارية المجانية

 

تابعنا على تويتر

تابعنا على فيسبوك

استطلاع رأي

هل المركز مصدر موثوق في البحث؟

جاري التحميل ... جاري التحميل ...