الشعب أونلاين

الشعب أونلاين جريدة إلكترونية
تصدر عن مؤسسة الشعب

الإثنين 30 يونيو 2025
  • الرئيسية
  • الجزائر
  • أجندة
  • حدث
  • إقتصاد
  • ثقافة
  • رياضة
  • عالم
  • ذاكرة
  • ملف
  • ميلتيميديا
    • فيديو
    • صور
    • بودكاست
  • رأي
    • أعمدة
  • منوعات
    • “فايك نيوز”
    • علوم وتكنولوجيا
    • صحة
    • مجتمع
البث المباشر
لاتوجد
عرض كل النتائج
الشعب أونلاين
  • الرئيسية
  • الجزائر
  • أجندة
  • حدث
  • إقتصاد
  • ثقافة
  • رياضة
  • عالم
  • ذاكرة
  • ملف
  • ميلتيميديا
    • فيديو
    • صور
    • بودكاست
  • رأي
    • أعمدة
  • منوعات
    • “فايك نيوز”
    • علوم وتكنولوجيا
    • صحة
    • مجتمع
الشعب أونلاين
لاتوجد
عرض كل النتائج

الـ AI.. تضليل أكثر خطورة وتعقيدا مستقبلا

رضا ملاح - رضا ملاح
2025-06-29
في رئيسية, فايك نيوز
0
الـ AI.. تضليل أكثر خطورة وتعقيدا مستقبلا
مشاركة على فيس بوكمشاركة على تويتر

تتزايد مخاوف انتشار التزييف العميق Deepfake وإنتاج فيديوهات عن طريق أدوات الذكاء الاصطناعي التوليدي تحاكي مشاهد واقعية، وأصبح تداول صور وفديوهات بمنصات التواصل الاجتماعي يُنذر بمخاطر أكثر تعقيدا من نماذج التضليل المعروفة..

تُتيح تقنيات التزييف العميق أو ما يعرف ب “دييب فايك”، محاكاة مشاهد وشخصيات حقيقة، يصعب تمييزها، اذ لا يتعلق الأمر بقص مقاطع من فيديو، ترويج مقطع في غير سياقه، أو تركيب صوت وتعديله، وإنما مستوى آخر من التضليل.

قبل سنوات، ظهرت أدوات مدعومة بالذكاء الاصطناعي توفر تقنيات تستخدم في تعديل الأشياء، ملامح الوجه، تحريك الصور، ونقل الحركة، واستنساخ الأصوات، وغيرها من الأمور، وكان من أشهر الفيديوهات التي رُوجت بمنصة يوتيوب وخدعت ملايين البشر، فيديو للرئيس الأمريكي الأسبق باراك أوباما، والممثل السينمائي توم كروز.

لم يتوقف الأمر عند التزييف العميق والتلاعب السمعي – البصري، وإنما تجاوز الأمر ذلك بكثير، عندما أُتاح التطور المتسارع لأدوات ذكاء اصطناعي مفتوحة المصدر، امكانية إنتاج فيديوهات بالكامل عالية الجودة، عن طريق هندسة أوامر ومزج بين أدوات.

مخاطر مقلقة

ليس بمقدور مستخدمين كثر، التفريق بين فيديو أصلي وآخر مزيف، إذا لم يرفق هذا الأخير بعلامات معينة، عادة تحمل اسم الأداة التي استخدمت في إنتاج الفيديو، مثل تلك العلامة المائية التي تظهر أسفل الفيديوهات المولدة بأداة VEO3، وهذا تؤكده ممارسات مستخدمين بمنصات التواصل الاجتماعي في التفاعل مع فيديوهات مولدة بـ AI على أنها حقيقية.

مع توسع استخدام هذه الأدوات في سياقات سياسية وأمنية حساسة، مثل الحروب والنزاعات ومسائل تثير نقاشا واسعا، باتت المواد التي يتم إنتاجها بواسطة التزييف العميق والذكاء الاصطناعي تنذر بمخاطر أكثر تعقيدا في معضلة التضليل المعلوماتي.

في تقرير حول “استخدام الذكاء الاصطناعي في الكشف عن التزييف العميق”، نشرته شبكة الصحافيين الدوليين، شهر ماي الماضي، تقول ميرال العشري، رئيسة برنامج الإعلام والاتصال بجامعة إيست لندن في القاهرة، إنه من الأهداف السياسية لاستخدام تقنيات التزييف العميق تشويه سمعة شخصيات أو كيانات محددة عبر إنشاء فيديوهات مزيفة لا تمت لتصرفاتهم الحقيقية بصلة، وتستخدم هذه التقنيات للتلاعب بالرأي العام، وتحريضه ضد القادة أو الشخصيات السياسية، خاصة خلال فترات الانتخابات.

وتوضح العشري أن تقنيات التزييف العميق تُستخدم لتزييف الوقائع وخلق محتوى مضلل في أوقات الانقسامات، والنزاعات المسلحة، والعدوان، بهدف صياغة روايات مختلفة تعكس وجهات نظر الأطراف المتنازعة، ما يسهم في نشر الفوضى وتعزيز الانقسامات.

على الصعيد الاقتصادي، تُشير إلى أن “هذه التقنيات تُوظف في إنتاج محتوى مضلل بشأن الأسواق المالية، بغرض مهاجمة سياسات مؤسسات مالية معينة، والتلاعب بأسعار العملات، مثل الدولار، أو بأسعار النفط والغاز، ما قد يضر باقتصاد الدول.

ويمكن أن تخلف المعلومات المضللة خسائر مالية لشركات وجهات تجارية، حيث قدرت في دراسة أجريت في العام 2019 في جامعة بالتيمور، تكلفة الخلل المعلوماتي بـ78 مليار دولار من إجمالي الاقتصاد العالمي.

في الجزائر، رصدت منصة “algeria check”، وهي مبادرة مختصة في محاربة الإشاعة والأخبار الكاذبة، فيديو مفبرك باستخدام الذكاء الاصطناعي (AI)، ذكرت أنه تداول بمواقع التواصل الاجتماعي، من قبل صفحات مغربية، منسوب لوزير التربية الوطنية يتحدث عن”كارثة في بكالوريا 2025″.

وذكرت المنصة أن الفيديو حمل علامات تلاعب، منها ظهور لوغو قنوات ومنصات الكترونية بطريقة معكوسة، قدمت “ألجيريا تشييك” شرحا لكيفية التلاعب بالفيديو وتصريحات الوزير عن طريق أدوات الذكاء الاصطناعي.

وفي سياق الحرب الإيرانية – الصهيونية، يُسجل انتشار لافت لفيديوهات مولدة باستخدام الذكاء الاصطناعي، في مقدمتها تقنيات التوليد التلقائي للفيديو والصوت، بالاعتماد على أدوات متقدمة مثل sora، Veo3، لإنتاج مقاطع فيديو تظهر سيناريوهات حربية، خطابات، مشاهد تدمير، استهدافات عسكرية ومقاطع دعائية..

في الموضوع، يقول نضال عطاري، صانع محتوى حول الذكاء الاصطناعي بمنصتي “فايسبوك” و”اكس” في صفحة تحمل اسم the algerian developer، أن أدوات وتقنيات ال AI تشهد تطورا سريعا ورهيبا، خاصة تلك التي تولد فيديوهات تحاكي مشاهد واقعية، يمكن للمستخدمين الوصول إليها وتجريبها.

من الأدوات التي أحدثت طفرة في توليد الفيديوهات وعقدت معضلة التضليل، بحسب عطاري، أداة VEO3 التي بإمكانها إنتاج فيديوهات بجودة عالية صوتا وصورة (شكلا ومضمونا)، ويصعب على المستخدمين تمييزها بسهولة.

ويُشير عطاري إلى أنه رغم وجود أدوات كثيرة تُساعد في كشف التضليل عن طريق الذكاء الاصطناعي، مثل gemini ai الذي يحلل الصور والفيديوهات بطريقة تفضح التضليل، غير أنه يضيف بقوله:” التطورات المتسارعة في عالم الذكاء الاصطناعي التوليدي عقدت الأمور.”

ويتحدث نضال عن فيديوهات مولدة بالذكاء الاصطناعي، في سياق الحرب الإيرانية – الصهيونية تحاكي مشاهد، تداولها جزائريون على نطاق واسع على أنها حقيقة، وهي مواد -يضيف- أنتجت بدقة عالية وتفاصيل دقيقة ما يجعلها تخدع المستخدمين.

ويواصل: ” Veo3  من أدوات الجيل الثالث ل OpenAI، وتعد من بين أكثر الأدوات تقدما في إنتاج الفيديو حاليا، مصممة لإنشاء محتوى عالية الجودة من مجرد أوصاف نصية، أو صور ثابتة، أو فيديوهات موجودة مسبقا.”

تقنيا، تُنشىء الأداة فيديوهات عالية الجودة تصل مز 4K ، بحيث تحافظ على تفاصيل دقيقة في الحركة والبيئة والإضاءة، ما يجعل الفيديوهات أقرب إلى الواقع، وتمتاز بالقدرة على  فهم دقيق للأوامر النصية (Text-to-Video)، إضافة إلى التحكم في الأسلوب والمحتوى، بحيث يمكن لمستخدميها التحكم في نمط الفيديو (سينمائي، واقعي، كرتوني)،

وباتت تثير مثل هذه الأدوات مخاطر جدية تخص التضليل والتلاعب بالمحتوى البصري، خصوصا في سياقات سياسية، أمنية، واجتماعية، من خلال فبركة فيديوهات يصعب تمييزها.

بالمقابل، تُبدي منظمات وجهات دولية وإقليمية تجابه التضليل، مخاوفها من توسع الاستخدامات السلبية لأدوات الذكاء الاصطناعي، بينما تسعى منظمات مثل الشبكة الدولية لتدقيق الحقائق IFCN والشبكة العربية لتدقيق المعلومات AFCN، إلى تمكين مدققي المعلومات والصحافيين وفاعلين ومهتمين بالتضليل المعلوماتي، من الوصول إلى موارد وكسب مهارات لكشف المحتوى المضلل المولد بالذكاء الاصطناعي.

أدوات تحقق 

وتُقدم شبكة الصحفيين الدوليين دليلا عمليا لأفضل أدوات التحقق من الصور المولدة بالذكاء الاصطناعي والكشف عن التزييف العميق، وهي أدوات عملية تهدف إلى تحديد ما إذا كان جزء من المحتوى، سواء كان صورا أو مقاطع فيديو أو غيرهما، قد تم إنشاؤه باستخدام الذكاء الاصطناعي أم لا.

ويتطلب اكتشاف هذا النوع من المحتوى، وفق الشبكة، استخدام برامج مدعومة بالذكاء الاصطناعي، تعمل على تحليل الأنماط والأدلة المختلفة الموجودة في المحتوى، لتحديد ما إذا كان المحتوى ناتجا عن الذكاء الاصطناعي التوليدي أم لا “وهذا يعني إننا نتحدث عن أنظمة ذكاء اصطناعي تحاول الحكم على أنظمة ذكاء اصطناعي أخرى.”، ومن هذه الأدوات:

Sentinel

من أفضل الأدوات للكشف عن التزييف العميق. وتوفر الأداة المعتمدة على الذكاء الاصطناعي كشفًا فوريًا للتزييف العميق بدقة عالية. وتستخدم خوارزميات الذكاء الاصطناعي المُتقدمة وتقنيات متعددة مثل تحليل معالم الوجه، وفحوصات الاتساق الزمني، واكتشاف الوميض لتحديد الوسائط التي تم التلاعب بها.

ويتيح كاشف التزييف العميق للمستخدمين تحميل الوسائط الرقمية المزيفة بالذكاء الاصطناعي عبر موقع الإنترنت الخاص بهم، ثم يقوم بتحديد مقاطع الفيديو والصور والصوت التي تم التلاعب بها. إضافة إلى ذلك، يوفر هذا النظام تقريرًا شاملاً عن اكتشافاته.

Hive

تقدّم Hive أدوات مجانية للكشف عن الذكاء الاصطناعي للنصوص والصور ومقاطع الفيديو والصوت، ويمكن للأداة التعرف على المحتوى الذي تم إنشاؤه باستخدام العديد من محركات الذكاء الاصطناعي التوليدية الشائعة، بما في ذلك ChatGPT وDALL-E وMidjourney، ونموذج تحويل النص إلى صورة المعروف باسم Stable Diffusion.

وبمجرد قيام المستخدم بإدخال الوسائط، تقوم الأداة بمسحها ضوئيًا وتوفر درجة إجمالية لاحتمالية إنشائها بواسطة الذكاء الاصطناعي، إلى جانب تقديم تفاصيل أخرى مهمة، مثل نموذج الذكاء الاصطناعي المُحتمل استخدامه في عملية التوليد.

Sensity

تتميز هذه الأداة باستخدام خوارزميات ذكاء اصطناعي مُتقدمة، وواجهة مستخدم سهلة الاستخدام، والنتيجة النهائية هي أداة قوية تكشف الصور المُولدة بالذكاء الاصطناعي بدقة كبيرة مهما بدت حقيقية للكثيرين.

BrandWell

أداة فعالة ومجانية تكشف الصور المُصنعة بالذكاء الاصطناعي. كل ما عليك فعله هو إدخال ملف الصورة أو لصق عنوان URL، ثم النقر فوق زر الإدخال، بعدها سيخبرك الكاشف بمعلومات مفيدة عن الصورة ودرجة احتمالية إنشائها بالذكاء الاصطناعي، إضافة إلى معلومات عن البرامج المستخدمة في صناعتها.

AI Or Not

أداة بسيطة تحمل اسما يعكس وظيفتها الأساسية، وهي: الكشف عما إذا كانت صورة معينة مولدة بالذكاء الاصطناعي أم لا. تستخدم الأداة تقنية متقدمة للتحقق بسرعة من الصور، مما يُمكنك من التمييز  بين المحتوى الحقيقي والمزيف.

Foto Forensics

يمكنك عبر أداة Foto Forensics المجانية وضع عنوان URL للصورة، وبعدها، تمامًا كالمحقق شيرلوك هولمز، ستعرف من فعلها whodunit، والأهم من ذلك أنها تُقدم أيضا مجموعة من الموارد لمساعدتك على تحليل الصور المُولدة بالذكاء الاصطناعي وتحديدها بشكل أفضل، بما في ذلك الخوارزميات، والبرامج التعليمية عبر الإنترنت، وتحديات ممتعة لتقييم مهاراتك.

V7 Deepfake Detector

أداة تضاف لمتصفح Chrome، متخصصة في كشف التزييف العميق للصور، خاصة تلك المستخدمة في صور الملفات التعريفية المزيف،  وهو ما سيجعلك حين تدخل حسابا معينا على وسائل التواصل أن تعرف ما إذا كانت صورته الشخصية مزيفة أم لا.

WasItAI

أداة قوية وسهلة الاستخدام تُتيح لك التعرف على الصور المُنشأة بواسطة الذكاء الاصطناعي بسهولة، كل ما عليك فعله هو رفع الصورة أو وضع عنوان URL للصورة وبعدها ستحصل على معلومات كافية عن تلك الصورة.

وسوم : التضليل المعلوماتيالذكاء الاصطناعي التوليديمخاطر
سابقة

إعادة بعث المشاريع الصناعية المصادرة.. قريبا

موالية

حر شديد جدا بولايتين اليوم

رضا ملاح

رضا ملاح

صحفي متابع للشأن الوطني والمعلوماتية

مشابهةمقالات

“صُنع في الجزائر”.. وسمٌ جديرٌ بالفخر
إقتصاد

“صُنع في الجزائر”.. وسمٌ جديرٌ بالفخر

2025-06-30
إعادة بعث المشاريع الصناعية المصادرة.. قريبا
إقتصاد

إعادة بعث المشاريع الصناعية المصادرة.. قريبا

2025-06-29
التعرف على جثة الطفلة المفقودة بقسنطينة بوغاشيش مروة
رئيسية

التعرف على جثة الطفلة المفقودة بقسنطينة بوغاشيش مروة

2025-06-29
إشتراك
دخول
نبّهني عن
guest
guest
0 تعليقات
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
الشعب أونلاين

الشعب أونلاين جريدة إلكترونية
تصدر عن مؤسسة الشعب تؤدي خدمة إعلامية عمومية.

© 2020. جميع الحقوق محفوظة ليومية الشعب.

wpDiscuz
لاتوجد
عرض كل النتائج
  • الرئيسية
  • الجزائر
  • أجندة
  • حدث
  • إقتصاد
  • ثقافة
  • رياضة
  • عالم
  • ذاكرة
  • ملف
  • ميلتيميديا
    • فيديو
    • صور
    • بودكاست
  • رأي
    • أعمدة
  • منوعات
    • “فايك نيوز”
    • علوم وتكنولوجيا
    • صحة
    • مجتمع
موقع الشعب يستخدم نظام الكوكيز. استمرارك في استخدام هذا الموقع ، فإنك توافق على استخدام ملفات تعريف الارتباط. تفضل بزيارة سياسة الخصوصية وملفات تعريف الارتباط .