البنية التحتية ومراكز البيانات

أخبار: “بريطانيا تعتمد أول ذكاء اصطناعي لفحص نوايا المسلمين قبل دخولهم البلاد”

أخبار: "بريطانيا تعتمد أول ذكاء اصطناعي لفحص نوايا المسلمين قبل دخولهم البلاد"

هل شعرت بالقلق أو الغضب أو الدهشة وأنت تقرأ هذا العنوان؟
هل تحرّك في داخلك شكٌّ ما؟
 أم هل فكّرت في مشاركته فورًا قبل أن تتأكد من صحته؟
إن كنت كذلك، فقد وقعت في نفس الفخ الذي يقع فيه ملايين البشر يوميًا.

هذا العنوان غير صحيح. لكنه قابل للتصديق.
نحن لا نقدّم هذا العنوان كخبر، بل كنموذج لظاهرة أصبحت تهدّد وعينا الجماعي.

في هذا المقال، نستعرض حالات شهيرة لأخبار مفبركة تم تداولها على نطاق واسع، ونفكّك كيف انتشرت، ولماذا صدّقها الناس، وكيف يمكن أن تكون قد سُمّمت عمدًا لتشكيل وعيك.

لأنها تمس موضوعًا حساسًا مرتبطًا بالدين والهوية، فيدفع الناس للتفاعل الفوري ومشاركتها قبل التأكد من صحتها. كلما كان الخبر مشحونًا بالعاطفة أو الجدل، زادت سرعة انتشاره حتى لو كان مفبركًا بالكامل..
وحين يُضاف إليهما كلمات مثل "بريطانيا"، "مسلمون"، و"نوايا"، يتحوّل العنوان إلى قنبلة جاهزة للانتشار في أي مجموعة واتساب أو تغريدة مشحونة.

خاصة حين يُقدَّم الخبر بلغة رسمية أو على خلفية صورة داكنة عليها "لوجو" استخباراتي.

ابدا مشروعك الأن

واحدة من الشركات الرائدة في تقديم الاستشارات وخدمات تكنولوجيا المعلومات والحلول

كيف تُفبرك هذه الأكاذيب؟

المفبركون لا يخترعون كل شيء من العدم. بل يستغلّون أحداثًا أو تقنيات حقيقية، ثم يُركّبون حولها رواية مضلّلة.

مثال؟
في 2023، طوّرت بعض شركات الأمن أدوات لتحليل لغة الجسد في المطارات، للكشف عن التهديدات الأمنية.
هل كان الذكاء الاصطناعي يقرأ "النوايا الدينية"؟
قطعًا لا.
لكن وجود التقنية كان كافيًا ليُستخدم كذريعة لصناعة خبر مثل:
"بريطانيا تعتمد نظامًا لقراءة نوايا المسلمين!"

وهكذا يتحوّل نصف الحقيقة إلى كذبة كاملة تؤذي الجميع.

أمثلة حقيقية عن أخبار مفبركة

الصين والمذيعون المزيّفون:                                                               
🔹في مايو 2024، كشفت The Guardian أن الحكومة الصينية استخدمت شخصيات وهمية تم توليدها بالذكاء الاصطناعي، ظهروا كمذيعين يتحدثون الإنجليزية بطلاقة، في فيديوهات دعائية عبر شبكة وهمية تُدعى Wolf News.- الرابط -
أحد المقاطع استُخدم لتشويه سمعة مرشحة تايوانية، من خلال عبارات مهينة على لسان مذيع يبدو حقيقيًا تمامًا… لكنه لم يكن إنسانًا أصلًا.

🔹 الحملة الروسية على الوعي البريطاني:                                                   
في أواخر 2024، كشف تقرير أوروبي أن شبكة روسية تُدعى Pravda نشرت أكثر من 47 ألف مقال مزيّف بلغات متعددة.
الأخطر من ذلك أنه تم استخدام صور معدّلة بذكاء اصطناعي تظهر:

سياسيين بريطانيين في أوضاع مخمورة أو عنيفة.

أحد أفراد العائلة الملكية يرتدي زيًّا عسكريًا روسيًا، في تلميح للخيانة.

مشاهد فاضحة مركّبة تسيء لسمعة شخصيات عامة.

الهدف؟ بثّ الشك، وتأليب الرأي العام، وتقليل الدعم لأوكرانيا.

🔹 احتجاجات كاليفورنيا 2024:                                                               
خلال مظاهرات ضد سياسات الترحيل، ظهرت تغريدات تدّعي أن صور الاحتجاجات مأخوذة من أفغانستان. الحدث حقيقي ،لكن الوصف زائف بالكامل، تمت كتابته باستخدام أدوات ذكاء اصطناعي و بلغة محايدة ومقنعة.

النتيجة؟ ارتباك شعبي، وانقسام حول مدى حقيقة المظاهرات.

🔹 داعش والمذيعون المزيفون:                                                                
في 2024، تم الكشف عن أن تنظيم داعش بدأ يستخدم "مقدّمي نشرات أخبار" مزيفين، توليدهم الذكاء الاصطناعي، ليظهروا وكأنهم مقدمي أخبار قنوات معروفة مثل الجزيرة.
كان الهدف تضليل الجمهور والترويج للإرهاب النفسي عبر مقاطع تبدو رسمية واحترافية.

🔹 الرئيس زيلينسكي والاستسلام الوهمي:                                                   
في 2022، انتشر فيديو مزيف يظهر فيه الرئيس الأوكراني زيلينسكي يطالب الجيش بالاستسلام.
الفيديو كان Deepfake، وتم فضحه خلال ساعات من قبل وكالات مثل Reuters وMeta.

🔹 صورة الطفلة بعد إعصار Helene:                                                      
انتشرت صورة عام 2024 لطفلة على قارب وسط فيضان، مع كلبها.
مؤثرة جدًا… لكنها مفبركة.
التصميم أُنجز بواسطة ذكاء اصطناعي، مما أدّى إلى فقدان الثقة في صور الإغاثة الحقيقية، وأثّر سلبًا على جهود الدعم.

🔹 احتجاجات لوس أنجلوس والمعلومات المضلِّلة:                                   
في 2024، ظهرت تغريدات تقول:
"شوفوا الصور… دي من كابول 2021، مش من أمريكا!"
الصورة من لوس أنجلوس فعلًا.
لكن تم التشكيك فيها باستخدام وصف كاذب مولَّد بأدوات ذكاء اصطناعي.

النتيجة؟ ناس فقدت الثقة في التغطية الحقيقية.
الصورة حقيقية، لكن الوصف هو الذي كان مزيفًا.

ما الذي يجعلنا نصدّق هذه الأشياء؟

السبب بسيط: الخوف + الجهل بالتقنية.

مصطلحات مثل "الخوارزميات" و"تحليل البيانات" صارت تشبه التعاويذ الغامضة.
وفي المقابل، أي خبر يشعل العاطفة الدينية أو السياسية يخترق عقولنا قبل أن ندقق فيه.

ابدا مشروعك الأن

واحدة من الشركات الرائدة في تقديم الاستشارات وخدمات تكنولوجيا المعلومات والحلول

ما الضرر الحقيقي من هذه الأخبار؟

ضررها ثلاثي:

تشوّه صورة الذكاء الاصطناعي، وتخلق فوبيا جماعية منه.

تعزّز الكراهية والانقسام، خاصة عندما تُلفّق داخل قوالب دينية أو عرقية.

تُضعف قدرتنا على التمييز بين الحقيقة والزيف، ما يجعلنا أكثر عرضة للتلاعب.

الذكاء الاصطناعي مجرد أداة. لا يفرّق بين عرق ودين، ولا يحمل نوايا.لكن من يستخدمه، هو من يقرّر ما إذا كان سيفيدك… أو سيخدعك.

كيف نحمي أنفسنا من الوقوع في الفخ؟

لا تصدّق كل ما يبدو منطقيًا… فكّر مرتين.

تحقّق من المصدر، واسأل: هل هناك جهة موثوقة تؤكد هذه المعلومة؟

لا تكتفِ بالعناوين. اقرأ التفاصيل.

راقب اللغة: هل يوجد مبالغة؟ شحن عاطفي؟ تحيّز فج؟

اسأل: من المستفيد من هذا الخبر؟

تابع مصادر علمية وتقنية تشرح الذكاء الاصطناعي بلغة بسيطة.
لا تنشر شيئًا لم تتأكّد منه، حتى لو كان "يبدو واقعيًا جدًا".

الأسئلة الشائعة

لماذا تبدو الأخبار المفبركة حول الذكاء الاصطناعي مقنعة؟

تستغل هذه الأخبار موضوعات حساسة مثل الدين أو السياسة، وتُقدم بلغة رسمية مع مصطلحات تقنية غامضة، مما يخلق وهم المصداقية. إضافة عناصر بصرية مثل الصور المعدلة أو شعارات تبدو رسمية تزيد من قابليتها للتصديق.

يستخدم المفبركون تقنيات مثل Deepfake لتوليد فيديوهات أو صور مزيفة، ونماذج لغوية لكتابة نصوص محايدة ومقنعة. غالبًا يبنون على تقنيات حقيقية (مثل تحليل لغة الجسد) لإضفاء لمسة واقعية على الرواية المضللة.

تشمل أمثلة مثل فيديوهات صينية بمذيعين وهميين في 2024، صور مفبركة لسياسيين بريطانيين، وفيديو Deepfake للرئيس زيلينسكي يدعو للاستسلام في 2022، إلى جانب صور مضللة لاحتجاجات أو كوارث طبيعية.

تُشوه سمعة الذكاء الاصطناعي، تثير الخوف والانقسام الاجتماعي، وتُضعف الثقة في المعلومات الحقيقية. كما قد تؤثر على جهود إغاثية أو قرارات سياسية عبر نشر الشك والتضليل.

تحقق من مصداقية المصدر (مثل وكالات أنباء موثوقة)، اقرأ ما وراء العنوان، وانتبه للغة المبالغ فيها أو العاطفية. اسأل من يستفيد من الخبر، وتأكد من المعلومات عبر مصادر علمية أو تقنية موثوقة قبل النشر.

لا، الذكاء الاصطناعي أداة محايدة. المشكلة تكمن في سوء استخدامه من قبل أفراد أو جهات تسعى للتضليل. يمكن أن يُستخدم أيضًا للكشف عن الأخبار المزيفة عبر تحليل الصور والنصوص.

من الصعب منعها بالكامل بسبب سرعة انتشار المعلومات عبر الإنترنت. لكن تعزيز التفكير النقدي، تحسين اللوائح التنظيمية، واستخدام تقنيات الكشف عن التزييف (مثل تحليل Deepfake) يمكن أن يحد من تأثيرها.

الخاتمة

عندما تصبح الأخبار المزيفة عن الذكاء الاصطناعي أكثر إقناعًا من الحقيقة نفسها، لا بد من العودة إلى العقل النقدي.
ليس المطلوب أن نرفض كل جديد، بل أن نتعلّم كيف نُميّز بين التقنية التي تخدمنا، وتلك التي تُستخدم ضد وعينا.

ابدا مشروعك الأن

واحدة من الشركات الرائدة في تقديم الاستشارات وخدمات تكنولوجيا المعلومات والحلول