الذكاء الاصطناعي و"التزييف العميق".. حقبة جديدة من الحروب (2-2)

تخطط قيادة العمليات الخاصة في الجيش الأميركي استخدامَ تقنية التزييف العميق في حملات الدعاية والخداع الرقمي عبر الإنترنت.

  • الجيش الأميركي يخطّط استخدامَ تقنية التزييف العميق.
    الجيش الأميركي يخطّط استخدامَ تقنية التزييف العميق.

لطالما كانت المعلومات المضلِّلة والدعاية الكاذبة أداتين فعالتين في النزاعات البشرية عبر التاريخ، بحيث استُخدمت لإضعاف الخصم، والتأثير في معنوياته، وزعزعة تماسكه. إلا أن التطور التقني، وخصوصاً الذكاء الاصطناعي التوليدي، جعل عملية تزييف المعلومات أكثر سهولة وانتشاراً، الأمر الذي زاد في قدرتها على التأثير والتلاعب بالرأي العام بطرائق غير مسبوقة.

من خلال "تقرير المخاطر العالمية 2024"، لفت المنتدى الاقتصادي العالمي الانتباه إلى تصدُّر المعلومات المغلوطة، والمعلومات المضللة، قائمة أبرز التهديدات التي سيواجهها العالم خلال عامي 2024 و2025، الأمر الذي يستدعي السؤال بشأن مدى الجهود المبذولة في مكافحتها.

التزييف العميق وخطر التلاعب بالحقيقة

هناك بالفعل عدد من المحاولات في هذا الإطار نجح البعض منها، وما زال البعض الآخر قيد الاختبار. يبدو هذا الأمر شديد الشبه بما يجري على صعيد تطوير الأسلحة التقليدية والمنافسة بين الدول على الريادة العسكرية، ففي حين يعمل جيش دولة ما على تطوير أسرع صاروخ على الإطلاق بهدف تخطي أفضل الدفاعات الجوية، يعمل الطرف المقابل على محاولة تطوير سلاح دفاعي بوجه التقدم الجديد. القصد هنا أن الأطراف تعمل على إيجاد وسائل لمكافحة التزييف العميق واكتشافه، لكن أيضاً جهود تطوير قدرة الذكاء الاصطناعي وتحسينه من أجل القيام بعملية تزييف يصعب تمييزها عن الحقيقة، تجري أيضاً بوتيرة سريعة.

مع تصاعد تهديدات التزييف العميق، برزت مبادرات دولية لمواجهته، بحيث تعهّدت شركات تقنية كبرى، مثل Amazon، Google، Meta، Microsoft، ByteDance، وOpenAI، خلال مؤتمر ميونيخ للأمن (شباط/فبراير 2024)، مكافحة المحتوى المضلل الذي يستهدف التأثير في الناخبين.

وفي إطار الحلول التقنية، طوّرت Intel أداة FakeCatcher، التي تعتمد على تحليل تدفّق الدم في الوجوه ضمن مقاطع الفيديو لاكتشاف التلاعب، وفق ما نشرته مجلة Fast Company (آذار/مارس 2023). كذلك، أطلقت OpenAI أداة Deepfake Detector (آذار/مارس 2024)، لكنها تقتصر على كشف المحتوى المولّد عبر نموذجها DALL-E، الأمر الذي يعكس تعقيد تطوير حلول شاملة لمكافحة التزييف العميق.

أما على المستوى الاستراتيجي، فاقترحت جامعة برينستون (أيار/مايو 2024) مبادرة جديدة لحلف الناتو، تحمل اسم "الشبكة"، تهدف إلى إشراك المجتمع المدني والقطاع الخاص في التصدي للمعلومات المضللة، غير أن التحديات، مثل التطور السريع للتقنيات الذكية والحاجة إلى استراتيجيات كشف أكثر دقة، تظل عائقاً أمام فعالية هذه الجهود.

التزييف العميق ليس سوى إمكانية واحدة وبسيطة مما يمكن للذكاء الاصطناعي أن يقدمه اليوم في مجال الصراعات السياسية. مع ذلك، فإن تناولها حصراً، من دون غيرها، لا يعني أنها أخطر ما يمكن أن يحدث، لكنها تبقى قضية قابلة للقياس مع قضايا أخرى. 

ومع ذلك، فإن استخدامها في خضم المفاصل الحساسة والظروف الدقيقة، التي يتسم بها واقع الشرق الأوسط ما بعد "طوفان الأقصى"، يحتّم التصدي لمخاطرها قبل وقوعها، والتنبيه لما يمكن أن تحمله من تهديدات، وخصوصاً إذا ما ترافقت مع حملة إغراق باتت البرامح القائمة على الذكاء الاصطناعي قادرة على إدارتها ذاتياً، كما أنها تصبح أكثر فعّالية إذا ما جرى استخدامها بالتزامن مع حملة عسكرية تصعّب على الطرف المتصدي للعدوان أن يتعامل معها بحكم تعرّضه لملاحقات وتهديدات أمنية، الأمر الذي يعزز نِسَب النجاح في محاولات بث الذعر وتوهين الروح المعنوية للطرف المقاوم.

التطرق إلى ضرورة وعي هذه الأداة لا يعني بالضرورة أن الجمهور لا يعرفها، على نحو يجعل طرحها مسألة تلقينية بحتة. الأمر أشبه بعملية تفكير بصوت مرتفع، مردّه إلى مسألة تتعلق بمحاولة السيطرة على الوعي.

هل خُدع بايدن بواسطة الذكاء الاصطناعي؟

عملية التزييف العميق واستخداماتها في الصراعات الحديثة ليست مجرد احتمالات نظرية، بل هناك عدد من الشواهد على توظيفها. في الـ21 من شباط/ فبراير 2022، ومع اجتياز القوات الروسية الحدود الأوكرانية، ظهر مقطع فيديو مزيف للرئيس الأوكراني، فولوديمير زيلينسكي، يدعو فيه قواته إلى إلقاء السلاح والاستسلام. في غضون دقائق، أحدث هذا الفيديو، الذي لم تتجاوز مدته دقيقة واحدة، حالة من الفوضى والارتباك داخل أوكرانيا.

لم يقتصر انتشار هذا المقطع المفبرك على منصات التواصل الاجتماعي، بل وصل تأثيره إلى القنوات التلفزيونية الأوكرانية، الأمر الذي زاد في خطورته وساهم في نشر معلومات مضللة على نطاق واسع، في محاولة لتقويض المعنويات والتلاعب بالرأي العام، وسط صراع عسكري محتدم. تخيلوا لو كان زيلينسكي معزولاً وقتها عن الإعلام وغير قادر على الظهور، ما كان يمكن أن يحدث؟

ولأن هذه الأدوات لا تقتصر على طرف واحد في الصراع، أمكن للطرف الأوكراني أن يرد الكرة هذه المرة، في حزيران/يونيو 2023، بحيث تعرّضت قنوات تلفزيونية روسية للاختراق، وجرى بث مقطع فيديو مزيّف للرئيس فلاديمير بوتين، يُعلن فيه حالة الطوارئ، ويفرض الأحكام العرفية، ويدعو إلى تعبئة جماهيرية في المناطق الحدودية المتوترة بسبب الأزمة الأوكرانية. وجاء هذا التزييف المتقَن بالتزامن مع اقتحام مجموعات روسية معارضة مناطق حدودية، في محاولة واضحة للتأثير في الرأي العام وإضعاف المعنويات في خضم الصراع القائم.

الرئيس الأميركي السابق، جو بايدن، تعرّض لمثل هذا الخداع، ووقع ضحيةً المعلومات المزيّفة، عندما صرح بأنه رأى "صوراً لإرهابيين يقطعون رؤوس أطفال" قبل أن يتراجع مسؤولو الأمن القومي الأميركي بعد ساعات عن هذا الادعاء، بحيث أشارت تقارير متعددة إلى أن بايدن ومسؤولي الإدارة لم يروا مثل هذه الصور، بل كانوا يشيرون إلى تقارير إعلامية لم يتم التحقق منها بعدُ، فهل شاهد بايدن وقتها فيديو مفبركاً بواسطة الذكاء الاصطناعي؟

الجيش الأميركي يخطّط استخدامَ تقنية التزييف العميق

تزدهر تقنيات التزييف العميق خلال فترات الانتخابات والحروب، والولايات المتحدة الأميركية لا تشذّ عن ذلك. مع احتدام السباق الرئاسي الأميركي العام الماضي، نبّه مدير مكتب التحقيقات الفيدرالي، كريستوفر راي، قبل موعد الانتخابات بأشهر من التهديد المتزايد، قائلاً إن الذكاء الاصطناعي التوليدي يجعل من السهل على "الخصوم الأجانب الانخراط في نفوذ خبيث".

ووفقاً لاستطلاع رأي أجرته مجموعة "أكسيوس" الإعلامية، بالتعاون مع شركة "مورنينغ كونسالت" للمعلومات التجارية في عام 2023، توقع أكثر من 50% من الأميركيين أن يكون للمعلومات المفبركة، التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، تأثير مباشر في نتائج انتخابات عام 2024.

كما أظهر استطلاع رأي، أجرته مؤسسة "بيو" قبل الانتخابات، أن 39% من الجمهور يرى أن الذكاء الاصطناعي سيُستخدم على الأغلب لأغراض سيئة خلال الحملة الرئاسية.

في مثال على الاستخدامات العسكرية المتقدمة لتقنية التزييف العميق، أشار تقرير نُشِر في موقع One Defense في نيسان/ أبريل 2024 إلى أن الجيش الأميركي طوّر برنامجاً يُعرف باسم "Ghost Machine"، مصمماً لمحاكاة أصوات المسؤولين العسكريين في صفوف الخصم. 

يعتمد هذا النظام على اختراق الاتصالات أو الاستفادة من البيانات المتاحة عبر المصادر المفتوحة، ليتمكن من الإنتاج والبث لرسائل صوتية مزيفة تهدف إلى خداع القوات المعادية، واستدراجها إلى كمائن، أو إضعاف روحها المعنوية، الأمر الذي يسلّط الضوء على أبعاد جديدة للحرب النفسية في العصر الرقمي.

في آذار/مارس 2023، كشف تقرير نشره موقع The Intercept الأميركي أن قيادة العمليات الخاصة في الجيش الأميركي (SOCOM) تخطط استخدامَ تقنية التزييف العميق (Deepfake) في حملات الدعاية والخداع الرقميَّين عبر الإنترنت، على رغم التحذيرات السابقة من أن هذه التقنية قد تهدد استقرار المجتمعات الديمقراطية.

ووفقاً للتقرير، أظهرت وثائق التعاقد الفدرالية، التي راجعها الموقع، أن SOCOM تعمل على تطوير أدوات تتيح لها تنفيذ عمليات تضليل رقمي باستخدام مقاطع فيديو مزيفة. وجاء ذلك ضمن وثيقة مشتريات عسكرية تسرد القدرات التي تطمح القيادة إلى تطويرها في المستقبل القريب، الأمر الذي يشير إلى نية الجيش الأميركي استغلال الذكاء الاصطناعي في الحرب المعلوماتية.

وأشار التقرير إلى أن الدعاية العسكرية تُستخدم منذ فجر الحروب، لكن ما يميز تقنية التزييف العميق هو طبيعتها المتطورة، التي تجعل من الصعب تمييز المعلومات الحقيقية من المفبركة، الأمر الذي قد يعزز فعّالية التضليل، ويشكل تهديداً حضارياً غير مسبوق.

الحقيقة سوف تعاني

ثمة وجه آخر لهذا الاستخدام، لكنه يحتاج إلى بعض الوقت ليبدأ تكريس نفسه في مساحة الوعي، جماعياً وفردياً. مع تصاعد انتشار الأخبار الكاذبة والمعلومات المضللة، إلى جانب مفاهيم مثل "الحقائق البديلة"، تزيد التقنيات الحديثة في حدة الاضطراب، وتعمّق أزمة الثقة بالمحتوى الذي تنقله وسائل الإعلام ومنصات التواصل الاجتماعي، إذ إن التكرار المستمر لعمليات التزييف والتلاعب بالمعلومات سيؤدي إلى ترسيخ حالة من الشكّ المستمر، بحيث يصبح كل محتوى قابلاً للطعن في صدقيته، بل ربما يتراجع الاهتمام بالبحث عن الحقيقة نفسها، الأمر الذي يجعل الفاصل بين الواقع والوهم أكثر ضبابية من أي وقت مضى.