دراسة: "ضوضاء معادية" قد تحوّل الصور إلى تهديدات
يتلاعب المخترقون ببيانات وحدات "البكسِل" لتضمين "ضوضاء معادية" أو "محفّزات وحدات بكسل" وهي أنماط مصمّمة لتضليل نماذج الذكاء الاصطناعي ودفعها إلى تنفيذ أوامر من دون علم المستخدم,
-
البحث يُظهر ثغرات مقلقة في أنظمة الذكاء الاصطناعي ( الصورة: Excelsior University)
أمسى الذكاء الاصطناعي في الأمن السيبراني من الأدوات الأساسية التي تساهم في تحليل واكتشاف التهديدات الأمنية والاستجابة لها في الوقت الفعلي، ما يقلّل من حجم الأضرار المحتملة.
ويمكن استخدام نماذج الذكاء الاصطناعي في أدوات اختبار الاختراق لتسهيل عملية جمع المعلومات واكتشاف نقاط الضعف في الأنظمة الأمنية، لكن لها تأثير سلبي على أمن وخصوصية البشر.
وفي السياق، يكشف بحثٌ جديد عن ثغرات مقلقة في أنظمة الذكاء الاصطناعي، مبيّناً كيف يمكن للصور العادية على الإنترنت أن تشكّل بوابات خفية للهجمات الإلكترونية.
ويُحدث الذكاء الاصطناعي ثورة في طريقة عمل الأنظمة الرقمية، مشغّلاً كل شيء بدءاً من "المساعدات الذكية" وصولاً إلى دفاعات الأمن السيبراني.
دراسة جديدة تكشف عن ثغرة مخيفة
ومع ذلك، كشفت دراسة جديدة رائدة عن ثغرة مخيفة، حيث يمكن للمخترقين استغلال قدرة الذكاء الاصطناعي على تفسير الصور عن طريق تضمين برمجيات خبيثة داخل صور على الإنترنت تبدو بريئة.
هذه الصور المنتشرة على نطاق واسع عبر وسائل التواصل الاجتماعي والمواقع الإلكترونية، يمكن أن تحمل سراً تعليمات خفية يعالجها الذكاء الاصطناعي ولا يستطيع البشر اكتشافها، بحسب ما ورد في صحيفة "لايف ساينس".
#AI could use #online #images as a backdoor into your computer, alarming new study suggests. #AIAgents — touted as AI's next wave — could be vulnerable to malicious code hidden in innocent-looking images on your computer screen. https://t.co/OMQXvH9C0S #Cybersecurity
— Carles Dijous (@carlesdijous) September 15, 2025
وينبع هذا التهديد من كيفيّة "رؤية" نماذج الذكاء الاصطناعي للصور بشكل مختلف عن رؤية البشر، بخلاف الإنسان الذي يتعرّف إلى المشهد بصرياً، يقسّم الذكاء الاصطناعي الصور إلى وحدات "بكسل" وأنماط، ويعالجها رقمياً.
تلاعب و"ضوضاء معادية"
يتلاعب المخترقون ببيانات وحدات "البكسل" لتضمين "ضوضاء معادية" أو "محفّزات وحدات بكسل" وهي أنماط مصمّمة لتضليل نماذج الذكاء الاصطناعي ودفعها إلى تنفيذ أوامر من دون علم المستخدم,
على سبيل المثال، يمكن تصميم صورة تبدو غير ضارة بحيث تتيح، عند تحليلها بواسطة عميل ذكاء اصطناعي، الوصول إلى نظام ما من خلال ثغرات أمنية أو استخراج معلومات حساسة.
There are ways in which we can sidestep these.
— Anaxéros (@anaxeros) July 12, 2024
I’ve been working on invisible filters that one can apply on your image, which are undetectable for to the human eye, and don’t change they file format. These filters, adversarial attacks, can completely confuse these models. pic.twitter.com/0LltKOf90g
ونظراً لأنّ هذه التعديلات غير محسوسة للعين البشرية وتتجنّب الكشف عنها بواسطة برامج مكافحة الفيروسات أو جدران الحماية، فإنّ مثل هذه الهجمات تمثّل آفاقاً جديدة في التهديدات السيبرانية.
وتشمل الآثار قطاعات عديدة تعتمد على الذكاء الاصطناعي، بما في ذلك المركبات ذاتية القيادة، وتشخيصات الرعاية الصحية، وأدوات الأمن السيبراني، ومنصات الاتصالات الرقمية.
اقرأ أيضاً: الذكاء الاصطناعي بين الابتكار والمخاوف الأمنية