إلى الخلف
اتجاهات عامة
جدول المحتوى

برز الذكاء الاصطناعي (AI) كقوة ثورية في مجال الأمن السيبراني، حيث يقدم آليات دفاع قوية، ومن المفارقات، سبلًا جديدة لمجرمي الإنترنت. وتمثل طبيعتها ذات الاستخدام المزدوج تحديًا فريدًا، حيث يتم أيضًا استغلال الأدوات المصممة لتعزيز الأمن لأغراض ضارة.

ملخص تنفيذي

ما هو التهديد؟

  • في حين أن الذكاء الاصطناعي أداة قوية لتعزيز الأمن السيبراني، فإنه يشكل أيضًا تهديدات كبيرة على هذا المجال.
  • تنبع هذه التهديدات من طبيعة الاستخدام المزدوج للذكاء الاصطناعي، حيث يمكن أيضًا استغلال نفس التكنولوجيا التي يمكن استخدامها لتعزيز الأمن السيبراني من قبل مجرمي الإنترنت والجهات الفاعلة التي ترعاها الدولة في حالات الاستخدام التي سيتم تناولها أدناه.

ماذا يمكن أن يكون التأثير؟

  • المخاطر السيبرانية - لا تقتصر على برامج Infostealer الضارة العدوى، الأعمال اختراق البريد الإلكتروني، خطر زيادة محاولات التصيد الاحتيالي.
  • يمكن للجهات الخبيثة استخدام الذكاء الاصطناعي لأتمتة الهجمات الإلكترونية وتعزيزها، مما يجعلها أكثر تعقيدًا ويصعب اكتشافها. يتضمن ذلك حملات التصيد الآلي والبرامج الضارة المتقدمة والقائمة على الذكاء الاصطناعي هجمات الهندسة الاجتماعية

مقدمة: اختبار المياه

  • منذ الطفرة التكنولوجية التي بدأت من السبعينيات وحتى الآن - كان العالم دائمًا لعبة القط والفأر. يمكننا تصنيف هذا إلى نوعين - صنع أو كسر. اصنع منتجًا وعلى الجانب الآخر لديك شخص لديه الخبرة/الأفكار لكسر المنتج. إن الحصول على مدخلات من الخصم (الكسارة) في هذه الحالة يساعد الاختراع على مقاومة الكسر، مما يساعد المبدعين على فهم القيود أو كيف يمكن إساءة استخدام المنتج حسب رغبة الخصم.
  • في الآونة الأخيرة، ساعد ظهور LLM (نماذج تعلم اللغة) والأتمتة البشر على معالجة عملهم بشكل أسرع. كان أخذ المدخلات من Bard و ChatGPT وما إلى ذلك هو القاعدة.
  • بطبيعة الحال يأتي الخصم في الصورة = «كيفية كسر أو إساءة استخدام القاعدة لتنفيذ المتطلبات الخبيثة حسب الحاجة وهذا تغذيه دوافع مختلفة»
  • أدناه سوف نوضح بالتفصيل ظهور حالات الاستخدام المختلفة حيث لاحظ الباحثون إساءة استخدام الذكاء الاصطناعي: -

1. استنساخ الصوت

  • هل تريد خداع صديق? على Github، هناك وفرة من المشاريع المدرعة بـ LLM والتي يمكن تدريبها حسب الرغبة باستخدام صوت الهدف. إن القيام بنفس الشيء سيؤدي إلى الهندسة الاجتماعية، والتي بدورها تم إساءة استخدامها من قبل الجهات الفاعلة في مجال التهديد. تم استخدام الاستنساخ الصوتي في الآونة الأخيرة من قبل الخصوم لاستنساخ صوت الأشخاص في السلطة، حيث تم إصلاح الهدف من خلال الاستطلاع الساهر.
  • يتم استخدام مقتطفات عينة من صوت الهدف لتدريب LLM. وقد تم استخدام هذا بدوره لإجبار موظفي الشركة المستهدفة على تحويل مبالغ باهظة إلى حسابات مصرفية يسيطر عليها الخصوم. نظرًا لقلة الوعي بهذه الجريمة، يميل المزيد من الناس إلى السذاجة بسبب الوقوع في مثل هذه الحيل.

  

الشكل 1 - مستودعات مفتوحة المصدر تسهل عمليات الاحتيال المتعلقة باستنساخ الصوت من خلال تدريب نماذج LLM ضد صوت الشخص المنتحل

2.برامج ضارة / رانسوم وير توليد التعليمات البرمجية

في أواخر نوفمبر 2023، تم إصدار ظاهرة إنشاء OpenAI ChatGPT كعرض توضيحي صغير. عند استغلال اللعبة الجديدة في المجموعة، بدأت الجهات الفاعلة في مجال التهديد في ابتكار أفكار حول كيفية استغلالها.

كان أحد الأمثلة هو إنشاء برنامج Python النصي الذي لديه القدرة على استخراج ملفات بتنسيقات معينة محددة مسبقًا عند نشرها في بيئة الضحية ثم متابعة تحميل الملفات إلى خادم FTP مشفر يتحكم فيه الخصم. أدى ذلك إلى المزيد من التجارب من قبل الممثلين لاختبار حدود ChatGPT والأدوات الأخرى لتوليد ما يلي: -

  • التصيد الاحتيالي رسائل البريد الإلكتروني
  • البرامج النصية الضارة
  • مقاطع فيديو وصور Deepfake

              

الشكل 2 - موضوع في منتدى الجرائم الإلكترونية الناطق باللغة الإنجليزية في أواخر عام 2022 - حيث تم تقديم برنامج نصي تم إنشاؤه بواسطة ChatGPT مع مخطط تفصيلي لوظائفه

الشكل 3 - فيديو مزيف تم إنشاؤه بذكاء تم إنشاؤه عن طريق أخذ صوت الرئيس الأمريكي السابق باراك أوباما ووضعه فوق الخطاب الذي ألقاه شخص آخر

3. دردشة ضارة تُعرف أيضًا باسم WormGPT


تؤكد WormGPT، وهي فرع من أدوات الذكاء الاصطناعي السائدة، الجانب المظلم للذكاء الاصطناعي في الجرائم الإلكترونية. تم تصميم WormGPT لتجاوز القيود ودعم الأنشطة غير المشروعة، ويسهل إنشاء رسائل البريد الإلكتروني المخادعة ورموز البرامج الضارة، مما يمثل تهديدًا كبيرًا للأمن السيبراني


ولدت WormGPT بدافع الضرورة، حيث تم حظر عمليات الهروب من السجن والتجاوز والأنشطة الضارة من كل طرف على ChatGPT، ووعدت WormGPT بدعم جميع الأنشطة غير المشروعة - والتي تشمل إنشاء رسائل بريد إلكتروني مخادعة ذكية وإنشاء أكواد البرامج الضارة وما إلى ذلك، وقد ظهرت WormGPT في البداية في منتديات الجرائم الإلكترونية السرية، وهي متاحة للأفراد بسعر اشتراك مميز.

  • تظل النماذج المستخدمة لتدريب WormGPT سرية، لمنع الخدمات المقلدة التي يمكن أن تؤدي نفس المتطلبات، مما يؤدي إلى خسارة في القيمة.
  • بالإضافة إلى ذلك، تضمن WormGPT خصوصية بيانات المستخدم، وعدم تسريب المطالبات أو النتائج التي تم إنشاؤها من مستخدم إلى آخرين وما إلى ذلك، وفي هذا الوقت تقريبًا، كانت ChatGPT تواجه مشكلات الخصوصية الخاصة بها - مما أدى إلى الكشف عن السجل الفوري للمستخدم، واستيعاب المعلومات الخاصة/الخاصة من الشركات لتوليد النتائج

الشكل 4 - إعلان مبيعات WormGPT في منتدى سري، مع تحديد ميزاته

4. استخدام مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي للنشر البرامج الضارة لسرقة المعلومات

جلبت بداية ChatGPT ازدهارًا لأفكار متعددة، واحدة منها كانت Midjourney. يسمح Midjourney للمستخدمين بإنشاء مقاطع فيديو أو صور تم إنشاؤها بواسطة الذكاء الاصطناعي، باستخدام مطالبات أحادية الخط. يمكن نشر مقاطع الفيديو هذه عبر YouTube ومنصات مشاركة الفيديو الأخرى تحت ستار مقاطع فيديو تعليمية تساعد الأشخاص الساذجين على تنزيل البرامج المتصدعة أو البرامج الخطرة.

في وصف مقاطع الفيديو هذه، توجد روابط إلى إصدارات متصدعة من البرامج الشرعية مثل Adobe Photoshop Studio وبرنامج Media Player و AutoCAD وما إلى ذلك، والتي يتم استضافتها على منصات استضافة الملفات البسيطة مثل Mega و Mediafire وما إلى ذلك.

اقرأ كيف تستغل الجهات الفاعلة في مجال التهديد شعبية ChatGPT لنشر البرامج الضارة عبر حسابات Facebook المخترقة مما يعرض أكثر من 500,000 شخص للخطر

ما هي برامج Infostealer الضارة؟

  • تعد برامج Infostealer الضارة، والمعروفة أيضًا باسم البرامج الضارة لسرقة المعلومات، نوعًا من البرامج الضارة المصممة للتسلل إلى نظام كمبيوتر أو شبكة لجمع معلومات حساسة ونقلها إلى بنية تحتية مخصصة يسيطر عليها الخصوم (خوادم الأوامر والتحكم). تم إنشاء هذا النوع من البرامج الضارة خصيصًا لسرقة البيانات، مثل بيانات اعتماد تسجيل الدخول والمعلومات الشخصية والبيانات المالية وغيرها من المعلومات السرية أو الخاصة، والتي يتم حفظها تلقائيًا على متصفحات محرك البحث.
الشكل 5 - مثال لفيديو Youtube يحدد خطوات تنزيل وتثبيت إصدار متصدع من برنامج Adobe الخاص - Adobe Premiere Pro من خدمة استضافة ملفات تابعة لجهة خارجية

 

الشكل 6 - يقدم البحث عن حالة الاستخدام المذكورة أعلاه بواسطة Pavan لمحة عامة عن المخاطر التي ينطوي عليها تنزيل البرامج من مصادر غير موثوقة والتي يتم تسهيلها من خلال التدفق السريع لمقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي على YouTube

اقرأ كيف يقوم ممثلو التهديد بإساءة استخدام مقاطع فيديو Youtube التي تم إنشاؤها بواسطة الذكاء الاصطناعي لنشر البرامج الضارة

الخاتمة

في الختام، على الرغم من أن الذكاء الاصطناعي قد حقق تقدمًا كبيرًا في الأمن السيبراني، إلا أنه أدخل أيضًا تحديات جديدة وأضرارًا محتملة. أصبحت الهجمات الإلكترونية التي يحركها الذكاء الاصطناعي أكثر تعقيدًا، مما يجعل من الصعب على الدفاعات التقليدية مواكبة ذلك. بالإضافة إلى ذلك، يمكن استخدام الذكاء الاصطناعي لأتمتة التهديدات السيبرانية وتضخيمها، مما يتيح هجمات أسرع وأكثر استهدافًا.

على الجانب الدفاعي، يمكن أن يؤدي الاعتماد المفرط على الذكاء الاصطناعي في الأمن السيبراني إلى نقاط ضعف وإيجابيات كاذبة، مما قد يتسبب في تعطيل العمليات المشروعة. علاوة على ذلك، تمثل ندرة المهنيين المهرة الذين يمكنهم إدارة أنظمة الأمان القائمة على الذكاء الاصطناعي وضبطها بشكل فعال تحديًا كبيرًا.

للتخفيف من الضرر الذي يسببه الذكاء الاصطناعي في الأمن السيبراني، يعد النهج المتوازن أمرًا بالغ الأهمية. يعد الجمع بين الذكاء الاصطناعي والخبرة البشرية والمراقبة المنتظمة للنظام والتحسين المستمر في استراتيجيات اكتشاف التهديدات والاستجابة أمرًا ضروريًا للدفاع الفعال ضد التهديدات السيبرانية المتطورة. بالإضافة إلى ذلك، تعد اللوائح القوية والاعتبارات الأخلاقية ضرورية لضمان الاستخدام المسؤول للذكاء الاصطناعي في الأمن السيبراني، وبالتالي تعظيم فوائده مع تقليل مخاطره.

المراجع

نويل فارغيز
Cyber Threat Researcher
لم يتم العثور على أية عناصر.

مدونات ذات صلة