كيف يعيد الذكاء الاصطناعي تشكيل مشهد التهديدات الإلكترونية
اكتشف سلاح الذكاء الاصطناعي ذو الحدين في الأمن السيبراني. تتعمق هذه المدونة الثاقبة في كيفية قيام الذكاء الاصطناعي بإحداث ثورة في الدفاعات مع تمكين مجرمي الإنترنت أيضًا. افهم معضلة الاستخدام المزدوج للذكاء الاصطناعي في مشهد التهديدات الإلكترونية المتطور باستمرار.
برز الذكاء الاصطناعي (AI) كقوة ثورية في مجال الأمن السيبراني، حيث يقدم آليات دفاع قوية، ومن المفارقات، سبلًا جديدة لمجرمي الإنترنت. وتمثل طبيعتها ذات الاستخدام المزدوج تحديًا فريدًا، حيث يتم أيضًا استغلال الأدوات المصممة لتعزيز الأمن لأغراض ضارة.
ملخص تنفيذي
ما هو التهديد؟
في حين أن الذكاء الاصطناعي أداة قوية لتعزيز الأمن السيبراني، فإنه يشكل أيضًا تهديدات كبيرة على هذا المجال.
تنبع هذه التهديدات من طبيعة الاستخدام المزدوج للذكاء الاصطناعي، حيث يمكن أيضًا استغلال نفس التكنولوجيا التي يمكن استخدامها لتعزيز الأمن السيبراني من قبل مجرمي الإنترنت والجهات الفاعلة التي ترعاها الدولة في حالات الاستخدام التي سيتم تناولها أدناه.
يمكن للجهات الخبيثة استخدام الذكاء الاصطناعي لأتمتة الهجمات الإلكترونية وتعزيزها، مما يجعلها أكثر تعقيدًا ويصعب اكتشافها. يتضمن ذلك حملات التصيد الآلي والبرامج الضارة المتقدمة والقائمة على الذكاء الاصطناعي هجمات الهندسة الاجتماعية
مقدمة: اختبار المياه
منذ الطفرة التكنولوجية التي بدأت من السبعينيات وحتى الآن - كان العالم دائمًا لعبة القط والفأر. يمكننا تصنيف هذا إلى نوعين - صنع أو كسر. اصنع منتجًا وعلى الجانب الآخر لديك شخص لديه الخبرة/الأفكار لكسر المنتج. إن الحصول على مدخلات من الخصم (الكسارة) في هذه الحالة يساعد الاختراع على مقاومة الكسر، مما يساعد المبدعين على فهم القيود أو كيف يمكن إساءة استخدام المنتج حسب رغبة الخصم.
في الآونة الأخيرة، ساعد ظهور LLM (نماذج تعلم اللغة) والأتمتة البشر على معالجة عملهم بشكل أسرع. كان أخذ المدخلات من Bard و ChatGPT وما إلى ذلك هو القاعدة.
بطبيعة الحال يأتي الخصم في الصورة = «كيفية كسر أو إساءة استخدام القاعدة لتنفيذ المتطلبات الخبيثة حسب الحاجة وهذا تغذيه دوافع مختلفة»
أدناه سوف نوضح بالتفصيل ظهور حالات الاستخدام المختلفة حيث لاحظ الباحثون إساءة استخدام الذكاء الاصطناعي: -
1. استنساخ الصوت
هل تريد خداع صديق? على Github، هناك وفرة من المشاريع المدرعة بـ LLM والتي يمكن تدريبها حسب الرغبة باستخدام صوت الهدف. إن القيام بنفس الشيء سيؤدي إلى الهندسة الاجتماعية، والتي بدورها تم إساءة استخدامها من قبل الجهات الفاعلة في مجال التهديد. تم استخدام الاستنساخ الصوتي في الآونة الأخيرة من قبل الخصوم لاستنساخ صوت الأشخاص في السلطة، حيث تم إصلاح الهدف من خلال الاستطلاع الساهر.
يتم استخدام مقتطفات عينة من صوت الهدف لتدريب LLM. وقد تم استخدام هذا بدوره لإجبار موظفي الشركة المستهدفة على تحويل مبالغ باهظة إلى حسابات مصرفية يسيطر عليها الخصوم. نظرًا لقلة الوعي بهذه الجريمة، يميل المزيد من الناس إلى السذاجة بسبب الوقوع في مثل هذه الحيل.
الشكل 1 - مستودعات مفتوحة المصدر تسهل عمليات الاحتيال المتعلقة باستنساخ الصوت من خلال تدريب نماذج LLM ضد صوت الشخص المنتحل
في أواخر نوفمبر 2023، تم إصدار ظاهرة إنشاء OpenAI ChatGPT كعرض توضيحي صغير. عند استغلال اللعبة الجديدة في المجموعة، بدأت الجهات الفاعلة في مجال التهديد في ابتكار أفكار حول كيفية استغلالها.
كان أحد الأمثلة هو إنشاء برنامج Python النصي الذي لديه القدرة على استخراج ملفات بتنسيقات معينة محددة مسبقًا عند نشرها في بيئة الضحية ثم متابعة تحميل الملفات إلى خادم FTP مشفر يتحكم فيه الخصم. أدى ذلك إلى المزيد من التجارب من قبل الممثلين لاختبار حدود ChatGPT والأدوات الأخرى لتوليد ما يلي: -
الشكل 2 - موضوع في منتدى الجرائم الإلكترونية الناطق باللغة الإنجليزية في أواخر عام 2022 - حيث تم تقديم برنامج نصي تم إنشاؤه بواسطة ChatGPT مع مخطط تفصيلي لوظائفه
الشكل 3 - فيديو مزيف تم إنشاؤه بذكاء تم إنشاؤه عن طريق أخذ صوت الرئيس الأمريكي السابق باراك أوباما ووضعه فوق الخطاب الذي ألقاه شخص آخر
3. دردشة ضارة تُعرف أيضًا باسم WormGPT
تؤكد WormGPT، وهي فرع من أدوات الذكاء الاصطناعي السائدة، الجانب المظلم للذكاء الاصطناعي في الجرائم الإلكترونية. تم تصميم WormGPT لتجاوز القيود ودعم الأنشطة غير المشروعة، ويسهل إنشاء رسائل البريد الإلكتروني المخادعة ورموز البرامج الضارة، مما يمثل تهديدًا كبيرًا للأمن السيبراني
ولدت WormGPT بدافع الضرورة، حيث تم حظر عمليات الهروب من السجن والتجاوز والأنشطة الضارة من كل طرف على ChatGPT، ووعدت WormGPT بدعم جميع الأنشطة غير المشروعة - والتي تشمل إنشاء رسائل بريد إلكتروني مخادعة ذكية وإنشاء أكواد البرامج الضارة وما إلى ذلك، وقد ظهرت WormGPT في البداية في منتديات الجرائم الإلكترونية السرية، وهي متاحة للأفراد بسعر اشتراك مميز.
تظل النماذج المستخدمة لتدريب WormGPT سرية، لمنع الخدمات المقلدة التي يمكن أن تؤدي نفس المتطلبات، مما يؤدي إلى خسارة في القيمة.
بالإضافة إلى ذلك، تضمن WormGPT خصوصية بيانات المستخدم، وعدم تسريب المطالبات أو النتائج التي تم إنشاؤها من مستخدم إلى آخرين وما إلى ذلك، وفي هذا الوقت تقريبًا، كانت ChatGPT تواجه مشكلات الخصوصية الخاصة بها - مما أدى إلى الكشف عن السجل الفوري للمستخدم، واستيعاب المعلومات الخاصة/الخاصة من الشركات لتوليد النتائج
الشكل 4 - إعلان مبيعات WormGPT في منتدى سري، مع تحديد ميزاته
جلبت بداية ChatGPT ازدهارًا لأفكار متعددة، واحدة منها كانت Midjourney. يسمح Midjourney للمستخدمين بإنشاء مقاطع فيديو أو صور تم إنشاؤها بواسطة الذكاء الاصطناعي، باستخدام مطالبات أحادية الخط. يمكن نشر مقاطع الفيديو هذه عبر YouTube ومنصات مشاركة الفيديو الأخرى تحت ستار مقاطع فيديو تعليمية تساعد الأشخاص الساذجين على تنزيل البرامج المتصدعة أو البرامج الخطرة.
في وصف مقاطع الفيديو هذه، توجد روابط إلى إصدارات متصدعة من البرامج الشرعية مثل Adobe Photoshop Studio وبرنامج Media Player و AutoCAD وما إلى ذلك، والتي يتم استضافتها على منصات استضافة الملفات البسيطة مثل Mega و Mediafire وما إلى ذلك.
تعد برامج Infostealer الضارة، والمعروفة أيضًا باسم البرامج الضارة لسرقة المعلومات، نوعًا من البرامج الضارة المصممة للتسلل إلى نظام كمبيوتر أو شبكة لجمع معلومات حساسة ونقلها إلى بنية تحتية مخصصة يسيطر عليها الخصوم (خوادم الأوامر والتحكم). تم إنشاء هذا النوع من البرامج الضارة خصيصًا لسرقة البيانات، مثل بيانات اعتماد تسجيل الدخول والمعلومات الشخصية والبيانات المالية وغيرها من المعلومات السرية أو الخاصة، والتي يتم حفظها تلقائيًا على متصفحات محرك البحث.
الشكل 5 - مثال لفيديو Youtube يحدد خطوات تنزيل وتثبيت إصدار متصدع من برنامج Adobe الخاص - Adobe Premiere Pro من خدمة استضافة ملفات تابعة لجهة خارجية
الشكل 6 - يقدم البحث عن حالة الاستخدام المذكورة أعلاه بواسطة Pavan لمحة عامة عن المخاطر التي ينطوي عليها تنزيل البرامج من مصادر غير موثوقة والتي يتم تسهيلها من خلال التدفق السريع لمقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي على YouTube
في الختام، على الرغم من أن الذكاء الاصطناعي قد حقق تقدمًا كبيرًا في الأمن السيبراني، إلا أنه أدخل أيضًا تحديات جديدة وأضرارًا محتملة. أصبحت الهجمات الإلكترونية التي يحركها الذكاء الاصطناعي أكثر تعقيدًا، مما يجعل من الصعب على الدفاعات التقليدية مواكبة ذلك. بالإضافة إلى ذلك، يمكن استخدام الذكاء الاصطناعي لأتمتة التهديدات السيبرانية وتضخيمها، مما يتيح هجمات أسرع وأكثر استهدافًا.
على الجانب الدفاعي، يمكن أن يؤدي الاعتماد المفرط على الذكاء الاصطناعي في الأمن السيبراني إلى نقاط ضعف وإيجابيات كاذبة، مما قد يتسبب في تعطيل العمليات المشروعة. علاوة على ذلك، تمثل ندرة المهنيين المهرة الذين يمكنهم إدارة أنظمة الأمان القائمة على الذكاء الاصطناعي وضبطها بشكل فعال تحديًا كبيرًا.
للتخفيف من الضرر الذي يسببه الذكاء الاصطناعي في الأمن السيبراني، يعد النهج المتوازن أمرًا بالغ الأهمية. يعد الجمع بين الذكاء الاصطناعي والخبرة البشرية والمراقبة المنتظمة للنظام والتحسين المستمر في استراتيجيات اكتشاف التهديدات والاستجابة أمرًا ضروريًا للدفاع الفعال ضد التهديدات السيبرانية المتطورة. بالإضافة إلى ذلك، تعد اللوائح القوية والاعتبارات الأخلاقية ضرورية لضمان الاستخدام المسؤول للذكاء الاصطناعي في الأمن السيبراني، وبالتالي تعظيم فوائده مع تقليل مخاطره.