🚀 لقد رفعت CloudSek جولة B1 من السلسلة B1 بقيمة 19 مليون دولار - تعزيز مستقبل الأمن السيبراني التنبؤي

نظرة خاطفة على الصندوق الأسود: تصحيح أخطاء الشبكات العصبية العميقة للحصول على تنبؤات أفضل

نظرة خاطفة على الصندوق الأسود: تصحيح أخطاء الشبكات العصبية العميقة للحصول على تنبؤات أفضل

June 24, 2020
Green Alert
Last Update posted on
August 21, 2025
ما وراء المراقبة: الحماية التنبؤية للمخاطر الرقمية باستخدام CloudSek

قم بحماية مؤسستك من التهديدات الخارجية مثل تسرب البيانات وتهديدات العلامة التجارية والتهديدات الناشئة عن الويب المظلم والمزيد. حدد موعدًا لعرض تجريبي اليوم!

Schedule a Demo
Table of Contents
Author(s)
No items found.

 

غالبًا ما يتم انتقاد نماذج التعلم العميق لكونها معقدة وغير شفافة. يطلق عليها اسم الصناديق السوداء لأنها تقدم تنبؤات ورؤى، ولكن من الصعب فهم المنطق وراء مخرجاتها. نظرًا للشبكات العصبية غير الخطية المعقدة متعددة الطبقات، يجد علماء البيانات صعوبة في التأكد من عوامل أو أسباب تنبؤ معين.

إن عدم الوضوح هذا يجعل الناس حذرين من اتخاذ قرارات مهمة بناءً على مخرجات النماذج. كبشر، نثق بما نفهمه؛ ما يمكننا التحقق منه. ومع مرور الوقت، خدمنا هذا جيدًا. لذا، فإن القدرة على إظهار كيفية قيام النماذج بحل مشكلة لإنتاج رؤى، ستساعد في بناء الثقة، حتى بين الأشخاص الذين لديهم معرفة سريعة بعلوم البيانات.

ولتحقيق ذلك، لا بد من تطوير أساليب حسابية يمكنها تفسير هذه النماذج وتدقيقها وتصحيحها. يعد تصحيح الأخطاء أمرًا ضروريًا لفهم كيفية تحديد النماذج للأنماط وإنشاء التنبؤات. سيساعدنا هذا أيضًا في تحديد الأخطاء والعيوب وتصحيحها.

في هذه المقالة، نتعمق في الطرق المختلفة المستخدمة لتصحيح نماذج التعلم الآلي.

 

 

Source: interpretable-ml-book
المصدر: https://christophm.github.io/interpretable-ml-book/terminology.html

 

أهمية التبديل

تُعرف أيضًا باسم أهمية ميزة التبديل، وهي خوارزمية تحسب حساسية النموذج للتبديل/التعديلات في قيم الميزة. في الأساس، تقوم أهمية الميزة بتقييم كل ميزة من ميزات بياناتك وتقييمها بناءً على ملاءمتها أو أهميتها تجاه المخرجات. على الرغم من أهمية ميزة التبديل، إلا أنها تقيس كل ميزة من سمات البيانات بعد تغييرها، وتسجلها بناءً على أهميتها في توليد المخرجات.

على سبيل المثال، دعنا نقوم بتبديل قيم عمود واحد أو خلطها عشوائيًا في مجموعة بيانات التحقق مع سلامة جميع الأعمدة الأخرى. إذا انخفضت دقة النموذج بشكل كبير وتسببت في زيادة الخطأ، فإن هذه الميزة تعتبر «مهمة». من ناحية أخرى، تعتبر الميزة «غير مهمة» إذا كان خلط قيمها لا يؤثر على دقة النموذج.

 

تصحيح نماذج ML باستخدام ELI5

إيلي 5 هي مكتبة Python التي تساعد العديد من أطر ML وتساعد على تصور المربعات السوداء وتصحيحها بسهولة باستخدام واجهة برمجة تطبيقات موحدة. يساعد على حساب أهمية التقليب. ولكن تجدر الإشارة إلى أن أهمية التبديل يتم حسابه فقط على بيانات الاختبار بعد إنشاء النموذج.

Debugging ML models using ELI5

 

بعد أن يصبح نموذجنا جاهزًا، نقوم باستيراد ELI5 لحساب أهمية التبديل.

Importing ELI5 for debugging ML models

يظهر الإخراج الخاص بالرمز أعلاه أدناه:

output

الميزات الموجودة في الأعلى هي الأكثر أهمية، مما يعني أن أي تعديلات يتم إجراؤها على هذه القيم ستقلل من دقة النموذج بشكل كبير. الميزات الموجودة في أسفل القائمة غير مهمة لأن أي تبديل يتم إجراؤه على قيمها لن يقلل من دقة النموذج. في هذا المثال، كانت OverallQual هي الميزة الأكثر أهمية.

 

تصحيح أخطاء النماذج المستندة إلى CNN باستخدام Grad-Cam (رسم خرائط تنشيط الفئة الموزونة بالتدرج)

Grad-cam هي تقنية تنتج تفسيرات مرئية للمخرجات لتقديم نماذج شفافة تعتمد على الشبكة العصبية التلافيفية (CNN). يفحص معلومات التدرج التي تتدفق إلى الطبقة النهائية من الشبكة العصبية لفهم المخرجات. يمكن استخدام Grad-cam لتصنيف الصور والتعليق على الصور والإجابة المرئية على الأسئلة. الإخراج الذي يوفره Grad-Cam هو تصور خريطة الحرارة، والذي يُستخدم للتحقق بصريًا من أن النموذج الخاص بك مدرب على النظر إلى الأنماط الصحيحة في الصورة.

Debugging ML models using Grad-CAM

 

Debugging ML models using Grad-CAM2

 

تصحيح نماذج ML باستخدام SHAP (تفسيرات Shapley المضافة)

SHAP هو نهج نظري للعبة يهدف إلى شرح التنبؤ من خلال حساب أهمية كل ميزة تجاه هذا التنبؤ. تستخدم مكتبة SHAP قيم Shapley في جوهرها وتشرح التنبؤات الفردية. قدم لويد شابلي مفهوم Shapley في عام 1953 وتم تطبيقه لاحقًا في مجال التعلم الآلي.

يتم اشتقاق قيم Shapley من نظرية الألعاب، حيث تكون كل ميزة في البيانات لاعبًا، والمكافأة النهائية هي التنبؤ. اعتمادًا على مساهمتهم في المكافأة، تخبرنا قيم Shapley بكيفية توزيع هذه المكافأة بشكل عادل بين اللاعبين.

نحن نستخدم SHAP كثيرًا، خاصة بالنسبة للنماذج التي تكون فيها القابلية للتفسير أمرًا بالغ الأهمية. النتائج دقيقة للغاية حقًا.

يمكن لـ SHAP شرح ما يلي:

  • أهمية الميزة العامة للنموذج باستخدام جميع البيانات
  • لماذا يحسب النموذج درجة معينة لصف/سجل معين
  • الميزات الأكثر انتشارًا لقطاع/مجموعة من البيانات

تحسب قيم Shapley أهمية الميزة من خلال مقارنة تنبؤين، أحدهما مع الميزة المضمنة والآخر بدونها. تؤثر قيم SHAP الإيجابية على متغير التنبؤ/الهدف بشكل إيجابي بينما تؤثر قيم SHAP السلبية على الهدف بشكل سلبي.

هنا مثال لشرح نفس الشيء. لهذا الغرض، آخذ مجموعة بيانات جودة النبيذ الأحمر من kaggle.

Debugging ML models using Shapley

 

الآن، ننتج مخططات ذات أهمية متغيرة، والتي تسرد المتغير الأكثر أهمية بترتيب تنازلي. حيث سيساهم المتغير العلوي بشكل أكبر في النموذج.

Importing SHAP for debugging ML models

 

Mapping the plot

في الشكل أعلاه، يتم رسم جميع المتغيرات بترتيب تنازلي. يمثل لون المتغيرات قيمة الميزة، سواء كانت عالية (باللون الأحمر) أو منخفضة (باللون الأزرق) في تلك الملاحظة. أ مرتفع مستوى محتوى «الكبريتات» مرتفع و إيجابي التأثير على تصنيف الجودة. يمثل المحور السيني التأثير «الإيجابي». وبالمثل، يمكننا القول أن «الكلوريدات» ترتبط سلبًا بالمتغير المستهدف.

الآن، أود أن أوضح لك كيف يتم حساب قيم SHAP في الحالات الفردية. ثم نقوم بتنفيذ هذه القيم على العديد من الملاحظات واختيار بعض الملاحظات بشكل عشوائي.

Interpreting SHAP values

 

بعد اختيار الملاحظات العشوائية، نقوم بتهيئة دفتر الملاحظات الخاص بنا باستخدام initjs ().

شرح لبعض المصطلحات الموضحة في المخطط أعلاه:

  1. قيمة الإخراج: التنبؤ بهذه الملاحظة، وهو في هذه الحالة 5.35
  2. القيمة الأساسية: القيمة الأساسية هي متوسط التنبؤ، أو المتوسط (hat)، وهنا هي 5.65
  3. أزرق/أحمر: تظهر الميزات التي يمكن أن تؤثر على التنبؤ بشكل أكبر باللون الأحمر، وتلك التي لها أقل تأثير تكون باللون الأزرق.

لمزيد من المعلومات واختبار مهاراتك، تحقق من kaggle.

Author

Predict Cyber threats against your organization

Related Posts

حراس العلامة التجارية الخاصة بك: الغوص العميق في خدمات الإزالة في CloudSek

اكتشف كيف تحمي خدمات الإزالة الشاملة من CloudSek علامتك التجارية من التهديدات عبر الإنترنت.

Blog Image
September 5, 2022

كيف تستغل الجهات الفاعلة في مجال التهديد Android Webview

كيف تستغل الجهات الفاعلة في مجال التهديد Android Webview

Blog Image
November 28, 2020

الاستفادة من STIX و TAXII لتحسين استخبارات التهديدات السيبرانية (الجزء 1)

الاستفادة من STIX و TAXII لتحسين استخبارات التهديدات السيبرانية (الجزء 1)

انضم إلى أكثر من 10,000 مشترك

تابع آخر الأخبار حول سلالات البرامج الضارة، وأساليب التصيد الاحتيالي،
مؤشرات التسوية وتسريب البيانات.

Take action now

Secure your organisation with our Award winning Products

CloudSEK Platform is a no-code platform that powers our products with predictive threat analytic capabilities.

مدينة الحندية
Table of Content

 

غالبًا ما يتم انتقاد نماذج التعلم العميق لكونها معقدة وغير شفافة. يطلق عليها اسم الصناديق السوداء لأنها تقدم تنبؤات ورؤى، ولكن من الصعب فهم المنطق وراء مخرجاتها. نظرًا للشبكات العصبية غير الخطية المعقدة متعددة الطبقات، يجد علماء البيانات صعوبة في التأكد من عوامل أو أسباب تنبؤ معين.

إن عدم الوضوح هذا يجعل الناس حذرين من اتخاذ قرارات مهمة بناءً على مخرجات النماذج. كبشر، نثق بما نفهمه؛ ما يمكننا التحقق منه. ومع مرور الوقت، خدمنا هذا جيدًا. لذا، فإن القدرة على إظهار كيفية قيام النماذج بحل مشكلة لإنتاج رؤى، ستساعد في بناء الثقة، حتى بين الأشخاص الذين لديهم معرفة سريعة بعلوم البيانات.

ولتحقيق ذلك، لا بد من تطوير أساليب حسابية يمكنها تفسير هذه النماذج وتدقيقها وتصحيحها. يعد تصحيح الأخطاء أمرًا ضروريًا لفهم كيفية تحديد النماذج للأنماط وإنشاء التنبؤات. سيساعدنا هذا أيضًا في تحديد الأخطاء والعيوب وتصحيحها.

في هذه المقالة، نتعمق في الطرق المختلفة المستخدمة لتصحيح نماذج التعلم الآلي.

 

 

Source: interpretable-ml-book
المصدر: https://christophm.github.io/interpretable-ml-book/terminology.html

 

أهمية التبديل

تُعرف أيضًا باسم أهمية ميزة التبديل، وهي خوارزمية تحسب حساسية النموذج للتبديل/التعديلات في قيم الميزة. في الأساس، تقوم أهمية الميزة بتقييم كل ميزة من ميزات بياناتك وتقييمها بناءً على ملاءمتها أو أهميتها تجاه المخرجات. على الرغم من أهمية ميزة التبديل، إلا أنها تقيس كل ميزة من سمات البيانات بعد تغييرها، وتسجلها بناءً على أهميتها في توليد المخرجات.

على سبيل المثال، دعنا نقوم بتبديل قيم عمود واحد أو خلطها عشوائيًا في مجموعة بيانات التحقق مع سلامة جميع الأعمدة الأخرى. إذا انخفضت دقة النموذج بشكل كبير وتسببت في زيادة الخطأ، فإن هذه الميزة تعتبر «مهمة». من ناحية أخرى، تعتبر الميزة «غير مهمة» إذا كان خلط قيمها لا يؤثر على دقة النموذج.

 

تصحيح نماذج ML باستخدام ELI5

إيلي 5 هي مكتبة Python التي تساعد العديد من أطر ML وتساعد على تصور المربعات السوداء وتصحيحها بسهولة باستخدام واجهة برمجة تطبيقات موحدة. يساعد على حساب أهمية التقليب. ولكن تجدر الإشارة إلى أن أهمية التبديل يتم حسابه فقط على بيانات الاختبار بعد إنشاء النموذج.

Debugging ML models using ELI5

 

بعد أن يصبح نموذجنا جاهزًا، نقوم باستيراد ELI5 لحساب أهمية التبديل.

Importing ELI5 for debugging ML models

يظهر الإخراج الخاص بالرمز أعلاه أدناه:

output

الميزات الموجودة في الأعلى هي الأكثر أهمية، مما يعني أن أي تعديلات يتم إجراؤها على هذه القيم ستقلل من دقة النموذج بشكل كبير. الميزات الموجودة في أسفل القائمة غير مهمة لأن أي تبديل يتم إجراؤه على قيمها لن يقلل من دقة النموذج. في هذا المثال، كانت OverallQual هي الميزة الأكثر أهمية.

 

تصحيح أخطاء النماذج المستندة إلى CNN باستخدام Grad-Cam (رسم خرائط تنشيط الفئة الموزونة بالتدرج)

Grad-cam هي تقنية تنتج تفسيرات مرئية للمخرجات لتقديم نماذج شفافة تعتمد على الشبكة العصبية التلافيفية (CNN). يفحص معلومات التدرج التي تتدفق إلى الطبقة النهائية من الشبكة العصبية لفهم المخرجات. يمكن استخدام Grad-cam لتصنيف الصور والتعليق على الصور والإجابة المرئية على الأسئلة. الإخراج الذي يوفره Grad-Cam هو تصور خريطة الحرارة، والذي يُستخدم للتحقق بصريًا من أن النموذج الخاص بك مدرب على النظر إلى الأنماط الصحيحة في الصورة.

Debugging ML models using Grad-CAM

 

Debugging ML models using Grad-CAM2

 

تصحيح نماذج ML باستخدام SHAP (تفسيرات Shapley المضافة)

SHAP هو نهج نظري للعبة يهدف إلى شرح التنبؤ من خلال حساب أهمية كل ميزة تجاه هذا التنبؤ. تستخدم مكتبة SHAP قيم Shapley في جوهرها وتشرح التنبؤات الفردية. قدم لويد شابلي مفهوم Shapley في عام 1953 وتم تطبيقه لاحقًا في مجال التعلم الآلي.

يتم اشتقاق قيم Shapley من نظرية الألعاب، حيث تكون كل ميزة في البيانات لاعبًا، والمكافأة النهائية هي التنبؤ. اعتمادًا على مساهمتهم في المكافأة، تخبرنا قيم Shapley بكيفية توزيع هذه المكافأة بشكل عادل بين اللاعبين.

نحن نستخدم SHAP كثيرًا، خاصة بالنسبة للنماذج التي تكون فيها القابلية للتفسير أمرًا بالغ الأهمية. النتائج دقيقة للغاية حقًا.

يمكن لـ SHAP شرح ما يلي:

  • أهمية الميزة العامة للنموذج باستخدام جميع البيانات
  • لماذا يحسب النموذج درجة معينة لصف/سجل معين
  • الميزات الأكثر انتشارًا لقطاع/مجموعة من البيانات

تحسب قيم Shapley أهمية الميزة من خلال مقارنة تنبؤين، أحدهما مع الميزة المضمنة والآخر بدونها. تؤثر قيم SHAP الإيجابية على متغير التنبؤ/الهدف بشكل إيجابي بينما تؤثر قيم SHAP السلبية على الهدف بشكل سلبي.

هنا مثال لشرح نفس الشيء. لهذا الغرض، آخذ مجموعة بيانات جودة النبيذ الأحمر من kaggle.

Debugging ML models using Shapley

 

الآن، ننتج مخططات ذات أهمية متغيرة، والتي تسرد المتغير الأكثر أهمية بترتيب تنازلي. حيث سيساهم المتغير العلوي بشكل أكبر في النموذج.

Importing SHAP for debugging ML models

 

Mapping the plot

في الشكل أعلاه، يتم رسم جميع المتغيرات بترتيب تنازلي. يمثل لون المتغيرات قيمة الميزة، سواء كانت عالية (باللون الأحمر) أو منخفضة (باللون الأزرق) في تلك الملاحظة. أ مرتفع مستوى محتوى «الكبريتات» مرتفع و إيجابي التأثير على تصنيف الجودة. يمثل المحور السيني التأثير «الإيجابي». وبالمثل، يمكننا القول أن «الكلوريدات» ترتبط سلبًا بالمتغير المستهدف.

الآن، أود أن أوضح لك كيف يتم حساب قيم SHAP في الحالات الفردية. ثم نقوم بتنفيذ هذه القيم على العديد من الملاحظات واختيار بعض الملاحظات بشكل عشوائي.

Interpreting SHAP values

 

بعد اختيار الملاحظات العشوائية، نقوم بتهيئة دفتر الملاحظات الخاص بنا باستخدام initjs ().

شرح لبعض المصطلحات الموضحة في المخطط أعلاه:

  1. قيمة الإخراج: التنبؤ بهذه الملاحظة، وهو في هذه الحالة 5.35
  2. القيمة الأساسية: القيمة الأساسية هي متوسط التنبؤ، أو المتوسط (hat)، وهنا هي 5.65
  3. أزرق/أحمر: تظهر الميزات التي يمكن أن تؤثر على التنبؤ بشكل أكبر باللون الأحمر، وتلك التي لها أقل تأثير تكون باللون الأزرق.

لمزيد من المعلومات واختبار مهاراتك، تحقق من kaggle.

Related Blogs