🚀 لقد رفعت CloudSek جولة B1 من السلسلة B1 بقيمة 19 مليون دولار - تعزيز مستقبل الأمن السيبراني التنبؤي
اقرأ المزيد
تشكل Deepfakes، وهي وسائل إعلام واقعية ولكن يتم التلاعب بها بالذكاء الاصطناعي، تهديدًا خطيرًا لنزاهة الانتخابات الأمريكية. تم استخدام مقاطع الفيديو والصور المصطنعة هذه، والتي تستخدم خوارزميات متقدمة لتغيير العناصر المرئية والسمعية، بشكل متزايد للتلاعب بمفاهيم الناخبين. خلال الانتخابات الأمريكية لعام 2024، تشمل الأمثلة البارزة التزييف العميق الذي يظهر دونالد ترامب وهو يدلي ببيانات مثيرة للجدل وتأييدات ملفقة من شخصيات عامة مثل تايلور سويفت. وقد استغل المحتالون أيضًا المنتجات المزيفة في إعلانات وسائل التواصل الاجتماعي، مثل تقديم عملات ذهبية مزيفة تحمل عنوان «ترامب فايت من أجل أمريكا»، وإسناد التأييد بشكل خاطئ إلى أفراد بارزين، وتشغيل عمليات احتيال تتعلق بالعملات المشفرة تتضمن مقاطع فيديو مزيفة لإيلون ماسك. مثل هذه التلاعبات الرقمية تخاطر بتضليل الجمهور ونشر المعلومات الخاطئة، مما يؤدي إلى تآكل الثقة في المؤسسات الديمقراطية ووسائل الإعلام. ولمواجهة ذلك، تحدد أدوات الكشف عن التزييف العميق المتطورة من CloudSek التشوهات الدقيقة في الوسائط المعدلة، مثل التناقضات في تعابير الوجه أو تعديلات الصوت. هذه الأدوات ضرورية للتحقق السريع من المحتوى المزيف وفضحه، مما يساعد في الحفاظ على الشفافية والنزاهة في العملية الانتخابية.
قم بحماية مؤسستك من التهديدات الخارجية مثل تسرب البيانات وتهديدات العلامة التجارية والتهديدات الناشئة عن الويب المظلم والمزيد. حدد موعدًا لعرض تجريبي اليوم!
Schedule a Demoبينما ننتقل إلى العصر الرقمي، يمثل ظهور وسائل الإعلام المزيفة - الوسائط الواقعية التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي يمكنها تغيير المظاهر والأصوات بدقة مذهلة - إمكانيات مثيرة وتحديات عميقة. في هذه المدونة، سنستكشف العالم الرائع للتزييف العميق، من أسسه التقنية إلى آثاره على الخصوصية والأخلاق والمجتمع ككل. سنناقش أيضًا كيفية إساءة استخدام Deepfakes في الانتخابات الأمريكية لتحقيق فوائد سياسية وشخصية.
سواء كنت متحمسًا للتكنولوجيا أو متشككًا أو مهتمًا ببساطة بالمشهد المتطور للوسائط الرقمية، فإن The Deepfake Digest هو المورد المفضل لديك لفهم مستقبل الواقع الاصطناعي.
Deepfakes هي نوع من الوسائط المولدة بالذكاء الاصطناعي والتي تستخدم تقنيات التعلم الآلي لإنشاء صور أو مقاطع فيديو أو تسجيلات صوتية واقعية للغاية ولكنها اصطناعية بالكامل. بدأ Adobe Photoshop في التسعينيات اتجاه تركيب الوجوه على الصور الأصلية.
مع ظهور الذكاء الاصطناعي، ارتجلت النماذج المدربة لإنشاء مقاطع فيديو. هذه أكثر إقناعًا ولديها إمكانية أكبر للاحتيال على الأشخاص. مقاطع فيديو لشخصيات بارزة مثل باراك أوباما وغال غادوت في 2017-18 طالب بها مستخدم reddit - السيد Deepfakes.
في الانتخابات الأمريكية الجارية، ظهرت صورة لتايلور سويفت وأتباعها، تصور الدعم الكامل للمرشح الجمهوري دونالد ترامب. بسرعة، وجدت الإنترنت أن الأمر مريب بعض الشيء وبدأ البحث. قامت وسائل الإعلام مثل «الجارديان» و «بي بي سي» و «الجزيرة» بنشر الأخبار، مؤكدة أن الصور تم إنشاؤها بواسطة الذكاء الاصطناعي. في وقت لاحق، أكدت تايلور سويفت أن الصورة ليست هي في الواقع.
استخدام Deepfake في الانتخابات الأمريكية
الأحداث المهمة مثل الألعاب الأولمبية 2024، والصراع بين روسيا وأوكرانيا، أو الموضوع الساخن الحالي، الانتخابات الأمريكية، غالبًا ما تجذب هذه الأحداث انتباه المواطنين العاديين. تجذب هذه الأحداث بنفس القدر المحتالين، الذين يجدون طرقًا مختلفة لخداع المواطنين، ويبحثون عن فرصة للنمو.
تم تحديد أحد هذه الأحداث على فيسبوك وإنستغرام، خلال 6-7 سبتمبر 2024. يتم الآن تداول مقاطع الفيديو بدون محتوى مزيف عميق، فقط صوت. أحدث فيديو شوهد في 18-19 أكتوبر.
كجزء من هذا الإعلان، فيديو ترويجي لاستطلاع يقدم عملات ذهبية مجانية بعنوان «معركة ترامب من أجل أمريكا» لأي شخص يجيب على الاستطلاع المكون من سؤال واحد. يحث الفيديو الناس على المشاركة ومساعدة دونالد ترامب على الفوز بالانتخابات. لا ينتمي الفيديو إلى دونالد ترامب أو أي حزب سياسي مرتبط به أو يؤيده.
الفيديو، الذي بدا أصليًا في البداية، تعرض للشك بسبب التحركات غير العادية للمذيع، وعرض مغري للغاية مشترك فيه، أعني من سيمنح عملة ذهبية للمشاركة في استطلاع.
أثناء التحقيق في الفيديو، كانت شكوكنا صحيحة، حيث اكتشف محلل الفيديو مرة أخرى تناقضات كبيرة في الفيديو، وهذا ما قاله
ومن المثير للاهتمام أن الرابط الذي تمت مشاركته مع الفيديو يقبل إعلانات الفيسبوك كأصل، بينما إذا تم نسخها والوصول إليها في علامة تبويب جديدة، فإنها تعيد التوجيه إلى صفحة وقوف السيارات. الرابط الأصلي الموضح أدناه
النطاق الذي تم تسجيله في شهر أبريل 2024 من قبل منظمة مقرها أيسلندا، ينشر بعناية 5-10 مقاطع فيديو شهريًا لتجنب الاكتشافات.
لخلق شعور بالإلحاح، يتحدث الموقع عن المخزون المحدود والطلب المرتفع، ويجمع أيضًا تفاصيل البطاقة.
2. التزييف العميق للمناظرة الرئاسية
في الصورة أعلاه، نرى مقبض X (@SouSanDiego) يشارك مقطع فيديو للنقاش الجاري حيث شوهد دونالد ترامب وهو يسيء معاملة كامالا هاريس أثناء نقاط العمل التي قدمتها، وهو ما تخطط للقيام به. تم تداول الفيديو، الذي بدا أنه تم التلاعب بسمات وجه دونالد ترامب فقط، من خلال مقابض X متعددة، مع السؤال عما إذا كان مزيفًا أم لا.
حدد محلل Deepfake من Cloudsek سمات الوجه التي تم التلاعب بها بطريقة غير عادية، وتحديدًا لدونالد ترامب. هذا ما قاله محللنا:
3. دونالد ترامب يسيء معاملة المواطنين ويدلي بتصريحات متطرفة
مثال آخر يصور استخدام Deepfakes في انتخابات عام 2024 في الولايات المتحدة، تمت مشاركته من خلال مقبض على X، حيث شوهد الرئيس السابق دونالد ترامب وهو يدلي ببيان حول مدى عظمة رئيسه. يتحدث عن كيفية قيامه بأفضل ما في وسعه لأمريكا وأن الناس يجب ألا يصدقوا الأخبار المزيفة التي تحاول جعله يبدو سيئًا. كما أنه ينادي بعض خصومه. مرة أخرى، ازداد الشك وقررنا تشغيل الفيديو من خلال Deepfake Analyzer التابع لـ CloudSek، والذي تم وضع علامة على الفيديو بشكل صحيح كنتيجة لخلط الفيديو القديم مع مزامنة الشفاه.
4. آراء إيلون ماسك حول المناظرة الرئاسية، مما أدى إلى احتيال العملات المشفرة - مزدوج
أثناء التحقيق في كيفية محاولة الجهات الفاعلة في مجال التهديد التأثير على الانتخابات الأمريكية، بحثنا أيضًا في منصة مشاركة الفيديو المعروفة - YouTube (@Tesla -p2x). ومما لا يثير دهشتنا أننا في CloudSek اكتشفنا مقطع فيديو مباشرًا لإيلون ماسك تتم مشاركته عبر قنوات مختلفة، حيث شوهد وهو يشارك وجهات نظره حول المرشحين للرئاسة - دونالد ترامب وكامالا هاريس.
تمت إضافة رمز الماسح الضوئي إلى موقع ويب في طبقات متعددة في هذا الفيديو - muskdebate [.] io
ويُنظر إلى عنوان URL الخاص بالمصدر هذا، والذي تم وضع علامة عليه باعتباره موقعًا محتملًا للتصيد الاحتيالي، وهو يعزز الاستثمار في العملات المشفرة، ويعد (2X) بالعملة المشفرة، إذا تم الوصول إليه عبر عنوان URL المذكور.
عند التحقيق في الفيديو من خلال محلل CloudSek Video، إليك ما جاء فيه:
5. الرئيس السابق باراك أوباما ومخاطر التلاعب بـ Deepfake
أثناء التحقيق من خلال قنوات Telegram، حددنا مقطع فيديو مهمًا جدًا للرئيس السابق باراك أوباما. يتحدث باراك أوباما عن أهمية توخي الحذر بشأن ما تثق به من الإنترنت، خاصة في عصر المعلومات. يقول إن أعدائه يمكنهم جعل الأمر يبدو وكأن أي شخص يقول أي شيء في أي وقت، حتى لو لم يقولوا هذه الأشياء أبدًا. يعطي مثالاً على كيفية جعله يقول أشياء مثل «Killmonger كان على حق» أو «بن كارسون في المكان الغارق» لنشر معلومات مضللة. يؤكد أوباما على الحاجة إلى الاعتماد على مصادر الأخبار الموثوقة والبقاء مستيقظًا.
مراجعة CloudSek Video Analyzer: قد يحتوي الفيديو على مزيج من المكونات التي أنشأها الإنسان إلى جانب المكونات التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
ملخص:
تمثل DeepFakes - وسائل الإعلام المتطورة التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تغير محتوى الفيديو والصوت بشكل مقنع - تهديدًا كبيرًا لنزاهة الانتخابات الأمريكية. يمكن لهذه المواد التي يتم التلاعب بها تلفيق البيانات، وإسناد الأفعال بشكل خاطئ، وخلق روايات كاذبة، وبالتالي تشويه التصور العام وربما التأثير على سلوك الناخبين. لا يكمن الخطر في انتشار المعلومات الخاطئة فحسب، بل أيضًا في إمكانية تآكل الثقة في المؤسسات الديمقراطية والمصادر الإعلامية. مع تقدم تقنية التزييف العميق، يصبح من الصعب بشكل متزايد التمييز بين المحتوى الأصلي والمزيف، مما يثير المخاوف بشأن مرونة العمليات الانتخابية ضد التلاعب الرقمي.
تبرز تقنية اكتشاف Deepfake من CloudSek كأصل حاسم في مكافحة هذا التهديد. الاستفادة من خوارزميات الكشف المتطورة والتعلم الآلي. يفحص التشوهات في تعابير الوجه وتعديل الصوت وغيرها من المخالفات الدقيقة التي غالبًا ما تمر دون أن يلاحظها أحد.
من خلال توفير التحليل والتحقق في الوقت الفعلي، تساعد تقنية اكتشاف Deepfake من CloudSek مسؤولي الانتخابات والمؤسسات الإعلامية والجمهور على تحديد ومعالجة التزييف العميق بسرعة. هذه القدرة ضرورية للحفاظ على مصداقية المعلومات وضمان أن تظل العمليات الانتخابية عادلة وشفافة في مواجهة التهديدات الرقمية المتطورة.
كشفت أحدث أبحاث CloudSek عن اتجاه مقلق يشمل المحتالين الذين يستخدمون تقنية deepfake للترويج لتطبيقات الهاتف المحمول الاحتيالية. تم استهداف أفراد بارزين، مثل فيرات كوهلي وأنانت أمباني وحتى شخصيات دولية مثل كريستيانو رونالدو وريان رينولدز، من خلال مقاطع فيديو مزيفة. تُظهر هذه المقاطع التي تم التلاعب بها أنها تؤيد تطبيق ألعاب الهاتف المحمول، وتجذب المستخدمين المطمئنين إلى عمليات الاحتيال. تستفيد الإعلانات الاحتيالية من مصداقية القنوات الإخبارية الشهيرة لتعزيز شرعيتها، وتخدع المستخدمين لتنزيل تطبيقات ضارة من نطاقات وهمية تشبه Google Play أو Apple App Store. يستهدف هذا التهديد الناشئ بشكل خاص السوق الهندية ولكنه يمتد إلى مناطق أخرى مثل نيجيريا وباكستان وجنوب شرق آسيا. تتطلب تطبيقات الألعاب الخادعة، المصممة لسحب الأموال من المستخدمين، حدًا أدنى للإيداع، وتعدك بأرباح سريعة ولكنها تؤدي إلى خسائر مالية كبيرة. تستغل عمليات الاحتيال هذه مقاطع الفيديو المزيفة بطرق مبتكرة لتجاوز الاكتشاف، مما يجعلها أكثر خطورة. لمكافحة هذا التهديد المتزايد، يقدم Deep Fake Analyzer من CloudSek حلاً مجانيًا لمجتمع الأمن السيبراني، مما يساعد المحترفين على اكتشاف وتخفيف المخاطر التي تشكلها مقاطع الفيديو والصور والصوت التي تم التلاعب بها. هذه الأداة ضرورية لحماية المؤسسات من عمليات الاحتيال والاحتيال المتعلقة بالتزييف العميق. للوصول إلى محلل CloudSek العميق للتزييف، تفضل بزيارة https://community.cloudsek.com/
Take action now
CloudSEK Platform is a no-code platform that powers our products with predictive threat analytic capabilities.
Digital Risk Protection platform which gives Initial Attack Vector Protection for employees and customers.
Software and Supply chain Monitoring providing Initial Attack Vector Protection for Software Supply Chain risks.
Creates a blueprint of an organization's external attack surface including the core infrastructure and the software components.
Instant Security Score for any Android Mobile App on your phone. Search for any app to get an instant risk score.