المقدم المهندس
عبدالله بن حسين الأسمري
مدير مكتب إدارة البيانات بوزارة الحرس الوطني
ما هو التزييف العميق؟
مصطلح «deepfake» هو اندماج «التعلم العميق» و«المزيف». يتم تعريف Deepfakes على أنها صور اصطناعية واقعية أو صوت تم إنشاؤه باستخدام Machine LearningML. يتم الاستفادة من هذه التقنية لزيادة أو استبدال صورة الإنسان بمحتوى واقعي تم إنشاؤه بواسطة الكمبيوتر. Deepfakes أكثر إقناعًا من تحرير الصور أو الفيديو التقليدي لأنها تستفيد من تقنيات ML المعقدة، مثل: شبكات الخصومة التوليدية (GANs).
تعمل شبكات GAN من خلال تأليب أحد تطبيقات الذكاء الاصطناعي على آخر، الأول: هو الشبكة التوليدية التي تنشئ صورة مزيفة استنادًا إلى مجموعة من parameters، والثاني: هو الشبكة التمييزية التي تقارن تلك الصورة بصورة واقعية، وتحاول تحديد أي منها هو المزيف. ثم يحاول الذكاء الاصطناعي الأول تحسين المزيف بحيث تقبله الشبكة التمييزية على أنه حقيقي. تتباين جودة مقاطع الفيديو المزيفة العميقة على نطاق واسع، ولكن بعضًا من أفضلها.
لو أخذنا مثال واقعي في أحد أفلام هوليود الممثل (توم كروز)، يُظهر أن هناك مستقبلاً حيث يصبح من الصعب للغاية على العين البشرية رؤية الحقيقة من الخيال الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
منتجات (Deepfake)
تم البحث في المواقع لمنتجات التزييف العميق في عام 2021م، في ذلك الوقت كان العديد من الجهات الفاعلة في مجال التهديد يقدمون خدمات يزعمون من خلالها أنه يمكن أن تتجاوز التحقق عبر الفيديو، وتسمح بعمليات الاستحواذ على الحسابات في المؤسسات المالية، وتبادل العملات المشفرة. يدعي أحد الفاعلين المهددين أن خدمتهم سمحت لشخص ما بتجاوز المصادقة الثنائية (2FA) والتحقق من الفيديو في خمسة تبادلات للعملات المشفرة. ولكن على نطاق واسع، يبدو أن هناك القليل من الاستخدام المجدي لتقنية التزييف العميق لارتكاب جرائم الإنترنت بنجاح في ذلك العام، وكانت مناقشة استخدامها محدودة وسطحية.
بعد مرور عامين، شهدنا اهتمامًا متجددًا بالتزوير العميق نظرًا لانتشار الأمثلة المتطورة باستمرار لمقاطع الفيديو المزيفة العميقة، وكذلك إصدار ChatGPT.
يقدم ممثلو التهديد خدمات متنوعة، مثل استخدام مقطع فيديو متاح وتبديل وجه الشخص، وإضافة صوت جديد. من توجهاتهم في الخدمة استخدام ممثلين حقيقيين لتقليد شخص ما ثم تطبيق تقنيات ما بعد الإنتاج لتحسين الانتحال.
لوحظ زيادة إجمالية في الجهات الفاعلة في مجال التهديد التي تقدم خدمات التزييف العميق في الخفاء منذ عام 2021م، ومن المرجح أن يستمر هذا الاتجاه بمعدل ثابت بدلاً من زيادة هائلة في الاستخدام أو التطبيق.
عائق: الجودة
وجد أن منتجات التزييف العميق للفيديوهات في المنتديات السرية غير ناضجة في هذه المرحلة.
بعد الاطلاع من قبل الكثير من المختصين في مجال الذكاء الاصطناعي والإخراج وجدوا أن العينات المقدمة من كل من هذه الخدمات غير ناضجة، وفيها أخطاء وليست دقيقة وسهل اكتشافها, واكتشفوا أنه لا يزال هناك نقص في التزييف لإنشاء مزيف عميق مقنع حقيقيًا يكون قابلًا للتطبيق.
كانت مقاطع الفيديو ذات جودة متفاوتة, وقد اكتشف المختصون تفاصيل في كل منها تشير إلى منتج اصطناعي.
يمكن ربط جودة عروض التزييف العميق، وكذلك تلك المعروضة في المصادر المفتوحة بتطور الخدمة أو الفرد الذي يصنع الوسائط التركيبية. هناك العديد من أدوات البرمجيات مفتوحة المصدر، بما في ذلك DeepFaceLab، التي يمكن الاستفادة منها. تتطلب عمليات التزييف العميق عالية الجودة مزيدًا من الجهد، ومجموعة المهارات، والمال والوقت لإنشائها، وكذلك الحاسبات المستخدمة.
يتطلب إقناع التزييف العميق أيضًا الوصول إلى كميات كافية من مواد مصدر الصور للشخص الذي سيتم انتحاله. هذا هو السبب في أن تقنية التزييف العميق للمشاهير غالبًا ما تكون أكثر الأمثلة المصقولة نظرًا لكثرة مصادر الصور والمقاطع لهم. سيكون من الصعب إنشاء مزيف عميق لشخص لديه صورة واحدة أو محتوى بسيط على الإنترنت.
التطبيق الإجرامي المحتمل الكامل للتزييف العميق غير معروف في الوقت الحالي، ولكنه مقيد فقط ببراعة الجهات الفاعلة في التهديد التي تخلقها. بينما افترضنا أن التطبيق النظري لتقنية deepfake مقابل ممارسات الأمان التقليدية من المحتمل أن يكون ناجحًا للغاية، فإننا نحافظ على موقفنا بأن الحصول على عدد وجودة الصور ومقاطع الفيديو المطلوبة لإنشاء منتج مقنع أمر صعب.
التزييف العميق للصوت
هناك فئة واحدة من محتوى الذكاء الاصطناعي يبدو أنها تشكل خطرًا مباشرًا: الصوت، فهو يعدّ من الأخطار التي يجب الحذر منها في وقتنا الحاضر.
من القصص لجوزيف كوكس، وهو صحفي يعمل بقسم تكنولوجيا Vice، استخدم مؤخرًا خدمة الذكاء الاصطناعي لإنشاء صوته صناعيًا. اجتاز الصوت الاصطناعي مطالبة المصادقة الصوتية، مما سمح له بالوصول إلى رصيد حسابه المصرفي. بدأ بتسجيل خمس دقائق من حديثه وتحميله على ElevenLabs، مما أدى إلى إنشاء مقاطع مثل: «صوتي هو كلمة المرور الخاصة بي». رفض البنك تلك التسجيلات الأولية، ولم يسمح له بالدخول. ومع ذلك، سجل كوكس مقطعًا أطول من حديثه، ومرّره إلى ElevenLabs، وحقق نتيجة أكثر دقة. بعد أن قدم كوكس تاريخ ميلاده والتسجيل الصوتي الجديد، منحه البنك حق الوصول إلى رصيده وسجل المعاملات. وهذا مثال واقعي لعملية قد تتسبب في اختلاسات مالية كبيرة.
يريد مقدمو الخدمات أن تكون المصادقة متوافقة مع المخاطر، ولكن حتى الوصول إلى رصيد الحساب ببصمة الصوت وتاريخ الميلاد فقط يبدو أنه يتجاوز الخط الأحمر للمخاطر في بيئة التهديد اليوم. يمكن أن يساعد التزييف العميق للصوت في مخططات اختراق البريد الإلكتروني للأعمال (BEC)، لا سيما تلك التي تستهدف المؤسسات التي اتخذت تدابير للحماية منها. يمكن أن تشمل هذه الإجراءات اتصالات خارج النطاق، مثل: المكالمات الهاتفية للتحقق، على سبيل المثال، من التحويلات البرقية. يمكن أن يؤدي تقليد صوت الرئيس التنفيذي إلى إقناع الموظف باتخاذ إجراء محفوف بالمخاطر.
التقييم والتوقعات
حتى مع وجود الحواجز التي تحول دون قيام الجهات الفاعلة بالتهديد بالاستفادة بشكل بارز من تقنية التزييف العميق، فإننا لا نزال نرى أنها قادرة على إنشاء مقاطع فيديو وصور ومقاطع صوتية يمكن تمريرها عن طريق التزييف العميق. يمكن أن تكون هذه المنتجات مفيدة للمهاجمين الذين يحاولون تجاوز تطبيقات التحقق من الوجه، وكذلك إجراء تزوير المستندات والهندسة الاجتماعية عبر مكالمات الفيديو الحية وعمليات التصيد الصوتي (التصيد).
لا تزال الجودة تمثل مشكلة، ومع ذلك، من الممكن اكتشاف العيوب الواضحة في منتجات الفيديو المزيفة العميقة المعروضة في الأسواق السرية والتي تثير تساؤلات حول مدى صحتها. نتوقع أن يكون هذا مجالًا متطورًا باستمرار، مع القدرة على إنشاء صور مزيفة أكثر إقناعًا بتكلفة أقل بمرور الوقت.
لذلك الحذر من استقبال اتصالات أو رسائل غير موثوقة ويجب أن يتم التحقق من أي مقطع صوتي أو فيديو يأتيك ربما المرسل لك صديق أو أخ أو قريب جهازه مخترق، ويتم اختلاس أموالك والتعدي على خصوصيتك وبياناتك الشخصية.