تخيل أنك تتصفح التيك توك وترى اليوتيوبر الشهير "مستر بيسيت" يظهر لك وهو يوزع هواتف آيفون جديدة تماماً، ويقول: "انقر فوق الرابط أدناه للحصول على جهازك الآن!" هل تنقر؟ ربما. يبدو الأمر وكأنه "مستر بيسيت". لكنه في الواقع مقطع فيديو مزيف تم إنشاؤه بواسطة الذكاء الاصطناعي، أو AI.

في تشرين أول الماضي، خدع مقطع الفيديو هذا على تيك توك بعض المعجبين لمشاركة تفاصيل شخصية. كما دفعوا رسوم شحن لهاتف لن يصل أبداً. لكن أداة جديدة تسمى مضاد التزييف - AntiFake - يمكن أن تساعد في منع مثل هذه الاحتيالات.

تقوم معظم مضادات التزييف العميق بفحص ملفات الفيديو أو الصوت الموجودة ببساطة لمحاولة معرفة ما إذا كانت حقيقية. لكن تعتبر AntiFake أداة مختلفة، فهي تهدف إلى حماية تسجيلات أصواتنا حتى تواجه نماذج الذكاء الاصطناعي المزيفة المزيد من المتاعب في تعلم تقليدها بشكل أساسي.

قد يجعل هذا الأمر من الصعب على الذكاء الاصطناعي أن ينشئ أصواتاً لمقاطع الفيديو المزيفة. كما قد يجعل من الصعب إنشاء أصوات مزيفة لعمليات الاحتيال عبر الهاتف. في بعض هذه الاحتيالات، استخدم المحتالون أصواتاً مزيفة للاتصال بأفراد أسرة شخص ما وطلب المال. وفي حالات أخرى، استخدم المحتالون نفس التقنية لاقتحام الحسابات المصرفية المحمية بالصوت.

يقول تشي يوان يو: "لقد رأينا أن المهاجمين يستخدمون (أدوات الذكاء الاصطناعي) لإجراء احتيال مالي أو خداع عائلتنا وأصدقائنا. هذا خطر حقيقي". يو طالب دكتوراه في علوم الكمبيوتر بجامعة واشنطن في سانت لويس بولاية ميسوري. عمل مع نينغ تشانغ من الجامعة لبناء AntiFake.

وصف علماء الكمبيوتر أبحاثهم في مؤتمر ACM لعام 2023 حول أمن الكمبيوتر والاتصالات، الذي عقد في كوبنهاغن بالدنمارك في تشرين الثاني الماضي.

يكمل AntiFake العمل السابق الذي قامت به مجموعات أخرى لحماية الصور من التقليد باستخدام الذكاء الاصطناعي. ويتساءل تشانغ: "كيف نتأكد من أن المجتمع يستخدم الذكاء الاصطناعي بشكل مسؤول؟ هذا هو الهدف النهائي لعملنا".

في أوائل نيسان، فازت هذه الأداة بمسابقة! كانت مجموعة نينغ تشانغ واحدة من أربع مجموعات تقاسمت الجائزة الأولى والتي بلغت قيمتها 35000 دولار في تحدي استنساخ الصوت. كانت لجنة التجارة الفيدرالية الأمريكية هي التي أدارت هذه المسابقة، وطلبت من الباحثين طرقاً إبداعية للمساعدة في حماية الأشخاص من عمليات الاحتيال التي تستخدم أصواتاً مزيفة.

إحداث بعض الضوضاء

كل ما يتطلبه الأمر لإنشاء صوت مزيف عميق هو صوت حقيقي أو فيديو لشخص يتحدث. غالباً ما يمكن لنموذج الذكاء الاصطناعي أن يتعلم تقليد صوت شخص ما بناءً على 30 ثانية فقط من الكلام. يفعل ذلك عن طريق إنشاء شيء يسمى التضمين.

يقول "يو" إن الصوت في الأساس عبارة عن "سلسلة من الأرقام". الأرقام تشبه عنوان هوية المتحدث في خريطة رياضية واسعة لجميع الأصوات. الأصوات التي تبدو متشابهة تقع أقرب إلى بعضها البعض في هذه الخريطة.

بالطبع، لا يستخدم الناس هذا النوع من الخريطة للتعرف على الأصوات. نولي المزيد من الاهتمام لبعض ترددات الموجات الصوتية واهتماماً أقل للترددات الأخرى. يستخدم أنموذج الذكاء الاصطناعي كل هذه الترددات لإنشاء تضمينات جيدة.

يحمي AntiFake التسجيلات الصوتية عن طريق إضافة بعض الضوضاء إلى الترددات التي ينتبه إليها الناس بشكل أقل. لا يزال بإمكان المستمعين من البشر فهم الكلام. ومع ذلك، يمكن أن تفسد هذه الضوضاء قدرة أنموذج الذكاء الاصطناعي على إنشاء تضمين جيد للصوت. ينتهي الأمر بالذكاء الاصطناعي إلى إنشاء عنوان للجزء الخطأ من الخريطة. لذا فإن أي تزييف عميق يتم إنشاؤه باستخدام هذا التضمين لن يبدو مثل الصوت الأصلي.

يمكن للأشخاص سماع ضوضاء الخلفية في ملف محمي بـ AntiFake. هذا ليس مثالياً. لكن إضافة هذا المستوى من الضوضاء يسمح للأداة بالحماية من مجموعة واسعة من هجمات التزييف العميق المختلفة. يقول يو إنه إذا عرفوا أنموذج الذكاء الاصطناعي الذي سيستخدمه المحتال لتقليد صوت شخص ما، فيمكن لفريقه تصميم حماية أكثر دقة من الضوضاء - أصوات لا يستطيع الناس سماعها.

لكنه يقول إنه في العالم الحقيقي، "لا توجد طريقة لمعرفة" الأدوات التي سيستخدمها المحتالون. يجب أن يكون المدافعون مستعدين لأي شيء.

اختبارات

لاختبار AntiFake، انتحل فريق "يو" شخصية مهاجمين من نوع التزييف العميق. استخدموا خمسة نماذج مختلفة من الذكاء الاصطناعي لإنشاء 60000 ملف صوتي تحاكي أشخاصاً مختلفين. بعد ذلك، فحصوا ملفات التزييف العميق التي يمكنها خداع المستمعين من البشر وأنظمة مصادقة الصوت (مثل تلك الخاصة ببعض الحسابات المصرفية). اختار الباحثون 600 مقطع فيديو من التزييف العميق خدعت كل من الأشخاص والآلات.

بعد ذلك، أضاف الفريق حماية AntiFake إلى الـ 600 مقطع صوتي التي كانت تستند إليها ملفات التزييف العميق. ثم أرسل العلماء الملفات المحمية مرة أخرى من خلال نماذج الذكاء الاصطناعي الخمسة. هذه المرة، لم تقم تلك النماذج بعمل جيد. أكثر من 95 بالمئة من عينات التزييف العميق الجديدة لم تعد تخدع الأشخاص أو أنظمة مصادقة الصوت.

وتشير شيماء أحمد إلى أن البنوك والشركات الأخرى تستخدم بالفعل أنظمة التحقق من الصوت التي استُخدمت لاختبار الملفات المحمية ببرنامج AntiFake. "كان ذلك جيداً للغاية". شيماء أحمد خبيرة في أمن الكمبيوتر في جامعة ويسكونسن ماديسون ولم تشارك في بناء برنامج AntiFake.

يمكنها أن تتخيل أن الناس يستخدمون برنامج AntiFake لحماية هوياتهم. تقول: "هناك قيمة في هذا. يمكن دمجه مع العديد من التطبيقات". على سبيل المثال، قد تطلب مواقع التواصل الاجتماعي ذات يوم من المستخدمين تحديد مربع إذا كانوا يرغبون في إضافة الحماية إلى ملف يقومون بتحميله.

لكن إضافة القليل من الضوضاء لحماية الأصوات يثير قلق أحمد. تقول: "إذا كان صوتي هو وظيفتي، على سبيل المثال، أود أن يكون صوتي كما هو". لذلك قد يتردد الأشخاص الذين يعملون كممثلين صوتيين أو مغنين في حماية أصواتهم بهذه الطريقة.

يقول "يو" ملاحظاً: "هذه في الواقع مشكلة نريد معالجتها في المستقبل". بدلاً من إضافة الضوضاء، يعتقد أن برنامج AntiFake يمكن أن يعدل إيقاع أو نبرة الصوت. يبدو الصوت واضحاً وغير معدل للمستمعين. لكنه سيحتوي على إشارات مخفية بعناية لخداع نماذج الذكاء الاصطناعي للتزييف العميق.

يجب على شخص ما تطبيق AntiFake على ملف صوتي لحمايته. لذا فإن هذه التقنية لا يمكنها حماية الصوت الذي نشره شخص ما أو شاركه بالفعل. كما لا يمكنها منع المحتال من تسجيل صوت شخص ما سراً أثناء حديثه. لكنها أداة جديدة مثيرة للاهتمام للدفاع ضد التزييف العميق، كما تقول شيماء أحمد - وهي مهمة "صعبة للغاية". ففي النهاية يحتاج الناس إلى كل المساعدة التي يمكنهم الحصول عليها لحماية هوياتهم عبر الإنترنت.

----

بقلم: كاثرين هاليك

عن موقع: SN Explores