الأخبار

خوارزمية تستخدم الذكاء الصنعي لاكتشاف مقاطع الفيديو المزيفة بدقة عالية

يمكن للتكنولوجيا القائمة على الذكاء الصنعي التي اقترحتها د.كور وفريقها اكتشاف مقاطع الفيديو المزيفة في غضون ثوانٍ. حقوقو الصورة: SPIE.

يساهم الذكاء الصنعي (AI) بشكلٍ كبيرٍ في تحقيق الخير في العالم، من الحد من التلوث إلى جعل الطرق أكثر أمانًا مع السيارات ذاتية القيادة إلى توفير رعايةٍ صحية أفضل من خلال تحليل البيانات الطبية الضخمة، ولا يزال الذكاء الصنعي يتمتع بالكثير من الإمكانات غير المستغلة؛ لسوء الحظ، تمامًا مثل أي تقنية في العالم، يمكن استخدام الذكاء الصنعي من قبل أولئك الذين لديهم نوايا ذات تأثير سلبي.

تزييف وتبادل الوجوه


هذه هي الحال مع تقنيةٍ معينةٍ قائمةٍ على الذكاء الصنعي تُسمّى “التزييف المتعمق” أو Deepfake (مزيج من “التعلم العميق” و”المزيف”)، والتي تستخدم شبكات عصبية عميقة لإنشاء مقاطع فيديو مزيفة بسهولة فُرِض فيها وجه شخص واحد على وجه آخر؛ هذه الأدوات سهلة الاستخدام، حتى للأشخاص الذين ليس لديهم خلفية أو خبرة في البرمجة أو تحرير الفيديو.

يمكن استخدام هذه التقنية لإنشاء مقاطع فيديو لأي شخص تقريبًا، بما في ذلك المشاهير والسياسيين والشخصيات العامة للشركات؛ في هذا العصر من الترابط غير المسبوق والتواصل الفوري، عندما يمكن أن تصبح الأخبار منتشرة بشكل كبير في غضون ساعات، يمكن أن تسبب مقاطع الفيديو هذه ضررًا كبيرًا لمن هم في مقاطع الفيديو وكذلك للنفسية الاجتماعية والثقافية للمجتمعات المرتبطة بها.

الذكاء الصنعي في الإنقاذ


أصبح “التزييف المتعمق” منتشرًا، لكن يمكن تخفيف الضرر إذا أمكن اكتشاف مقاطع الفيديو هذه تلقائيًا؛ ما أفضل طريقة للقيام بذلك من استخدام الذكاء الصنعي نفسه؟

على الرغم من وجود طرق الكشف عن مقاطع الفيديو االمزيفة بالذكاء الصنعي، فقد طور باحثون من معهد Thapar للهندسة والتكنولوجيا ومعهد Indraprastha لتكنولوجيا المعلومات في الهند خوارزمية جديدة مع زيادة في الدقة؛ يمكن أن يكون عملهم علامةً فارقةً في سعيهم لمواجهة أحد أنواع التحديات العديدة التي نواجهها اليوم في عالم المعلوماتية.

بشكلٍ عام، تتكون مقاربتهم من المصنف الذي يقرر ما إذا كان مقطع الفيديو المدخل حقيقيًا أو مزيفًا، لجعل القرارات الدقيقة ممكنةً، مثل جميع التطبيقات المستندة إلى الذكاء الصنعي، يجب تدريب خوارزمياتهم أولًا، ولتحقيق هذه الغاية، بدأ الباحثون بإنشاء مجموعة بيانات تضم 200 مقطع فيديو لأزواج سياسيين متشابهين؛ كان 100 مقطعٍ منها حقيقيةً وأُنشِأ 100 مقطع أخرى باستخدام تقنية Deepfake؛ صُنِف جزءٌ من إطارات مقاطع الفيديو هذه وإدخالها إلى الخوارزمية كبيانات تدريب؛ استُخدِم الباقي كمجموعة بيانات للتحقق ما إذا كان البرنامج يمكنه التقاط مقاطع الفيديو التي بُدِّلت الوجوه فيها بشكلٍ صحيح.

طريقة الكشف عن التزييف


يمكن تقسيم الخوارزمية نفسها إلى مستويين: في المستوى الأول، تخضع إطارات الفيديو لبعض معالجة الصور الخفيفة، مثل إعادة القياس والتكبير/التصغير والتقليب الأفقي كتحضيرٍ للمراحل اللاحقة، ويتكون المستوى الثاني من مكونين رئيسيين: شبكة عصبية تلافيفية CNN ومرحلة ذاكرة قصيرة المدى LSTM.

CNN هي نوع خاص من الشبكات العصبية التي يمكنها استخراج الميزات تلقائيًا من إطارات الفيديو المتسلسلة، وLSTM هو نوع من الشبكات العصبية المتكررة، وهو مفيدٌ بشكلٍ خاص في معالجة بيانات السلاسل الزمنية (في هذه الحالة، إطارات الفيديو المتسلسلة). عند مقارنة مقاطع الفيديو الأصلية ومقاطع الفيديو المزيفة العميقة، تكتشف شبكة LSTM بسهولة التناقضات في الإطارات؛ يمكن للخوارزمية التعرف عليها باستخدام نحو ثانيتين فقط من مادة الفيديو.

اختُبِر أداء هذه الطريقة الجديدة ومقارنتها بأداء التقنيات الأخرى القائمة على أحدث التقنيات القائمة على الذكاء الصنعي للكشف عن مقاطع الفيديو المزيفة لما مجموعه 181,608 إطارًا حقيقيًا ومزيفًا استرِّد من مجموعة بيانات مقاطع الفيديو المجمعة في هذه الدراسة، حققت الطريقة المقترحة نسبة إحكام قدرها 98.21% ودقة 99.62%، مع وقت تدريب إجمالي أقل بكثير.

تسلط هذه الدراسة الضوء على سلبيات وإيجابيات الذكاء الصنعي، بينما يمكن استخدام الذكاء الصنعي لإلحاق الضرر بالسمعة ونشر المعلومات المضللة، يمكن استخدامه أيضًا لمنع المعلومات المزيفة من الانتشار، التي يُشعَر بأضرارها بشدة وسط أزمات مثل جائحة COVID-19.

ناسا بالعربي

هي مبادرة علمية تطوّعية، موجّهة إلى الناطقين باللغة العربية، تأسست بتاريخ 1 يناير/كانون الثاني 2013، ثمّ اتّسع نطاقها بجهود مجموعة من المتطوعين الذين يجمعهم إيمان عميق بأهمية العلم والعمل التطوعي ودورهما في تمكين المجتمعات والنهوض بها وتطويرها.