تكنولوجيا

بعد فبركة الصور… محتالون يستخدمون تقنية التزييف العميق Deepfake في عملياتهم


في أبريل 2020، وخلال عرض أحد أشهر المسلسلات الوثائقية، الرقصة الأخيرة The Last Dance على نيتفلكس، رأينا -فجأةً- إعلانًا تجاريًا من شركة State Farm يظهر فيه أحد المحللين الرياضيين لشبكة ESPN عام 1998 وهو يتنبأ بشكل دقيق ولا يُصدق بأحداث عام 2020. أحدثَ الإعلان الكثير من الجدل وأصبح أكثر الإعلانات غرابةً على الإطلاق. اكتشفنا في وقت لاحق أن ذلك الإعلان صُنع بواسطة أحدث التقنيات في مجال الذكاء الاصطناعي AI، التزييف العميق. وعندما علم المشاهدون بالأمر، أُصيبوا بمشاعر مختلطة من الدهشة، والحيرة، والقلق في نفس الوقت!

إعلان شركة State Farm لم يكن سوى أحد الأمثلة الواضحة لأحدث التقنيات المُقلقة في عصرنا هذا؛ تقنية التزييف العميق Deepfake. ببساطة، فإن هذه التكنولوجيا تُمَكن أي شخص يمتلك حاسوبًا واتصالًا بالإنترنت من أن يصنع صورًا واقعية، بل ومقاطع فيديو لأشخاصٍ “حقيقيين” أو “غير حقيقيين” ويجعلهم يفعلون أشياءً لم يرتكبوها من الأساس.

من رحم مصطلح “التعلم العميق Deep Learning” ومصطلح “التزييف Fake”، خرجت لنا تقنية التزييف العميق Deepfake لأول مرة في أواخر 2017 بفضل إحدى وسائل التعلم العميق الجديدة والتي يُطلق عليها “GANs”.

 انتشرت العديد من فيديوهات التزييف العميق مؤخرًا مما أدى إلى شهرة تلك التقنية على نطاق واسع، خصوصًا أن تلك المقاطع ليست لأشخاص مغمورين، بل لأشهر “المؤثرين” على وجه البسيطة؛ أمثال الرئيس الأمريكي الأسبق باراك أوباما وهو يصف ترامب بكلمات بذيئة، ومثل مارك زوكربيرج وهو يعترف بأن الهدف الرئيس من وراء الفيسبوك هو التلاعب بالمستخدمين واستغلالهم، وكذلك الممثل بيل هادر عندما خرج لنا على هيئة ألباتشينو في البرنامج الأمريكي Late-night talk show.

تلك النوعية من مقاطع الفيديو تنتشر على الإنترنت بمعدلٍ جنوني؛ ففي 2019 كان عدد مقاطع الفيديو تلك حوالي 8000 مقطع، وبحلول 2020، قفزت تلك المقاطع ووصلت إلى حوالي 15 ألف مقطع، شيء جنوني!

على الرغم من دقتها الشديدة، إلا أنك تستطيع أن تميز مقاطع الفيديو المصنوعة بواسطة تقنية التزييف العميق إن دققت النظر. ولكن المُقلق في الأمر أن تلك التقنية -مثلها مثل غيرها من تقنيات الذكاء الاصطناعي- تتطور بصورة مذهلة، ويتوقع الخبراء أن الأشخاص لن يميزوها في المستقبل عن مقاطع الفيديو أو الصور الحقيقية.

الآن، نحن على شفا حفرةٍ من الوقوع الكامل في حفرة تقنية التزييف العميق التي تهددنا بقوتها السياسية والاجتماعية، هل يجب أن نوقف الذكاء الاصطناعي من الوصول إلى مراحل متقدمة كهذه؟

كوارث التزييف العميق

أول استخدام سيئ لتقنية التزييف العميق -مثلها مثل معظم التقنيات- كان متعلقًا بالإباحية. ووفقًا لتقرير أصدرته Deeptrace في ديسمبر 2019، فهناك حوالي 96% من فيديوهات التزييف العميق بطابع إباحي.

خلال السنتين الماضيتين، أُنشئت مواقع إباحية مُعتمدة بالكامل على تقنية التزييف العميق، واستطاعت من خلاله أن تجمع مئات الملايين من المشاهدات. مئات، بل آلاف الممثلين والممثلات يتم استغلالهم وعمل مقاطع فيديو فاضحة لهم ونشرها على تلك المواقع الإباحية المُختلة.

بعد الإباحية، انتقلت تقنية التزييف العميق إلى المجال السياسي حيث الفوضى والعشوائية. لا يتطلب الأمر جهدًا كبيرًا ولا يساوي الضجة التي سَيُحدثها بعد أن يتسبب في التحامات سياسية ويُزيف لقطاتٍ لأحد السياسيين وهو يتلقى رشوةً أو ينتهك حقوق أحد المواطنين أو حتى يُعلن حربًا نووية على روسيا أو الولايات المتحدة الأمريكية، تخيل أن تقوم حربُ نووية بسبب قيام أحد الأشخاص المُختلين باستغلال مقاطع فيديو للرئيس الأمريكي وجعله يتفوه ببعض الترهات النووية ليستفز كوريا الشمالية وتنتهي البشرية جمعاء!

ما يزيد الطين بلةً هو إمكانية الوصول المُيسرة إلى تلك التقنية؛ كل ما يتطلبه الأمر هو اتصالُ بالإنترنت وحاسب شخصي كما ذكرنا. التزييف العميق منتشر حاليًا وفي كل يوم نشهد تفشيه أكثرَ وأكثر.

في تقرير سابق صدر من مؤسسة بروكينغز الأمريكية، رأينا ملخصًا لمدى الأضرار السياسية والاجتماعية الخطيرة لتقنية التزييف العميق: “تشويه الخطاب الديمقراطي، والتلاعب بالانتخابات ونتائجها، وانعدام الثقة بين أعضاء المؤسسة الواحدة، وتعريض الشخصيات البارزة والسلامة العامة إلى مخاطر كبيرة”. هكذا وصف التقرير مساوئ تلك التقنية.

يقول هاني فريد، وهو مؤلف وأستاذ جامعي أمريكي وأحد الرواد المتخصصين في تقنية التزييف العميق: “إن لم نستطع تصديق مقاطع الفيديو، والصور، والمعلومات التي نراها وشككنا في كل شيء، فهذا سيمثل خطرًا كبيرًا على الأمن القومي”.

التزييف العميق خرج عن السيطرة!

لم يعد الخطر الناجم عن تقنية التزييف العميق مجرد افتراءات -إن كان كذلك من الأساس- فهناك الكثير من الأمثلة الواقعية في عالمنا الحقيقي. ولقد حَذَّرنا الخبراء مرارًا وتكرارًا من العواقب الوخيمة لتلك التقنية.

في أبريل 2020، أصدر بعض السياسيين البلجيكيين مقطع فيديو مزيفًا -باستخدام تقنية التزييف العميق- لرئيس الوزراء البلجيكي وهو يربط بين كوفيد-19 والأضرار البيئية، كما أنه دعا المسؤولين لاتخاذ إجراءات فورية وجذرية بشأن تغيير المناخ. ربما فعل السياسيون هذا الأمر بنيةٍ حسنة، ولكن على الأقل خدعوا المشاهدين وجعلوهم يصدقون أن مقطع الفيديو ذلك حقيقي.

لننتقل إلى القارة الأفريقية، وبالتحديد إلى الجابون في أواخر 2018. لم يظهر رئيس البلاد (على بونجو) منذ أشهر عديدة وانتشرت شائعات عن تدهور أحواله الصحية، بل وحتى موته. لم يهدأ المجلس الرئاسي وقام بتزييف مقطع فيديو له وأعلنوا أن الرئيس سَيلقي خطابًا مُتلفزًا يوم رأس السنة الجديدة.

وبالفعل، شاهدنا الفيديو وظهر الرئيس منتصبًا وبأتم صحةٍ وعافية أمام الملأ أجمعين. انتشر الفيديو كالنار في الهشيم، ولكن الأمر لم يخف على الكثيرين وبالأخص خصومه السياسيين الذين سرعان ما فضحوا أمر تزييف الفيديو على مواقع التواصل الاجتماعي.

بمجرد “انكشاف المستور”، تزعزع الوضع السياسي في الجابون، ولم يحتج الجيش سوى أسبوعٍ واحدٍ فقط لينقلب على الحكومة، وهو الأمر الذي لم يحدث منذ عام 1964. استشهد الجيش بالفيديو المُزيف واتخذه ذريعة لتبرير انقلابه على الفور.

كيف يمكننا إيقاف هذا الخطر الزاحف؟

بعيدًا عن الحلول التقنية التي تتطلب خبراءً مخضرمين في هذا المجال، ما هي الحلول السياسية والاجتماعية التي يمكننا أن نستخدمها ضد هذه التقنية الشريرة؟ قبل أن نستعرض بعض تلك الحلول، قد تتساءل عن سبب استبعادنا للحلول التقنية، والإجابة بسيطة: لأن هناك من يحب الفوضى دائمًا؛ إذا أوقف التقنيون التزييف العميق، سيخرج علينا تقنيون آخرون بنوايا شريرة ويعيدون إحياءها مرةً أخرى، فالحل التقني ليس في المتناول.

من الناحية السياسية، فيمكن للحكومات أن تتخذ إجراءات صارمة فيما يتعلق بنشر الأخبار الكاذبة والمُفبركة. حلُ بديهي، ولكن تتغاضى عنه الكثير من الحكومات لأسباب قد يراها البعض بعدسة المؤامرة، وقد يراها البعض الآخر بعدسة التهاون والانفلات الأمني فيما يتعلق بالتكنولوجيا.

يمكن للدول والحكومات أيضًا وضع مكافآت مالية مُجزية لمن يكشف المقاطع المزيفة وهذا ما سيحث المتخصصين، وحتى غير المتخصصين، أن يبذلوا جهدًا أكبر لإيقاف تلك الكوارث المزيفة.

أما من الناحية الاجتماعية، فيجب على المجتمعات نفسها ألا تشجع على مثل تلك الأفعال؛ لا تصفيق ولا تشجيع لأشخاص يزيفون الحقائق ويستخدمون رموزًا شهيرة للتمثيل بها وجعلها تقوم بأفعالٍ لم تحدث. تشجيعك لمثل تلك النماذج هو ما يدعم استمراريتها وانتشارها.

قد لا تدعو الأمثلة المذكورة بالأعلى إلى دق ناقوس الخطر، ولكنها بالتأكيد مؤشرُ مُفجع لما نحن مقبلون عليه. يمكننا الحراك الآن قبل أن يثور علينا الذكاء الاصطناعي ويقتلنا بطريقة لم يتوقعها أحد من قبل.

اقرأ أيضًا: أزمة المهاجرين في بيلاروسيا.. حرب هجينة ذخيرتها الناس، وروسيا لا تمنح هدايا مجانية

ذو صلة:





المصدر الاصلية للمحتوي

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى