شوف تشوف

الرئيسيةبانوراما

عودة الموتى إلى الحياة…تهم أخلاقية تلاحق تقنية “الديب فيك”

سهيلة التاور
أثارت ميزة جديدة أطلقتها شركة «ماي هيرتج» جدلا واسعا وسط مستخدمي التكنولوجيا، بعدما سمحت بإعادة تحريك صور لأشخاص بعد وفاتهم والتحكم حتى في حركات وجوههم على شكل مقاطع فيديو. البعض منبهر ومعجب بهذه التقنية، وآخرون يطرحون عددا من الأسئلة الأخلاقية والقانونية بخصوص هذا التطور.

قامت شركة «ماي هيرتج» بإطلاق ميزة «ديب نوستالجيا» (الحنين العميق) خلال الشهر الماضي، وهي ميزة تسمح للمستخدمين بتحويل الصور إلى مقاطع فيديو قصيرة، تظهر الشخص في الصورة وهو يبتسم ويغمز ويومئ برأسه.

وقال مؤسس «ماي هيرتج»، في بيان إن «رؤية وجوه أسلافنا تنبض بالحياة تتيح لنا تخيل كيف كان يمكن أن يكونوا في الواقع، وتوفر طريقة جديدة عميقة للتواصل مع تاريخ العائلة».

وتطورت خدمة «ديب نوستالجيا» مع شركة «دي. آي. دي»، وتعتمد خوارزميات التعلم العميق لتحريك الصور بتعبيرات الوجه، ليصبح آخر تطور وصلت إليه تقنية «التزييف العميق».

انقسام في صفوف المستخدمين
طرحت هذه التقنية مختلف أنواع الأسئلة الأخلاقية والقانونية، سيما حول الموافقة واحتمال طمس الواقع من خلال إعادة إنشاء شريك افتراضي. حيث غرد بعض مستخدمي الشركة على «تويتر» بمشاركة صور أقاربهم المتوفين المتحركة، بالإضافة إلى صور شخصيات تاريخية، بما في ذلك ألبرت أينشتاين وملكة مصر القديمة نفرتيتي، معجبين بالفكرة. بينما أعرب معظم المغردين عن دهشتهم، ووصف آخرون الميزة بأنها «مرعبة»، وقالوا إنها تثير أسئلة أخلاقية.

وقالت إيلين كاسكت، وهي أستاذة علم النفس في جامعة ولفرهامبتون ببريطانيا، والتي ألفت كتابا عن الحياة الآخرة الرقمية، إنه في حين أن «ديب نوستالجيا» ليست بالضرورة «إشكالية»، إلا أنها تضعنا على حافة منحدر زلق. وتابعت: «عندما يبدأ الناس في الكتابة حول التاريخ، أو يعيدون إثارة الماضي… نتساءل أين يمكن أن ينتهي بنا الأمر؟».

وأقرت شركة «ماي هيرتج» على موقعها الإلكتروني بأن التكنولوجيا يمكن أن تكون غريبة بعض الشيء، وأن استخدامها مثير للجدل، لكنها شددت على أنها عملت على اتخاذ خطوات لمنع الانتهاكات.

وقال رافي مندلسون، مدير العلاقات العامة في الشركة، في بيان: «تشتمل ميزة «ديب نوستالجيا» صورا متحركة مشفرة دون أي كلام عمدا، مما يحول دون استخدامها لتزييف أي محتوى أو إيصال أي رسالة».

كما يمكن استخدام الذكاء الاصطناعي في الصور لجعل شخص ما يبدو كما لو كان يفعل أشياء قد لا يرغب فيها، مثل الابتسام في جنازة. وقال مندلسون إن استخدام صور شخص على قيد الحياة دون موافقته يعد انتهاكا لشروط الشركة وأحكامها، مضيفا أن مقاطع الفيديو تشمل رموز الذكاء الاصطناعي لتمييزها عن التسجيلات الأصلية. وأردف: «من مسؤوليتنا الأخلاقية أن نحدد مثل هذه الفيديوهات الاصطناعية بوضوح، ونميزها عن مقاطع الفيديو الحقيقية».

تاريخ عميق ل«ديب فيك»
على مدار السنوات القليلة الماضية شهد عالم التكنولوجيا ارتفاعا سريعا في التقنيات التي تستخدم خوارزميات الذكاء الاصطناعي، وبالتحديد تقنية «التعلم الآلي»، لتحليل لقطات من أناس حقيقيين، ومن ثم نشر مقاطع فيديو مقنعة حول قيامهم بأشياء لم يفعلوها أو قول أشياء لم يقولوها قط.

ويعد برنامج «فيديو ريرايت» الذي صدر في عام 1997 أول معالم هذه التقنية، حيث قام بتعديل فيديو لشخص يتحدث في موضوع معين إلى فيديو للشخص ذاته يتحدث في موضوع آخر من خلال استغلال الكلمات التي نطقها ذلك الشخص، ومحاولة ترتيبها في سياق مختلف لتكوين جمل جديدة لم يقلها الشخص في الفيديو أصلا.

وبحلول عام 2017 ظهر برنامج «سانثيسايزينغ أوباما» الذي نشر فيديو للرئيس الأمريكي الأسبق باراك أوباما، وهو يتكلم بصوت عال حول هذه التقنية محاولا شرح مخاطرها، وهو ما لم يفعله أوباما أصلا، بل إن البرنامج قام بجمع عدد من فيديوهات الرئيس، ثم حاول استخراج الكلمات التي يحتاجها، والتي نُطقت في سياق مختلف، من أجل استعمالها في الفيديو الوهمي الجديد. وعرفت هذه التقنية تطورا إضافيا، بعد ظهور برنامج «فيس تو فيس» الذي صدر عام 2016، والذي يقوم بمحاكاة تعبيرات وجه شخص في فيديو قديم، محولا إياها إلى تعبيرات جديدة حسب رغبة المستخدم.

أما مصطلح التزييف العميق أو «ديب فيك» نفسه فقد ظهر في نهاية عام 2017 من أحد مستخدمي «ريديت» والذي سمى نفسه «ديب فيكس»، قام بالاشتراك مع آخرين بمشاركة فيديوهات إباحية مزيفة كانوا قد صنعوها لمشاهير، حيث قاموا مثلا بتحميل فيديوهات يظهر فيها ممثلون إباحيون حقيقيون، ثم استبدلوا وجه الممثل الإباحي بوجه ممثل أمريكي مشهور.

وحققت تلك الفيديوهات نسب مشاهدات عالية، كما تم تداولها على نطاق كبير في مواقع التواصل، وكان من الصعب اكتشاف أنها مزيفة، خاصة الفيديو المزيف للممثل الأمريكي نيكولاس كيج، الذي كان واقعيا وصدقه الكثير من الناس.

استخدامات إجرامية
بحلول فبراير 2018 وبعد أن كثر الحديث حول هذه التقنية، قام موقع «ريديت» بحظر المستخدم «ديب فيكس» بدعوى نشره لمقاطع فيديو إباحية مزيفة، كما قامت باقي المواقع بحظر كل من يروج لهذه التقنية، ومع ذلك لا تزال هناك مجتمعات أخرى على الإنترنت بما في ذلك مجتمعات «ريديت» تعمل على مشاركة الفيديوهات المصنوعة بهذه التقنية، بل يقوم البعض من مستخدمي «ريديت» بنشر فيديوهات وصور مزيفة لعدد من المشاهير والسياسيين ولا تمت للحقيقة بصلة، في حين تواصل المجتمعات الأخرى على الإنترنت مشاركة هذه المواد بعلم أو دون علم.

ووفقا لتقرير صادر عن جامعة لندن، فإن «ديب فيك» أو «التزييف العميق» أكثر تقنيات الذكاء الاصطناعي استخداما في الجريمة والإرهاب.

وحدد فريق البحث التابع لجامعة لندن عشرين طريقة مختلفة يمكن أن يستخدم فيها المجرمون الذكاء الاصطناعي مستقبلا. وأسندوا إلى 31 خبيرا تقنيا تصنيف تلك الطرق حسب المخاطر، بناء على إمكانية الضرر، والأموال التي يمكنهم كسبها، وسهولة استخدامها ومدى صعوبة إيقافها.

ذكاء …لكن خادع جدا
كما هو متوقع أظهرت النتيجة أن «ديب فيك» جاءت في المرتبة الأولى، وأرجع الخبراء ذلك إلى سببين، الأول أنها تقنية يصعب تحييدها ومنعها من الاستخدام. والثاني أن طرق كشفها لا تزال غير موثوقة، كما أن مقاطع «ديب فيك» تتحسن باستمرار إلى درجة أنها تصبح قادرة على خداع أشد الخبراء.

وكان «فيسبوك» قد كشف عن مسابقة لتطوير خوارزميات تكون قادرة على كشف خدع «ديب فيك»، ليعلن الباحثون المكلفون بإجراء المسابقة أنها مشكلة صعبة يتعذر تقديم حل لها.

كما أشار تقرير جامعة لندن إلى أن المجرمين يطورون من أساليبهم لاستخدام هذه التقنية لكسب المال، أو تشويه سمعة بعض الشخصيات، أو انتحال صفة شخصية معينة لجمع المال من الناس. ويخشى الباحثون من أن هذه التقنية تجعل الناس لا يثقون في الأدلة السمعية والبصرية، وهو بحد ذاته ضرر اجتماعي.

وقال مؤلف الدراسة الدكتور ماثيو كالدويل، من جامعة لندن: «كلما زاد اعتماد حياتنا على الإنترنت زادت المخاطر. وعلى عكس العديد من الجرائم التقليدية، يمكن بسهولة مشاركة الجرائم في العالم الرقمي وتكرارها وحتى بيعها، مما يسمح بتسويق التقنيات الإجرامية وتقديم الجريمة كخدمة».

كما حددت الدراسة أيضا تهديدات رئيسية أخرى متعلقة باستخدام الذكاء الاصطناعي، وهي استخدام المركبات دون سائق كأسلحة، وجمع البيانات عبر الإنترنت للابتزاز، والهجمات على الأنظمة التي تسيطر عليها منظومات تعمل بالذكاء الاصطناعي.

قوانين
قبل عامين، دخلت قوانين مواجهة التزييف العميق حيز التنفيذ بالولايات المتحدة الأمريكية، بعدما وقع الرئيس السابق دونالد ترامب على أول قانون فيدرالي، كجزء من قانون تفويض الدفاع الوطني. وعلى نهج الولايات المتحدة، جرمت كل من الصين وكوريا الجنوبية استعمال هذه التقنية.

ومن جانبها، ما زالت حكومة المملكة المتحدة تدرس إصدار تشريعات تواجه هذه التقنية، إضافة إلى توجيه المواطنين إلى مساوئ التزييف العميق.

وفي هذا السبيل، لجأت القناة الرابعة البريطانية في دجنبر الماضي إلى إنشاء ملكة مزيفة، بغرض توجيه رسالة بمناسبة عيد الميلاد، كجزء من تحذير حول كيفية استخدام التكنولوجيا لنشر أخبار مزيفة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى