MIT Technology Review→ المصدر

التزييف العميق وتسريبات البيانات: كيف ينتهك AI الخصوصية

كشف تحقيق لـ MIT Technology Review عن تهديدين حرجين للخصوصية في عصر AI. الأول: تزييف عميق إباحي يستخدم أجساد النساء ووجوههن من دون موافقة. الثاني: النماذج اللغو

التزييف العميق وتسريبات البيانات: كيف ينتهك AI الخصوصية
المصدر: MIT Technology Review. كولاج: Hamidun News.
◐ استمع للمقال

يكشف بحث من مراجعة تقنيات معهد ماساتشوستس للتكنولوجيا عن تهديدين خطيرين للخصوصية يفرضهما الذكاء الاصطناعي الحديث: تكتشف النساء أجسادهن في فيديوهات إباحية مزيفة تم إنشاؤها باستخدام تقنية الديب فيك، بينما تكشف نماذج اللغات الكبيرة بشكل غير متعمد أرقام الهواتف الخاصة والبيانات الشخصية الأخرى.

الإباحية بتقنية الديب فيك كمشكلة عالمية

عندما حصلت جنيفر على وظيفة في عام 2023، مررت صورتها الاحترافية عبر برنامج التعرف على الوجه - وهو إجراء معياري لموظفي جدد. بعد عدة أيام جاءت الصدمة: اكتشفت المرأة فيديو تم فيه استخدام وجهها وجسدها لإنشاء محتوى إباحي دون أي موافقة. قصة جنيفر بعيدة عن أن تكون استثناء.

وفقاً للأبحاث، أكثر من 99٪ من جميع فيديوهات الديب فيك هي محتوى إباحي، والغالبية العظمى من الضحايا هن نساء وفتيات. الأدوات لإنشاء مثل هذه الفيديوهات تصبح في متناول الجميع بشكل متزايد. اليوم، تطبيقات مجانية وبرامج نصية بسيطة تسمح لأي شخص دون مهارات خاصة بإنشاء فيديوهات مقنعة في بضع ساعات فقط.

المشكلة تتسع في النطاق: منصات استضافة المحتوى تكافح موجة من الإباحية بتقنية الديب فيك، لكن إزالة المواد تصبح غالباً مستحيلة بمجرد انتشارها. بالنسبة للضحايا، هذا يعني الخزي الدائم والصدمة النفسية، وغالباً - عدم القدرة على إثبات في المحكمة أنه كان بالفعل هم. علاوة على ذلك، كل إعادة نشر للفيديو تخلق صدمة جديدة.

عندما يكشف الذكاء الاصطناعي المعلومات الشخصية

بالتوازي، اكتشف البحث تهديداً ثانياً: نماذج اللغات الكبيرة تعيد إنتاج البيانات الخاصة بشكل غير متعمد. عندما يدخل الناس أرقام هواتفهم وعناوين بريدهم الإلكتروني وغيرها من المعلومات الشخصية في مساعدات الذكاء الاصطناعي، يمكن تخزين هذه البيانات في بيانات التدريب وإعادة إنتاجها لاحقاً في الردود لمستخدمين آخرين. أثناء تدريب النموذج، تمتص الأنظمة كميات ضخمة من النصوص من الإنترنت - بما في ذلك الرسائل الخاصة وقواعد البيانات والتسريبات من الشركات. يمكن للنظام بعد ذلك إعادة إنتاج هذه المعلومات إذا صادف استعلاماً مناسباً. غالباً ما لا يعرف المستخدمون أن معلوماتهم الشخصية تم نسخها في النموذج نفسه وقد يتم الكشف عنها.

  • يتم إعادة إنتاج أرقام الهواتف في نسبة كبيرة من الاختبارات
  • يتم الكشف عن عناوين البريد الإلكتروني بشكل متكرر أكثر
  • أرقام الضمان الاجتماعي والعناوين والبيانات الأخرى معرضة أيضاً لخطر الكشف
  • عادة لا يتم إعلام المستخدمين بهذا الخطر عند استخدام الخدمة

الفراغ القانوني

لا الإباحية بتقنية الديب فيك ولا تسريبات البيانات عبر الذكاء الاصطناعي لديها حماية قانونية كافية في معظم الولايات القضائية. أوروبا تتحرك بشكل أسرع، بفضل اللائحة العامة لحماية البيانات والقانون الجديد للذكاء الاصطناعي، لكن في الولايات المتحدة وروسيا والعديد من الدول الأخرى، الضحايا عادة ليس لديهم وسيلة حقيقية لحماية حقوقهم. الشركات التي تنشئ نماذج الذكاء الاصطناعي نادراً ما تتحمل مسؤولية كافية. لا توجد معايير موحدة لتنظيف بيانات التدريب من المعلومات الخاصة، ولا توجد عقوبات صارمة للتسريبات. بعض الشركات لا تكشف حتى ما إذا حدث تسرب، مما يخفي المشكلة عن الجمهور.

ما يعنيه هذا

توضح هاتان المشكلتان صورة أوسع: الذكاء الاصطناعي يتطور في فراغ قانوني، مع المسؤولية الدنيا للمطورين تجاه الضحايا. هناك حاجة عاجلة لحلول على ثلاثة مستويات: تقنية - تصفية بيانات التدريب والحماية من الديب فيك؛ قانونية - المسؤولية الجنائية عن إنشاء ونشر فيديوهات إباحية بتقنية الديب فيك؛ وتعليمية - يجب أن يكون الناس على علم بهذه المخاطر. بدون نهج شامل، ستستمر موجة انتهاكات الخصوصية في النمو. يجب على مطوري أنظمة الذكاء الاصطناعي تحمل المسؤولية عن البيانات التي يجمعونها وكيف يستخدمونها. والمنظمون يجب أن يبدأوا أخيراً في اتخاذ الإجراء.

ZK
Hamidun News
أخبار الذكاء الاصطناعي بدون ضوضاء. اختيار تحريري يومي من أكثر من 400 مصدر. منتج من جمال حميدون، رئيس الذكاء الاصطناعي في Alpina Digital.
ما رأيك؟
جارٍ تحميل التعليقات…