فبراير 29, 2024

Lalish Media Network

صحيفة إلكترونية يومية تصدر باشراف الهيئة العليا لمركز لالش الثقافي والاجتماعي في دهوك - كوردستان العراق

بالتزييف العميق.. صور إباحية تطارد النساء بكل مكان

بالتزييف العميق.. صور إباحية تطارد النساء بكل مكان

قد تصبح مشاركة الصور العارية المعدلة رقميًا لأشخاص حقيقيين جريمة فيدرالية في أميركا، لاسيما بعد أن أعاد النائب جوزيف موريل (ديمقراطي من نيويورك) يوم الثلاثاء اقتراح “قانون منع التزييف العميق للصور الحميمة”، والذي من شأنه أن يحظر المشاركة غير التوافقية للصور الحميمة المعدلة رقميًا.

وكان قد قدم مشروع القانون من قبل لكنه أضاف منذ ذلك الحين النائب توم كين، وهو جمهوري من نيوجيرسي، كراعٍ مشارك. وقدم كين مشروع قانون في نوفمبر يسمى قانون تصنيف الذكاء الاصطناعي لعام 2023، والذي يتطلب أن يكون للمحتوى الناتج عن الذكاء الاصطناعي تصنيف واضح.

وبالإضافة إلى جعل مشاركة الصور الحميمية المعدلة رقميا جريمة جنائية، فإن التشريع الذي اقترحه موريل وكين سيسمح أيضا للضحايا بمقاضاة الجناة في محكمة مدنية.

وقال موريل في بيان: “دعونا لا ننتظر الحادث الجماعي التالي حتى نتصدر الأخبار.. هذا يحدث كل يوم للنساء في كل مكان”.

وبحسب تقرير نشر في صحيفة “وول ستريت جورنال”، فإن هذه الخطوة تأتي من قبل الحزبين ردا على حادث وقع في مدرسة ثانوية بولاية نيوجيرزي جرى من خلالها مشاركة صور عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لطالبات من دون موافقتهن.

وتستطيع برامج تعمل بالذكاء الاصطناعي، أن تصمم صورا عارية بناء على تحليلات للصور العادية المنشورة على مواقع التواصل الاجتماعي، مما يجعلها تبدو وكأنها حقيقية بدرجة كبيرة ومتناسقة.

خبراء الذكاء الاصطناعي يؤكدون أن العشرات من البرامج المجانية يمكن من خلالها تبديل الوجه وإزالة الملابس من الصور الحقيقية، حيث من الصعب على العين البشرية التمييز بين الحقيقي والمزيف.

ومن المشكلات التي تواجه الضحايا عدم وجود قانون فيديرالي في الكثير من الولايات للتعامل مع مثل هذه الأدوات الجديدة.

وكانت دراسة نشرت عام 2019، أشارت إلى أن “96% من مواد التزييف العميق كانت إباحية، و99% منها تستهدف النساء”.

تُتاح هذه الصورة أيضا في: العربية

مقالات ذات صله

الرد

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Copyright © 2021 by Lalish Media Network .   Developed by Ayman qaidi