أقر البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي “تعرية” الأشخاص من دون موافقتهم، أوروبا تحظر تعرية الذكاء الاصطناعي، وتم تبني القرار في نص أُقر بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً “وكالة الصحافة الفرنسية”.
تفاصيل الحظر الجديد

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج “التعرية” التي “تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص”. ويأتي هذا القرار في وقت تتزايد فيه المخاوف من إساءة استخدام التكنولوجيا، حيث يرى المشرعون أن أوروبا تحظر تعرية الذكاء الاصطناعي كخطوة ضرورية لحماية الخصوصية، ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة “بتدابير أمنية فعّالة” تحول دون هذه الممارسات.
خلفيات القرار والجدل التقني
وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء، وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية، وقد أثارت هذه القضية موجة استنكار واسعة، ما عزز التوجه نحو تشريعات أكثر صرامة، خاصة مع تصاعد الجدل حول أوروبا تحظر تعرية الذكاء الاصطناعي. وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.
تأجيل قوانين الذكاء الاصطناعي

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.
وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026، لكن النواب اقترحوا مواعيد جديدة، في حين كانت المفوضية الأوروبية تفضل مرونة أكبر.
لمعرفة المزيد: السلام عبر الرقائق وتحالف المستقبل
صورة خاتمة أوروبا تحظر تعرية الذكاء الاصطناعي

ويعكس هذا التوجه رغبة أوروبية في تحقيق توازن بين الابتكار والحماية، حيث أصبحت مسألة أوروبا تحظر تعرية الذكاء الاصطناعي جزءاً من نقاش أوسع حول مستقبل التنظيم الرقمي. والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.






