تكنولوجيا

جرائم بالذكاء الاصطناعى.. سجن “كورى” بعد تزييف صور جنسية للقُصّر

ذكرت صحيفة كوريا هيرالد نقلاً عن وسائل إعلام محلية أنه تم سجن رجل كوري جنوبي لاستخدامه أدوات الذكاء الاصطناعي لإنشاء صور جنسية صريحة للأطفال، واتُهم الرجل الذي لم يذكر اسمه، وهو في الأربعينيات من عمره، بانتهاك قانون حماية الأطفال والشباب وحُكم عليه بالسجن لمدة عامين ونصف، وذلك بحسب موقع businessinsider الأمريكى.

وقال مكتب المدعي العام لشبكة CNN إن الرجل استخدم برنامج الذكاء الاصطناعي لإنشاء حوالي 360 صورة جنسية، وقد قضت المحكمة بأنها واقعية بما يكفي لتتمكن من رفض ادعاءات الدفاع بأنها لا يمكن اعتبارها ذات طابع جنسي، وذكرت صحيفة كوريا هيرالد أن الأمر استغلالي.

وقال مكتب المدعي العام لشبكة CNN إن قرار المحكمة أظهر أن الصور المزيفة ولكن الواقعية للقاصرين التي تم إنشاؤها باستخدام تكنولوجيا “عالية المستوى” يمكن اعتبارها محتوى مسيء جنسيًا، وفي وقت سابق من هذا الشهر، اهتزت بلدة صغيرة في إسبانيا بسبب إنشاء وتوزيع صور عارية لفتيات صغيرات تم إنتاجها بواسطة الذكاء الاصطناعي في العديد من مدارسها.

وتم التعرف على أكثر من 20 فتاة تتراوح أعمارهن بين 11 و17 سنة كضحايا في بلدة ألمندراليجو، في منطقة إكستريمادورا الغربية، وتعد تقنية Deepfake هي المكان الذي يتم فيه استخدام الذكاء الاصطناعي لإنشاء مقاطع فيديو أو صوت أو صور جديدة وواقعية لتصوير شيء لم يحدث بالفعل.

وتتمتع هذه التكنولوجيا بماضٍ غامض، وكثيرًا ما تُستخدم لإنشاء مواد إباحية بدون موافقة، كما حذر إعلان الخدمة العامة لمكتب التحقيقات الفيدرالي في يونيو 2023،

وقالت الوكالة: “يواصل مكتب التحقيقات الفيدرالي تلقي تقارير من الضحايا، بما في ذلك الأطفال القصر والبالغين غير الموافقين، الذين تم تغيير صورهم أو مقاطع الفيديو الخاصة بهم إلى محتوى فاضح”، مضيفة أن هذا المحتوى غالبًا ما “يتم تداوله علنًا على وسائل التواصل الاجتماعي أو المواقع الإباحية”. لغرض مضايقة الضحايا أو مخططات الابتزاز الجنسي.”

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

شاهد أيضاً
إغلاق
زر الذهاب إلى الأعلى