تكنولوجيا – العثور على صور لاعتداء جنسى على أطفال داخل قاعدة بيانات الذكاء الاصطناعى
البوكس نيوز – تكنولوجيا – نتحدث اليوم حول العثور على صور لاعتداء جنسى على أطفال داخل قاعدة بيانات الذكاء الاصطناعى والذي يثير الكثير من الاهتمام والجدل عبر مواقع التواصل الاجتماعي وكما سنتناول بالتفصيل حول العثور على صور لاعتداء جنسى على أطفال داخل قاعدة بيانات الذكاء الاصطناعى، وتعد هذا المقالة جزءًا من سلسلة المقالات التي ينشرها البوكس نيوز بشكل عام.
ووفقا لما ذكره موقع “business insider”، تم التأكد من أن ما يزيد قليلاً عن 1000 من هذه الصور هي مواد اعتداء جنسي على الأطفال، مع تحذير التقرير من أن وجودها في مجموعة البيانات قد يسمح باستخدام أدوات الذكاء الاصطناعي المبنية على هذه البيانات لإنشاء محتوى جديد لإساءة معاملة الأطفال.
ويعد LAION-5B عبارة عن أرشيف عام ضخم يضم حوالي خمسة مليارات صورة تم التقاطها من الويب المفتوح.
وقد تم استخدامه من جانب مجموعة متنوعة من شركات الذكاء الاصطناعي، والتي تتطلب كميات هائلة من البيانات لتدريب نماذج الذكاء الاصطناعي التوليدية التي يمكنها إنتاج صور جديدة في ثوانٍ.
حذر الخبراء منذ فترة طويلة من أن مولدات صور الذكاء الاصطناعي تخاطر بإطلاق الصور الواقعية للغاية التي تم إنشاؤها باستخدام الذكاء الاصطناعي للاعتداء الجنسي على الأطفال، مع تحذير مؤسسة مراقبة الإنترنت (IWF) من أن مثل هذه الصور منتشرة بالفعل على نطاق واسع على شبكة الإنترنت المظلمة.
وفي الوقت نفسه، دعت منظمات السلامة عبر الإنترنت في المملكة المتحدة إلى اتخاذ “إجراءات عاجلة” بشأن حالات استخدام الأطفال لمولدات صور الذكاء الاصطناعي في المدرسة لإنشاء محتوى غير لائق لزملائهم التلاميذ.
وتشهد أيضًا تطبيقات الذكاء الاصطناعي التي تستخدم تقنية مشابهة لـ “خلع ملابس” النساء في الصور من خلال إنشاء صور عارية مزيفة لهن، تزايدًا في شعبيتها، وفقًا لبيانات من Graphika.
يعد Stable Diffusion النموذج الأكثر شهرة لاستخدام قاعدة بيانات LAIONK، حيث أصبحت الأداة، التي طورتها شركة Stability AI ومقرها المملكة المتحدة، واحدة من أكثر أدوات إنشاء الصور انتشارًا وشعبية منذ إطلاقها في عام 2022.
وقال متحدث باسم منظمة LAION الألمانية غير الربحية، التي تقف وراء مجموعة البيانات، لبلومبرج إن المجموعة كانت تزيل مجموعات البيانات الخاصة بها مؤقتًا من الإنترنت بينما تقوم بمسح المحتوى غير القانوني.
وفي الوقت نفسه، قال متحدث باسم Stability AIK أن الشركة قدمت مرشحات لمنع المستخدمين من إنشاء محتوى غير قانوني باستخدام Stable Diffusion وأن نماذج Stability AI تم تدريبها فقط على مجموعة فرعية تمت تصفيتها من LAION-5B.
أصدرت الشركة Stable Diffusion 2.0، الذي يفرض ضوابط أكثر صرامة على المحتوى الجنسي الصريح، في العام الماضي، ولكن الإصدار 1.5، الذي ينشئ محتوى صريحًا، لا يزال متاحًا على شبكة الإنترنت المفتوحة.
وفي نهاية مقالتنا إذا كان لديك أي اقتراحات أو ملاحظات حول الخبر، فلا تتردد في مرسلتنا، فنحن نقدر تعليقاتكم ونسعى جاهدين لتلبية احتياجاتكم وتطوير الموقع بما يتناسب مع تطلعاتكم ونشكرًكم علي زيارتكم لنا، ونتمنى لكم قضاء وقت ممتع ومفيد معنا.