تكنولوجيا – OpenAI تشكل فريقا متخصصا لإدارة مخاطر الذكاء الاصطناعى الخارق
البوكس نيوز – تكنولوجيا – نتحدث اليوم حول OpenAI تشكل فريقا متخصصا لإدارة مخاطر الذكاء الاصطناعى الخارق والذي يثير الكثير من الاهتمام والجدل عبر مواقع التواصل الاجتماعي وكما سنتناول بالتفصيل حول OpenAI تشكل فريقا متخصصا لإدارة مخاطر الذكاء الاصطناعى الخارق، وتعد هذا المقالة جزءًا من سلسلة المقالات التي ينشرها البوكس نيوز بشكل عام.
وتعتقد شركة OpenAI أن مثل هذا النموذج يمكن أن يصل قبل نهاية العقد، وقالت المنظمة غير الربحية: “سيكون الذكاء الخارق أكثر التقنيات التي اخترعتها البشرية تأثيرًا على الإطلاق، ويمكن أن تساعدنا في حل العديد من المشكلات الأكثر أهمية في العالم، لكن القوة الهائلة للذكاء الخارق يمكن أن تكون أيضًا خطيرة للغاية ، ويمكن أن تؤدي إلى إضعاف البشرية أو حتى انقراض البشر.
وسيشارك في قيادة الفريق الجديد كبير العلماء في OpenAI إيليا سوتسكيفر وجان لايك، رئيس قسم المواءمة في مختبر الأبحاث.
بالإضافة إلى ذلك، قالت شركة OpenAI إنها ستخصص 20% من قوتها الحاسوبية المضمونة حاليًا للمبادرة، بهدف تطوير باحث محاذاة آلى مثل هذا النظام من شأنه أن يساعد أوبن إيه آي من الناحية النظرية في ضمان أن الذكاء الخارق آمن للاستخدام ومتوافق مع القيم الإنسانية، وفقا لتقرير engadget.
وقالت أوبن إيه آي: “في حين أن هذا هدف طموح بشكل لا يصدق ولا نضمن نجاحه، فإننا متفائلون بأن الجهود المركزة والمتضافرة يمكن أن تحل هذه المشكلة”، “هناك العديد من الأفكار التي أظهرت نتائج واعدة في التجارب الأولية، ولدينا مقاييس مفيدة بشكل متزايد للتقدم، ويمكننا استخدام نماذج اليوم لدراسة العديد من هذه المشكلات بشكل تجريبي، وأضاف المختبر أنه سيشارك خريطة طريق في المستقبل.
يأتي إعلان تشكيل الفريق في الوقت الذي تنظر فيه الحكومات في جميع أنحاء العالم في كيفية تنظيم صناعة الذكاء الاصطناعي الناشئة، في الولايات المتحدة التقى سام التمان، الرئيس التنفيذي لشركة OpenAI، بما لا يقل عن 100 مشرع فيدرالي في الأشهر الأخيرة.
وقال ألتمان إن تنظيم الذكاء الاصطناعي “ضروري”، وأن شركة أوبن إيه آي “حريصة” على العمل مع صانعي السياسات، ولكن يجب أن نشكك في مثل هذه التصريحات، وفي الواقع يوجد جهود مثل فريق Superalignment التابع لـ OpenAI، من خلال تركيز انتباه الجمهور على المخاطر الافتراضية التي قد لا تتحقق أبدًا، وتقوم منظمات مثل OpenAI بتحويل عبء التنظيم إلى الأفق بدلاً من هنا والآن، وهناك قضايا أكثر إلحاحًا تتعلق بالتفاعل بين الذكاء الاصطناعي والعمالة، والمعلومات المضللة وصناع سياسات حقوق النشر بحاجة إلى معالجتها اليوم وليس غدًا.
وفي نهاية مقالتنا إذا كان لديك أي اقتراحات أو ملاحظات حول الخبر، فلا تتردد في مرسلتنا، فنحن نقدر تعليقاتكم ونسعى جاهدين لتلبية احتياجاتكم وتطوير الموقع بما يتناسب مع تطلعاتكم ونشكرًكم علي زيارتكم لنا، ونتمنى لكم قضاء وقت ممتع ومفيد معنا.