تكنولوجيا – استقالة المدير التنفيذي لشركة OpenAI لهذا السبب
البوكس نيوز – تكنولوجيا – نتحدث اليوم حول استقالة المدير التنفيذي لشركة OpenAI لهذا السبب والذي يثير الكثير من الاهتمام والجدل عبر مواقع التواصل الاجتماعي وكما سنتناول بالتفصيل حول استقالة المدير التنفيذي لشركة OpenAI لهذا السبب، وتعد هذا المقالة جزءًا من سلسلة المقالات التي ينشرها البوكس نيوز بشكل عام.
أعلن جان ليك، رئيس قسم المحاذاة والمدير التنفيذي في OpenAI، استقالته في 17 مايو 2024، ويمثل رحيله نهاية حقبة مهمة في أبحاث وتطوير الذكاء الاصطناعي في المنظمة، وفقًا لموقع indiatoday.
وكشف إعلان لايكي، عبر سلسلة من التغريدات، عن أن قراره بالرحيل لم يكن سهلا، لقد تحدث عن إنجازات فريقه على مدى السنوات الثلاث الماضية، بما في ذلك إطلاق أول نموذج لغة RLHF (التعلم المعزز من ردود الفعل البشرية) مع InstructGPT، كما حقق فريقه أيضًا خطوات واسعة في الإشراف القابل للتطوير على نماذج اللغات الكبيرة (LLMs) وكان رائدًا في التقدم في إمكانية الترجمة الفورية الآلية والتعميم من الضعيف إلى القوي.
“أنا أحب فريقي”، غرد Leike، معربًا عن امتنانه للأفراد الموهوبين الذين عمل معهم داخل وخارج فريق Superalignment، وسلط الضوء على الذكاء واللطف والفعالية التي تتمتع بها موهبة OpenAI.
ومع ذلك، كان رحيل لايكي مدفوعًا بمخاوف عميقة بشأن اتجاه الشركة، وكشف عن الخلافات المستمرة مع قيادة OpenAI حول الأولويات الأساسية للمنظمة، وقال: “نحن بحاجة ماسة إلى معرفة كيفية توجيه أنظمة الذكاء الاصطناعي والتحكم فيها بشكل أكثر ذكاءً منا”، مشددًا على أهمية التركيز على الأجيال القادمة من نماذج الذكاء الاصطناعي، والأمن، والمراقبة، والتأهب، والسلامة، وقوة الخصومة، والمواءمة، والسرية.
وأعرب ليك عن قلقه من أن هذه المجالات الحيوية لا تحظى بالاهتمام والموارد اللازمة، وقال في تغريدة: “من الصعب جدًا حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”، مضيفًا أن فريقه غالبًا ما واجه تحديات في تأمين الموارد الحسابية اللازمة لأبحاثهم.
كما أعرب عن مخاوفه بشأن المخاطر المحتملة لتطوير آلات أكثر ذكاءً من البشر، مشددًا على أن OpenAI تتحمل مسؤولية كبيرة تجاه البشرية، وانتقد الشركة لإعطاء الأولوية “للمنتجات اللامعة” على ثقافة وعمليات السلامة، داعياً إلى التحول نحو أن تصبح شركة AGI (الذكاء العام الاصطناعي) هي السلامة أولاً.
وفي رسالته الأخيرة إلى موظفي OpenAI، حثهم Leike على التصرف بالجدية المناسبة لبناء الذكاء الاصطناعي العام وتبني التغييرات الثقافية الضرورية، وكتب “العالم يعتمد عليكم”.
تؤكد استقالة جان لايكي على الطبيعة المعقدة والحرجة لتطوير الذكاء الاصطناعي والحاجة إلى دراسة متأنية للآثار المتعلقة بالسلامة والأخلاق مع تقدم التكنولوجيا.
وفي نهاية مقالتنا إذا كان لديك أي اقتراحات أو ملاحظات حول الخبر، فلا تتردد في مرسلتنا، فنحن نقدر تعليقاتكم ونسعى جاهدين لتلبية احتياجاتكم وتطوير الموقع بما يتناسب مع تطلعاتكم ونشكرًكم علي زيارتكم لنا، ونتمنى لكم قضاء وقت ممتع ومفيد معنا.