تكنولوجيا – يخطئ أحيانًا.. ChatGPT ينشئ خططًا لعلاج السرطان مليئة بالأخطاء

تكنولوجيا  – يخطئ أحيانًا.. ChatGPT ينشئ خططًا لعلاج السرطان مليئة بالأخطاء

البوكس نيوز – تكنولوجيا – نتحدث اليوم حول يخطئ أحيانًا.. ChatGPT ينشئ خططًا لعلاج السرطان مليئة بالأخطاء والذي يثير الكثير من الاهتمام والجدل عبر مواقع التواصل الاجتماعي وكما سنتناول بالتفصيل حول يخطئ أحيانًا.. ChatGPT ينشئ خططًا لعلاج السرطان مليئة بالأخطاء، وتعد هذا المقالة جزءًا من سلسلة المقالات التي ينشرها البوكس نيوز بشكل عام.


كشف الباحثون فى مستشفى بريجهام، وهو مستشفى تعليمي تابع لكلية الطب بجامعة هارفارد في بوسطن، عن أن خطط علاج السرطان التى أنشأها برنامج الدردشة الآلي الثوري الخاص بـ OpenAI كانت مليئة بالأخطاء، ووفقًا للدراسة، التي نُشرت في مجلة JAMA Oncology، عندما طُلب من ChatGPT وضع خطط علاجية لمجموعة متنوعة من حالات السرطان، احتوى ثلث استجابات نموذج اللغة الكبير على معلومات غير صحيحة.


 


ووفقًا لما ذكره موقع “business insider”، أشارت الدراسة إلى أن برنامج الدردشة الآلي لديه ميل إلى مزج المعلومات الصحيحة وغير الصحيحة معًا، بطريقة تجعل من الصعب تحديد ما هو دقيق.


 

وقال التقرير إنه من بين إجمالي 104 استفسارات، فإن حوالي 98% من ردود ChatGPT تضمنت توصية علاجية واحدة على الأقل تتوافق مع إرشادات الشبكة الوطنية الشاملة للسرطان.


 


وقالت الدكتورة دانييل بيترمان، الباحثة المشاركة، إن الباحثين مندهشون من الدرجة التي تم بها خلط المعلومات غير الصحيحة مع المعلومات الصحيحة، ما جعل من الصعب بشكل خاص اكتشاف الأخطاء حتى بالنسبة للخبراء.

 


وأضافت: “يتم تدريب نماذج اللغة الكبيرة لتقديم استجابات تبدو مقنعة للغاية، لكنها ليست مصممة لتقديم نصيحة طبية دقيقة”.


 


وأوضحت “يعد معدل الخطأ وعدم استقرار الاستجابات من مشكلات السلامة الحرجة التي يجب معالجتها في المجال السريري”.


 


أثار تطبيق ChatGPT ضجة كبيرة عندما تم إطلاقه في نوفمبر 2022، حيث وصل إلى 100 مليون مستخدم نشط بعد شهرين من ظهوره لأول مرة، كما أثار برنامج الدردشة الآلي اندفاعًا للاستثمار في شركات الذكاء الاصطناعي ونقاشًا حادًا حول التأثير طويل المدى للذكاء الاصطناعي؛ ووجدت أبحاث جولدمان ساكس أنه يمكن أن يؤثر على 300 مليون وظيفة على مستوى العالم.


 


على الرغم من نجاح ChatGPT، لا تزال نماذج الذكاء الاصطناعي التوليدية عرضة “للهلوسة”، حيث تقدم بثقة معلومات مضللة أو غير صحيحة إلى حد كبير. 


 


اكتشف أحد علماء الكمبيوتر في جامعة هارفارد مؤخرًا أن GPT-4، أحدث نسخة من النموذج، قادر على اجتياز اختبار الترخيص الطبي الأمريكي بنجاح كبير، واقترح أنه يتمتع بحكم سريري أفضل من بعض الأطباء، لكن على الرغم من ذلك، فإن مشكلات الدقة في النماذج التوليدية مثل ChatGPT تعني أنه من غير المرجح أن تحل محل الأطباء في أي وقت قريب.


 


ووجدت دراسة JAMA أن 12.5% من استجابات ChatGPT كانت “هلوسة”، وأن برنامج الدردشة الآلي كان على الأرجح يقدم معلومات غير صحيحة عند سؤاله عن العلاج الموضعي للأمراض المتقدمة أو العلاج المناعي.


 


اعترفت OpenAI بأن ChatGPT قد لا يكون موثوقًا به، وتحذر شروط الاستخدام الخاصة بالشركة من أن نماذجها ليست مصممة لتوفير معلومات طبية، ولا ينبغي استخدامها لتقديم خدمات تشخيصية أو علاجية للحالات الطبية الخطيرة.

وفي نهاية مقالتنا إذا كان لديك أي اقتراحات أو ملاحظات حول الخبر، فلا تتردد في مرسلتنا، فنحن نقدر تعليقاتكم ونسعى جاهدين لتلبية احتياجاتكم وتطوير الموقع بما يتناسب مع تطلعاتكم ونشكرًكم علي زيارتكم لنا، ونتمنى لكم قضاء وقت ممتع ومفيد معنا.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

error: لا يمكنك نسخ المقالة