تكنولوجيا – تطوير طريقة لتخفيف الهلوسة فى نماذج اللغة الاصطناعية الكبيرة
البوكس نيوز – تكنولوجيا – نتحدث اليوم حول تطوير طريقة لتخفيف الهلوسة فى نماذج اللغة الاصطناعية الكبيرة والذي يثير الكثير من الاهتمام والجدل عبر مواقع التواصل الاجتماعي وكما سنتناول بالتفصيل حول تطوير طريقة لتخفيف الهلوسة فى نماذج اللغة الاصطناعية الكبيرة، وتعد هذا المقالة جزءًا من سلسلة المقالات التي ينشرها البوكس نيوز بشكل عام.
أصبحت نماذج اللغات الكبيرة (LLMs)، وهي البنى القائمة على الشبكات العصبية الاصطناعية والتى يمكنها معالجة النصوص باللغات البشرية المختلفة وتوليدها ومعالجتها، منتشرة بشكل متزايد في الآونة الأخيرة، ويتم الآن استخدام هذه النماذج فى مجموعة واسعة من الإعدادات للعثور بسرعة على إجابات للاستفسارات وإنتاج محتوى لأغراض محددة وتفسير النصوص المعقدة.
ووفقا لما ذكره موقع “techxplore”، طور الباحثون في DeepMind مؤخرًا إجراء جديد يمكن أن يساعد في تحديد الحالات التي يجب فيها على LLM الامتناع عن الرد على استفسار، على سبيل المثال الرد بـ “لا أعرف”، حيث من المحتمل أن يهلوسوا بإجابات غير منطقية أو غير صحيحة، فالهلوسة في النماذج الاصطناعية تجعلها تقدم إجابات تبدو حقيقية وهى مختلقة عندما لا يجد النموذج معلومات كافية.
يستلزم النهج المقترح للفريق، والموضح في ورقة منشورة مسبقًا على موقع arXiv، استخدام طريقة تقييم لاستجاباتهم المحتملة.
تشير نتائج تجارب فريق البحث هذا إلى أن إجراء المعايرة المتوافقة وتسجيل التشابه يخفف من هلوسة LLM، مما يسمح للنموذج بالامتناع عن الإجابة على سؤال إذا كان من المحتمل أن تكون إجابته غير حساسة أو غير جديرة بالثقة، تم العثور على النهج المقترح حديثا ليتفوق على الإجراءات السابقة.
ستساهم هذه الجهود فى تطوير هذه النماذج، وتسهيل استخدامها على نطاق واسع بين المهنيين في جميع أنحاء العالم.
وفي نهاية مقالتنا إذا كان لديك أي اقتراحات أو ملاحظات حول الخبر، فلا تتردد في مرسلتنا، فنحن نقدر تعليقاتكم ونسعى جاهدين لتلبية احتياجاتكم وتطوير الموقع بما يتناسب مع تطلعاتكم ونشكرًكم علي زيارتكم لنا، ونتمنى لكم قضاء وقت ممتع ومفيد معنا.