تكنولوجيا – كيف “يضلل” برنامج الدردشة التابع لمايكروسوفت بالمعلومات الانتخابية بأمريكا؟

تكنولوجيا  – كيف “يضلل” برنامج الدردشة التابع لمايكروسوفت بالمعلومات الانتخابية بأمريكا؟

البوكس نيوز – تكنولوجيا – نتحدث اليوم حول كيف “يضلل” برنامج الدردشة التابع لمايكروسوفت بالمعلومات الانتخابية بأمريكا؟ والذي يثير الكثير من الاهتمام والجدل عبر مواقع التواصل الاجتماعي وكما سنتناول بالتفصيل حول كيف “يضلل” برنامج الدردشة التابع لمايكروسوفت بالمعلومات الانتخابية بأمريكا؟، وتعد هذا المقالة جزءًا من سلسلة المقالات التي ينشرها البوكس نيوز بشكل عام.

من المقرر إجراء انتخابات كبرى في الولايات المتحدة والاتحاد الأوروبي وتايوان، من بين دول أخرى، وسط تسارع إطلاق عصر الذكاء الاصطناعي التوليدي بشكل جدي، وهو أمر يخشى البعض أنه قد يضر بالعملية الديمقراطية.


 


أحد المخاوف الرئيسية بشأن الذكاء الاصطناعي التوليدي هو أنه يمكن استخدامه لنشر المعلومات المضللة بشكل ضار، أو أن النماذج يمكن أن تشكل بيانات كاذبة تقدمها على أنها حقيقة، وهو ما يسمى “”الهلوسة”، حيث وجدت دراسة أجرتها منظمتان غير حكوميتين أوروبيتين أن برنامج الدردشة الآلي التابع لشركة مايكروسوفت – Bing AI (الذي يعمل على GPT-4 التابع لشركة OpenAI) – أعطى إجابات غير صحيحة لثلث الأسئلة حول الانتخابات في ألمانيا وسويسرا.


 


تم إجراء الدراسة بواسطة Algorithm Watch وAI Forensics، وقالت المنظمات إنها دفعت برنامج الدردشة الآلية بأسئلة تتعلق بالمرشحين ومعلومات الاقتراع والتصويت، بالإضافة إلى طلبات توصية أكثر انفتاحًا بشأن من يجب التصويت له عندما يتعلق الأمر بموضوعات محددة، مثل البيئة.


 


علق سلفاتوري رومانو، كبير الباحثين في AI Forensics، قائلاً: “يمكن لروبوتات الدردشة ذات الأغراض العامة أن تشكل تهديدًا للنظام البيئي للمعلومات”. “يجب على مايكروسوفت أن تعترف بذلك، وأن تدرك أن وضع علامة على محتوى الذكاء الاصطناعي المنتج من قبل الآخرين ليس كافيًا. أدواتهم، حتى عندما تشير إلى مصادر جديرة بالثقة، تنتج معلومات غير صحيحة على نطاق واسع.


 


وبحسب الدراسة، فإن الأخطاء شملت “مواعيد انتخابية خاطئة، أو مرشحين عفا عليهم الزمن، أو حتى خلافات مفتعلة تتعلق بالمرشحين”، علاوة على ذلك غالبًا ما تُنسب المعلومات غير الصحيحة إلى مصدر لديه المعلومات الصحيحة حول الموضوع، كما أنها اختلقت “قصصًا عن تورط المرشحين في سلوك فاضح”، ونسبت المعلومات أيضًا إلى مصادر حسنة السمعة.


 


في بعض الأحيان، كان برنامج الدردشة الآلي التابع لشركة مايكروسوفت يتهرب من الإجابة على الأسئلة التي لم يكن يعرف الإجابات عليها، ومع ذلك بدلًا من عدم الرد، غالبًا ما يكون مجرد إجابة – بما في ذلك تلفيق ادعاءات حول الفساد.


 


تم جمع عينات الدراسة في الفترة من 21 أغسطس 2023 إلى 2 أكتوبر 2023، وعندما أبلغ الباحثون شركة مايكروسوفت بالنتائج، قالت شركة التكنولوجيا العملاقة إنها ستنظر في إصلاح الأمر، لكن بعد شهر واحد، أسفرت العينات الجديدة عن نتائج مماثلة.


 


ونقلت صحيفة وول ستريت جورنال، عن متحدث باسم الشركة قوله: “تواصل الشركة معالجة المشكلات وإعداد أدواتنا لتحقيق توقعاتنا لانتخابات عام 2024″، وفي الوقت نفسه، حثوا المستخدمين أيضًا على تطبيق “أفضل حكم” أثناء مراجعة نتائج برامج الدردشة الآلية من Microsoft AI.


 


وقال ريكاردو أنجيوس، رئيس قسم الرياضيات التطبيقية والباحث في الطب الشرعي في الذكاء الاصطناعي: “لقد حان الوقت لتشويه سمعة الإشارة إلى هذه الأخطاء باعتبارها “هلوسة”. “يكشف بحثنا عن الأحداث الأكثر تعقيدًا والهيكلية للأخطاء الواقعية المضللة في ماجستير إدارة الأعمال وروبوتات الدردشة ذات الأغراض العامة.”


 


 

وفي نهاية مقالتنا إذا كان لديك أي اقتراحات أو ملاحظات حول الخبر، فلا تتردد في مرسلتنا، فنحن نقدر تعليقاتكم ونسعى جاهدين لتلبية احتياجاتكم وتطوير الموقع بما يتناسب مع تطلعاتكم ونشكرًكم علي زيارتكم لنا، ونتمنى لكم قضاء وقت ممتع ومفيد معنا.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

error: لا يمكنك نسخ المقالة