علوم وتكنولوجيا

كيف "يضلل" برنامج الدردشة التابع لمايكروسوفت بالمعلومات الانتخابية بأمريكا؟

من المقرر إجراء انتخابات كبرى في الولايات المتحدة والاتحاد الأوروبي وتايوان، من بين دول أخرى، مع تسارع إطلاق عصر الذكاء الاصطناعي التوليدي بشكل جدي، وهو أمر يخشى البعض من أنه قد يضر بالعملية الديمقراطية.

أحد المخاوف الرئيسية بشأن الذكاء الاصطناعي التوليدي هو أنه يمكن استخدامه لنشر معلومات مضللة بشكل ضار، أو أن النماذج يمكن أن تشكل بيانات كاذبة تقدمها على أنها حقيقة، وهو ما يسمى “الهلوسة”. وجدت دراسة أجرتها منظمتان غير حكوميتين أوروبيتين أن برنامج Bing AI التابع لشركة Microsoft (الذي يعمل على GPT-4 التابع لشركة OpenAI) أعطى إجابات غير صحيحة لثلث الأسئلة المتعلقة بالانتخابات في ألمانيا وسويسرا.

تم إجراء الدراسة بواسطة Algorithm Watch وAI Forensics، وقالت المنظمات إنها دفعت برنامج الدردشة بأسئلة تتعلق بالمرشحين ومعلومات الاقتراع والتصويت، بالإضافة إلى طلبات للحصول على توصية أكثر انفتاحًا بشأن من يجب التصويت له عندما يتعلق الأمر بموضوعات محددة. ، مثل البيئة.

وعلق سلفاتوري رومانو، الباحث الرئيسي في AI Forensics قائلاً: “يمكن لروبوتات الدردشة ذات الأغراض العامة أن تشكل تهديدًا للنظام البيئي للمعلومات”. “يجب على مايكروسوفت أن تعترف بذلك، وأن تدرك أن الإبلاغ عن محتوى الذكاء الاصطناعي الذي ينتجه الآخرون ليس كافياً. وأدواتهم، حتى عندما تشير إلى مصادر جديرة بالثقة، تنتج معلومات غير صحيحة على نطاق واسع.

وبحسب الدراسة، فإن الأخطاء شملت “مواعيد انتخابية خاطئة، أو مرشحين عفا عليهم الزمن، أو حتى خلافات مصطنعة تتعلق بالمرشحين”. علاوة على ذلك، غالبًا ما تُنسب معلومات غير صحيحة إلى مصدر لديه معلومات صحيحة حول الموضوع، كما يقومون أيضًا بتلفيق “قصص حول تورط المرشحين”. في سلوك فاضح”، كما نسبت المعلومات إلى مصادر موثوقة.

كان برنامج الدردشة الآلي الخاص بشركة Microsoft يتهرب أحيانًا من الإجابة على الأسئلة التي لا يعرف الإجابات عليها، ولكن بدلاً من عدم الرد، غالبًا ما كان يجيب فقط – بما في ذلك اختلاق ادعاءات حول الفساد.

وتم جمع عينات الدراسة في الفترة من 21 أغسطس 2023 إلى 2 أكتوبر 2023، وعندما أبلغ الباحثون مايكروسوفت بالنتائج، قالت عملاق التكنولوجيا إنها ستنظر في إصلاح الأمر، ولكن بعد شهر واحد، أنتجت عينات جديدة نتائج مماثلة.

ونقلت صحيفة وول ستريت جورنال عن متحدث باسم الشركة قوله: “تواصل الشركة معالجة المشكلات وإعداد أدواتنا لتحقيق توقعاتنا لانتخابات عام 2024”. وفي الوقت نفسه، حثوا المستخدمين أيضًا على تطبيق “الحكم الأفضل” أثناء مراجعة نتائج روبوتات الدردشة التي تعمل بالذكاء الاصطناعي من Microsoft.

وقال ريكاردو أنجيوس، رئيس قسم الرياضيات التطبيقية والباحث في الذكاء الاصطناعي الشرعي: “لقد حان الوقت لتشويه سمعة الإشارة إلى هذه الأخطاء باعتبارها “هلوسة”. “يكشف بحثنا عن الأحداث الأكثر تعقيدًا وتنظيمًا للأخطاء الواقعية المضللة في ماجستير إدارة الأعمال وروبوتات الدردشة المصممة لهذا الغرض.” الجمهور.”

مقالات ذات صلة

‫14 تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى