ميتا تقيل فريق Responsible AI للتركيز على "الذكاء الاصطناعى التوليدى"
كشف تقرير حديث أن شركة Meta قامت بتفكيك فريق الذكاء الاصطناعي المسؤول (RAI) الخاص بها وتضع المزيد من مواردها في الذكاء الاصطناعي التوليدي، حسبما ذكرت صحيفة The Information Today نقلاً عن منشور داخلي شاهدته.
وفقًا للتقرير، سينتقل معظم أعضاء RAI إلى فريق منتجات الذكاء الاصطناعي التوليدي للشركة، بينما سيعمل الآخرون على البنية التحتية للذكاء الاصطناعي الخاصة بـ Meta. تقول الشركة بانتظام إنها تريد تطوير الذكاء الاصطناعي بشكل مسؤول، ولديها صفحة مخصصة لهذا الوعد، حيث تدرج الشركة “ركائز الذكاء الاصطناعي المسؤول”، بما في ذلك المساءلة والشفافية والسلامة والخصوصية والمزيد.
وينقل تقرير المعلومات عن جون كارفيل، الذي يمثل شركة ميتا، قوله إن الشركة “ستواصل تحديد الأولويات والاستثمار في تطوير ذكاء اصطناعي آمن ومسؤول”، وأضاف أنه على الرغم من قيام الشركة بتقسيم الفريق، فإن هؤلاء الأعضاء “سيستمرون في العمل”. لدعم الجهود ذات الصلة في جميع المجالات”. ميتا عن تطوير واستخدام الذكاء الاصطناعي المسؤول.
كان الفريق قد خضع بالفعل لعملية إعادة هيكلة في وقت سابق من هذا العام، والتي كتب Business Insider أنها تضمنت عمليات تسريح العمال التي تركت RAI مع “هيكل الفريق”، واستمر هذا التقرير ليقول إن فريق RAI، الذي كان موجودًا منذ عام 2019، لم يكن لديه سوى القليل. .. وهي مستقلة ويجب أن تمر مبادراتها بمفاوضات مطولة مع أصحاب المصلحة قبل أن يتم تنفيذها.
تم إنشاء RAI لتحديد المشكلات المتعلقة بأساليب تدريب الذكاء الاصطناعي، بما في ذلك ما إذا كانت نماذج الشركة قد تم تدريبها بمعلومات متنوعة بشكل مناسب، مع التركيز على منع أشياء مثل مشكلات الاعتدال على منصاتها.
أدت الأنظمة الآلية على منصات Meta الاجتماعية إلى مشاكل مثل مشكلة ترجمة Facebook التي تسببت في اعتقال كاذب، وإنشاء علامة WhatsApp AI التي تؤدي إلى صور متحيزة عند تقديم ادعاءات معينة، وخوارزميات Instagram التي تساعد الأشخاص في العثور على مواد الاعتداء الجنسي على الأطفال.