الاتحاد الأوروبى يتوصل إلى اتفاق تنظيمى بشأن تطوير الذكاء الاصطناعى

ذكرت صحيفة واشنطن بوست أن المشرعين في الاتحاد الأوروبي توصلوا إلى اتفاق تاريخي بشأن مشروع قانون موسع لتطوير سلامة الذكاء الاصطناعي، وهو الأوسع والأبعد مدى من نوعه حتى الآن، لكن تفاصيل الصفقة نفسها لم تكن متاحة على الفور.
“سيمثل هذا التشريع معيارًا ونموذجًا للعديد من الولايات القضائية الأخرى، مما يعني أنه يتعين علينا واجب رعاية إضافي عندما نقوم بصياغته لأنه سيكون له تأثير على العديد من الولايات القضائية الأخرى.”
وستحدد اللوائح المقترحة الطرق التي يمكن من خلالها تطوير نماذج التعلم الآلي المستقبلية وتوزيعها داخل الكتلة التجارية، مما يؤثر على استخدامها في تطبيقات تتراوح من التعليم إلى التوظيف إلى الرعاية الصحية.
سيتم تقسيم تطوير الذكاء الاصطناعي بين أربع فئات اعتمادًا على حجم المخاطر المجتمعية التي من المحتمل أن تشكلها كل منها: الحد الأدنى، والمحدود، والمرتفع، والمحظور.
تشمل الاستخدامات المحظورة أي شيء يتحايل على إرادة المستخدم، أو يستهدف مجموعات اجتماعية محمية، أو يوفر تتبعًا بيومتريًا في الوقت الفعلي (مثل التعرف على الوجه).
تشمل الاستخدامات عالية المخاطر أي شيء “يُقصد استخدامه كعنصر أمان للمنتج”، أو سيتم استخدامه في تطبيقات محددة مثل البنية التحتية الحيوية، والتعليم، والمسائل القانونية القضائية، وتوظيف الموظفين، وتندرج تحت “المحدودة”. مقاييس المخاطر”.
قال الدكتور براندي نونيكي، مدير مختبر سياسات CITRIS في جامعة كاليفورنيا في بيركلي، لموقع Engadget في عام 2021: “لقد تحركت المفوضية الأوروبية مرة أخرى بطريقة جريئة لمعالجة التكنولوجيا الناشئة، تمامًا كما فعلت مع خصوصية البيانات من خلال اللائحة العامة لحماية البيانات”.
وأضاف أن “التنظيم المقترح مثير للاهتمام للغاية لأنه يهاجم المشكلة من خلال نهج قائم على المخاطر”، على غرار ما تم اقتراحه في الإطار التنظيمي المقترح في كندا للذكاء الاصطناعي.
وتوقفت المفاوضات الجارية بشأن القواعد المقترحة في الأسابيع الأخيرة من قبل فرنسا وألمانيا وإيطاليا. لقد كانوا يعرقلون المحادثات حول القواعد التي من شأنها أن توجه الكيفية التي يمكن بها للدول الأعضاء في الاتحاد الأوروبي تطوير النماذج التأسيسية، وأنظمة الذكاء الاصطناعي المعممة التي يمكن من خلالها ضبط المزيد من التطبيقات المتخصصة.
يعد GPT-4 الخاص بـ OpenAI أحد هذه النماذج الأساسية، حيث تم تدريب ChatGPT وGPTs وتطبيقات الطرف الثالث الأخرى من خلال وظائفه الأساسية.
وأعربت الدول الثلاث عن قلقها من أن لوائح الاتحاد الأوروبي الصارمة بشأن نماذج الذكاء الاصطناعي التوليدية يمكن أن تعرقل جهود الدول الأعضاء لتطويرها بشكل تنافسي.