هكذا تتحكم الصين فى استخدام الأشخاص والشركات للذكاء الاصطناعى
لقد تجاوز الذكاء الاصطناعي مجرد كلمة طنانة، حيث ينتشر ببطء في جميع أنحاء صناعة التكنولوجيا حول العالم. وفي حين أن مزايا الذكاء الاصطناعي هائلة، فإن مخاطره هائلة أيضا، ولهذا السبب تخطط الصين لفرض قيود صارمة على كيفية استخدام الذكاء الاصطناعي، وفقا لتقرير نشرته الصحيفة. ووفقا للتقرير، فإن السلطات الصينية تتطلع إلى تحقيق التوازن بين مخاطر وفوائد الذكاء الاصطناعي.
نشرت الصين مسودة إرشادات جديدة وتتطلع إلى تحسين جانبين: أولاً، كيفية استخدام بيانات التدريب وما إذا كانت آمنة وأمن نماذج اللغات الكبيرة (LLMs)، والتي تُستخدم لتقنيات الذكاء الاصطناعي التوليدية مثل ChatGPT أو Baidu’s. إرني بوت.
ما تريد الصين أن تفعله
تريد السلطات في الصين التأكد من أن أي بيانات تستخدم لتدريب نماذج الذكاء الاصطناعي لا ينبغي أن تنطوي على أي انتهاك لحقوق الطبع والنشر، ولا ينبغي أن تنتهك أي بيانات شخصية، ووفقًا للتقرير، يجب “معالجة” جميع التدريبات المقدمة في دايا. بواسطة منشئي البيانات والمراجعين المعتمدين لاجتياز فحوصات الأمان أولاً.
بمعنى آخر، يجب أن تمر البيانات عبر أعين البشر أولاً قبل أن يتم إنشاؤها بشكل مصطنع، وأيضًا، عندما يقوم المطورون ببناء شهادات الماجستير الخاصة بهم، “يجب عليهم الاعتماد على النماذج التأسيسية المودعة لدى السلطات والمرخصة لها”، ومرة أخرى، ستضمن ذلك معرفة الجهات المعنية بالمعلومات التي تغذي هذه النماذج المستخدمة في الذكاء الاصطناعي التوليدي.
لا يوجد “محتوى غير قانوني”
إن تعريف الصين للمحتوى غير القانوني واسع إلى حد ما ويتضمن معلومات حساسة سياسياً. على سبيل المثال، تعتبر الأسئلة المتعلقة بتايوان محتوى غير قانوني. علاوة على ذلك، تعتبر الأخبار المزيفة أو الترويج للأساطير أو المواد الإباحية محتوى غير قانوني أيضًا.
وتريد مسودة الاقتراح حظر جميع بيانات تدريب الذكاء الاصطناعي التي قد تحتوي على أكثر من “5% محتوى غير قانوني”، لأن المعلومات ستعتبر خطيرة، وفقًا لقوانين الأمن السيبراني الصينية. وقد قدمت الصين مسودة الاقتراح وتسعى للحصول على تعليقات عامة حتى 25 أكتوبر.