البنتاجون يشترط على مطورى الذكاء الاصطناعى كشف أسرار التقنية
دعا كبير مسؤولي الذكاء الاصطناعي في وزارة الدفاع الأمريكية إلى مزيد من الشفافية من جانب مطوري الذكاء الاصطناعي حول كيفية عمل تقنياتهم..
وفقًا لبلومبرج، يعتقد كريج مارتيل أن الإدارة بحاجة إلى معرفة المزيد عن أدوات الذكاء الاصطناعي قبل الالتزام الكامل باستخدامها..
يريد مارتيل من الشركات أن تشارك الأفكار حول كيفية بناء برامج الذكاء الاصطناعي الخاصة بها حتى يشعر البنتاغون “بالراحة والأمان عند اعتمادها”.“.
تعتمد برامج الذكاء الاصطناعي حاليًا على نماذج لغوية كبيرة (ماجستير في القانون)، والذي يستخدم مجموعات بيانات ضخمة لتشغيل أدوات مثل برامج الدردشة الآلية ومولدات الصور. ومع ذلك، غالبًا ما يتم تقديم هذه الخدمات دون الكشف عن أعمالها الداخلية، مما يجعل من الصعب على المستخدمين فهم كيفية وصول التكنولوجيا إلى القرارات أو كيفية تحسينها بمرور الوقت..
أعرب مارتيل عن قلقه بشأن نقص المعلومات المتعلقة بالبيانات المستخدمة في هذه النماذج. كما سلط الضوء على المخاطر التي تشكلها أنظمة الذكاء الاصطناعي، والتي غالباً ما تفشل الشركات في الكشف عنها.
ولمعالجة هذه القضايا، يدعو مارتيل قادة الصناعة والأكاديميين إلى ندوة في واشنطن في فبراير المقبل.
وتهدف الندوة إلى تحديد الاستخدامات المناسبة للذكاء الاصطناعي داخل وزارة الدفاع (البنتاغون)، ووضع معايير تتعلق بالقضايا الحساسة..
وحدد فريق مارتيل بالفعل 200 استخدام محتمل للذكاء الاصطناعي داخل الوزارة، ويؤكد أنهم لا يريدون إيقاف استخدامه بالكامل، بل يريدون فهم فوائده ومخاطره..
لدى البنتاغون أكثر من 800 مشروع للذكاء الاصطناعي قيد التنفيذ، بعضها يتضمن أنظمة أسلحة.
ونظرًا للمخاطر العالية التي تنطوي عليها هذه المشاريع، سيلتزم البنتاغون بمعايير أعلى في كيفية استخدام النماذج الخوارزمية مقارنة بالقطاع الخاص..
ويعتقد مارتل أن الحصول على نتائج غير دقيقة أمر غير مقبول بكل بساطة، خاصة في المواقف الحرجة التي تكون فيها “حياة البشر على المحك”.“.
ومن خلال السعي إلى مزيد من الشفافية والفهم لأدوات الذكاء الاصطناعي، تهدف وزارة الدفاع الأمريكية إلى ضمان التنفيذ المسؤول والفعال لتكنولوجيا الذكاء الاصطناعي في عملياتها..