عنوان بريدك الإلكترونى المستخدم لتسجيل الدخول إلى ChatGPT معرض للخطر
كشف أحد المرشحين في جامعة إنديانا بلومنجتون عن مخاطر الخصوصية المحتملة المرتبطة بنموذج اللغة القوي الخاص بـ OpenAI، GPT-3.5 Turbo. في الشهر الماضي، تواصل فريق من جامعة إنديانا بقيادة الباحث روي تشو مع أفراد، بما في ذلك موظفو صحيفة نيويورك تايمز، باستخدام عناوين البريد الإلكتروني. البريد الإلكتروني الذي تم الحصول عليه من النموذج.
استغلت التجربة قدرة GPT-3.5 Turbo على استرداد المعلومات الشخصية، متجاوزة ضمانات الخصوصية المعتادة. على الرغم من عدم اكتماله، إلا أن النموذج قدم بدقة عناوين العمل لـ 80 بالمائة من موظفي التايمز الذين تم اختبارهم.
وهذا يثير مخاوف من أن أدوات الذكاء الاصطناعي مثل ChatGPT يمكن أن تكشف عن معلومات حساسة مع تعديلات طفيفة.
تم تصميم نماذج لغة OpenAI، بما في ذلك GPT-3.5 Turbo وGPT-4، للتعلم المستمر من البيانات الجديدة، واستخدم الباحثون واجهة الضبط الدقيق للنموذج، المخصصة للمستخدمين لتوفير المزيد من المعرفة في مجالات محددة، لمعالجة دفاعات الأداة. يتم قبول الطلبات أيضًا. عادةً ما يتم رفضه في الواجهة القياسية بهذه الطريقة.
تستخدم OpenAI وMeta وGoogle تقنيات مختلفة لمنع طلبات الحصول على المعلومات الشخصية، لكن الباحثين وجدوا طرقًا لتجاوز هذه الضمانات.
استخدم تشو وزملاؤه واجهة برمجة التطبيقات الخاصة بالنموذج، بدلاً من الواجهة القياسية، وشاركوا في عملية تُعرف باسم الضبط الدقيق لتحقيق نتائجهم.
استجابت شركة OpenAI للمخاوف، مؤكدة على التزامها بالسلامة ورفضت طلبات الحصول على معلومات خاصة. ومع ذلك، يثير الخبراء الشكوك، ويسلطون الضوء على الافتقار إلى الشفافية فيما يتعلق ببيانات تدريب محددة والمخاطر المحتملة المرتبطة بنماذج الذكاء الاصطناعي التي تحتوي على معلومات خاصة.
تثير الثغرة الأمنية المكتشفة في GPT-3.5 Turbo مخاوف أوسع نطاقًا بشأن الخصوصية في نماذج اللغات الكبيرة.
يرى الخبراء أن النماذج المتاحة تجاريًا تفتقر إلى دفاعات الخصوصية القوية، مما يشكل مخاطر كبيرة لأن هذه النماذج تتعلم باستمرار من مصادر البيانات المتنوعة.
تضيف الطبيعة السرية لممارسات بيانات التدريب في OpenAI تعقيدًا إلى المشكلة، حيث يحث النقاد على زيادة الشفافية والتدابير لضمان حماية المعلومات الحساسة في نماذج الذكاء الاصطناعي.