شوف الجديد: OpenAI تحمي نماذجها المتقدمة بخطوات تحقق صارمة للمؤسسات

أطلقت شركة OpenAI نظامًا جديدًا تحت اسم “Verified Organization” لدعم وحماية المؤسسات الراغبة في استخدام تقنيات الذكاء الاصطناعي المتقدمة، وذلك بعد تصاعد مخاطر إساءة استخدام التكنولوجيا. يهدف النظام إلى التحقق من هوية المؤسسات عبر وثائق حكومية صالحة وموجهة إلى تحقيق الشفافية ومنع الانتهاكات التقنية، ما يشكل خطوة مهمة لتعزيز الأمان الرقمي وحماية الملكية الفكرية.

ما هو نظام التحقق “Verified Organization” من OpenAI؟

نظام “Verified Organization” هو آلية جديدة أطلقتها شركة OpenAI لضمان وصول المؤسسات المؤهلة فقط إلى نماذج الذكاء الاصطناعي المتقدمة. يتطلب النظام تقديم وثيقة هوية حكومية صالحة من إحدى الدول المدعومة، ويتم استعمال الهوية للتحقق من جهة واحدة فقط لمدة تصل إلى 90 يومًا. بالرغم من أن OpenAI لم تعلن عن جعل هذا النظام إلزاميًا للجميع، فقد أشارت إلى أن المعايير الدقيقة لتصنيف المؤسسات المؤهلة ستظل غير واضحة حاليًا، ما يعكس توجه الشركة لحصر الوصول ضمن نطاق مقيد يعزز الحماية.

الأهداف الأمنية وراء خطوة التحقق

تأتي هذه الخطوة وسط تزايد استخدام واجهات OpenAI بطرق غير قانونية، حيث تسعى الشركة إلى وقف التجاوزات. أكدت OpenAI في بيان لها أن النظام الجديد يأتي في إطار مسؤوليتها لضمان أمان وفعالية التكنولوجيا المتاحة. تُظهر تقارير حديثة تصاعد استخدام تقنيات الذكاء الاصطناعي في حملات تضليل وهجمات إلكترونية، مما جعل تعزيز الأمان معيارًا ضروريًا. فضلًا عن ذلك، يتماشى هذا الإجراء مع مخاوف عالمية بشأن استغلال الذكاء الاصطناعي لتطوير أدوات هجومية.

خلفية الخطوة: حماية البيانات والامتثال التقني

وفقًا لتقرير نشرته Bloomberg، بدأت OpenAI تحقيقًا داخليًا بشأن احتمال تسريب بيانات عبر واجهات البرمجة الخاصة بها إلى مختبرات الذكاء الاصطناعي الصينية. كجزء من الحلول الوقائية، حجبت الشركة بعض خدماتها عن الصين في عام 2024. وقد تكون خطوة التحقق الجديدة تعزيزًا لالتزام OpenAI بالمحافظة على سرية بيانات المستخدم.

العنوان الوصف
الأهداف الرئيسية تعزيز الأمان ومنع التسريبات
فترة التحقق 90 يومًا عبر وثيقة حكومية
التوجه المستقبلي حماية وتقنين الوصول للنماذج المتقدمة

الخلاصة أن إطلاق نظام “Verified Organization” يعكس التزام OpenAI بتحقيق الحوكمة الأخلاقية، وتعزيز الملكية الفكرية، وضمان الاستخدام الآمن لتقنيات الذكاء الاصطناعي، لا سيما مع تزايد التحديات الدولية حول سرقة التكنولوجيا والمخاطر المتصلة بها.