أعلنت شركة OpenAI، المطورة لنظم الذكاء الاصطناعي الأكثر شهرة مثل ChatGPT، عن إطلاق نظام جديد يحمل اسم “Verified Organization”. يهدف هذا النظام إلى تمكين المؤسسات الراغبة في استخدام نماذج الذكاء الاصطناعي المتقدمة من الوصول الآمن والمحدد لهذه الأدوات. يأتي هذا الابتكار كجزء من جهود الشركة لتعزيز الثقة والشفافية في تقنياتها، مع تعزيز الأمان والحد من المخاطر المرتبطة بالاستخدامات غير القانونية للذكاء الاصطناعي.
ما هو نظام “Verified Organization” من OpenAI؟
نظام “Verified Organization” هو مبادرة جديدة من OpenAI مخصصة للتحقق من هوية المؤسسات التي ترغب في الوصول إلى نماذج الذكاء الاصطناعي. يعتمد هذا النظام على تقديم هوية حكومية صالحة للتأكد من هوية المؤسسة عبر واجهة برمجة التطبيقات (API). يتم تطبيق عملية التحقق كل 90 يومًا لضمان استمرارية الأمان والشفافية.
رغم أهمية هذه الخطوة، لم تصرح الشركة بعد ما إذا كان التحقق سيكون إلزاميًا لجميع المؤسسات، حيث أكدت أن “ليست كل المؤسسات مؤهلة للتحقق”، مما يثير التساؤلات حول المعايير المطبقة.
لماذا أطلقت OpenAI نظام التحقق الآن؟
اتخذت OpenAI هذه الخطوة لتعزيز أمان منصاتها وحمايتها من الاستخدامات الضارة. في بيان رسمي للشركة، أكدت: “نأخذ مسؤوليتنا بجدية لضمان استخدام الذكاء الاصطناعي بأمان”. تأتي هذه المبادرة استجابة لتقارير تربط نماذج الذكاء الاصطناعي بسوء الاستخدام، مثل حملات التضليل أو تحسين أدوات القرصنة.
التحديات الأمنية التي تواجهها الشركة، بما في ذلك الاستخدامات غير القانونية لنماذجها، كانت الدافع الرئيسي وراء إطلاق هذا المشروع.
هل يرتبط النظام بمخاطر سابقة؟
تواجه OpenAI تحديات متعلقة بالقرصنة وتسريب البيانات. وفقًا لتقرير نشره موقع Bloomberg، فتحَت الشركة تحقيقات داخلية حول احتمالية تسريب بياناتها لصالح شركات تقنية منافسة. كما واجهت مخاطر تتعلق باستخدام نماذجها بطرق قد تعرض حقوق الملكية الفكرية للخطر، مما دفعها لتنفيذ سياسات أكثر صرامة.
خطوة نحو شفافية أكبر وحماية الملكية الفكرية
يُتوقع أن يكون نظام التحقق من الهوية خطوة أولى في سلسلة من الجهود التي تتخذها OpenAI لتعزيز تنظيم استخدام التقنية. ومع اللوائح التي تدرسها حكومات حول العالم مثل الولايات المتحدة والاتحاد الأوروبي، تعمل الشركة على تقديم نفسها كشركة مسؤولة أخلاقيًا عن تطوير الذكاء الاصطناعي واستخداماته.