أصدرت OpenAI تحذيرًا في 10 ديسمبر يفيد بأن نماذج الذكاء الاصطناعي القادمة يمكن أن تخلق مخاطر أمنية خطيرة. وقالت الشركة المطورة لـ ChatGPT إن هذه النماذج المتقدمة قد تبني ثغرات بدون مخاطر تعمل عن بُعد تستهدف الأنظمة المحمية جيدًا.
كما لاحظت شركة الذكاء الاصطناعي أن هذه النماذج يمكن أن تساعد في عمليات التسلل المعقدة للمؤسسات أو الصناعات التي تؤدي إلى عواقب في العالم الحقيقي. شاركت OpenAI هذه المعلومات في منشور مدونة يتناول القدرات المتزايدة لتقنيتها.
يعكس التحذير المخاوف في جميع أنحاء صناعة الذكاء الاصطناعي بشأن إساءة استخدام النماذج القوية بشكل متزايد. اتخذت العديد من شركات التكنولوجيا الكبرى إجراءات لتأمين أنظمة الذكاء الاصطناعي الخاصة بها ضد تهديدات مماثلة.
أعلنت Google هذا الأسبوع عن تحديثات لأمان متصفح Chrome لمنع هجمات حقن الأوامر غير المباشرة على وكلاء الذكاء الاصطناعي. جاءت التغييرات قبل طرح أوسع لميزات Gemini الوكيلة في Chrome.
كشفت Anthropic في نوفمبر 2025 أن الجهات الفاعلة المهددة، المرتبطة محتملاً بمجموعة ترعاها الدولة الصينية، استخدمت أداة Claude Code الخاصة بها لعملية تجسس قائمة على الذكاء الاصطناعي. أوقفت الشركة الحملة قبل أن تسبب أضرارًا.
شاركت OpenAI بيانات تظهر تقدمًا سريعًا في قدرات الأمن السيبراني للذكاء الاصطناعي. حقق نموذج GPT-5.1-Codex-Max الخاص بالشركة 76% في تحديات capture-the-flag في نوفمبر 2025.
يمثل هذا قفزة كبيرة من نتيجة 27% التي حققها GPT-5 في أغسطس 2024. تقيس تحديات capture-the-flag مدى قدرة الأنظمة على تحديد واستغلال نقاط الضعف الأمنية.
يظهر التحسن خلال بضعة أشهر فقط مدى سرعة اكتساب نماذج الذكاء الاصطناعي لقدرات الأمن السيبراني المتقدمة. يمكن استخدام هذه المهارات لأغراض دفاعية وهجومية على حد سواء.
قالت OpenAI إنها تبني نماذج أقوى لأعمال الأمن السيبراني الدفاعية. تطور الشركة أدوات لمساعدة فرق الأمان على تدقيق الكود وإصلاح نقاط الضعف بسهولة أكبر.
تستخدم الشركة المدعومة من Microsoft طبقات أمان متعددة بما في ذلك ضوابط الوصول، وتقوية البنية التحتية، وضوابط الخروج، وأنظمة المراقبة. تدرب OpenAI نماذج الذكاء الاصطناعي الخاصة بها لرفض الطلبات الضارة مع البقاء مفيدة للتعليم والعمل الدفاعي.
توسع الشركة المراقبة عبر جميع المنتجات باستخدام نماذج حدودية لاكتشاف النشاط السيبراني الضار المحتمل. تتعاون OpenAI مع مجموعات الفرق الحمراء الخبيرة لاختبار وتحسين أنظمة الأمان الخاصة بها.
قدمت OpenAI Aardvark، وهو وكيل الذكاء الاصطناعي يعمل كباحث أمني. الأداة في مرحلة الاختبار العام للنسخة التجريبية ويمكنها فحص الكود بحثًا عن نقاط الضعف واقتراح التصحيحات.
يمكن للمشرفين تنفيذ الإصلاحات التي يقترحها Aardvark بسرعة. تخطط OpenAI لتقديم Aardvark مجانًا لمستودعات الكود مفتوحة المصدر غير التجارية المختارة.
ستطلق الشركة برنامجًا يمنح مستخدمي وعملاء الدفاع السيبراني المؤهلين وصولاً متدرجًا إلى القدرات المحسنة. تشكل OpenAI مجلس مخاطر الحدود، الذي يجمع المدافعين السيبرانيين الخارجيين وخبراء الأمان للعمل مع فرقها الداخلية.
سيبدأ المجلس بالتركيز على الأمن السيبراني قبل التوسع إلى مجالات القدرات الحدودية الأخرى. ستقدم OpenAI قريبًا تفاصيل حول برنامج الوصول الموثوق للمستخدمين والمطورين العاملين في مجال الدفاع السيبراني.
ظهر منشور OpenAI تحذر من أن نماذج الذكاء الاصطناعي من الجيل القادم تشكل مخاطر أمنية سيبرانية عالية لأول مرة على Blockonomi.


