MarkTechPost→ المصدر

Shadow AI في 63% من الشركات: كيف سبقت الأدوات السياسات المؤسسية

تعمل 63% من المؤسسات من دون سياسات لحوكمة AI. ويستخدم الموظفون بالفعل ChatGPT وClaude وأدوات أخرى من تلقاء أنفسهم — وهذا هو Shadow AI. عملياً، سبقت الأدوات نفسه

Shadow AI في 63% من الشركات: كيف سبقت الأدوات السياسات المؤسسية
المصدر: MarkTechPost. كولاج: Hamidun News.
◐ استمع للمقال

ثلثا الشركات تعمل بدون سياسات رسمية لإدارة الذكاء الاصطناعي، بينما يقوم الموظفون بالفعل بتنفيذ أدوات الذكاء الاصطناعي بمبادرة خاصة منهم.

أزمة الحوكمة في 2026

يظهر البحث أن 63% من المؤسسات تفتقر إلى سياسة معتمدة لإدارة الذكاء الاصطناعي. وهذا فجوة كبيرة بين ما يخطط له قادة تكنولوجيا المعلومات وما يحدث فعلياً على أرض الواقع. تتحدث الشركات عن استراتيجية الذكاء الاصطناعي على مستوى مجلس الإدارة، لكن الموظفين يستخدمون منذ فترة طويلة ChatGPT و Claude و Perplexity وأدوات أخرى في عملهم اليومي. تتفاقم المشكلة بسبب عمى حرج: الشركات لا تعرف أي ذكاء اصطناعي يتم استخدامه في أنظمتها. لا أحد يراقب أي البيانات تدخل إلى واجهات برمجة التطبيقات العامة، وما هي المخاطر التي تنشئها للملكية الفكرية، وأي تحليلات يتم تدريبها على المعلومات الخاصة بالشركة.

الذكاء الاصطناعي الخفي استحوذ على الأعمال

الذكاء الاصطناعي الخفي هو التنفيذ غير المنضبط لأدوات الذكاء الاصطناعي من قبل الموظفين بدون موافقة قسم تكنولوجيا المعلومات وبدون رؤية للإدارة. قد يبدو الأمر كما يلي:

  • يستخدم متخصص التسويق ChatGPT لكتابة وصف المنتج وإستراتيجية التسعير
  • ينسخ المطور الكود من Copilot مباشرة إلى الإنتاج بدون مراجعة
  • يحمل محلل مالي البيانات السرية إلى ذكاء اصطناعي سحابي للتحليل
  • يحلل مدير استراتيجية المنافسين من خلال نماذج ذكاء اصطناعي عامة
  • يستبدل فريق الدعم قوالب الإجابات برد إلكترونية مولدة بالذكاء الاصطناعي بدون فحص الجودة

يتم تنفيذ كل هذه الإجراءات خارج السيطرة الشركات وغالباً بدون معرفة أمان تكنولوجيا المعلومات. الشركات لا تعرف حجم التسريبات، أو جودة الحلول، أو الامتثال إلى GDPR أو HIPAA أو اللوائح الأخرى.

مخاطر ضخمة قريبة

عندما تسبق الأدوات السياسات، يصبح حجم المشاكل خطيراً. تذهب الأسرار التجارية إلى السحابة عندما يحمل الموظفون بيانات سرية إلى واجهات برمجة تطبيقات عامة مثل ChatGPT أو Claude. تعاني الجودة — يمكن للذكاء الاصطناعي أن يهلوس، وينتج عن حسابات غير دقيقة، وتقدم توصيات خاطئة في الحلول المالية أو الطبية. هناك أيضاً مسائل قانونية. إذا كانت شركة تستخدم ذكاء اصطناعي تم تدريبه على أعمال محمية بحقوق الطبع والنشر بدون ترخيص، قد يؤدي ذلك إلى دعاوى قضائية. إذا ارتكب الذكاء الاصطناعي خطأ يضر العملاء، من يكون مسؤولاً — الشركة أم مطور النموذج؟

«الأدوات تسبق السياسات — هذا هو التحدي الرئيسي للذكاء الاصطناعي في

الشركات في 2026.»

ماذا يعني هذا

يجب على الشركات أن تلحق بالتأخير بشكل عاجل. هناك حاجة إلى سياسات إدارة واضحة: ما الذي يمكن استخدامه، وأي البيانات مقبولة لتقديمها للذكاء الاصطناعي، وكيفية التحقق من جودة النتائج، وكيفية تتبع الاستخدام، وكيفية تدريب الموظفين. وإلا، فإن الذكاء الاصطناعي الخفي سيستمر في النمو، وستنمو المخاطر معه.

ZK
Hamidun News
أخبار الذكاء الاصطناعي بدون ضوضاء. اختيار تحريري يومي من أكثر من 400 مصدر. منتج من جمال حميدون، رئيس الذكاء الاصطناعي في Alpina Digital.
ما رأيك؟
جارٍ تحميل التعليقات…