ads
ads

دراسة: 87% من الموظفين في مصر يعتمدون الذكاء الاصطناعي في العمل

صورة أرشيفية
صورة أرشيفية

كشفت دراسة حديثة أجرتها كاسبرسكي بعنوان “الأمن السيبراني في العمل: معارف الموظفين وسلوكياتهم” أن 87% من الموظفين في مصر يستخدمون أدوات الذكاء الاصطناعي في مهام عملهم اليومية. ومع ذلك، أظهرت الدراسة فجوة خطيرة في التدريب الأمني، حيث لم يتلقَ سوى 46% من هؤلاء الموظفين تدريبات متخصصة حول الأمن السيبراني المرتبط بالذكاء الاصطناعي، مما يعرض المؤسسات لمخاطر مثل تسريب البيانات وحقن الأوامر الخبيثة.

الذكاء الاصطناعي: أداة أساسية وسط تحديات أمنية

أوضحت الدراسة، التي شملت 2800 موظف وصاحب عمل من 7 دول بينها مصر، أن 90% من المشاركين المصريين يدركون مفهوم “الذكاء الاصطناعي التوليدي”. وأصبحت هذه الأدوات جزءًا لا يتجزأ من العمل اليومي، حيث يستخدمها 71% لكتابة وتحرير النصوص، 54% لتحليل البيانات، 54% لإنشاء الصور والفيديوهات، و53% لصياغة رسائل البريد الإلكتروني المتعلقة بالعمل.

ومع ذلك، كشفت الدراسة عن نقص حاد في التدريب الأمني، إذ لم يتلقَ 17% من الموظفين أي تدريب حول الذكاء الاصطناعي، بينما ركزت الدورات التدريبية لـ62% من المشاركين على كيفية استخدام الأدوات بفعالية دون التركيز على الأمن. هذا النقص يجعل المؤسسات عرضة لمخاطر “تكنولوجيا معلومات الظل”، حيث يستخدم الموظفون أدوات ذكاء اصطناعي دون إشراف أو توجيه من الشركة.

سياسات الشركات: بين السماح والحظر

أفاد 77% من المشاركين أن شركاتهم تسمح باستخدام أدوات الذكاء الاصطناعي التوليدي، بينما حظرته 20% من الشركات، وأبدى 2% عدم وضوح سياسة الشركة بشأن هذا الأمر. ويؤكد الخبراء أن السماح غير المنظم أو الحظر التام ليسا الحل الأمثل، بل يتطلب الأمر سياسة متوازنة تحدد الأدوات المعتمدة، وتنظم الوصول بناءً على حساسية البيانات، وتضمن التدريب المناسب.

يقول راشد المومني، المدير العام لمنطقة الشرق الأوسط في كاسبرسكي: “الذكاء الاصطناعي ليس أداة يمكن حظرها أو استخدامها دون قيود. الاستراتيجية المثلى هي سياسة مرنة تتيح مستويات وصول متفاوتة بناءً على طبيعة العمل، مدعومة بتدريب شامل يعزز الكفاءة مع الحفاظ على الأمان.”

توصيات كاسبرسكي لاستخدام آمن للذكاء الاصطناعي

لحماية المؤسسات من المخاطر المرتبطة بالذكاء الاصطناعي، تقترح كاسبرسكي الإجراءات التالية:

تدريب الموظفين: توفير دورات متخصصة حول الاستخدام الآمن للذكاء الاصطناعي، مثل منصة كاسبرسكي للتوعية الأمنية.

تمكين فرق تكنولوجيا المعلومات: تزويد المتخصصين بتدريبات حول الدفاع ضد استغلال الثغرات، مثل دورة “أمن النماذج اللغوية الكبيرة”.

حماية الأجهزة: تثبيت حلول أمنية مثل Kaspersky Next للوقاية من التصيد الاحتيالي وتطبيقات الذكاء الاصطناعي الوهمية.

مراقبة الاستخدام: إجراء استطلاعات دورية لتقييم استخدام الذكاء الاصطناعي وتعديل السياسات بناءً على النتائج.

تصفية البيانات الحساسة: استخدام وكلاء ذكاء اصطناعي لتصفية الاستعلامات ومنع الوصول غير المصرح به.

سياسة شاملة: وضع إطار رسمي لإدارة المخاطر، مسترشدًا بإرشادات كاسبرسكي للتطبيق الآمن.

WhatsApp
Telegram
إقرأ أيضاً
عاجل
عاجل
بث مباشر مباراة الأهلي والاتحاد السكندري (1-0) في الدوري المصري (لحظة بلحظة) | استراحة