4 خطوات لـ”ذكاء اصطناعي” آمن في المؤسسات
استعرضت “بالو ألتو نتوركس”، وفقاً لأناند أوسوال، نائب الرئيس الأول والمدير العام لأمن الشبكات لدى الشركة، أبرز المخاطر الخفيّة لاستخدام الذكاء الاصطناعي في المؤسسات، وفقاً لبيان صحفي وصل موقع “بزنس برس”.
ويمكن لاعتماد تطبيقات الذكاء الاصطناعي التوليدي غير المرخصة أن يسفر عن مجموعة واسعة من المشاكل المتعلقة بالأمن الإلكتروني تتراوح من تسريب البيانات، وصولاً إلى مخاطر البرمجيات الخبيثة.
ويعود السبب في ذلك إلى عدم معرفة المؤسسات لمن يقوم باستخدام تلك التطبيقات، وما هي المعلومات الحساسة التي تصل إليها، وما الذي يحدث لتلك المعلومات بعد مشاركتها مع التطبيقات.
ويمكن للشركات، بل ويجب عليها، أن تأخذ وقتها في دراسة كيفية تمكين الموظفين من استخدام هذه التطبيقات بشكل آمن، وفيما يلي بعض الاعتبارات التي يمكن أخذها بالحسبان:
1– الاطلاع على جميع الجوانب المتعلقة بتدفق البيانات:
لا يمكن حماية ما نجهله. ومن أكبر التحديات التي تواجه فرق تكنولوجيا المعلومات بخصوص التطبيقات غير المرخصة هو صعوبة الاستجابة لحوادث الأمن الإلكتروني على الفور، ما يزيد من إمكانية وقوع خروقات الأمن الإلكتروني.
ولذلك، يتوجب على كل مؤسسة مراقبة استخدام تطبيقات الذكاء الاصطناعي التوليدي المقدمة من أطراف خارجية، وفهم المخاطر المحددة المرتبطة بكل أداة منها.
واستناداً إلى فهمها للأدوات التي يتم استخدامها، تحتاج فرق تكنولوجيا المعلومات إلى الاطلاع على جميع الجوانب المتعلقة بالبيانات المتدفقة داخل المؤسسات وخارجها، ما يساعد في كشف الخروقات الأمنية وضبطها ومعالجتها بسرعة.
2– التحكم:
يجب أن تتمتع فرق تكنولوجيا المعلومات بالقدرة على اتخاذ قرارات سديدة بخصوص حجب أو السماح أو الحد من إمكانية الوصول إلى تطبيقات الذكاء الاصطناعي للأطراف الخارجية سواءً كان ذلك على مستوى التطبيقات أو من خلال استخدام ضوابط قائمة على المخاطر أو مصنفة وفقاً لها.
على سبيل المثال، قد تقرر المؤسسة حجب وصول كامل الموظفين إلى أدوات تحسين الترميز، والسماح فقط للمطورين بالدخول إلى أدوات تحسين الترميز المقدمة من أطراف خارجية وذلك بعد تأكد فرق الأمن الإلكتروني من سلامتها والسماح باستخدامها داخلياً.
3– الأمن الإلكتروني:
هل تقوم فرق العمل بمشاركة معلومات حساسة مع التطبيقات؟ يجب على فرق تكنولوجيا المعلومات ضمان عدم تسرب المعلومات الحساسة وذلك لحماية بيانات المؤسسة من سوء الاستخدام والسرقة.
وتزيد أهمية هذا الأمر في حال كانت المؤسسة خاضعة للتنظيم أو لقوانين سيادة البيانات.
ويعني ذلك من الناحية العملية مراقبة البيانات التي يتم إرسالها إلى تطبيقات الذكاء الاصطناعي التوليدي، ومن ثم تطبيق الضوابط الفنية لضمان عدم إرسال البيانات الحساسة أو المحمية مثل معلومات التعريف الشخصية أو بيانات الملكية الفكرية، إلى هذه التطبيقات.
4– الوقاية من التهديدات:
قد تكمن مخاطر استغلال نقاط الضعف تحت غطاء أدوات الذكاء الاصطناعي التوليدي التي تستخدمها فرق العمل.
وبالنظر إلى المعدل السريع جداً الذي تم عبره تطوير العديد من هذه الأدوات وطرحها في السوق، فقد لا يمكن معرفة ما إذا كان النموذج المستخدم قد تم إنشاؤه باستخدام نماذج معيبة، أو ما إذا تم تدريبه وفقاً لبيانات غير صحيحة أو خبيثة، أو ما إذا كان يشتمل على مجموعة واسعة من نقاط الضعف المرتبطة بالذكاء الاصطناعي.
وتعد مراقبة البيانات المتدفقة من هذه التطبيقات إلى مؤسستكم والتحكم بها من أفضل الممارسات التي يوصى بها في هذا السياق والتي تتيح البحث عن أي نشاط ضار أو مشبوه إن وجد.