خبر ⁄صحة

الذكاء الاصطناعي الخفي ينذر بمخاطر كبرى

الذكاء الاصطناعي الخفي ينذر بمخاطر كبرى

جذبت القوة التحويلية والانتشار السريع للذكاء الاصطناعي، المستخدمين والشركات على حد سواء. وبحلول عام 2030، ستتجاوز سوق الذكاء الاصطناعي 826 مليار دولار. مع ازدياد اعتماد الذكاء الاصطناعي التوليدي، أفادت شركة «غارتنر» بأنه بحلول العام المقبل ستقوم 30 في المائة من الشركات بأتمتة نصف حركة مرور شبكاتها على الأقل، كما كتب ستيو سيورمان*

استخدام تطبيقات غير معتمدة

ولكن هنا يأتي عامل السرعة. مع توفر أدوات الذكاء الاصطناعي على نطاق واسع، يستخدم الموظفون أدوات ذكاء اصطناعي غير معتمدة (غير مصرَّح بها من قِبَل الشركات)، مثل روبوتات الدردشة القائمة على الذكاء الاصطناعي، ونماذج التعلم الآلي لتحليل البيانات، ومساعدي مراجعة الترميز.

ووفقاً لدراسة أجرتها «مايكروسوفت»، استخدم 80 في المائة من الموظفين تطبيقات غير مصرح بها العام الماضي.

«الذكاء الاصطناعي الخفي» يُسرِّع وتيرة التهديدات الداخلية

ونظراً لأن 38 في المائة من المستخدمين يتبادلون معلومات حساسة مع أدوات الذكاء الاصطناعي دون موافقة الشركة (التي يعملون فيها)، فإن تهديداً جديداً يُعرف

باسم «الذكاء الاصطناعي الخفي» (Shadow AI) يُنذر بمخاطر أمنية واسعة النطاق، بما في ذلك كشف البيانات، واتخاذ قرارات عمل غير دقيقة، ومشكلات الامتثال.

يُدمج مزيد من الموظفين أدوات الذكاء الاصطناعي في روتين عملهم اليومي. وتجد فرق التسويق مثلاً سِحر «جي بي تي» مفيداً لأتمتة حملات البريد الإلكتروني ووسائل التواصل الاجتماعي وإنشاء الصور. بينما تستخدم فرق الأعمال المالية أدوات تصور بيانات الذكاء الاصطناعي لإنشاء أنماط تُقدم نظرة أعمق على نفقات الشركة. وعلى الرغم من النتائج المُبهرة، فإن هذه الأدوات عُرضة لمخاطر «الذكاء الاصطناعي الخفي» إذا لم تكن المؤسسات على دراية باستخدام التطبيقات.

وبدلاً من سحب المواد المُعتمدة من الشركة، قد يُفصح فريق خدمة العملاء الذي يلجأ إلى روبوتات دردشة الذكاء الاصطناعي غير المُصرح بها، عند الإجابة على استفسار العميل، عن معلومات غير مُتسقة أو مُضللة، ما قد يُشارك بيانات سرية أو خاصة.

ثغرات أمنية

ومن دون تغيير طبيعة العمل، يحل الذكاء الاصطناعي الخفي محل العمل البشري، ويُمنح الذكاء الاصطناعي مزيداً من الاستقلالية، ما يُؤدي إلى ثغرات أمنية جديدة. وعلى سبيل المثال، وفي ظروف تكنولوجيا المعلومات الخفية هذه، يظل برنامج محلل «Salesforce» يؤدي العمل الأساسي نفسه، إلا أن المحلل نفسه الذي يستخدم أدوات ذكاء اصطناعي غير مصرح بها لتفسير سلوك العملاء، بناءً على مجموعة بيانات خاصة، يمكن أن يكشف عن معلومات حساسة دون قصد في هذه العملية.

تهديدات داخلية وبيانات حساسة

ونظراً لإساءة استخدام الذكاء الاصطناعي الخفي، يعتقد معظم مسؤولي أمن المعلومات (75 في المائة) أن التهديدات الداخلية تشكل خطراً أكبر من الهجمات الخارجية.

في مارس (آذار) 2024، كان أكثر من ربع البيانات (27 في المائة) التي استخدمها الموظفون من مستخدمي أدوات الذكاء الاصطناعي، بيانات حساسة، بزيادة عن 10.7 في المائة في العام السابق. وأكثر أنواع البيانات الحساسة شيوعاً هي دعم العملاء (16.3 في المائة)، يليه شيفرة المصدر (12.7 في المائة)، ومحتوى البحث والتطوير (10.8 في المائة)، والاتصالات الداخلية السرية (6.6 في المائة)، وسجلات الموارد البشرية والموظفين (3.9 في المائة). ومن المعروف أن تقنية الذكاء الاصطناعي تعدُّ أيضاً مفضلة لدى الجهات الخبيثة، بما في ذلك المطلعون على بواطن الأمور.

تأمين المؤسسات من الذكاء الاصطناعي الخفي

لا داعي للمساس بالسرعة من أجل الأمان. يمكن للمؤسسات تبني الابتكار مع تقليل مخاطر الذكاء الاصطناعي الخفي وحماية البيانات القيِّمة.

وفيما يلي 4 طرق لذلك:

1- وضع سياسة للاستخدام المقبول للذكاء الاصطناعي: يقول نصف الموظفين فقط إن سياسات شركتهم المتعلقة باستخدام الذكاء الاصطناعي «واضحة»، بينما يُقر 57 في المائة منهم باستخدام الذكاء الاصطناعي بما يتعارض مع سياسات الشركة. يجب إطلاع المستخدمين على أنواع المعلومات التي يُمكن إدخالها أو لا يُمكن إدخالها في أدوات الذكاء الاصطناعي.

يُقترح تصنيف أدوات الذكاء الاصطناعي إلى فئات: مُعتمَدة، ومحدودة الاستخدام، ومحظورة. وقبل النشر، يجب فحص جميع مشاريع الذكاء الاصطناعي الجديدة، واعتمادها من قِبل قسم تكنولوجيا المعلومات. يجب اعتبار السياسة وثيقة حيوية تُطوِّر استجابة للتحديات والفرص الجديدة، مع الحفاظ على توافقها مع سياسات الأمن الخاصة بالمؤسسة.

معالجة البيانات

2- وضع متطلبات واضحة لمعالجة البيانات: من خلال تصنيف البيانات وتحديد أنواع المعلومات التي لا ينبغي معالجتها بواسطة عروض الذكاء الاصطناعي المُستضافة بشكل عام أو خاص. يُمكن تقليل مخاطر كشف البيانات وتطبيق الحوكمة.

يُمكن استخدام عروض الذكاء الاصطناعي المحلية للبيانات شديدة الحساسية؛ حيث لا تتجاوز البيانات حدود الشركة. وبدلاً من نقل البيانات إلى خدمات الذكاء الاصطناعي السحابية، يُمكن نشر الإمكانات؛ حيث توجد البيانات.

تدريب وتوعية وثقافة آمنة

3- إجراء تدريب توعوي متواصل: من أفضل الطرق للحد من مخاطر الذكاء الاصطناعي الخفي تثقيف الموظفين حول مخاطر الذكاء الاصطناعي وأفضل الممارسات.

ويفتقر أكثر من نصف الموظفين (55 في المائة) إلى التدريب على مخاطر الذكاء الاصطناعي، ويشعر 65 في المائة منهم بالقلق إزاء الجرائم الإلكترونية المدعومة بالذكاء الاصطناعي. ينبغي إعطاء الأولوية للتدريب على التوعية بالأمن السيبراني، ودعمه بمحاكاة هجمات تصيد احتيالي، لتحديد مؤشرات تهديدات الذكاء الاصطناعي، ومساعدة المستخدمين على الاستجابة المناسبة.

4- بناء ثقافة ذكاء اصطناعي آمنة: الذكاء الاصطناعي الخفي ثقافي أكثر من كونه تقنيّاً. وبناء ثقافة استخدام مسؤولة للذكاء الاصطناعي يأتي من خلال رفع مستوى الوعي بعواقب استخدام أدوات الذكاء الاصطناعي غير المصرَّح بها. قد يدفع هذا الوعي الموظفين إلى البحث عن بدائل معتمدة أو طلب المشورة من قسم تكنولوجيا المعلومات، قبل تطبيق تطبيقات جديدة.

يجب على المؤسسات دمج جميع أنظمة وأدوات الذكاء الاصطناعي في الإجراءات الرسمية، لمنع التعرُّض للاختراقات السيبرانية والمشكلات القانونية ومشكلات الامتثال.

من خلال معالجة المخاطر الأساسية للذكاء الاصطناعي الخفي، من خلال سياسة رسمية لاستخدام الذكاء الاصطناعي، وتدريب المستخدمين وتوعيتهم، ووضع توقعات واضحة بشأن استخدام البيانات الحساسة، وإرساء ثقافة واضحة للذكاء الاصطناعي، يمكن للمؤسسات تحسين الذكاء الاصطناعي وتحقيق ميزة تنافسية.

* «إنك»، خدمات «تريبيون ميديا».

aawsat.com