ما يتربص في الظلام: استهداف الظل AI

ما يتربص في الظلام: استهداف الظل AI

ما يتربص في الظلام: استهداف ذكاء بيانات الظل AI PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

تواجه الفرق الأمنية كابوسًا جديدًا في موسم الهالوين هذا: ظهور الذكاء الاصطناعي التوليدي (AI). أطلقت أدوات الذكاء الاصطناعي الإبداعية العنان لعصر جديد من الرعب لكبار مسؤولي أمن المعلومات، بدءًا من تشغيل التزييف العميق الذي لا يمكن تمييزه تقريبًا عن الواقع إلى إنشاء رسائل بريد إلكتروني تصيدية معقدة تبدو أصلية بشكل مذهل للوصول إلى تسجيلات الدخول وسرقة الهويات. يتجاوز عرض الرعب المبتكر القائم على الذكاء الاصطناعي إدارة الهوية والوصول، مع نواقل الهجوم التي تتراوح من الطرق الأكثر ذكاءً لاختراق التعليمات البرمجية إلى كشف بيانات الملكية الحساسة.

وفقًا لاستطلاع أجرته شركة The Conference Board، فإن 56% من الموظفين كذلك استخدام الذكاء الاصطناعي التوليدي في العمل، لكن 26% فقط يقولون أن مؤسساتهم لديها سياسة ذكاء اصطناعي توليدية مطبقة. بينما تحاول العديد من الشركات تطبيق قيود حول استخدام الذكاء الاصطناعي التوليدي في العمل، فإن البحث القديم عن الإنتاجية يعني أن نسبة مثيرة للقلق من الموظفين يستخدمون الذكاء الاصطناعي دون مباركة تكنولوجيا المعلومات أو التفكير في التداعيات المحتملة. على سبيل المثال، بعد أن قام بعض الموظفين بإدخال معلومات حساسة للشركة في ChatGPT، حظرت شركة Samsung استخدامه بالإضافة إلى أدوات الذكاء الاصطناعي المماثلة.

لقد كانت تقنية Shadow IT - التي يستخدم فيها الموظفون أدوات تكنولوجيا المعلومات غير المصرح بها - شائعة في مكان العمل منذ عقود. الآن، مع تطور الذكاء الاصطناعي التوليدي بسرعة كبيرة بحيث لا يتمكن مدراء تكنولوجيا المعلومات من فهم ما يحاربونه بشكل كامل، تظهر ظاهرة جديدة مخيفة: الذكاء الاصطناعي الظلي.

من Shadow IT إلى Shadow AI

هناك توتر أساسي بين فرق تكنولوجيا المعلومات، التي تريد التحكم في التطبيقات والوصول إلى البيانات الحساسة من أجل حماية الشركة، والموظفين، الذين يبحثون دائمًا عن الأدوات التي تساعدهم في إنجاز المزيد من العمل بشكل أسرع. على الرغم من الحلول التي لا تعد ولا تحصى في السوق والتي تستهدف تكنولوجيا المعلومات الظلية من خلال زيادة صعوبة وصول العمال إلى الأدوات والمنصات غير المعتمدة، فقد أفاد أكثر من ثلاثة من كل 10 موظفين استخدام أدوات اتصالات وتعاون غير مصرح بها العام الماضي.

في حين أن نوايا معظم الموظفين في المكان الصحيح - أي إنجاز المزيد من العمل - إلا أن التكاليف يمكن أن تكون مرعبة. ما يقدر بثلث الناجحين الهجمات السيبرانية تأتي من تكنولوجيا المعلومات الظل ويمكن أن تكلف الملايين. علاوة على ذلك، يشعر 91% من محترفي تكنولوجيا المعلومات بذلك الضغط من أجل تقويض الأمن لتسريع العمليات التجارية، ويشعر 83% من فرق تكنولوجيا المعلومات أنه من المستحيل تطبيق سياسات الأمن السيبراني.

يمكن للذكاء الاصطناعي التوليدي أن يضيف بعدًا مخيفًا آخر إلى هذا المأزق عندما تقوم الأدوات بتجميع بيانات الشركة الحساسة التي، عند كشفها، يمكن أن تلحق الضرر بسمعة الشركة.

وإدراكًا لهذه التهديدات، بالإضافة إلى سامسونج، العديد من أصحاب العمل كذلك الحد من الوصول إلى الذكاء الاصطناعي التوليدي القوي أدوات. وفي الوقت نفسه، يسمع الموظفون مرارًا وتكرارًا أنهم سيتخلفون عن الركب دون استخدام الذكاء الاصطناعي. وبدون حلول تساعدهم على البقاء في المقدمة، يفعل الموظفون ما سيفعلونه دائمًا - وهو أخذ الأمور بأيديهم واستخدام الحلول التي يحتاجون إليها لتقديمها، سواء بإذن من قسم تكنولوجيا المعلومات أو بدونه. لذا فلا عجب أن يجد مجلس المؤتمر أن أكثر من نصف الموظفين يستخدمون بالفعل الذكاء الاصطناعي التوليدي في العمل، سواء كان ذلك مسموحًا به أم لا.

أداء طرد الأرواح الشريرة بالذكاء الاصطناعي في الظل

بالنسبة للمؤسسات التي تواجه انتشار الذكاء الاصطناعي الظلي على نطاق واسع، فإن إدارة هذا العرض اللامتناهي من التهديدات قد تبدو وكأنها محاولة النجاة من حلقة من مسلسل The Walking Dead. ومع الظهور المستمر لمنصات الذكاء الاصطناعي الجديدة، قد يكون من الصعب على أقسام تكنولوجيا المعلومات معرفة من أين تبدأ.

ولحسن الحظ، هناك استراتيجيات تم اختبارها عبر الزمن ويمكن لقادة تكنولوجيا المعلومات ومديري تكنولوجيا المعلومات تنفيذها لاستئصال أدوات الذكاء الاصطناعي التوليدية غير المصرح بها وإخافتهم قبل أن يبدأوا في الاستحواذ على شركاتهم.

  • اعترف بالأشباح الودية. يمكن للشركات الاستفادة من خلال تزويد موظفيها بشكل استباقي بأدوات الذكاء الاصطناعي المفيدة التي تساعدهم على أن يكونوا أكثر إنتاجية، ولكن يمكن أيضًا فحصها ونشرها وإدارتها في ظل حوكمة تكنولوجيا المعلومات. من خلال تقديم أدوات ذكاء اصطناعي توليدية آمنة ووضع سياسات لنوع البيانات التي يتم تحميلها، تثبت المؤسسات للعاملين أن المؤسسة تستثمر في نجاحهم. وهذا يخلق ثقافة الدعم والشفافية التي يمكن أن تؤدي إلى تحسين الأمان على المدى الطويل وتحسين الإنتاجية.
  • تسليط الضوء على الشياطين. لا يفهم العديد من الموظفين ببساطة أن استخدام الذكاء الاصطناعي التوليدي يمكن أن يعرض شركاتهم لمخاطر مالية هائلة. قد لا يفهم البعض بوضوح عواقب عدم الالتزام بالقواعد أو قد لا يشعرون بالمسؤولية عن اتباعها. بشكل مثير للقلق، المهنيين الأمن هم أكثر احتمالاً من العمال الآخرين (37% مقابل 25%) ليقولوا إنهم يتجنبون سياسات شركاتهم عند محاولتهم حل مشكلات تكنولوجيا المعلومات الخاصة بهم. من الضروري إشراك القوى العاملة بأكملها، بدءًا من الرئيس التنفيذي وحتى العاملين في الخطوط الأمامية، في تدريب منتظم على المخاطر التي تنطوي عليها وأدوارهم في الوقاية أثناء إنفاذ الانتهاكات بحكمة.
  • أعد تجميع صائدي الأشباح الخاص بك. سيكون مدراء تكنولوجيا المعلومات قادرين على إعادة تقييم قدرات إدارة الهوية والوصول الحالية للتأكد من أنهم يراقبون حلول الذكاء الاصطناعي غير المصرح بها ويمكنهم إرسال فرقهم العليا بسرعة عند الضرورة.

يطارد Shadow AI الشركات، ومن الضروري تجنبه. يمكن أن يساعد التخطيط الذكي والإشراف الدؤوب والاتصالات الاستباقية وأدوات الأمان المحدثة المؤسسات على البقاء في مواجهة التهديدات المحتملة. سيساعدهم ذلك على الاستفادة من القيمة التجارية التحويلية للذكاء الاصطناعي التوليدي دون الوقوع ضحية للانتهاكات الأمنية التي ستستمر في تقديمها.

الطابع الزمني:

اكثر من قراءة مظلمة