كيف تصمم الذكاء الاصطناعي بأمان في برامج الأمن السيبراني الخاصة بك

كيف تصمم الذكاء الاصطناعي بأمان في برامج الأمن السيبراني الخاصة بك

كيفية تصميم الذكاء الاصطناعي بأمان في برامج الأمن السيبراني الخاصة بك. ذكاء بيانات PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

في نهاية شهر يونيو ، كشفت شركة الأمن السيبراني Group-IB عن مجموعة بارزة خرق أمني أثر على حسابات ChatGPT. حددت الشركة عددًا مذهلاً من الأجهزة المخترقة يبلغ 100,000 جهاز ، لكل منها بيانات اعتماد ChatGPT والتي تم تداولها لاحقًا في أسواق الويب المظلمة غير المشروعة على مدار العام الماضي. دفع هذا الخرق إلى توجيه دعوات إلى الاهتمام الفوري لمعالجة الأمان المخترق لحسابات ChatGPT ، نظرًا لأن استعلامات البحث التي تحتوي على معلومات حساسة تصبح مكشوفة للمتسللين.

في حادثة أخرى ، في غضون أقل من شهر ، عانت شركة Samsung من ثلاث حالات موثقة للموظفين عن غير قصد معلومات حساسة مسربة من خلال ChatGPT. نظرًا لأن ChatGPT تحتفظ ببيانات إدخال المستخدم لتحسين أدائها ، فإن هذه الأسرار التجارية القيمة التي تنتمي إلى Samsung أصبحت الآن في حوزة شركة OpenAI ، الشركة التي تقف وراء خدمة الذكاء الاصطناعي. يثير هذا مخاوف كبيرة فيما يتعلق بسرية وأمن المعلومات المملوكة لشركة Samsung.

بسبب هذه المخاوف بشأن امتثال ChatGPT للائحة الاتحاد الأوروبي العامة لحماية البيانات (GDPR) ، والتي تفرض إرشادات صارمة لجمع البيانات واستخدامها ، فرضت إيطاليا حظرا على الصعيد الوطني حول استخدام ChatGPT.

فتحت التطورات السريعة في تطبيقات الذكاء الاصطناعي والذكاء الاصطناعي فرصًا جديدة لتسريع النمو في ذكاء الأعمال والمنتجات والعمليات. لكن يتعين على مالكي برامج الأمن السيبراني ضمان خصوصية البيانات أثناء انتظار تطوير القوانين.

المحرك العام مقابل المحرك الخاص

لفهم المفاهيم بشكل أفضل ، لنبدأ بتعريف الذكاء الاصطناعي العام والذكاء الاصطناعي الخاص. يشير الذكاء الاصطناعي العام إلى تطبيقات برمجيات الذكاء الاصطناعي المتاحة للجمهور والتي تم تدريبها على مجموعات البيانات ، وغالبًا ما يتم الحصول عليها من المستخدمين أو العملاء. مثال رئيسي على الذكاء الاصطناعي العام هو ChatGPT ، الذي يستفيد من البيانات المتاحة للجمهور من الإنترنت ، بما في ذلك المقالات النصية والصور ومقاطع الفيديو.

يمكن أن يشمل الذكاء الاصطناعي العام أيضًا الخوارزميات التي تستخدم مجموعات البيانات غير الحصرية لمستخدم أو مؤسسة معينة. وبالتالي ، يجب أن يدرك عملاء الذكاء الاصطناعي العام أن بياناتهم قد لا تظل خاصة تمامًا.

من ناحية أخرى ، يتضمن الذكاء الاصطناعي الخاص تدريب الخوارزميات على البيانات الفريدة لمستخدم أو مؤسسة معينة. في هذه الحالة ، إذا كنت تستخدم أنظمة التعلم الآلي لتدريب نموذج باستخدام مجموعة بيانات معينة ، مثل الفواتير أو نماذج الضرائب ، فسيظل هذا النموذج حصريًا لمؤسستك. لا يستخدم موردو الأنظمة الأساسية بياناتك لتدريب نماذجهم الخاصة ، لذلك يمنع الذكاء الاصطناعي الخاص أي استخدام لبياناتك لمساعدة منافسيك.

دمج الذكاء الاصطناعي في برامج وسياسات التدريب

من أجل تجربة تطبيقات الذكاء الاصطناعي وتطويرها ودمجها في منتجاتها وخدماتها مع الالتزام بأفضل الممارسات ، يجب على موظفي الأمن السيبراني وضع السياسات التالية موضع التنفيذ.

توعية وتعليم المستخدم: توعية المستخدمين بالمخاطر المرتبطة باستخدام الذكاء الاصطناعي وتشجيعهم على توخي الحذر عند نقل المعلومات الحساسة. تعزيز ممارسات الاتصال الآمن وتقديم المشورة للمستخدمين للتحقق من مصداقية نظام الذكاء الاصطناعي.

  • تصغير البيانات: قم فقط بتزويد محرك الذكاء الاصطناعي بالحد الأدنى من البيانات اللازمة لإنجاز المهمة. تجنب مشاركة المعلومات غير الضرورية أو الحساسة التي لا علاقة لها بمعالجة الذكاء الاصطناعي.
  • إخفاء الهوية وإلغاء تحديد الهوية: كلما كان ذلك ممكنًا ، قم بإخفاء هوية البيانات أو إلغاء تحديدها قبل إدخالها في محرك الذكاء الاصطناعي. يتضمن ذلك إزالة معلومات التعريف الشخصية (PII) أو أي سمات حساسة أخرى غير مطلوبة لمعالجة الذكاء الاصطناعي.

ممارسات معالجة البيانات الآمنة: ضع سياسات وإجراءات صارمة للتعامل مع بياناتك الحساسة. تقييد الوصول إلى الموظفين المصرح لهم فقط وفرض آليات مصادقة قوية لمنع الوصول غير المصرح به. تدريب الموظفين على أفضل ممارسات خصوصية البيانات وتنفيذ آليات التسجيل والتدقيق لتتبع الوصول إلى البيانات واستخدامها.

الاحتفاظ والتخلص: حدد سياسات الاحتفاظ بالبيانات وتخلص من البيانات بأمان بمجرد عدم الحاجة إليها. تنفيذ السليم آليات التخلص من البيانات، مثل الحذف الآمن أو محو التشفير ، لضمان عدم إمكانية استرداد البيانات بعد أن لم تعد مطلوبة.

الاعتبارات القانونية والامتثال: فهم التداعيات القانونية للبيانات التي تدخلها في محرك الذكاء الاصطناعي. تأكد من أن الطريقة التي يستخدم بها المستخدمون الذكاء الاصطناعي تتوافق مع اللوائح ذات الصلة ، مثل قوانين حماية البيانات أو المعايير الخاصة بالصناعة.

تقييم البائع: إذا كنت تستخدم محركًا للذكاء الاصطناعي مقدمًا من بائع تابع لجهة خارجية ، فقم بإجراء تقييم شامل لإجراءات الأمان الخاصة بهم. تأكد من أن البائع يتبع أفضل ممارسات الصناعة لأمن البيانات والخصوصية ، وأن لديهم إجراءات وقائية مناسبة لحماية بياناتك. على سبيل المثال ، توفر شهادة ISO و SOC عمليات التحقق من صحة الطرف الثالث القيِّمة لالتزام البائع بالمعايير المعترف بها والتزامه بأمن المعلومات.

إضفاء الطابع الرسمي على سياسة الاستخدام المقبول لمنظمة العفو الدولية (AUP): يجب أن تحدد سياسة الاستخدام المقبول للذكاء الاصطناعي الغرض والأهداف من السياسة ، مع التركيز على الاستخدام المسؤول والأخلاقي لتقنيات الذكاء الاصطناعي. يجب أن تحدد حالات الاستخدام المقبولة ، مع تحديد نطاق وحدود استخدام الذكاء الاصطناعي. يجب أن تشجع سياسة الاستخدام المقبول على الشفافية والمساءلة واتخاذ القرارات المسؤولة في استخدام الذكاء الاصطناعي ، وتعزيز ثقافة الممارسات الأخلاقية للذكاء الاصطناعي داخل المنظمة. تضمن المراجعات والتحديثات المنتظمة ملاءمة السياسة لتطور تقنيات الذكاء الاصطناعي وأخلاقياته.

استنتاجات

من خلال الالتزام بهذه الإرشادات ، يمكن لمالكي البرامج الاستفادة بشكل فعال من أدوات الذكاء الاصطناعي مع حماية المعلومات الحساسة ودعم المعايير الأخلاقية والمهنية. من الأهمية بمكان مراجعة المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي للتأكد من دقتها مع حماية البيانات المدخلة التي تدخل في إنشاء مطالبات الاستجابة في نفس الوقت.

الطابع الزمني:

اكثر من قراءة مظلمة