الخطر مقابل الوعد: الشركات والمطورون قلقون بشأن مخاطر الذكاء الاصطناعي التوليدية

الخطر مقابل الوعد: الشركات والمطورون قلقون بشأن مخاطر الذكاء الاصطناعي التوليدية

الخطر مقابل الوعد: الشركات والمطورون قلقون بشأن مخاطر الذكاء الاصطناعي التوليدية وذكاء بيانات PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

تعتقد الغالبية العظمى من المطورين أن استخدام أنظمة الذكاء الاصطناعي التوليدية سيكون ضروريًا لزيادة الإنتاجية ومواكبة تحديات البرمجيات، لكن مشكلات الملكية الفكرية والمخاوف الأمنية لا تزال تعيق اعتمادها.

يعتقد حوالي 83% من المطورين أن اعتماد الذكاء الاصطناعي أمر ضروري وإلا فإنهم يخاطرون بالتخلف عن الركب، لكن 32% كانوا قلقين بشأن إدخال الذكاء الاصطناعي في عملياتهم. من بين هؤلاء، ما يقرب من النصف (48٪) يشعرون بالقلق من أن الذكاء الاصطناعي يمكن أن يلوث حماية الملكية الفكرية لأكوادهم البرمجية، ويشير 39٪ إلى مخاوف من أن التعليمات البرمجية التي ينشئها الذكاء الاصطناعي ستحتوي على المزيد من نقاط الضعف الأمنية، وفقًا لمسح نشرته شركة خدمات التطوير GitLab هذا الأسبوع. . كما أعرب أكثر من ثلث المطورين عن قلقهم من أن أنظمة الذكاء الاصطناعي يمكن أن تحل محلهم أو تلغي وظائفهم.

بشكل عام، يرى المطورون أن أنظمة الذكاء الاصطناعي التوليدية يمكن أن تجعلها أكثر كفاءة، لكنهم يشعرون بالقلق بشأن التأثيرات النهائية، كما يقول جوش ليموس، كبير مسؤولي أمن المعلومات في GitLab (لا علاقة له بالمؤلف).

ويقول: "لا تزال المخاوف المتعلقة بالخصوصية وأمن البيانات بشأن [نماذج اللغات الكبيرة] تشكل عائقًا أمام الدخول، [فضلًا عن] جودة اقتراحات التعليمات البرمجية". "إن فهم كيفية الاستفادة بشكل أفضل من ميزات الذكاء الاصطناعي التوليدية، سواء كانت تعليمات برمجية أو وظائف أخرى في مسار عملك، سيؤدي إلى تغيير الطريقة التي يعمل بها الأشخاص، وعليهم أن يتبنوا بوعي نهجًا جديدًا للتفاعل مع قاعدة التعليمات البرمجية الخاصة بهم."

المطورون ليسوا وحدهم المعنيين بالطبيعة المزدوجة للذكاء الاصطناعي التوليدي. أكثر من نصف أعضاء مجالس إدارة الشركات (59٪) لديهم مخاوف بشأن الذكاء الاصطناعي التوليدي، وخاصة تسرب المعلومات السرية التي تم تحميلها من قبل الموظفين إلى خدمات مثل ChatGPT، وفقًا للتقرير.الأمن السيبراني: منظور مجلس الإدارة لعام 2023"، نشرته Proofpoint هذا الأسبوع. بالإضافة إلى ذلك، أصبح اعتماد المهاجمين لأنظمة الذكاء الاصطناعي التوليدية لتحسين هجمات التصيد الاحتيالي والتقنيات الأخرى مصدر قلق.

يقول رايان ويت، كبير مسؤولي أمن المعلومات المقيم في Proofpoint، إن مجالس الإدارة تدعو مسؤولي أمن المعلومات إلى تعزيز دفاعاتهم.

يقول: "كأداة للمدافعين، يعد الذكاء الاصطناعي التوليدي أمرًا بالغ الأهمية للعمل خلف الكواليس، خاصة في الحالات التي تستخدم فيها حاملي شهادات الماجستير في القانون - نماذج لغوية كبيرة". "بالنسبة للجهات الفاعلة السيئة، أصبحت صياغة حملات التصيد الاحتيالي والبريد الإلكتروني للأعمال المكتوبة جيدًا أسهل بكثير وقابلة للتطوير. لقد ولت أيام تقديم المشورة للمستخدمين النهائيين للبحث عن الأخطاء النحوية والسياقية والنحوية الواضحة.

الاعتماد التدريجي للذكاء الاصطناعي

تحركت الشركات بسرعة لاستكشاف الذكاء الاصطناعي التوليدي كوسيلة لتسريع أداء العاملين في مجال المعرفة لمهامهم اليومية. قام عدد من الشركات، مثل Microsoft وKaspersky، بإنشاء خدمات تعتمد على LLMs لإعادة بيعها أو استخدامها داخليًا كوسيلة لزيادة محللي الأمن. أصدرت GitHub وGitLab وغيرهم من مقدمي خدمات المطورين أنظمة مماثلة تهدف إلى مساعدة المبرمجين في إنتاج التعليمات البرمجية أكثر كفاءة.

بشكل عام، شهد المطورون، أو يأملون في رؤية، مكاسب في الكفاءة (55%) ودورات تطوير أسرع (44%) بسبب الذكاء الاصطناعي. وفقًا لاستطلاع GitLab الأخير. ومع ذلك، يتوقع 40% أيضًا ظهور تعليمات برمجية أكثر أمانًا نتيجة اعتمادهم على الذكاء الاصطناعي، بينما يتوقع 39% المزيد من الثغرات الأمنية في التعليمات البرمجية التي ينشئها الذكاء الاصطناعي.

وبشكل عام، سيصبح المطورون أكثر دقة بشأن اعتمادهم للذكاء الاصطناعي، حيث سيقبلون بسهولة تطبيقات معينة من الذكاء الاصطناعي التوليدي بينما يقاومون تطبيقات أخرى. على سبيل المثال، يجد Lemos من GitLab أن قدرة الذكاء الاصطناعي التوليدي على إنشاء ملخص موجز من تحديث التعليمات البرمجية أو طلب الدمج هي الأكثر إقناعًا، خاصة عندما تحتوي الملاحظات الموجودة على التحديث على عشرات أو مئات التعليقات.

يقول: "أحصل على ملخص موجز لكل ما يحدث". "يمكنني الاطلاع خلال ثوانٍ قليلة على ما يحدث مع هذه المشكلة دون قراءة الموضوع بالكامل."

الذكاء الاصطناعي يخلق وظائف بالفعل؟

أحد المخاوف المنتشرة على نطاق واسع بشأن الذكاء الاصطناعي هو أن الأنظمة ستحل محل المطورين: 36% من المطورين يشعرون بالقلق من أنه سيتم استبدالهم بنظام الذكاء الاصطناعي. ومع ذلك، أعطى استطلاع GitLab أيضًا وزنًا أكبر للحجج القائلة بأن التقنيات الثورية تؤدي إلى المزيد من العمل للناس: حيث قام ما يقرب من ثلثي الشركات بتعيين موظفين للمساعدة في إدارة تطبيقات الذكاء الاصطناعي.

يبدو أن جزءًا من القلق يتعلق بالأجيال. يقول ليموس إن المطورين الأكثر خبرة يميلون إلى عدم قبول اقتراحات التعليمات البرمجية التي تقدمها أنظمة الذكاء الاصطناعي، في حين أن المطورين المبتدئين هم أكثر عرضة لقبولها. ومع ذلك، يتطلع كلاهما إلى الذكاء الاصطناعي لمساعدتهما في الأعمال الأكثر مللًا، مثل التوثيق وإنشاء اختبارات الوحدة.

يقول: "أرى الكثير من المطورين يطرحون فكرة كتابة وثائقهم بواسطة الذكاء الاصطناعي، أو الحصول على تغطية اختبارية مكتوبة بواسطة الذكاء الاصطناعي، لأنهم لا يهتمون كثيرًا بجودة ذلك الكود، ولكنهم يهتمون فقط بأن الاختبار يعمل". "هناك فائدة أمنية وتنموية في الحصول على تغطية اختبار أفضل، وهو أمر لا يتعين عليهم قضاء الوقت فيه."

في حين أن الذكاء الاصطناعي قد يساعد المطورين في معظم المهام العادية، فإن المهاجمين يتعلمون أيضًا، كما يقول ويت من Proofpoint. ويشدد على أنه لا ينبغي للشركات أن تتوقع أن يفيد الذكاء الاصطناعي بشكل واضح جانبًا واحدًا من معادلة الأمن السيبراني أو الجانب الآخر.

ويقول: "قد يتحول هذا إلى لعبة القط والفأر، حيث تواجه الدفاعات المعززة بالذكاء الاصطناعي تحديات مستمرة من قبل التهديدات المحسّنة للذكاء الاصطناعي، والعكس صحيح". "كل هذا سيتطلب استمرار الاستثمار في تكنولوجيا الذكاء الاصطناعي حتى يتمكن المدافعون عن الأمن السيبراني من مجاراة المعتدين في ساحة المعركة الافتراضية."

الطابع الزمني:

اكثر من قراءة مظلمة