أهم ثلاث مشكلات تتعلق بخصوصية البيانات تواجه الذكاء الاصطناعي اليوم - The Daily Hodl

أهم ثلاث مشكلات تتعلق بخصوصية البيانات تواجه الذكاء الاصطناعي اليوم - The Daily Hodl

HodlX ضيف بوست  يقدم مشاركتك

 

لقد تسبب الذكاء الاصطناعي (AI) في إثارة حماسة محمومة بين المستهلكين والشركات على حد سواء - مدفوعًا بإيمان عاطفي بأن LLMs (نماذج اللغة الكبيرة) وأدوات مثل ChatGPT ستغير الطريقة التي ندرس بها ونعمل ونعيش بها.

ولكن كما كان الحال في الأيام الأولى للإنترنت، يتدخل المستخدمون دون التفكير في كيفية استخدام بياناتهم الشخصية - وهووالتأثير الذي يمكن أن يحدثه ذلك على خصوصيتهم.

كانت هناك بالفعل أمثلة لا حصر لها على خروقات البيانات في مجال الذكاء الاصطناعي. في مارس 2023، استحوذت OpenAI مؤقتًا على ChatGPT حاليا بعد خطأ "جسيم" يعني أن المستخدمين تمكنوا من رؤية تواريخ محادثات الغرباء.

نفس الخطأ يعني معلومات الدفع الخاصة بالمشتركين - بما في ذلك الأسماء وعناوين البريد الإلكتروني وأرقام بطاقات الائتمان الجزئية - وكانت أيضا في المجال العام.

في سبتمبر 2023، تم سرقة 38 تيرابايت من بيانات مايكروسوفت عن غير قصد تسربت من قبل أحد الموظفين، مع تحذير خبراء الأمن السيبراني من أن هذا قد يسمح للمهاجمين بالتسلل إلى نماذج الذكاء الاصطناعي باستخدام تعليمات برمجية ضارة.

كما تمكن الباحثون من ذلك تلاعب أنظمة الذكاء الاصطناعي في الكشف عن السجلات السرية.

في غضون ساعات قليلة، تمكنت مجموعة تسمى Robust Intelligence من الحصول على معلومات التعريف الشخصية من برنامج Nvidia وتجاوز الضمانات المصممة لمنع النظام من مناقشة موضوعات معينة.

لقد تم تعلم الدروس في كل هذه السيناريوهات، ولكن كل خرق يوضح بقوة التحديات التي يجب التغلب عليها حتى يصبح الذكاء الاصطناعي قوة موثوقة وموثوقة في حياتنا.

حتى أن Gemini، برنامج الدردشة الآلي التابع لشركة Google، يعترف بأن جميع المحادثات تتم معالجتها بواسطة مراجعين بشريين - مما يؤكد غياب الشفافية في نظامها.

يقول تنبيه للمستخدمين يحذر: "لا تدخل أي شيء لا ترغب في مراجعته أو استخدامه".

يتحرك الذكاء الاصطناعي بسرعة إلى ما هو أبعد من مجرد أداة يستخدمها الطلاب في أداء واجباتهم المدرسية أو يعتمد عليها السائحون للحصول على توصيات أثناء رحلة إلى روما.

ويتزايد الاعتماد عليه في المناقشات الحساسة - وقمنا بتغذية كل شيء بدءًا من الأسئلة الطبية وحتى جداول عملنا.

ولهذا السبب، من المهم الرجوع خطوة إلى الوراء والتفكير في أهم ثلاث مشكلات تتعلق بخصوصية البيانات تواجه الذكاء الاصطناعي اليوم، وسبب أهميتها لنا جميعًا.

1. المطالبات ليست خاصة

تقوم أدوات مثل ChatGPT بحفظ المحادثات السابقة للرجوع إليها لاحقًا. في حين أن هذا يمكن أن يحسن تجربة المستخدم ويساعد في تدريب LLMs، إلا أنه يأتي مع المخاطر.

إذا تم اختراق النظام بنجاح، فهناك خطر حقيقي من كشف المطالبات في منتدى عام.

يمكن أن يتم تسريب تفاصيل محرجة محتملة من سجل المستخدم، بالإضافة إلى معلومات حساسة تجاريًا عند نشر الذكاء الاصطناعي لأغراض العمل.

وكما رأينا من Google، يمكن أيضًا أن يتم فحص جميع الطلبات المقدمة من قبل فريق التطوير الخاص بها.

اتخذت شركة Samsung إجراءً بشأن هذا الأمر في مايو 2023 عندما منعت الموظفين من استخدام أدوات الذكاء الاصطناعي التوليدية تمامًا. جاء ذلك بعد موظف تم التحميل كود المصدر السري لـ ChatGPT.

وكان عملاق التكنولوجيا يشعر بالقلق من صعوبة استرجاع هذه المعلومات وحذفها، مما يعني أن الملكية الفكرية (الملكية الفكرية) يمكن أن يتم توزيعها في نهاية المطاف على الجمهور بشكل عام.

اتخذت شركات Apple وVerizon وJPMorgan إجراءات مماثلة، حيث تشير التقارير إلى أن أمازون أطلقت حملة قمع بعد أن كانت ردود ChatGPT تحمل أوجه تشابه مع بياناتها الداخلية.

كما ترون، تمتد المخاوف إلى ما هو أبعد مما يمكن أن يحدث إذا كان هناك خرق للبيانات، بل إلى احتمال إعادة استخدام المعلومات المدخلة في أنظمة الذكاء الاصطناعي وتوزيعها على جمهور أوسع.

شركات مثل OpenAI موجودة بالفعل مواجهة دعاوى قضائية متعددة وسط مزاعم بأن برامج الدردشة الخاصة بهم تم تدريبها باستخدام مواد محمية بحقوق الطبع والنشر.

2. نماذج الذكاء الاصطناعي المخصصة التي تدربها المؤسسات ليست خاصة

وهذا يقودنا بدقة إلى النقطة التالية - بينما يمكن للأفراد والشركات إنشاء نماذج LLM المخصصة الخاصة بهم بناءً على مصادر البيانات الخاصة بهم، فإنها لن تكون خاصة تمامًا إذا كانت موجودة ضمن حدود منصة مثل ChatGPT.

لا توجد في النهاية طريقة لمعرفة ما إذا كانت المدخلات تُستخدم لتدريب هذه الأنظمة الضخمة - أو ما إذا كان من الممكن استخدام المعلومات الشخصية في النماذج المستقبلية.

وكما هو الحال مع الصور المقطوعة، يمكن جمع نقاط البيانات من مصادر متعددة معًا لتكوين رؤية شاملة ومفصلة بشكل مثير للقلق حول هوية شخص ما وخلفيته.

قد تفشل المنصات الرئيسية أيضًا في تقديم تفسيرات تفصيلية لكيفية تخزين هذه البيانات ومعالجتها، مع عدم القدرة على إلغاء الاشتراك في الميزات التي لا يشعر المستخدم بالارتياح تجاهها.

وبعيدًا عن الاستجابة لمطالبات المستخدم، تتمتع أنظمة الذكاء الاصطناعي بشكل متزايد بالقدرة على القراءة بين السطور واستنتاج كل شيء بدءًا من موقع الشخص وحتى شخصيته.

في حالة حدوث خرق للبيانات، من الممكن حدوث عواقب وخيمة. يمكن تنسيق هجمات تصيد احتيالي معقدة بشكل لا يصدق - والمستخدمين المستهدفين بالمعلومات التي قاموا بإدخالها بشكل سري في نظام الذكاء الاصطناعي.

تتضمن السيناريوهات المحتملة الأخرى استخدام هذه البيانات لانتحال هوية شخص ما، سواء كان ذلك من خلال تطبيقات لفتح حسابات مصرفية أو مقاطع فيديو مزيفة بعمق.

يجب على المستهلكين أن يظلوا يقظين حتى لو لم يستخدموا الذكاء الاصطناعي بأنفسهم. يتم استخدام الذكاء الاصطناعي بشكل متزايد لتشغيل أنظمة المراقبة وتعزيز تكنولوجيا التعرف على الوجه في الأماكن العامة.

إذا لم يتم إنشاء مثل هذه البنية التحتية في بيئة خاصة حقًا، فقد يتم انتهاك الحريات المدنية والخصوصية لعدد لا يحصى من المواطنين دون علمهم.

3. يتم استخدام البيانات الخاصة لتدريب أنظمة الذكاء الاصطناعي

هناك مخاوف من أن أنظمة الذكاء الاصطناعي الرئيسية قد اكتسبت ذكائها من خلال البحث في عدد لا يحصى من صفحات الويب.

تشير التقديرات إلى أنه تم استخدام 300 مليار كلمة لتدريب ChatGPT - هذا يعني 570 جيجابايت من البيانات - مع الكتب وإدخالات ويكيبيديا بين مجموعات البيانات.

ومن المعروف أيضًا أن الخوارزميات تعتمد على صفحات التواصل الاجتماعي والتعليقات عبر الإنترنت.

مع بعض هذه المصادر، يمكنك القول بأن مالكي هذه المعلومات كان لديهم توقعات معقولة بالخصوصية.

لكن هذا هو الشيء - العديد من الأدوات والتطبيقات التي نتفاعل معها يوميًا تتأثر بشدة بالذكاء الاصطناعي - والتفاعل مع سلوكياتنا.

يستخدم Face ID الموجود على جهاز iPhone الخاص بك الذكاء الاصطناعي لتتبع التغييرات الطفيفة في مظهرك.

تقدم خوارزميات TikTok وFacebook المدعومة بالذكاء الاصطناعي توصيات للمحتوى بناءً على المقاطع والمشاركات التي شاهدتها في الماضي.

يعتمد المساعدون الصوتيون مثل Alexa وSiri بشكل كبير على التعلم الآلي أيضًا.

هناك كوكبة مذهلة من الشركات الناشئة في مجال الذكاء الاصطناعي، ولكل منها غرض محدد. ومع ذلك، فإن بعضها أكثر شفافية من غيرها فيما يتعلق بكيفية جمع بيانات المستخدم وتخزينها وتطبيقها.

وهذا مهم بشكل خاص لأن الذكاء الاصطناعي له تأثير في مجال الرعاية الصحية - من التصوير الطبي والتشخيص إلى حفظ السجلات والمستحضرات الصيدلانية.

يجب تعلم الدروس من شركات الإنترنت التي تعرضت لفضائح الخصوصية خلال السنوات الأخيرة.

كان Flo، أحد تطبيقات صحة المرأة المتهم من قبل المنظمين لمشاركة التفاصيل الحميمة حول مستخدميها مع شركات مثل فيسبوك وجوجل في العقد الأول من القرن الحادي والعشرين.

أين نذهب من هنا

سيكون للذكاء الاصطناعي تأثير لا يمحى على حياتنا جميعًا في السنوات القادمة. تتحسن برامج LLM مع مرور كل يوم، وتستمر حالات الاستخدام الجديدة في الظهور.

ومع ذلك، هناك خطر حقيقي يتمثل في أن المنظمين سيكافحون من أجل مواكبة تحرك الصناعة بسرعة فائقة.

وهذا يعني أن المستهلكين بحاجة إلى البدء في تأمين بياناتهم الخاصة ومراقبة كيفية استخدامها.

يمكن أن تلعب اللامركزية دورًا حيويًا هنا وتمنع سقوط كميات كبيرة من البيانات في أيدي المنصات الرئيسية.

تتمتع DePINs (شبكات البنية التحتية المادية اللامركزية) بالقدرة على ضمان تجربة المستخدمين العاديين للمزايا الكاملة للذكاء الاصطناعي دون المساس بخصوصيتهم.

لا يمكن للمطالبات المشفرة أن تقدم نتائج أكثر تخصيصًا فحسب، بل ستضمن دورات LLM التي تحافظ على الخصوصية أن يتمتع المستخدمون بالتحكم الكامل في بياناتهم في جميع الأوقات - والحماية من إساءة استخدامه.


كريس وير هو الرئيس التنفيذي لشركة فيريدا، شبكة بيانات لا مركزية ذاتية السيادة تمكن الأفراد من التحكم في هويتهم الرقمية وبياناتهم الشخصية. كريس هو رجل أعمال في مجال التكنولوجيا مقيم في أستراليا، وقد أمضى أكثر من 20 عامًا في تطوير حلول برمجية مبتكرة.

 

تحقق من أحدث العناوين على HodlX

تابعنا تويتر فيسبوك تیلیجرام

افحص أحدث إعلانات الصناعة  

أهم ثلاث مشكلات تتعلق بخصوصية البيانات تواجه الذكاء الاصطناعي اليوم - The Daily Hodl PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

إخلاء المسؤولية: الآراء المعبر عنها في صحيفة Daily Hodl ليست نصائح استثمارية. يجب على المستثمرين القيام بالعناية الواجبة لهم قبل القيام بأي استثمارات عالية المخاطر في البيتكوين ، أو العملات الأجنبية أو الأصول الرقمية. يرجى العلم بأن عمليات النقل والتداول الخاصة بك هي على مسؤوليتك الخاصة ، وأي خسارة قد تتكبدها هي مسؤوليتك. لا توصي Daily Hodl بشراء أو بيع أي عملات سرية أو أصول رقمية ، ولا هي The Daily Hodl أحد مستشاري الاستثمار. يرجى ملاحظة أن Daily Hodl تشارك في التسويق بالعمولة.

الصورة المولدة: Midjourney

الطابع الزمني:

اكثر من The Daily Hodl