آج AI کو درپیش ڈیٹا پرائیویسی کے تین اہم مسائل - The Daily Hodl

AI آج درپیش ڈیٹا پرائیویسی کے تین اہم مسائل - ڈیلی ہوڈل

HodlX مہمان پوسٹ  اپنی پوسٹ جمع کروائیں

 

AI (مصنوعی ذہانت) نے صارفین اور کاروباروں میں یکساں جوش و خروش پیدا کر دیا ہے۔ - ایک پرجوش یقین سے کارفرما کہ LLMs (بڑے زبان کے ماڈل) اور ChatGPT جیسے ٹولز ہمارے مطالعہ، کام اور زندگی گزارنے کے طریقے کو بدل دیں گے۔

لیکن انٹرنیٹ کے ابتدائی دنوں کی طرح، صارفین اس بات پر غور کیے بغیر کود رہے ہیں کہ ان کا ذاتی ڈیٹا کیسے استعمال ہوتا ہے۔ ایکاور اس کا اثر ان کی رازداری پر پڑ سکتا ہے۔

AI اسپیس کے اندر ڈیٹا کی خلاف ورزی کی لاتعداد مثالیں پہلے ہی موجود ہیں۔ مارچ 2023 میں، OpenAI نے عارضی طور پر ChatGPT لیا تھا۔ آف لائن 'اہم' خرابی کے بعد صارفین اجنبیوں کی گفتگو کی سرگزشت دیکھنے کے قابل تھے۔

اسی بگ کا مطلب سبسکرائبرز کی ادائیگی کی معلومات تھی۔ - بشمول نام، ای میل پتے اور جزوی کریڈٹ کارڈ نمبر - پبلک ڈومین میں بھی تھے۔

ستمبر 2023 میں، مائیکروسافٹ کا ایک حیران کن 38 ٹیرا بائٹس ڈیٹا نادانستہ طور پر لیک لیا ایک ملازم کی طرف سے، سائبرسیکیوریٹی کے ماہرین نے خبردار کیا ہے کہ اس سے حملہ آوروں کو نقصان دہ کوڈ کے ساتھ AI ماڈلز میں گھسنے کی اجازت مل سکتی ہے۔

محققین بھی کرنے میں کامیاب رہے ہیں۔ جوڑتوڑ خفیہ ریکارڈوں کو ظاہر کرنے میں AI سسٹمز۔

صرف چند گھنٹوں میں، Robust Intelligence نامی ایک گروپ Nvidia سافٹ ویئر سے ذاتی طور پر قابل شناخت معلومات طلب کرنے میں کامیاب ہو گیا اور سسٹم کو بعض موضوعات پر بحث کرنے سے روکنے کے لیے بنائے گئے حفاظتی اقدامات کو نظرانداز کر دیا۔

ان تمام منظرناموں میں سبق سیکھے گئے، لیکن ہر ایک خلاف ورزی ان چیلنجوں کی طاقتور انداز میں وضاحت کرتی ہے جن پر AI کو ہماری زندگیوں میں ایک قابل اعتماد اور قابل اعتماد قوت بننے کے لیے قابو پانے کی ضرورت ہے۔

جیمنی، گوگل کا چیٹ بوٹ، یہاں تک کہ تسلیم کرتا ہے کہ تمام گفتگو پر انسانی جائزہ لینے والوں کے ذریعے کارروائی کی جاتی ہے۔ - اس کے نظام میں شفافیت کی کمی کو اجاگر کرنا۔

"کوئی ایسی چیز درج نہ کریں جس پر آپ نظرثانی یا استعمال نہیں کرنا چاہیں گے،" صارفین کے لیے ایک الرٹ کہتا ہے۔

AI تیزی سے اس ٹول سے آگے بڑھ رہا ہے جسے طلباء اپنے ہوم ورک کے لیے استعمال کرتے ہیں یا روم کے سفر کے دوران سیاح سفارشات کے لیے انحصار کرتے ہیں۔

حساس بات چیت کے لیے اس پر تیزی سے انحصار کیا جا رہا ہے۔ - اور طبی سوالات سے لے کر ہمارے کام کے نظام الاوقات تک سب کچھ کھلایا۔

اس کی وجہ سے، ایک قدم پیچھے ہٹنا اور آج AI کو درپیش سرفہرست تین ڈیٹا پرائیویسی مسائل پر غور کرنا ضروری ہے، اور یہ ہم سب کے لیے کیوں اہم ہیں۔

1. اشارے نجی نہیں ہوتے ہیں۔

ChatGPT جیسے ٹولز ماضی کی بات چیت کو یاد کرتے ہیں تاکہ بعد میں ان کا حوالہ دیا جا سکے۔ اگرچہ یہ صارف کے تجربے کو بہتر بنا سکتا ہے اور ایل ایل ایم کو تربیت دینے میں مدد کر سکتا ہے، لیکن یہ خطرے کے ساتھ آتا ہے۔

اگر کوئی سسٹم کامیابی کے ساتھ ہیک ہو جاتا ہے، تو عوامی فورم میں پرامپٹس کے سامنے آنے کا حقیقی خطرہ ہوتا ہے۔

صارف کی تاریخ سے ممکنہ طور پر شرمناک تفصیلات لیک ہو سکتی ہیں، ساتھ ہی تجارتی لحاظ سے حساس معلومات جب AI کو کام کے مقاصد کے لیے تعینات کیا جا رہا ہو۔

جیسا کہ ہم نے گوگل سے دیکھا ہے، تمام گذارشات کو اس کی ڈیولپمنٹ ٹیم کے ذریعے جانچا جا سکتا ہے۔

سام سنگ نے مئی 2023 میں اس پر ایکشن لیا جب اس نے ملازمین پر جنریٹو AI ٹولز استعمال کرنے پر مکمل پابندی لگا دی۔ یہ ایک ملازم کے بعد آیا اپ لوڈ کردہ ChatGPT کو خفیہ سورس کوڈ۔

ٹیک دیو کو تشویش تھی کہ اس معلومات کو بازیافت کرنا اور حذف کرنا مشکل ہوگا، یعنی IP (دانشورانہ املاک) کو بڑے پیمانے پر عوام میں تقسیم کیا جا سکتا ہے۔

ایپل، ویریزون اور جے پی مورگن نے اسی طرح کی کارروائی کی ہے، رپورٹس کے مطابق ایمیزون نے چیٹ جی پی ٹی کے جوابات کے بعد اس کے اپنے اندرونی ڈیٹا میں مماثلت کے بعد کریک ڈاؤن شروع کیا ہے۔

جیسا کہ آپ دیکھ سکتے ہیں، خدشات اس سے آگے بڑھتے ہیں کہ اگر ڈیٹا کی خلاف ورزی ہوتی ہے تو کیا ہوتا ہے لیکن اس امکان کے مطابق کہ AI سسٹمز میں داخل کردہ معلومات کو دوبارہ تیار کیا جا سکتا ہے اور وسیع تر سامعین میں تقسیم کیا جا سکتا ہے۔

OpenAI جیسی کمپنیاں پہلے ہی موجود ہیں۔ سامنا کرنا پڑا ان الزامات کے درمیان متعدد قانونی چارہ جوئی کہ ان کے چیٹ بوٹس کو کاپی رائٹ شدہ مواد کا استعمال کرتے ہوئے تربیت دی گئی تھی۔

2. تنظیموں کے ذریعہ تربیت یافتہ حسب ضرورت AI ماڈل نجی نہیں ہیں۔

یہ ہمیں صفائی کے ساتھ ہمارے اگلے نقطہ پر لاتا ہے۔ - جب کہ افراد اور کارپوریشنز اپنے ڈیٹا کے ذرائع کی بنیاد پر اپنے حسب ضرورت ایل ایل ایم ماڈلز قائم کر سکتے ہیں، اگر وہ ChatGPT جیسے پلیٹ فارم کی حدود میں موجود ہوں تو وہ مکمل طور پر نجی نہیں ہوں گے۔

آخر کار یہ جاننے کا کوئی طریقہ نہیں ہے کہ آیا ان پٹس کو ان بڑے سسٹمز کو تربیت دینے کے لیے استعمال کیا جا رہا ہے۔ - یا آیا ذاتی معلومات مستقبل کے ماڈلز میں استعمال ہو سکتی ہیں۔

ایک جیگس کی طرح، متعدد ذرائع سے ڈیٹا پوائنٹس کو ایک ساتھ لایا جا سکتا ہے تاکہ کسی کی شناخت اور پس منظر میں ایک جامع اور تشویشناک حد تک تفصیلی بصیرت پیدا کی جا سکے۔

بڑے پلیٹ فارم اس کی تفصیلی وضاحت پیش کرنے میں بھی ناکام ہو سکتے ہیں کہ اس ڈیٹا کو کیسے ذخیرہ کیا جاتا ہے اور اس پر کارروائی کی جاتی ہے، ان خصوصیات سے آپٹ آؤٹ کرنے میں ناکامی کے ساتھ جن سے صارف کو تکلیف ہوتی ہے۔

صارف کے اشارے کا جواب دینے کے علاوہ، AI سسٹمز تیزی سے لائنوں کے درمیان پڑھنے اور کسی شخص کے مقام سے لے کر اس کی شخصیت تک ہر چیز کا اندازہ لگانے کی صلاحیت رکھتے ہیں۔

ڈیٹا کی خلاف ورزی کی صورت میں، سنگین نتائج ممکن ہیں۔ ناقابل یقین حد تک نفیس فشنگ حملوں کو ترتیب دیا جا سکتا ہے۔ - اور صارفین کو ان معلومات کے ساتھ نشانہ بنایا گیا جو انہوں نے خفیہ طور پر ایک AI سسٹم میں ڈالی تھیں۔

دیگر ممکنہ منظرناموں میں یہ ڈیٹا کسی کی شناخت کے لیے استعمال کیا جا رہا ہے، چاہے وہ بینک اکاؤنٹس کھولنے کی ایپلی کیشنز کے ذریعے ہو یا ڈیپ فیک ویڈیوز۔

صارفین کو چوکس رہنے کی ضرورت ہے چاہے وہ خود AI استعمال نہ کریں۔ عوامی مقامات پر AI کو نگرانی کے نظام کو طاقت دینے اور چہرے کی شناخت کی ٹیکنالوجی کو بڑھانے کے لیے تیزی سے استعمال کیا جا رہا ہے۔

اگر اس طرح کا بنیادی ڈھانچہ واقعی نجی ماحول میں قائم نہیں کیا جاتا ہے، تو بے شمار شہریوں کی شہری آزادیوں اور رازداری کو ان کے علم کے بغیر پامال کیا جا سکتا ہے۔

3. نجی ڈیٹا کا استعمال AI سسٹمز کو تربیت دینے کے لیے کیا جاتا ہے۔

ایسے خدشات ہیں کہ بڑے AI سسٹمز نے ان گنت ویب پیجز کو چھیڑ کر اپنی ذہانت کو اکٹھا کیا ہے۔

اندازے بتاتے ہیں کہ ChatGPT کو تربیت دینے کے لیے 300 بلین الفاظ استعمال کیے گئے۔ - یہ 570 گیگا بائٹس ڈیٹا ہے۔ - ڈیٹا سیٹس میں کتابوں اور ویکیپیڈیا کے اندراجات کے ساتھ۔

الگورتھم کو سوشل میڈیا کے صفحات اور آن لائن تبصروں پر انحصار کرنے کے لیے بھی جانا جاتا ہے۔

ان میں سے کچھ ذرائع کے ساتھ، آپ بحث کر سکتے ہیں کہ اس معلومات کے مالکان کو رازداری کی معقول توقع ہوتی۔

لیکن یہاں بات ہے۔ - بہت سے ٹولز اور ایپس جن کے ساتھ ہم روزانہ بات چیت کرتے ہیں پہلے ہی AI سے بہت زیادہ متاثر ہیں۔ - اور ہمارے طرز عمل پر ردعمل ظاہر کریں۔

آپ کے آئی فون پر فیس آئی ڈی آپ کی ظاہری شکل میں ٹھیک ٹھیک تبدیلیوں کو ٹریک کرنے کے لیے AI کا استعمال کرتی ہے۔

TikTok اور Facebook کے AI سے چلنے والے الگورتھم ان کلپس اور پوسٹس کی بنیاد پر مواد کی سفارشات کرتے ہیں جنہیں آپ ماضی میں دیکھ چکے ہیں۔

الیکسا اور سری جیسے وائس اسسٹنٹ بھی مشین لرننگ پر بہت زیادہ انحصار کرتے ہیں۔

AI سٹارٹ اپس کا ایک چمکتا ہوا برج موجود ہے، اور ہر ایک کا ایک خاص مقصد ہے۔ تاہم، کچھ اس بارے میں دوسروں کے مقابلے میں زیادہ شفاف ہیں کہ صارف کا ڈیٹا کیسے جمع، ذخیرہ اور لاگو کیا جاتا ہے۔

یہ خاص طور پر اہم ہے کیونکہ AI صحت کی دیکھ بھال کے شعبے میں اثر ڈالتا ہے۔ - میڈیکل امیجنگ اور تشخیص سے لے کر ریکارڈ کیپنگ اور فارماسیوٹیکل تک۔

حالیہ برسوں میں پرائیویسی اسکینڈلز میں پھنسے انٹرنیٹ کاروباروں سے سبق سیکھنے کی ضرورت ہے۔

خواتین کی صحت کی ایپ فلو تھی۔ الزام لگایا 2010 کی دہائی میں فیس بک اور گوگل کی پسند کے ساتھ اپنے صارفین کے بارے میں مباشرت کی تفصیلات شیئر کرنے کے ریگولیٹرز کے ذریعے۔

ہم یہاں سے کہاں جائیں؟

AI آنے والے سالوں میں ہماری تمام زندگیوں پر انمٹ اثر ڈالنے والا ہے۔ LLMs ہر گزرتے دن کے ساتھ بہتر ہو رہے ہیں، اور استعمال کے نئے کیسز سامنے آتے رہتے ہیں۔

تاہم، یہ ایک حقیقی خطرہ ہے کہ ریگولیٹرز اس کو برقرار رکھنے کے لیے جدوجہد کریں گے کیونکہ انڈسٹری انتہائی تیز رفتاری سے آگے بڑھ رہی ہے۔

اور اس کا مطلب ہے کہ صارفین کو اپنے ڈیٹا کو محفوظ کرنا شروع کرنا ہوگا اور اس کی نگرانی کرنا ہوگی کہ اسے کس طرح استعمال کیا جاتا ہے۔

وکندریقرت یہاں ایک اہم کردار ادا کر سکتی ہے اور ڈیٹا کی بڑی مقدار کو بڑے پلیٹ فارمز کے ہاتھ میں جانے سے روک سکتی ہے۔

DePINs (ڈی سینٹرلائزڈ فزیکل انفراسٹرکچر نیٹ ورکس) میں اس بات کو یقینی بنانے کی صلاحیت ہے کہ روزمرہ کے صارفین اپنی رازداری سے سمجھوتہ کیے بغیر AI کے مکمل فوائد کا تجربہ کریں۔

نہ صرف انکرپٹڈ پرامپٹس بہت زیادہ ذاتی نوعیت کے نتائج فراہم کر سکتے ہیں، بلکہ پرائیویسی کو محفوظ رکھنے والے LLM اس بات کو یقینی بنائیں گے کہ صارفین کو ہر وقت اپنے ڈیٹا پر مکمل کنٹرول حاصل ہو۔ - اور اس کے غلط استعمال کے خلاف تحفظ۔


کرس ویر کے سی ای او ہیں۔ ویریڈاایک وکندریقرت، خود مختار ڈیٹا نیٹ ورک جو افراد کو اپنی ڈیجیٹل شناخت اور ذاتی ڈیٹا کو کنٹرول کرنے کا اختیار دیتا ہے۔ کرس آسٹریلیا میں مقیم ایک ٹکنالوجی کاروباری ہے جس نے جدید سافٹ ویئر حل تیار کرنے کے لیے 20 سال سے زیادہ وقفے وقفے سے گزارے ہیں۔

 

HodlX پر تازہ ترین سرخیاں دیکھیں

ہمارے ساتھ چلیے ٹویٹر فیس بک تار

دیکھو حالیہ صنعت کے اعلانات  

AI آج کا سامنا کرنے والے ڈیٹا پرائیویسی کے تین اہم مسائل - ڈیلی ہوڈل پلیٹو بلاکچین ڈیٹا انٹیلی جنس۔ عمودی تلاش۔ عی

دستبرداری: ڈیلی ہوڈل میں اظہار خیالات سرمایہ کاری کا مشورہ نہیں ہیں۔ سرمایہ کاروں کو ویکیپیڈیا ، کریپٹوکرنسی یا ڈیجیٹل اثاثوں میں اعلی خطرہ والی سرمایہ کاری کرنے سے پہلے اپنی مستعدی کوشش کرنی چاہئے۔ براہ کرم مشورہ دیا جائے کہ آپ کی منتقلی اور تجارت آپ کے اپنے خطرے میں ہے ، اور آپ کو جو نقصان اٹھانا پڑتا ہے وہ آپ کی ذمہ داری ہے۔ ڈیلی ہوڈل کسی بھی کریپٹو کرنسیوں یا ڈیجیٹل اثاثوں کی خرید و فروخت کی سفارش نہیں کرتا ہے ، اور نہ ہی ڈیلی ہوڈل سرمایہ کاری کا مشیر ہے۔ براہ کرم نوٹ کریں کہ ڈیلی ہوڈل ملحقہ مارکیٹنگ میں حصہ لیتے ہیں۔

تیار کردہ تصویر: مڈجرنی

ٹائم اسٹیمپ:

سے زیادہ ڈیلی ہوڈل