EU دنیا کی پہلی AI قانون سازی کو اپنانے کے لیے تیار ہے جو عوامی مقامات پر چہرے کی شناخت پر پابندی لگائے گی۔

EU دنیا کی پہلی AI قانون سازی کو اپنانے کے لیے تیار ہے جو عوامی مقامات پر چہرے کی شناخت پر پابندی لگائے گی۔

EU دنیا کی پہلی AI قانون سازی کو اپنانے کے لئے تیار ہے جو عوامی مقامات پر چہرے کی شناخت پر پابندی لگائے گا PlatoBlockchain Data Intelligence. عمودی تلاش۔ عی

یورپی یونین (EU) مصنوعی ذہانت (AI) کو منظم کرنے کی دوڑ میں سب سے آگے ہے۔ تین دن تک جاری رہنے والے مذاکرات کو ختم کرتے ہوئے، یورپی کونسل اور یورپی پارلیمنٹ نے آج کے اوائل میں ایک عارضی معاہدہ طے کیا۔ جو AI کا دنیا کا پہلا جامع ضابطہ بننے کے لیے تیار ہے۔

ڈیجیٹلائزیشن اور اے آئی کے ہسپانوی سکریٹری برائے خارجہ کارمی آرٹیگاس نے معاہدے کو ایک "تاریخی کامیابی" قرار دیا۔ رہائی دبائیں. آرٹیگاس نے کہا کہ قوانین نے محفوظ اور قابل اعتماد AI اختراع کی حوصلہ افزائی اور یورپی یونین میں اپنانے اور شہریوں کے "بنیادی حقوق" کے تحفظ کے درمیان ایک "انتہائی نازک توازن" پیدا کیا۔

مسودہ قانون سازی - مصنوعی ذہانت کا ایکٹ— پہلی بار یورپی کمیشن نے اپریل 2021 میں تجویز کیا تھا۔ پارلیمنٹ اور یورپی یونین کے رکن ممالک اگلے سال مسودہ قانون کی منظوری کے لیے ووٹ دیں گے، لیکن یہ قواعد 2025 تک نافذ العمل نہیں ہوں گے۔

AI کو ریگولیٹ کرنے کے لیے خطرے پر مبنی نقطہ نظر

AI ایکٹ کو خطرے پر مبنی نقطہ نظر کا استعمال کرتے ہوئے ڈیزائن کیا گیا ہے، جہاں AI سسٹم جتنا زیادہ خطرہ لاحق ہوتا ہے، قوانین اتنے ہی سخت ہوتے ہیں۔ اس کو حاصل کرنے کے لیے، ضابطہ AIs کی درجہ بندی کرے گا تاکہ ان لوگوں کی شناخت کی جا سکے جو 'زیادہ خطرہ' ہیں۔

AIs جنہیں غیر دھمکی آمیز اور کم خطرہ سمجھا جاتا ہے وہ "انتہائی ہلکی شفافیت کی ذمہ داریوں" کے تابع ہوں گے۔ مثال کے طور پر، ایسے AI سسٹمز کو یہ ظاہر کرنے کی ضرورت ہوگی کہ ان کا مواد AI سے تیار کیا گیا ہے تاکہ صارفین باخبر فیصلے کر سکیں۔

زیادہ خطرہ والے AIs کے لیے، قانون سازی میں کئی ذمہ داریاں اور تقاضے شامل ہوں گے، بشمول:

انسانی نگرانی: یہ ایکٹ انسانی مرکز پر مبنی نقطہ نظر کو لازمی قرار دیتا ہے، جس میں ہائی رسک AI سسٹمز کے واضح اور موثر انسانی نگرانی کے طریقہ کار پر زور دیا گیا ہے۔ اس کا مطلب ہے انسانوں کو لوپ میں رکھنا، فعال طور پر AI سسٹم کے آپریشن کی نگرانی اور نگرانی کرنا۔ ان کے کردار میں اس بات کو یقینی بنانا شامل ہے کہ نظام حسب منشا کام کرے، ممکنہ نقصانات یا غیر ارادی نتائج کی نشاندہی اور ان کا تدارک کرے، اور بالآخر اس کے فیصلوں اور اعمال کی ذمہ داری قبول کرے۔

شفافیت اور وضاحت: اعتماد پیدا کرنے اور جوابدہی کو یقینی بنانے کے لیے ہائی رسک AI سسٹمز کے اندرونی کاموں کو بے نقاب کرنا بہت ضروری ہے۔ ڈویلپرز کو اس بارے میں واضح اور قابل رسائی معلومات فراہم کرنی چاہیے کہ ان کے سسٹم کیسے فیصلے کرتے ہیں۔ اس میں بنیادی الگورتھم، تربیتی ڈیٹا، اور ممکنہ تعصبات کی تفصیلات شامل ہیں جو سسٹم کے آؤٹ پٹس کو متاثر کر سکتے ہیں۔

ڈیٹا گورننس: AI ایکٹ ذمہ دار ڈیٹا کے طریقوں پر زور دیتا ہے، جس کا مقصد امتیازی سلوک، تعصب اور رازداری کی خلاف ورزیوں کو روکنا ہے۔ ڈویلپرز کو یہ یقینی بنانا چاہیے کہ ہائی رسک AI سسٹمز کو تربیت دینے اور چلانے کے لیے استعمال ہونے والا ڈیٹا درست، مکمل اور نمائندہ ہو۔ ڈیٹا کو کم سے کم کرنے کے اصول بہت اہم ہیں، سسٹم کے کام کے لیے صرف ضروری معلومات اکٹھا کرتے ہیں اور غلط استعمال یا خلاف ورزی کے خطرے کو کم کرتے ہیں۔ مزید برآں، افراد کے پاس AI سسٹمز میں استعمال ہونے والے اپنے ڈیٹا تک رسائی، درستگی اور مٹانے کے واضح حقوق ہونے چاہئیں، انہیں اپنی معلومات کو کنٹرول کرنے اور اس کے اخلاقی استعمال کو یقینی بنانے کے لیے بااختیار بنانا چاہیے۔

رسک مینجمنٹ: فعال خطرے کی شناخت اور تخفیف اعلی خطرے والے AIs کے لیے ایک اہم ضرورت بن جائے گی۔ ڈویلپرز کو مضبوط رسک مینجمنٹ فریم ورک کو لاگو کرنا چاہیے جو ممکنہ نقصانات، کمزوریوں، اور ان کے سسٹم کے غیر ارادی نتائج کا منظم طریقے سے جائزہ لیں۔

ٹائم اسٹیمپ:

سے زیادہ کرپٹو سلیٹ