প্রযুক্তি নেতারা AI এর ঝুঁকি এবং শক্তিশালী AI নিয়ন্ত্রণের জরুরিতা তুলে ধরেন

প্রযুক্তি নেতারা AI এর ঝুঁকি এবং শক্তিশালী AI নিয়ন্ত্রণের জরুরিতা তুলে ধরেন

প্রযুক্তি নেতারা AI এর ঝুঁকি এবং শক্তিশালী AI নিয়ন্ত্রণের জরুরিতা তুলে ধরেন
AI বৃদ্ধি এবং অগ্রগতি গত কয়েক বছর ধরে তাত্পর্যপূর্ণ হয়েছে। স্ট্যাটিস্টা রিপোর্ট যে 2024 সাল নাগাদ, বিশ্বব্যাপী AI বাজার 3000 সালের 126 বিলিয়ন ডলারের তুলনায় প্রায় 2015 বিলিয়ন ডলারের বিস্ময়কর রাজস্ব তৈরি করবে। যাইহোক, প্রযুক্তি নেতারা এখন AI এর বিভিন্ন ঝুঁকি সম্পর্কে আমাদের সতর্ক করছেন।
বিশেষ করে, সাম্প্রতিক তরঙ্গ জেনারেটিভ এআই ChatGPT-এর মতো মডেল স্বাস্থ্যসেবা, শিক্ষার মতো বিভিন্ন ডেটা-সংবেদনশীল সেক্টরে নতুন ক্ষমতা চালু করেছে। অর্থ, ইত্যাদি। এই AI-সমর্থিত উন্নয়নগুলি অনেক AI ত্রুটিগুলির কারণে দুর্বল যা দূষিত এজেন্টরা প্রকাশ করতে পারে।
AI বিশেষজ্ঞরা সাম্প্রতিক উন্নয়ন সম্পর্কে কী বলছেন তা নিয়ে আলোচনা করা যাক এবং AI এর সম্ভাব্য ঝুঁকিগুলি তুলে ধরা যাক। এই ঝুঁকিগুলি কীভাবে পরিচালনা করা যায় সে সম্পর্কেও আমরা সংক্ষিপ্তভাবে স্পর্শ করব৷

টেক লিডার এবং এআই এর ঝুঁকি সম্পর্কিত তাদের উদ্বেগ

জেফ্রি হিন্টন

জিওফ্রে হিন্টন – একজন বিখ্যাত এআই প্রযুক্তি নেতা (এবং এই ক্ষেত্রের গডফাদার), যিনি সম্প্রতি গুগল ছেড়েছেন, তার উদ্বেগ প্রকাশ করেছেন AI এর দ্রুত বিকাশ এবং এর সম্ভাব্য বিপদ সম্পর্কে। হিন্টন বিশ্বাস করেন যে AI চ্যাটবটগুলি "বেশ ভয়ঙ্কর" হয়ে উঠতে পারে যদি তারা মানুষের বুদ্ধিমত্তাকে ছাড়িয়ে যায়।
হিন্টন বলেছেন:
“এই মুহুর্তে, আমরা যা দেখছি তা হল GPT-4 এর মতো জিনিসগুলি একজন ব্যক্তিকে তার সাধারণ জ্ঞানের পরিমাণে গ্রহন করে এবং এটি তাদের দীর্ঘ পথ অতিক্রম করে। যুক্তির পরিপ্রেক্ষিতে, এটি ততটা ভাল নয়, তবে এটি ইতিমধ্যেই সহজ যুক্তি করে। এবং অগ্রগতির হারের পরিপ্রেক্ষিতে, আমরা আশা করি যে জিনিসগুলি বেশ দ্রুত ভাল হবে। তাই আমাদের এটা নিয়ে চিন্তা করতে হবে।”
তদুপরি, তিনি বিশ্বাস করেন যে "খারাপ অভিনেতা" AI ব্যবহার করতে পারে "খারাপ জিনিসের জন্য", যেমন রোবটকে তাদের উপ-লক্ষ্য পেতে দেওয়া। তার উদ্বেগ থাকা সত্ত্বেও, হিন্টন বিশ্বাস করেন যে AI স্বল্পমেয়াদী সুবিধা আনতে পারে, তবে আমাদের এআই সুরক্ষা এবং নিয়ন্ত্রণেও প্রচুর বিনিয়োগ করা উচিত।

ইলন

এলন মাস্কের এআই-তে জড়িত হওয়া শুরু হয়েছিল তার প্রাথমিক বিনিয়োগের মাধ্যমে DeepMind 2010 সালে, সহ-প্রতিষ্ঠার জন্য OpenAI এবং টেসলার স্বায়ত্তশাসিত যানবাহনে এআই অন্তর্ভুক্ত করা।
যদিও তিনি AI সম্পর্কে উত্সাহী, তিনি প্রায়শই AI এর ঝুঁকি নিয়ে উদ্বেগ প্রকাশ করেন। মাস্ক বলেছেন যে শক্তিশালী এআই সিস্টেম পারমাণবিক অস্ত্রের চেয়ে সভ্যতার জন্য বেশি বিপজ্জনক হতে পারে। একটি সাক্ষাৎকারে ফক্স নিউজ এপ্রিল 2023 এ, তিনি বলেছিলেন:
“এআই আরও বিপজ্জনক, বলুন, অব্যবস্থাপিত বিমানের নকশা বা উত্পাদন রক্ষণাবেক্ষণ বা খারাপ গাড়ি উত্পাদন। এই অর্থে যে এটির সম্ভাবনা রয়েছে - তবে, ছোট কেউ সেই সম্ভাবনাটিকে বিবেচনা করতে পারে - তবে এটি অ-তুচ্ছ এবং এতে সভ্যতা ধ্বংসের সম্ভাবনা রয়েছে।"
তদুপরি, মাস্ক সম্ভাব্য ঝুঁকি থেকে সুরক্ষা নিশ্চিত করতে AI-তে সরকারী প্রবিধান সমর্থন করে, যদিও "এটি এত মজার নয়।"

দৈত্যাকার এআই পরীক্ষাগুলিকে থামান: 1000 জন এআই বিশেষজ্ঞদের দ্বারা সমর্থিত একটি খোলা চিঠি

ফিউচার অব লাইফ ইনস্টিটিউট একটি খোলা চিঠি প্রকাশ করেছে 22শে মার্চ 2023 তারিখে। চিঠিটি অস্থায়ীভাবে ছয় মাসের জন্য বন্ধ করার আহ্বান জানিয়েছে এআই সিস্টেমের বিকাশ আরও উন্নত চেয়ে GPT-4. লেখকরা তাদের উদ্বেগ প্রকাশ করেছেন যে গতিতে এআই সিস্টেমগুলি তৈরি করা হচ্ছে তা গুরুতর আর্থ-সামাজিক চ্যালেঞ্জ তৈরি করে।
অধিকন্তু, চিঠিতে বলা হয়েছে যে AI বিকাশকারীদের AI গভর্নেন্স সিস্টেমগুলি নথিভুক্ত করার জন্য নীতিনির্ধারকদের সাথে কাজ করা উচিত। জুন 2023 পর্যন্ত, চিঠিটি 31,000 টিরও বেশি এআই বিকাশকারী, বিশেষজ্ঞ এবং প্রযুক্তি নেতাদের দ্বারা স্বাক্ষরিত হয়েছে। উল্লেখযোগ্য স্বাক্ষরকারীদের মধ্যে রয়েছে এলন মাস্ক, স্টিভ ওজনিয়াক (অ্যাপলের সহ-প্রতিষ্ঠাতা), এমাদ মোস্তাক (সিইও, স্টেবিলিটি এআই), ইয়োশুয়া বেঙ্গিও (টুরিং পুরস্কার বিজয়ী) এবং আরও অনেক।

এআই ডেভেলপমেন্ট বন্ধ করার পাল্টা আর্গুমেন্ট

দুই বিশিষ্ট এআই নেতা, অ্যান্ড্রু এনজি এবং ইয়ান লেকুন, উন্নত এআই সিস্টেমের বিকাশে ছয় মাসের নিষেধাজ্ঞার বিরোধিতা করেছে এবং বিরতিটিকে একটি খারাপ ধারণা বলে মনে করেছে।
এনজি বলেছেন যে যদিও এআই-এর কিছু ঝুঁকি রয়েছে, যেমন পক্ষপাতিত্ব, ক্ষমতার ঘনত্ব ইত্যাদি। কিন্তু শিক্ষা, স্বাস্থ্যসেবা এবং প্রতিক্রিয়াশীল কোচিং-এর মতো ক্ষেত্রে AI-এর দ্বারা তৈরি মূল্য অসাধারণ।
ইয়ান লেকুন বলেছেন যে গবেষণা এবং বিকাশ বন্ধ করা উচিত নয়, যদিও এআই পণ্যগুলি শেষ ব্যবহারকারীর কাছে পৌঁছায় তা নিয়ন্ত্রিত করা যেতে পারে।

AI এর সম্ভাব্য বিপদ এবং তাৎক্ষণিক ঝুঁকিগুলি কী কী?

1. চাকরির স্থানচ্যুতি

এআই বিশেষজ্ঞরা বিশ্বাস করেন যে বুদ্ধিমান এআই সিস্টেম জ্ঞানীয় এবং সৃজনশীল কাজগুলিকে প্রতিস্থাপন করতে পারে। ইনভেস্টমেন্ট ব্যাংক গোল্ডম্যান স্যাকসের অনুমান প্রায় 300 মিলিয়ন কাজ জেনারেটিভ এআই দ্বারা স্বয়ংক্রিয় হবে।
তাই, AI এর বিকাশের উপর বিধিবিধান থাকা উচিত যাতে এটি একটি গুরুতর অর্থনৈতিক মন্দার কারণ না হয়। এই চ্যালেঞ্জ মোকাবেলা করার জন্য কর্মচারীদের দক্ষতা বৃদ্ধি এবং পুনঃস্কিলিংয়ের জন্য শিক্ষামূলক কর্মসূচি থাকা উচিত।

2. পক্ষপাতদুষ্ট এআই সিস্টেম

গোঁড়ামির লিঙ্গ, জাতি বা বর্ণ সম্পর্কে মানুষের মধ্যে প্রচলিত অসাবধানতাবশত AI সিস্টেমের প্রশিক্ষণের জন্য ব্যবহৃত ডেটাতে প্রবেশ করতে পারে, পরবর্তীতে AI সিস্টেমগুলিকে পক্ষপাতদুষ্ট করে তোলে।
উদাহরণস্বরূপ, চাকরির নিয়োগের প্রসঙ্গে, একটি পক্ষপাতদুষ্ট এআই সিস্টেম নির্দিষ্ট জাতিগত পটভূমির ব্যক্তিদের জীবনবৃত্তান্ত বাতিল করতে পারে, চাকরির বাজারে বৈষম্য তৈরি করে। ভিতরে আইন প্রয়োগকারী, পক্ষপাতমূলক ভবিষ্যদ্বাণীমূলক পুলিশিং অসমতলভাবে নির্দিষ্ট পাড়া বা জনসংখ্যার গোষ্ঠীকে লক্ষ্যবস্তু করতে পারে।
তাই, একটি ব্যাপক ডেটা কৌশল থাকা অপরিহার্য যা এআই ঝুঁকি, বিশেষত পক্ষপাতিত্ব মোকাবেলা করে। এআই সিস্টেমগুলিকে ন্যায্য রাখার জন্য ঘন ঘন মূল্যায়ন এবং অডিট করতে হবে।

3. সেফটি-ক্রিটিকাল এআই অ্যাপ্লিকেশন

স্বায়ত্তশাসিত যানবাহন, চিকিৎসা নির্ণয় ও চিকিৎসা, বিমান চালনা ব্যবস্থা, পারমাণবিক বিদ্যুৎ কেন্দ্র নিয়ন্ত্রণ ইত্যাদি সবই নিরাপত্তা-সমালোচনামূলক এআই অ্যাপ্লিকেশনের উদাহরণ। এই AI সিস্টেমগুলি সতর্কতার সাথে বিকশিত করা উচিত কারণ এমনকি ছোটখাটো ত্রুটিগুলি মানুষের জীবন বা পরিবেশের জন্য মারাত্মক পরিণতি হতে পারে।
উদাহরণস্বরূপ, বলা হয় AI সফ্টওয়্যারের ত্রুটি ম্যানুভারিং ক্যারেক্টারিস্টিক অগমেন্টেশন সিস্টেম (MCAS) দুটি বোয়িং 737 MAX-এর দুর্ঘটনার জন্য দায়ী করা হয়, প্রথমে অক্টোবর 2018 এবং তারপর মার্চ 2019-এ। দুঃখজনকভাবে, দুটি দুর্ঘটনায় 346 জনের মৃত্যু হয়েছিল।

কিভাবে আমরা এআই সিস্টেমের ঝুঁকি কাটিয়ে উঠতে পারি? - দায়ী এআই ডেভেলপমেন্ট এবং রেগুলেটরি কমপ্লায়েন্স

দায়ী AI (RAI) এর অর্থ হল ন্যায্য, জবাবদিহিমূলক, স্বচ্ছ এবং সুরক্ষিত AI সিস্টেমের বিকাশ এবং স্থাপন করা যা গোপনীয়তা নিশ্চিত করে এবং আইনি প্রবিধান ও সামাজিক নিয়ম অনুসরণ করে। AI সিস্টেমের বিস্তৃত এবং দ্রুত বিকাশের কারণে RAI প্রয়োগ করা জটিল হতে পারে।
যাইহোক, বড় প্রযুক্তি কোম্পানিগুলি RAI ফ্রেমওয়ার্ক তৈরি করেছে, যেমন:
  1. মাইক্রোসফটের দায়িত্বশীল এআই
  2. গুগলের এআই নীতি
  3. আইবিএম এর বিশ্বস্ত এআই
বিশ্বব্যাপী AI ল্যাবগুলি এই নীতিগুলি থেকে অনুপ্রেরণা নিতে পারে বা বিশ্বস্ত AI সিস্টেমগুলি তৈরি করতে তাদের নিজস্ব দায়িত্বশীল AI কাঠামো তৈরি করতে পারে।

এআই রেগুলেটরি কমপ্লায়েন্স

যেহেতু, ডেটা AI সিস্টেমের একটি অবিচ্ছেদ্য উপাদান, তাই AI-ভিত্তিক সংস্থাগুলি এবং ল্যাবগুলিকে ডেটা সুরক্ষা, গোপনীয়তা এবং সুরক্ষা নিশ্চিত করতে নিম্নলিখিত নিয়মগুলি মেনে চলতে হবে৷
  1. জিডিপিআর (সাধারণ তথ্য সুরক্ষা নিয়ন্ত্রণ) - EU দ্বারা একটি ডেটা সুরক্ষা কাঠামো।
  2. CCPA (ক্যালিফোর্নিয়া কনজিউমার প্রাইভেসি অ্যাক্ট) - গোপনীয়তা অধিকার এবং ভোক্তা সুরক্ষার জন্য একটি ক্যালিফোর্নিয়া রাজ্যের আইন।
  3. HIPAA (স্বাস্থ্য বীমা বহনযোগ্যতা এবং জবাবদিহিতা আইন) - একটি মার্কিন আইন যা রোগীদের চিকিৎসা তথ্য রক্ষা করে।
  4. ইইউ এআই আইন, এবং বিশ্বস্ত এআই-এর জন্য নৈতিকতার নির্দেশিকা - একটি ইউরোপীয় কমিশন এআই প্রবিধান।
বিভিন্ন দেশ তাদের নাগরিকদের সুরক্ষার জন্য বিভিন্ন আঞ্চলিক এবং স্থানীয় আইন প্রণয়ন করেছে। যে সংস্থাগুলি ডেটার আশেপাশে নিয়ন্ত্রক সম্মতি নিশ্চিত করতে ব্যর্থ হয় তাদের কঠোর শাস্তি হতে পারে। উদাহরণস্বরূপ, জিডিপিআর জরিমানা নির্ধারণ করেছে €20 মিলিয়ন বা বার্ষিক লাভের 4% গুরুতর লঙ্ঘনের জন্য যেমন বেআইনি ডেটা প্রক্রিয়াকরণ, অপ্রমাণিত ডেটা সম্মতি, ডেটা বিষয়ের অধিকার লঙ্ঘন বা আন্তর্জাতিক সত্তায় অ-সুরক্ষিত ডেটা স্থানান্তর।

এআই ডেভেলপমেন্ট এবং রেগুলেশনস - বর্তমান এবং ভবিষ্যত

প্রতি মাসেই এআই অগ্রগতি অভূতপূর্ব উচ্চতায় পৌঁছে যাচ্ছে। কিন্তু, অনুষঙ্গী এআই প্রবিধান এবং শাসন কাঠামো পিছিয়ে রয়েছে। তাদের আরও শক্তিশালী এবং নির্দিষ্ট হতে হবে।
টেক লিডার এবং এআই ডেভেলপাররা পর্যাপ্তভাবে নিয়ন্ত্রিত না হলে এআই এর ঝুঁকি সম্পর্কে সতর্কতা বাজিয়েছে। AI-তে গবেষণা এবং উন্নয়ন অনেক খাতে আরও মূল্য আনতে পারে, কিন্তু এটা স্পষ্ট যে সাবধানী নিয়ন্ত্রণ এখন অপরিহার্য।

লিঙ্ক: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

সূত্র: https://www.unite.ai

প্রযুক্তি নেতারা AI এর ঝুঁকি এবং শক্তিশালী AI নিয়ন্ত্রণের জরুরী প্লাটোব্লকচেন ডেটা ইন্টেলিজেন্স হাইলাইট করছেন। উল্লম্ব অনুসন্ধান. আ.

সময় স্ট্যাম্প:

থেকে আরো ফিনটেক নিউজ