কেন আপনার এআই এর পূর্বপুরুষ জানতে হবে

কেন আপনার এআই এর পূর্বপুরুষ জানতে হবে

কেন আপনার AI এর পূর্বপুরুষ PlatoBlockchain ডেটা ইন্টেলিজেন্স জানতে হবে। উল্লম্ব অনুসন্ধান. আ.

ধারাভাষ্য

কৃত্রিম বুদ্ধিমত্তা (AI) আমাদের দৈনন্দিন জীবনের প্রায় প্রতিটি দিককে দ্রুত পরিবর্তন করছে, আমরা কীভাবে কাজ করি থেকে শুরু করে কীভাবে আমরা আমাদের নেতাদের নির্ধারণ করি তা পর্যন্ত আমরা কীভাবে তথ্য গ্রহণ করি। যেকোনো প্রযুক্তির মতো, এআই অনৈতিক, কিন্তু সমাজকে এগিয়ে নিতে ব্যবহার করা যেতে পারে বা ক্ষতি প্রদান.

ডেটা হল জিন যা AI অ্যাপ্লিকেশনকে শক্তি দেয়। এটি ডিএনএ এবং আরএনএ সবই এক সাথে মোড়ানো। সফ্টওয়্যার সিস্টেম তৈরি করার সময় প্রায়শই বলা হয়: "আবর্জনা ভিতরে/আবর্জনা আউট।" AI প্রযুক্তি কেবলমাত্র সঠিক, সুরক্ষিত এবং কার্যকরী ডেটা উৎসগুলির উপর নির্ভর করে। AI তার প্রতিশ্রুতি পূরণ করে এবং এর দুঃস্বপ্ন এড়ায় তা নিশ্চিত করার মূল চাবিকাঠি হল আবর্জনা বের করে রাখার এবং লক্ষ লক্ষ AI অ্যাপ্লিকেশনগুলিতে এটিকে প্রসারিত হওয়া এবং প্রতিলিপি হওয়া থেকে রোধ করার ক্ষমতা।

একে বলা হয় ডেটা প্রোভেন্যান্স, এবং আমরা এমন নিয়ন্ত্রণ বাস্তবায়নের জন্য আর একটি দিন অপেক্ষা করতে পারি না যা আমাদের AI ভবিষ্যতকে বিশাল আবর্জনার স্তূপে পরিণত হতে বাধা দেয়।

খারাপ ডেটা AI মডেলের দিকে নিয়ে যায় যা সাইবার নিরাপত্তা দুর্বলতা, ভুল তথ্য এবং অন্যান্য আক্রমণ বিশ্বব্যাপী সেকেন্ডের মধ্যে প্রচার করতে পারে। আজকের জেনারেটিভ এআই (GenAI) মডেলগুলি অবিশ্বাস্যভাবে জটিল, কিন্তু, মূল অংশে, GenAI মডেলগুলি কেবলমাত্র বিদ্যমান পূর্ববর্তী ডেটার একটি সেট দিয়ে আউটপুটের সর্বোত্তম পরবর্তী অংশের ভবিষ্যদ্বাণী করছে।

নির্ভুলতা একটি পরিমাপ

একটি চ্যাটজিপিটি-টাইপ মডেল আউটপুট করার জন্য পরবর্তী সেরা শব্দটি গণনা করতে এখন পর্যন্ত জিজ্ঞাসিত মূল প্রশ্নটি এবং মডেল প্রতিক্রিয়ার সমস্ত শব্দ তৈরি করে এমন শব্দের সেট মূল্যায়ন করে। এটি বারবার এটি করে যতক্ষণ না এটি সিদ্ধান্ত নেয় যে এটি যথেষ্ট প্রতিক্রিয়া দিয়েছে। ধরুন আপনি মডেলের ক্ষমতার মূল্যায়ন করছেন এমন শব্দগুলিকে একত্রিত করার জন্য যা সুগঠিত, ব্যাকরণগতভাবে সঠিক বাক্যগুলি তৈরি করে যা বিষয়ের উপর এবং সাধারণত কথোপকথনের সাথে প্রাসঙ্গিক। সেই ক্ষেত্রে, আজকের মডেলগুলি আশ্চর্যজনকভাবে ভাল — নির্ভুলতার পরিমাপ।

আরও গভীরে ডুব দিন AI-উত্পাদিত পাঠ্য সর্বদা "সঠিক" তথ্য প্রদান করে কিনা এবং যথাযথভাবে প্রদত্ত তথ্যের আস্থার স্তর নির্দেশ করে। এটি এমন সমস্যাগুলি উন্মোচন করে যা মডেলগুলি থেকে আসে যা গড়ে খুব ভাল ভবিষ্যদ্বাণী করে, তবে প্রান্তের ক্ষেত্রে এতটা ভাল নয় - একটি দৃঢ়তার সমস্যা উপস্থাপন করে। যখন AI মডেলগুলি থেকে খারাপ ডেটা আউটপুট অনলাইনে সংরক্ষণ করা হয় এবং এইগুলি এবং অন্যান্য মডেলগুলির জন্য ভবিষ্যতের প্রশিক্ষণ ডেটা হিসাবে ব্যবহার করা হয় তখন এটি সংযোজন করা যেতে পারে।

দুর্বল আউটপুটগুলি এমন স্কেলে প্রতিলিপি করতে পারে যা আমরা কখনও দেখিনি, যার ফলে নিম্নগামী এআই ডুম লুপ হয়।

যদি একজন খারাপ অভিনেতা এই প্রক্রিয়াটিকে সাহায্য করতে চান, তাহলে তারা ইচ্ছাকৃতভাবে অতিরিক্ত খারাপ ডেটা তৈরি, সংরক্ষণ এবং প্রচার করতে উত্সাহিত করতে পারে — যার ফলে চ্যাটবট থেকে আরও বেশি ভুল তথ্য বেরিয়ে আসে, বা অটোমোবাইল অটোপাইলট মডেলের মতো ঘৃণ্য এবং ভীতিকর কিছু সিদ্ধান্ত নেয় যে তাদের প্রয়োজন। বস্তুগুলি পথের মধ্যে থাকা সত্ত্বেও একটি গাড়ি দ্রুত ডানদিকে নিয়ে যান যদি তারা তাদের সামনে একটি বিশেষভাবে তৈরি করা ছবি "দেখে" (অবশ্যই অনুমানে)।

কয়েক দশক পর, সফটওয়্যার ডেভেলপমেন্ট ইন্ডাস্ট্রি - সাইবারসিকিউরিটি ইনফ্রাস্ট্রাকচার সিকিউরিটি এজেন্সির নেতৃত্বে - অবশেষে একটি বাস্তবায়ন করছে সুরক্ষিত-দ্বারা নকশা ফ্রেমওয়ার্ক। নকশা দ্বারা সুরক্ষিত আদেশ দেয় যে সাইবার নিরাপত্তা সফ্টওয়্যার উন্নয়ন প্রক্রিয়ার ভিত্তি, এবং এর মূল নীতিগুলির মধ্যে একটির জন্য প্রতিটি সফ্টওয়্যার বিকাশের উপাদানগুলির তালিকাভুক্ত করা প্রয়োজন - একটি উপকরণের সফ্টওয়্যার বিল (SBOM) — নিরাপত্তা এবং স্থিতিস্থাপকতা জোরদার করতে। অবশেষে, নিরাপত্তা সবচেয়ে গুরুত্বপূর্ণ গো-টু-মার্কেট ফ্যাক্টর হিসাবে গতি প্রতিস্থাপন করছে।

এআই ডিজাইন সুরক্ষিত করা

AI এর অনুরূপ কিছু প্রয়োজন। AI ফিডব্যাক লুপ অতীতের সাধারণ সাইবারসিকিউরিটি প্রতিরক্ষা কৌশলগুলিকে প্রতিরোধ করে, যেমন ম্যালওয়্যার স্বাক্ষরগুলি ট্র্যাক করা, নেটওয়ার্ক সংস্থানগুলির চারপাশে পরিধি তৈরি করা বা দুর্বলতার জন্য মানব-লিখিত কোড স্ক্যান করা। প্রযুক্তির শৈশবকালে আমাদের অবশ্যই সুরক্ষিত AI ডিজাইনের একটি প্রয়োজনীয়তা তৈরি করতে হবে যাতে Pandora's বাক্স খোলার অনেক আগেই AI নিরাপদ করা যায়।

সুতরাং, আমরা কিভাবে এই সমস্যার সমাধান করব? আমাদের একাডেমিয়ার জগতের বাইরে একটি পৃষ্ঠা নেওয়া উচিত। আমরা শিক্ষকদের একটি শিল্পের মাধ্যমে উচ্চতর কিউরেটেড প্রশিক্ষণ ডেটা দিয়ে শিক্ষার্থীদের প্রশিক্ষণ দিই, ব্যাখ্যা করি এবং তাদের কাছে পৌঁছে দিই। আমরা প্রাপ্তবয়স্কদের শেখানোর জন্য এই পদ্ধতিটি অব্যাহত রাখি, কিন্তু প্রাপ্তবয়স্করা নিজেরাই আরও ডেটা কিউরেশন করবেন বলে আশা করা হচ্ছে।

এআই মডেল প্রশিক্ষণের জন্য একটি দুই-পর্যায়ের কিউরেটেড ডেটা পদ্ধতি গ্রহণ করা প্রয়োজন। শুরু করার জন্য, বেস এআই মডেলগুলিকে প্রচুর পরিমাণে কম-কিউরেটেড ডেটা সেট ব্যবহার করে বর্তমান পদ্ধতিগুলি ব্যবহার করে প্রশিক্ষণ দেওয়া হবে। এই বেস লার্জ ল্যাঙ্গুয়েজ মডেল (LLMs) মোটামুটিভাবে একটি নবজাত শিশুর সাথে সাদৃশ্যপূর্ণ হবে। বেস-লেভেল মডেলগুলিকে তখন উচ্চ কিউরেটেড ডেটা সেটের সাথে প্রশিক্ষিত করা হবে যেভাবে বাচ্চাদের প্রাপ্তবয়স্ক হওয়ার জন্য শেখানো এবং বড় করা হয়।

সব ধরনের লক্ষ্যের জন্য বড়, কিউরেটেড প্রশিক্ষণ ডেটা সেট তৈরি করার প্রচেষ্টা ছোট হবে না। এটি সমস্ত প্রচেষ্টার সাথে সাদৃশ্যপূর্ণ যা পিতামাতা, স্কুল এবং সমাজ শিশুদের জন্য একটি মানসম্পন্ন পরিবেশ এবং মানসম্পন্ন তথ্য প্রদানের জন্য রাখে যখন তারা (আশা করা যায়) কার্যকারিতা, সমাজে মূল্য সংযোজনকারী অবদানকারী হয়ে ওঠে। এটি হল গুণমান, ভালভাবে কাজ করা, ন্যূনতম দূষিত AI মডেলগুলিকে প্রশিক্ষণের জন্য মানসম্পন্ন ডেটা সেট তৈরি করার জন্য প্রয়োজনীয় প্রচেষ্টার স্তর, এবং এটি AI-এর একটি সম্পূর্ণ শিল্পের দিকে পরিচালিত করতে পারে এবং মানুষ AI মডেলগুলিকে তাদের লক্ষ্যের কাজে ভাল হতে শেখানোর জন্য একসাথে কাজ করতে পারে। .

আজকের এআই প্রশিক্ষণ প্রক্রিয়ার অবস্থা এই দুই-পর্যায়ের প্রক্রিয়ার কিছু লক্ষণ দেখায়। কিন্তু, GenAI প্রযুক্তি এবং শিল্পের শৈশবকালের কারণে, অত্যধিক প্রশিক্ষণ কম কিউরেটেড, স্টেজ-ওয়ান পন্থা নেয়।

যখন AI নিরাপত্তার কথা আসে, আমরা এক ঘণ্টা অপেক্ষা করতে পারি না, এক দশকের কথাই ছেড়ে দিন। AI-এর একটি 23andMe অ্যাপ্লিকেশন প্রয়োজন যা "অ্যালগরিদম বংশবৃত্তান্ত" এর সম্পূর্ণ পর্যালোচনা সক্ষম করে যাতে বিকাশকারীরা দীর্ঘস্থায়ী সমস্যাগুলিকে প্রতিলিপি করা, আমরা প্রতিদিন নির্ভর করা জটিল সিস্টেমগুলিকে সংক্রামিত করা এবং অর্থনৈতিক ও সামাজিক ক্ষতি তৈরি করা থেকে রোধ করতে AI-এর "পারিবারিক" ইতিহাস সম্পূর্ণরূপে বুঝতে পারে। যে অপরিবর্তনীয় হতে পারে.

এর ওপর আমাদের জাতীয় নিরাপত্তা নির্ভর করে।

সময় স্ট্যাম্প:

থেকে আরো অন্ধকার পড়া