মানবিক মূল্যবোধের সাথে AI সারিবদ্ধ করার অর্থ কী? PlatoBlockchain ডেটা ইন্টেলিজেন্স। উল্লম্ব অনুসন্ধান. আ.

মানবিক মূল্যবোধের সাথে AI সারিবদ্ধ করার অর্থ কী?

ভূমিকা

অনেক বছর আগে, আমি একটি পুরানো সিম্বলিক্স লিস্প মেশিনে প্রোগ্রাম করতে শিখেছি। অপারেটিং সিস্টেমে একটি অন্তর্নির্মিত কমান্ড ছিল যার বানান ছিল "DWIM", সংক্ষেপে "ডু হোয়াট আই মিন"। যদি আমি একটি কমান্ড টাইপ করি এবং একটি ত্রুটি পেয়েছি, আমি "DWIM" টাইপ করতে পারি এবং মেশিনটি আমি কী করতে চাইছি তা বোঝার চেষ্টা করবে। সময়ের একটি আশ্চর্যজনক ভগ্নাংশ, এটি আসলে কাজ করেছে।

ডিডব্লিউআইএম ​​কমান্ডটি "এআই অ্যালাইনমেন্ট" এর আরও আধুনিক সমস্যার একটি মাইক্রোকসম ছিল: আমরা মানুষ মেশিনগুলিকে অস্পষ্ট বা ভুল নির্দেশনা দেওয়ার প্রবণ, এবং আমরা চাই যে আমরা যা বলি তা নয়, আমরা যা বলতে চাই তা তারা করুক।

কম্পিউটারগুলি প্রায়শই অপ্রত্যাশিত এবং প্রায়শই মজাদার ফলাফল সহ আমরা তাদের যা করতে চাই তা ভুল ধারণা করে। একজন মেশিন লার্নিং গবেষক, উদাহরণস্বরূপ, একটি ইমেজ ক্লাসিফিকেশন প্রোগ্রামের সন্দেহজনকভাবে ভাল ফলাফল তদন্ত করার সময়, আবিষ্কৃত যে এটি শ্রেণীবিভাগকে ভিত্তি করে ইমেজের উপর নয়, কিন্তু ইমেজ ফাইলটি অ্যাক্সেস করতে কতক্ষণ সময় লেগেছে তার উপর ভিত্তি করে — বিভিন্ন শ্রেণীর ছবিগুলি ডাটাবেসে সংরক্ষিত ছিল সামান্য ভিন্ন অ্যাক্সেসের সময়ে। আরেকটি উদ্যোগী প্রোগ্রামার তার রুম্বা ভ্যাকুয়াম ক্লিনার চেয়েছিলেন আসবাবপত্রের সাথে বাম্পিং বন্ধ করুক, তাই তিনি রুম্বাকে একটি নিউরাল নেটওয়ার্কের সাথে সংযুক্ত করেছেন যা গতির জন্য পুরস্কৃত করেছে কিন্তু সামনের বাম্পারটি কিছুর সাথে সংঘর্ষে রুমবাকে শাস্তি দিয়েছে। যন্ত্রটি সবসময় পিছনের দিকে গাড়ি চালিয়ে এই উদ্দেশ্যগুলিকে মিটমাট করে।

কিন্তু এআই অ্যালাইনমেন্ট গবেষকদের সম্প্রদায় এই উপাখ্যানগুলির একটি অন্ধকার দিক দেখে। প্রকৃতপক্ষে, তারা বিশ্বাস করে যে মেশিনের অক্ষমতা বোঝার জন্য আমরা সত্যিই তাদের কী করতে চাই তা একটি অস্তিত্বগত ঝুঁকি। এই সমস্যা সমাধানের জন্য, তারা বিশ্বাস করে, আমাদের অবশ্যই AI সিস্টেমগুলিকে মানুষের পছন্দ, লক্ষ্য এবং মূল্যবোধের সাথে সারিবদ্ধ করার উপায় খুঁজে বের করতে হবে।

এই দৃষ্টিভঙ্গিটি 2014 সালের বেস্ট সেলিং বইয়ের সাথে প্রাধান্য পেয়েছে সুপার বুদ্ধি দার্শনিক নিক বোস্ট্রম দ্বারা, যা আংশিকভাবে যুক্তি দিয়েছিল যে কম্পিউটারের ক্রমবর্ধমান বুদ্ধিমত্তা মানবতার ভবিষ্যতের জন্য সরাসরি হুমকি সৃষ্টি করতে পারে। বোস্ট্রম কখনই বুদ্ধিমত্তাকে সুনির্দিষ্টভাবে সংজ্ঞায়িত করেননি, কিন্তু, এআই অ্যালাইনমেন্ট সম্প্রদায়ের অন্যান্যদের মতো, তিনি পরে একটি সংজ্ঞা গ্রহণ করেছিলেন আর্টিকুলেটেড এআই গবেষক দ্বারা স্টুয়ার্ট রাসেল যেমন: "একটি সত্তাকে বুদ্ধিমান বলে বিবেচিত হয়, মোটামুটিভাবে বলতে গেলে, যদি এটি এমন কাজ বেছে নেয় যা তার উদ্দেশ্যগুলি অর্জনের জন্য প্রত্যাশিত হয়, যা সে উপলব্ধি করেছে।"

বোস্ট্রম দুটি থিসিসের উপর ভিত্তি করে এআই এর ঝুঁকি সম্পর্কে তার দৃষ্টিভঙ্গি তৈরি করেছেন। প্রথমটি হল অর্থোগোনালিটি থিসিস, যা বলে, বোস্ট্রমের ভাষায়, “বুদ্ধিমত্তা এবং চূড়ান্ত লক্ষ্যগুলি অর্থোগোনাল অক্ষ যার সাথে সম্ভাব্য এজেন্ট অবাধে পরিবর্তিত হতে পারে। অন্য কথায়, কমবেশি যে কোনো স্তরের বুদ্ধিমত্তা নীতিগতভাবে কমবেশি কোনো চূড়ান্ত লক্ষ্যের সঙ্গে মিলিত হতে পারে।” দ্বিতীয়টি হল ইন্সট্রুমেন্টাল কনভারজেন্স থিসিস, যা বোঝায় যে একজন বুদ্ধিমান এজেন্ট এমনভাবে কাজ করবে যা তার নিজের বেঁচে থাকা, স্ব-উন্নতি এবং সম্পদ অর্জনের প্রচার করবে, যতক্ষণ না এটি এজেন্টকে তার চূড়ান্ত লক্ষ্য অর্জনের সম্ভাবনা বেশি করে। তারপরে তিনি একটি চূড়ান্ত অনুমান করেছিলেন: গবেষকরা শীঘ্রই একটি AI সুপার ইন্টেলিজেন্স তৈরি করবেন - যেটি "আবশ্যিকভাবে সমস্ত আগ্রহের ডোমেনে মানুষের জ্ঞানীয় কার্যকারিতাকে ব্যাপকভাবে ছাড়িয়ে যায়।"

বোস্ট্রম এবং এআই অ্যালাইনমেন্ট সম্প্রদায়ের অন্যদের জন্য, এই সম্ভাবনাটি মানবতার জন্য ধ্বংসের বানান যদি না আমরা আমাদের আকাঙ্ক্ষা এবং মূল্যবোধের সাথে সুপার ইন্টেলিজেন্ট AIগুলিকে সারিবদ্ধ করতে সফল হই। বোস্ট্রম এখন-বিখ্যাত চিন্তা পরীক্ষার মাধ্যমে এই বিপদের চিত্র তুলে ধরেছেন: কল্পনা করুন একজন সুপার ইন্টেলিজেন্ট AI কে পেপার ক্লিপ তৈরির সর্বোচ্চ লক্ষ্য দেওয়ার কথা। বোস্ট্রমের থিসিস অনুসারে, এই উদ্দেশ্য অর্জনের অনুসন্ধানে, AI সিস্টেম তার অতিমানবীয় উজ্জ্বলতা এবং সৃজনশীলতাকে তার নিজস্ব ক্ষমতা এবং নিয়ন্ত্রণ বাড়াতে ব্যবহার করবে, শেষ পর্যন্ত আরও কাগজের ক্লিপ তৈরির জন্য বিশ্বের সমস্ত সংস্থান অর্জন করবে। মানবতা শেষ হয়ে যাবে, কিন্তু কাগজের ক্লিপ উৎপাদন প্রকৃতপক্ষে সর্বাধিক করা হবে।

আপনি যদি বিশ্বাস করেন যে বুদ্ধিমত্তা লক্ষ্য অর্জনের ক্ষমতা দ্বারা সংজ্ঞায়িত করা হয়, যে কোনও লক্ষ্য মানুষের দ্বারা একজন সুপার ইন্টেলিজেন্ট এআই এজেন্টের মধ্যে "ঢোকানো" হতে পারে এবং এই ধরনের এজেন্ট সেই লক্ষ্য অর্জনের জন্য কিছু করার জন্য তার সুপার বুদ্ধিমত্তা ব্যবহার করবে, তাহলে আপনি একই সময়ে পৌঁছান উপসংহার যা রাসেল করেছিলেন: "বিপর্যয় নিশ্চিত করার জন্য যা প্রয়োজন তা হল মানুষের সাথে মিলিত একটি অত্যন্ত দক্ষ যন্ত্র যার সম্পূর্ণ এবং সঠিকভাবে মানুষের পছন্দগুলি নির্দিষ্ট করার অসম্পূর্ণ ক্ষমতা রয়েছে।"

এটি বিজ্ঞান কল্পকাহিনীর একটি পরিচিত ট্রপ - নিয়ন্ত্রণের বাইরের মেশিনের দ্বারা মানবতা হুমকির সম্মুখীন যারা মানুষের ইচ্ছার ভুল ব্যাখ্যা করেছে। এখন এআই গবেষণা সম্প্রদায়ের একটি অপ্রস্তুত অংশ বাস্তব জীবনে এই ধরনের দৃশ্যের জন্য গভীরভাবে উদ্বিগ্ন। কয়েক ডজন ইনস্টিটিউট ইতিমধ্যে সমস্যাটির জন্য কয়েক মিলিয়ন ডলার ব্যয় করেছে এবং সারা বিশ্বের বিশ্ববিদ্যালয়গুলিতে এবং গুগল, মেটা এবং ওপেনএআই-এর মতো বড় এআই কোম্পানিগুলিতে সারিবদ্ধকরণের উপর গবেষণার প্রচেষ্টা চলছে।

চাকরি হারানো, পক্ষপাতিত্ব, গোপনীয়তা লঙ্ঘন এবং ভুল তথ্য ছড়ানোর মতো অ-সুপার ইন্টেলিজেন্ট এআই দ্বারা সৃষ্ট আরও তাৎক্ষণিক ঝুঁকি সম্পর্কে কী বলা যায়? এটা দেখা যাচ্ছে যে প্রাথমিকভাবে এই ধরনের স্বল্পমেয়াদী ঝুঁকির সাথে সংশ্লিষ্ট সম্প্রদায়ের মধ্যে সামান্য ওভারল্যাপ আছে এবং যারা দীর্ঘমেয়াদী প্রান্তিককরণ ঝুঁকি নিয়ে বেশি চিন্তিত। প্রকৃতপক্ষে, একটি AI সংস্কৃতি যুদ্ধের কিছু আছে, একপক্ষ এই বর্তমান ঝুঁকিগুলি নিয়ে বেশি চিন্তিত যা তারা অবাস্তব প্রযুক্তি-ভবিষ্যত হিসাবে দেখে, এবং অন্য পক্ষ বর্তমান সমস্যাগুলিকে সুপার ইন্টেলিজেন্ট AI দ্বারা সৃষ্ট সম্ভাব্য বিপর্যয়মূলক ঝুঁকির চেয়ে কম জরুরি বিবেচনা করে।

এই নির্দিষ্ট সম্প্রদায়ের বাইরের অনেকের কাছে, AI সারিবদ্ধতা একটি ধর্মের মতো দেখায় — যার মধ্যে শ্রদ্ধেয় নেতা, প্রশ্নাতীত মতবাদ এবং নিবেদিত শিষ্যরা সম্ভাব্য সর্বশক্তিমান শত্রুর সাথে লড়াই করছে (অসংযুক্ত সুপার ইন্টেলিজেন্ট এআই)। প্রকৃতপক্ষে, সম্প্রতি কম্পিউটার বিজ্ঞানী এবং ব্লগার স্কট অ্যারনসন সুপরিচিত যে এখন এআই সারিবদ্ধ বিশ্বাসের "অর্থোডক্স" এবং "সংস্কার" শাখা রয়েছে। তিনি লিখেছেন, প্রাক্তনটি প্রায় সম্পূর্ণভাবে উদ্বিগ্ন "বিভ্রান্তিকর এআই যা মানুষকে ধোঁকা দেয় যখন এটি তাদের ধ্বংস করতে কাজ করে।" বিপরীতে, তিনি লিখেছেন, "আমরা সংস্কার এআই-ঝুঁকিকারীরা সেই সম্ভাবনাকে উপভোগ করি, তবে আমরা অন্ততপক্ষে শক্তিশালী এআই সম্পর্কে উদ্বিগ্ন হই যেগুলি খারাপ মানুষের দ্বারা অস্ত্রশস্ত্র করা হয়, যা আমরা অনেক আগে অস্তিত্বের ঝুঁকি তৈরি করার আশা করি।"

অনেক গবেষক সক্রিয়ভাবে প্রান্তিককরণ-ভিত্তিক প্রকল্পে নিযুক্ত, থেকে শুরু করে নীতি প্রদানের প্রচেষ্টা মেশিন থেকে নৈতিক দর্শনের, থেকে বড় ভাষা মডেল প্রশিক্ষণ ক্রাউডসোর্সড নৈতিক রায়ের উপর। বাস্তব-বিশ্বের পরিস্থিতি সম্পর্কে মেশিনগুলিকে যুক্তি দেওয়ার জন্য এই প্রচেষ্টাগুলির কোনওটিই বিশেষভাবে কার্যকর হয়নি। অনেক লেখক মানুষের পছন্দ এবং মূল্যবোধ শিখতে মেশিনকে বাধা দেওয়ার অনেক বাধা উল্লেখ করেছেন: মানুষ প্রায়ই অযৌক্তিক হয় এবং এমনভাবে আচরণ করে যা তাদের মূল্যবোধের বিরোধিতা করে, এবং মূল্যবোধগুলি পৃথক জীবনকাল এবং প্রজন্মের সাথে পরিবর্তিত হতে পারে। সর্বোপরি, এটি পরিষ্কার নয় যে আমাদের কার মানগুলি মেশিনগুলি শেখার চেষ্টা করা উচিত।

সারিবদ্ধ সম্প্রদায়ের অনেকেই মনে করেন যে এগিয়ে যাওয়ার সবচেয়ে প্রতিশ্রুতিশীল পথ হল একটি মেশিন লার্নিং কৌশল যা নামে পরিচিত৷ বিপরীত শক্তিবৃদ্ধি শিক্ষা (IRL)। IRL এর সাথে, মেশিনটিকে সর্বাধিক করার জন্য একটি উদ্দেশ্য দেওয়া হয় না; এই ধরনের "ঢোকানো" লক্ষ্য, প্রান্তিককরণের সমর্থকরা বিশ্বাস করেন, অসাবধানতাবশত পেপার ক্লিপ ম্যাক্সিমাইজার পরিস্থিতিতে নিয়ে যেতে পারে। পরিবর্তে, মেশিনের কাজ হল মানুষের আচরণ পর্যবেক্ষণ করা এবং তাদের পছন্দ, লক্ষ্য এবং মূল্যবোধ অনুমান করা। সাম্প্রতিক বছরগুলিতে, গবেষকরা আইআরএল ব্যবহার করেছেন ভিডিও গেম খেলার জন্য ট্রেন মেশিন মানুষকে পর্যবেক্ষণ করে এবং রোবটকে শেখানোর মাধ্যমে কিভাবে ব্যাকফ্লিপ করতে হয় মানুষের কাছ থেকে তাদের ক্রমবর্ধমান প্রতিক্রিয়া প্রদান করে (লোকেরা একটি রোবটের বিভিন্ন প্রচেষ্টার ছোট ক্লিপ দেখেছে এবং সবচেয়ে ভাল লাগছিল এমনটি বেছে নিয়েছে)।

অনুরূপ পদ্ধতিগুলি মেশিনকে মানবিক মূল্যবোধের আরও সূক্ষ্ম এবং বিমূর্ত ধারণা শেখাতে পারে কিনা তা অস্পষ্ট। লেখক ব্রায়ান ক্রিশ্চিয়ান, লেখক এ AI প্রান্তিককরণ সম্পর্কে জনপ্রিয় বিজ্ঞান বই, আশাবাদী: “'ব্যাকফ্লিপ'-এর নেবুলাস কনসেপ্টকে 'হেল্পফুলনেস'-এর মতো আরও বেশি নীবুলাস এবং অকার্যকর ধারণা দিয়ে প্রতিস্থাপন করার কল্পনা করাটা তেমন একটা প্রসারিত নয়। অথবা 'দয়া।' অথবা 'ভাল' আচরণ।"

যাইহোক, আমি মনে করি এটি চ্যালেঞ্জটিকে অবমূল্যায়ন করে। নৈতিক ধারণা যেমন সদয়তা এবং ভাল আচরণ অনেক বেশি জটিল এবং প্রসঙ্গ-নির্ভর যা কিছু আইআরএল এখন পর্যন্ত আয়ত্ত করেছে। "সত্যবাদ" এর ধারণাটি বিবেচনা করুন - একটি মান যা আমরা অবশ্যই আমাদের এআই সিস্টেমে চাই। প্রকৃতপক্ষে, আজকের বৃহৎ ভাষার মডেলগুলির একটি বড় সমস্যা হল সত্য থেকে মিথ্যাকে আলাদা করতে তাদের অক্ষমতা। একই সময়ে, আমরা কখনও কখনও আমাদের এআই সহকারীরা চাই, মানুষের মতোই, তাদের সত্যতাকে মেজাজ করতে: গোপনীয়তা রক্ষা করতে, অন্যদের অপমান এড়াতে বা কাউকে নিরাপদ রাখতে, অগণিত অন্যান্য কঠিন থেকে স্পষ্ট পরিস্থিতির মধ্যে।

অন্যান্য নৈতিক ধারণাগুলি যেমন জটিল। এটা পরিষ্কার হওয়া উচিত যে মেশিনকে নৈতিক ধারণা শেখানোর জন্য একটি অপরিহার্য প্রথম পদক্ষেপ হল মেশিনগুলিকে প্রথম স্থানে মানবসদৃশ ধারণাগুলি উপলব্ধি করতে সক্ষম করা, যা আমি যুক্তি দিয়েছি এখনও AI এর সবচেয়ে গুরুত্বপূর্ণ খোলা সমস্যা.

তদুপরি, আমি AI প্রান্তিককরণের বিজ্ঞানের অন্তর্নিহিত ধারণাগুলির সাথে আরও একটি মৌলিক সমস্যা দেখতে পাচ্ছি। বেশিরভাগ আলোচনায় একটি যন্ত্র হিসাবে একটি সুপার ইন্টেলিজেন্ট এআইকে কল্পনা করা হয় যেটি সমস্ত জ্ঞানীয় কাজে মানুষকে ছাড়িয়ে গেলেও, এখনও মানুষের মতো সাধারণ জ্ঞানের অভাব রয়েছে এবং প্রকৃতিতে অদ্ভুতভাবে যান্ত্রিক রয়ে গেছে। এবং গুরুত্বপূর্ণভাবে, বোস্ট্রমের অর্থোগোনালিটি থিসিসের সাথে তাল মিলিয়ে, যন্ত্রটি তার নিজস্ব কোনো লক্ষ্য বা মূল্যবোধ ছাড়াই সুপার ইন্টেলিজেন্স অর্জন করেছে, পরিবর্তে মানুষের দ্বারা লক্ষ্য ঢোকানোর জন্য অপেক্ষা করছে।

তবুও কি বুদ্ধিমত্তা এভাবে কাজ করতে পারে? মনোবিজ্ঞান বা স্নায়ুবিজ্ঞানের বর্তমান বিজ্ঞানের কিছুই এই সম্ভাবনাকে সমর্থন করে না। মানুষের মধ্যে, অন্তত, বুদ্ধিমত্তা আমাদের লক্ষ্য এবং মূল্যবোধের সাথে সাথে আমাদের আত্মবোধ এবং আমাদের বিশেষ সামাজিক ও সাংস্কৃতিক পরিবেশের সাথে গভীরভাবে জড়িত। এই অন্যান্য কারণ থেকে এক ধরনের বিশুদ্ধ বুদ্ধিমত্তাকে আলাদা করা যেতে পারে এমন অন্তর্দৃষ্টি জন্ম দিয়েছে অনেক ব্যর্থ ভবিষ্যদ্বাণী এআই এর ইতিহাসে। আমরা যা জানি তা থেকে মনে হয় যে একটি সাধারণভাবে বুদ্ধিমান এআই সিস্টেমের লক্ষ্যগুলি সহজে ঢোকানো যায় না, তবে এটির নিজস্ব সামাজিক এবং সাংস্কৃতিক লালন-পালনের ফলে আমাদের মতো বিকাশ করতে হবে।

তার বইয়ে মানুষের সামঞ্জস্যপূর্ণ, রাসেল সারিবদ্ধকরণ সমস্যা নিয়ে গবেষণার জরুরীতার জন্য যুক্তি দেন: "মানবতার জন্য একটি সম্ভাব্য গুরুতর সমস্যা সম্পর্কে উদ্বিগ্ন হওয়ার সঠিক সময় শুধুমাত্র কখন সমস্যাটি ঘটবে তার উপর নির্ভর করে না বরং এটি একটি সমাধান প্রস্তুত করতে এবং বাস্তবায়ন করতে কতক্ষণ সময় নেবে তার উপর নির্ভর করে। " কিন্তু বুদ্ধিমত্তা কী এবং এটি আমাদের জীবনের অন্যান্য দিক থেকে কতটা পৃথক করা যায় সে সম্পর্কে আরও ভালভাবে বোঝা না গেলে, আমরা এমনকি সমস্যাটিকে সংজ্ঞায়িত করতে পারি না, খুব কম সমাধান খুঁজে পাই। প্রান্তিককরণ সমস্যাটি সঠিকভাবে সংজ্ঞায়িত করা এবং সমাধান করা সহজ হবে না; এর জন্য আমাদের একটি বিস্তৃত, বৈজ্ঞানিক ভিত্তিক বুদ্ধিমত্তার তত্ত্ব তৈরি করতে হবে।

সময় স্ট্যাম্প:

থেকে আরো কোয়ান্টাম্যাগাজিন