রিয়েল এবং এআই সৃষ্টির মধ্যে লাইন চোখের জন্য খুব পাতলা

রিয়েল এবং এআই সৃষ্টির মধ্যে লাইন চোখের জন্য খুব পাতলা

আই প্লেটোব্লকচেন ডেটা ইন্টেলিজেন্সের জন্য বাস্তব এবং এআই সৃষ্টির মধ্যে লাইন খুব পাতলা। উল্লম্ব অনুসন্ধান. আ.

যেহেতু জেনারেটিভ এআই বিকাশকারীরা তাদের মডেলগুলিকে পরিশীলিততার সাথে সূক্ষ্ম-সুরিয়ে চলেছে, তাই বাস্তব চিত্র এবং এআই সৃষ্টির মধ্যে পার্থক্য করাও ক্রমশ কঠিন হয়ে উঠছে, গবেষকরা প্রকাশ করেছেন।

গবেষকদের দ্বারা একটি গবেষণা ওয়াটারলু বিশ্ববিদ্যালয় প্রতিষ্ঠিত হয়েছে যে মানুষ একটি বাস্তব ব্যক্তির ছবি এবং একটি AI-উত্পন্ন ব্যক্তির ছবি খুঁজে বের করতে কঠিন সময় পাচ্ছে।

প্রত্যাশিত থ্রেশহোল্ডের নিচে

গবেষণা চালানোর সময়, ওয়াটারলু বিশ্ববিদ্যালয়ের গবেষকরা 20 জন অংশগ্রহণকারীকে 260টি লেবেলবিহীন ছবি সরবরাহ করেছেন। অর্ধেক ছবি গুগল ইমেজ থেকে নেওয়া প্রকৃত মানুষদের এবং বাকি অর্ধেকটি ডাল-ই এবং এর মতো টুল ব্যবহার করে AI তৈরি করা হয়েছে। স্থিতিশীল বিস্তার.

অংশগ্রহণকারীদের তখন ছবিগুলোকে লেবেল করতে বলা হয়েছিল, যদি সেগুলি বাস্তব বা এআই-উত্পন্ন হয়, তাদের উত্তরের ন্যায্যতা প্রমাণ করে।

যদিও 61% অংশগ্রহণকারী বাস্তব চিত্র এবং AI তৈরি করা চিত্রগুলির মধ্যে পার্থক্য বলতে পারে, এটি এখনও প্রত্যাশিত 85% থ্রেশহোল্ডের নীচে ছিল।

চিত্রগুলি যাচাই করার সময়, অংশগ্রহণকারীরা চোখ, আঙুল, দাঁত এবং অন্যান্য সূচকগুলির মতো বিশদগুলিতে মনোযোগ দিয়েছিল যে সূচকগুলি যখন AI তৈরি করেছিল চিত্রগুলি সন্ধান করেছিল, কিন্তু "তাদের মূল্যায়ন সবসময় সঠিক ছিল না।"

"লোকেরা পার্থক্য করতে ততটা পারদর্শী নয় যতটা তারা মনে করে," বলেছেন গবেষণার প্রধান লেখক আন্দ্রেয়া পোকল, যিনি বিশ্ববিদ্যালয়ের কম্পিউটার বিজ্ঞানে পিএইচডি প্রার্থীও।

যদিও ইন্টারনেট ব্যবহারকারীরা চিত্রগুলিকে ক্ষণস্থায়ীভাবে দেখতে পারে, ওয়াটারলু গবেষকরা বলেছেন যে তারা অংশগ্রহণকারীদের ছবিগুলি বিশ্লেষণ করতে তাদের সময় নেওয়ার অনুমতি দিয়েছেন।

"যারা শুধু ডুমস্ক্রোল করছে বা তাদের সময় নেই তারা এই সংকেতগুলি গ্রহণ করবে না," পোকল বলেছেন৷

এছাড়াও পড়ুন: লিওনার্দো সিইও ডাভোসে এআই হুমকির বিষয়ে ব্যবহারকারীর মূর্খতা হাইলাইট করেছেন

প্রযুক্তির অপব্যবহার

তাদের অধ্যয়ন, শিরোনাম "দেখতে আর বিশ্বাস করা যায় না: ডিপফেকস, এআই-জেনারেটেড হিউম্যানস এবং আদার ননভেরিডিকাল মিডিয়ার উপর একটি সমীক্ষা," যা কম্পিউটার গ্রাফিক্সের অ্যাডভান্সেস জার্নালে প্রকাশিত হয়েছে, এটি জেনারেটিভ এআই প্রযুক্তির অগ্রগতির সাথে সম্পর্কিত ঝুঁকিগুলিও তুলে ধরে। .

গবেষকরা উদ্বেগের সাথে উল্লেখ করেছেন যে যে হারে জেনারেটিভ এআই প্রযুক্তি দ্রুত পরিবর্তিত হচ্ছে, প্রতি দিন আরও পরিশীলিত হচ্ছে। একাডেমিক গবেষণা এবং আইন প্রজনন শিল্পের উন্নয়নের সাথে তাল মিলিয়ে চলতে ব্যর্থ হচ্ছে।

পোকল বলেন, এআই ছবিগুলি আরও বাস্তব হয়ে উঠছে যার ফলে কিছু লোকের পক্ষে সহজে বাস্তব এবং এআই জেনারেটেড চিত্রগুলির মধ্যে পার্থক্য করা কঠিন। পোকল বলেন, এটি খারাপ অভিনেতাদের জন্য একটি উর্বর ভূমি তৈরি করছে যারা প্রযুক্তির সুবিধা নিচ্ছে বিদ্বেষ ছড়ানো এবং বিভ্রান্তি ছড়ানো বা মানুষকে প্রতারণা করার জন্য।

"বিভ্রান্তি নতুন নয়, তবে বিভ্রান্তির সরঞ্জামগুলি ক্রমাগত পরিবর্তন এবং বিকশিত হচ্ছে," পোকল বলেছিলেন।

"এটি এমন একটি পর্যায়ে যেতে পারে যেখানে লোকেরা, তারা যতই প্রশিক্ষিত হোক না কেন, এখনও নকল থেকে আসল চিত্রগুলিকে আলাদা করতে লড়াই করবে৷ সেজন্য আমাদের এটি সনাক্ত এবং প্রতিহত করার জন্য সরঞ্জামগুলি বিকাশ করতে হবে। এটি একটি নতুন এআই অস্ত্র প্রতিযোগিতার মতো।"

গবেষকরা প্রযুক্তির চ্যালেঞ্জগুলিও স্বীকার করেছেন বিশেষ করে যখন এটি ডিপফেক ছড়িয়ে দেওয়ার ক্ষেত্রে আসে।

প্রযুক্তি ভুল হাতে

বাস্তব এবং নকল ছবির মধ্যে পার্থক্য করতে সাধারণ মানুষের অভিজ্ঞতার সাথে, ডিপফেকের বিস্তার বৃদ্ধির আশঙ্কা বাড়ছে৷ বিশেষজ্ঞরা সতর্ক করেছেন যে খারাপ অভিনেতারা ভোটারদের বিভ্রান্ত করার প্রয়াসে নির্বাচনী মিথ্যা ছড়ানোর জন্য জেনারেটিভ এআই প্রযুক্তির সুবিধা নেবে।

সার্জারির ডিজিটাল ঘৃণা প্রতিরোধের জন্য কেন্দ্র (CCDH), একটি অলাভজনক যা অনলাইন ঘৃণামূলক বক্তব্য নিরীক্ষণ করে ইতিমধ্যেই রয়েছে৷ সতর্ক তাদের রিপোর্টে যে এআই-চালিত ইমেজ জেনারেটরগুলি 2024 সালের নির্বাচনের ভুল তথ্যকে আরও খারাপ করছে।

সিসিডিএইচ গবেষকরা তাদের প্রতিবেদনে বলেছেন, "এই ধরনের এআই-উত্পন্ন চিত্রগুলির 'ফটো প্রমাণ' হিসাবে পরিবেশন করার সম্ভাবনা মিথ্যা দাবির বিস্তারকে বাড়িয়ে তুলতে পারে, যা নির্বাচনের অখণ্ডতা রক্ষার জন্য একটি গুরুত্বপূর্ণ চ্যালেঞ্জ তৈরি করতে পারে।"

যদিও এটি একটি ঘোষণার মধ্যে আসে যে সহ প্রায় 20টি বড় প্রযুক্তি সংস্থা OpenAI, মাইক্রোসফ্ট, এবং স্থিতিশীলতা এআই একটি চুক্তি স্বাক্ষর করেছে এআই প্রতারণামূলক বিষয়বস্তুকে "এই বছর বিশ্বব্যাপী অনুষ্ঠিত নির্বাচনে হস্তক্ষেপ করা থেকে রোধ করতে একসাথে কাজ করা।

সময় স্ট্যাম্প:

থেকে আরো মেটানিউজ