এআই/এমএল সিস্টেমগুলিকে সুরক্ষিত করার জন্য নিরাপত্তা মানিয়ে নেওয়া

এআই/এমএল সিস্টেমগুলিকে সুরক্ষিত করার জন্য নিরাপত্তা মানিয়ে নেওয়া

এআই/এমএল সিস্টেম প্লাটোব্লকচেন ডেটা ইন্টেলিজেন্স রক্ষা করার জন্য নিরাপত্তা মানিয়ে নেওয়া। উল্লম্ব অনুসন্ধান. আ.

কৃত্রিম বুদ্ধিমত্তা (AI) শুধুমাত্র ব্যবসার সর্বশেষ buzzword নয়; এটি দ্রুত শিল্পকে পুনর্নির্মাণ করছে এবং ব্যবসায়িক প্রক্রিয়াগুলিকে পুনরায় সংজ্ঞায়িত করছে। তবুও কোম্পানিগুলি তাদের ক্রিয়াকলাপের প্রতিটি ক্ষেত্রে এআই এবং মেশিন লার্নিং (এমএল) একীভূত করার জন্য প্রতিযোগিতা করছে, তারাও প্রবর্তন করছে নতুন নিরাপত্তা এবং ঝুঁকি চ্যালেঞ্জ. একটি প্রতিযোগিতামূলক সুবিধা অর্জনের জন্য চটপটে উন্নয়ন অনুশীলনের উপর ফোকাস দিয়ে, নিরাপত্তা একটি পিছনের আসন নেয়। ওয়ার্ল্ড ওয়াইড ওয়েব এবং মোবাইল অ্যাপ্লিকেশনগুলির প্রথম দিনগুলিতে এটি ছিল এবং আমরা AI-তে স্প্রিন্টে এটি আবার দেখছি।

AI এবং ML সিস্টেমগুলি যেভাবে তৈরি, প্রশিক্ষিত এবং পরিচালিত হয় তা ঐতিহ্যবাহী আইটি সিস্টেম, ওয়েবসাইট বা অ্যাপগুলির বিকাশের পাইপলাইন থেকে উল্লেখযোগ্যভাবে আলাদা। যদিও প্রথাগত আইটি নিরাপত্তার ক্ষেত্রে প্রযোজ্য কিছু একই ঝুঁকি AI/ML-তে প্রাসঙ্গিক হতে থাকে, সেখানে রয়েছে বেশ কয়েকটি উল্লেখযোগ্য এবং চ্যালেঞ্জিং পার্থক্য. একটি ডাটাবেসের উপর নির্ভর করে এমন একটি ওয়েব অ্যাপ্লিকেশনের বিপরীতে, এআই অ্যাপ্লিকেশনগুলি এমএল মডেল দ্বারা চালিত হয়। একটি মডেল তৈরির প্রক্রিয়ার মধ্যে তথ্য সংগ্রহ, স্যানিটাইজিং এবং পরিমার্জন জড়িত; তথ্যের উপর এমএল মডেল প্রশিক্ষণ; তারপর অনুমান করতে এবং তারা যা শিখে তার উপর ভিত্তি করে পুনরাবৃত্তি করার জন্য সেই মডেলগুলিকে স্কেলে চালান।

চারটি প্রধান ক্ষেত্র রয়েছে যেখানে ঐতিহ্যবাহী সফ্টওয়্যার এবং এআই/এমএল বিকাশ ভিন্ন হয়ে যায়। এগুলি হল, যথাক্রমে, পরিবর্তিত অবস্থা বনাম গতিশীল অবস্থা, নিয়ম এবং শর্তাবলী বনাম ব্যবহার এবং ইনপুট, প্রক্সি পরিবেশ বনাম লাইভ সিস্টেম, এবং সংস্করণ নিয়ন্ত্রণ বনাম প্রোভেন্যান্স পরিবর্তন।

ওপেন সোর্সড এআই/এমএল টুল, যেমন এমএলফ্লো এবং রশ্মি, বিল্ডিং মডেলের জন্য সুবিধাজনক কাঠামো প্রদান করুন। কিন্তু এই ওপেন সোর্স সফ্টওয়্যার (OSS) টুলস এবং ফ্রেমওয়ার্কগুলির মধ্যে অনেকগুলি বাক্সের বাইরের দুর্বলতাগুলির দ্বারা ভুগছে যা গুরুতর শোষণ এবং ক্ষতির কারণ হতে পারে৷ স্বতন্ত্রভাবে, এআই/এমএল লাইব্রেরিগুলি নিজেরাই অনেক বড় আক্রমণের পৃষ্ঠ তৈরি করে, যেহেতু তারা প্রচুর পরিমাণে ডেটা এবং মডেল ধারণ করে যেগুলি কেবলমাত্র সেভ করা এআই/এমএল টুলের মতোই নিরাপদ৷ যদি এই সরঞ্জামগুলি আপস করা হয়, আক্রমণকারীরা একাধিক অ্যাক্সেস করতে পারে৷ ডেটাবেসগুলির মূল্যবান গোপনীয় তথ্য, মডেলগুলি সংশোধন করা এবং ম্যালওয়্যার উদ্ভিদ।

AI/ML এর জন্য ডিজাইন দ্বারা নিরাপত্তা

এআই/এমএল সিস্টেমগুলিকে রক্ষা করার জন্য ঐতিহ্যগত আইটি সুরক্ষার বেশ কয়েকটি মূল ক্ষমতার অভাব রয়েছে। প্রথমটি হল AI/ML সিস্টেমের বিল্ডিং ব্লকগুলি বিকাশ করতে ডেটা বিজ্ঞানীদের দ্বারা ব্যবহৃত সরঞ্জামগুলি স্ক্যান করার ক্ষমতা, যেমন Jupyter নোটবুক এবং অন্যান্য সরঞ্জাম AI/ML সাপ্লাই চেইনে, নিরাপত্তা দুর্বলতার জন্য।

যদিও ডেটা সুরক্ষা আইটি নিরাপত্তার একটি কেন্দ্রীয় উপাদান, AI/ML-এ এটি অতিরিক্ত গুরুত্ব নেয়, যেহেতু লাইভ ডেটা ক্রমাগত একটি মডেলকে প্রশিক্ষণের জন্য ব্যবহার করা হচ্ছে। এটি একটি আক্রমণকারীর জন্য AI/ML ডেটা ম্যানিপুলেট করার দরজা খুলে দেয় এবং এর ফলে মডেলগুলি দূষিত হতে পারে এবং তাদের উদ্দেশ্যমূলক কাজগুলি সম্পাদন করতে পারে না।

এআই/এমএল পরিবেশে, ডেটা সুরক্ষার জন্য একটি অপরিবর্তনীয় রেকর্ড তৈরি করা প্রয়োজন যা ডেটাকে মডেলের সাথে লিঙ্ক করে। অতএব, যদি ডেটা পরিবর্তন বা পরিবর্তন করা হয় যে কোনও উপায়ে, একজন ব্যবহারকারী যিনি মডেলটিকে পুনরায় প্রশিক্ষণ দিতে চান তিনি দেখতে পাবেন যে হ্যাশিং মানগুলি (যা ট্রান্সমিশনের সময় ডেটার অখণ্ডতা নিশ্চিত করতে ব্যবহৃত হয়) মেলে না। এই অডিট ট্রেইলটি একটি রেকর্ড তৈরি করে যখন ডেটা ফাইলটি সম্পাদনা করা হয়েছিল এবং সেই ডেটা কোথায় সংরক্ষণ করা হয়েছে, তা নির্ধারণ করতে একটি লঙ্ঘন হয়েছে কিনা।

অতিরিক্তভাবে, কমান্ড ইনজেকশনের মতো নিরাপত্তা হুমকি সনাক্ত করতে AI/ML মডেল স্ক্যান করা প্রয়োজন। এর কারণ হল একটি মডেল এমন একটি সম্পদ যা মেমরিতে থাকে, কিন্তু যখন ডিস্কে সংরক্ষণ করা হয় (সহকর্মীদের বিতরণের জন্য), ফর্ম্যাটে কোড ইনজেকশন থাকতে পারে। সুতরাং, যখন মডেলটি আগের মতই চলতে থাকবে, এটি নির্বিচারে কোড চালাবে।

এই অনন্য চ্যালেঞ্জগুলির প্রেক্ষিতে, বিবেচনা করার জন্য এখানে কয়েকটি দরকারী সেরা অনুশীলন রয়েছে:

  • দুর্বলতার জন্য নির্ভরতা খুঁজুন: প্রাসঙ্গিক দৃশ্যমানতা এবং শক্তিশালী ক্যোয়ারী টুল রিয়েল-টাইমে সমস্ত ML সিস্টেমের একটি বিস্তৃত দৃশ্য তৈরি করতে পারে। এটি সমস্ত বিক্রেতা, ক্লাউড প্রদানকারী এবং AI/ML বিকাশের সাথে জড়িত সাপ্লাই চেইন সংস্থানগুলিকে বিস্তৃত করা উচিত যাতে সমস্ত নির্ভরতা এবং হুমকির একটি দৃশ্য প্রদান করা যায়। একটি ডাইনামিক এমএল বিল অফ ম্যাটেরিয়াল (এমএল বিওএম), সমস্ত উপাদান এবং নির্ভরতা তালিকাভুক্ত করতে পারে, যা সংস্থাকে নেটওয়ার্কের সমস্ত এআই/এমএল সিস্টেমের একটি পূর্ণ প্রমাণ দেয়।

  • নিরাপদ ক্লাউড অনুমতি: ক্লাউড পাত্রে ডেটা ফাঁস করা AI নিরাপত্তার একটি মারাত্মক ত্রুটি হতে পারে, শেখার জন্য সেই ডেটার উপর মডেলের নির্ভরতার কারণে। ক্লাউডে অনুমতি স্ক্যান করা ডেটা ক্ষতি রোধ করার জন্য একটি অগ্রাধিকার।

  • ডেটা স্টোরেজ নিরাপত্তাকে অগ্রাধিকার দিন: মডেল নিরাপত্তা কার্যকর করার জন্য নীতি লঙ্ঘন সম্পর্কে স্বয়ংক্রিয়ভাবে রিপোর্ট এবং সতর্ক করতে সমন্বিত নিরাপত্তা চেক, নীতি এবং গেটগুলি বাস্তবায়ন করুন।

  • স্ক্যান ডেভেলপমেন্ট টুলস: ঠিক যেমন ডেভেলপমেন্ট অপারেশন ডেভেলপমেন্ট সিকিউরিটি অপারেশনে বিকশিত হয়েছে, AI/ML ডেভেলপমেন্টকে ডেভেলপমেন্ট প্রক্রিয়ায় নিরাপত্তা তৈরি করতে হবে, ডেভেলপমেন্ট এনভায়রনমেন্ট স্ক্যান করতে হবে এবং ML Flow-এর মতো টুল স্ক্যান করতে হবে এবং সমস্ত AI/ML মডেল এবং ডেটা ইনপুট সহ কোনও দুর্বলতার জন্য তাদের নির্ভরতা।

  • নিয়মিত অডিট করুন: স্বয়ংক্রিয় সরঞ্জামগুলি প্রয়োজনীয় অপরিবর্তনীয় লেজার সরবরাহ করতে পারে যা AI/ML পরিবেশের টাইমস্ট্যাম্প সংস্করণ হিসাবে কাজ করে। এটি লঙ্ঘনের ক্ষেত্রে ফরেনসিক বিশ্লেষণকে সমর্থন করবে, কে নীতি লঙ্ঘন করেছে, কোথায়, কখন তা দেখায়। উপরন্তু, অডিট হুমকির ল্যান্ডস্কেপ মোকাবেলা করতে সুরক্ষা আপডেট করতে সাহায্য করতে পারে।

এর অন্তর্নিহিত নিরাপত্তা ঝুঁকি মোকাবেলা করার সময় AI এর সম্ভাব্যতাকে ট্যাপ করতে, সংস্থাগুলিকে উপরে তালিকাভুক্ত সেরা অনুশীলনগুলি বাস্তবায়নের বিষয়ে বিবেচনা করা উচিত এবং বাস্তবায়ন শুরু করা উচিত MLSecOps.

সময় স্ট্যাম্প:

থেকে আরো অন্ধকার পড়া