چرا باید اصل و نسب هوش مصنوعی خود را بدانید؟

چرا باید اصل و نسب هوش مصنوعی خود را بدانید؟

Why You Need to Know Your AI's Ancestry PlatoBlockchain Data Intelligence. Vertical Search. Ai.

نظر

هوش مصنوعی (AI) تقریباً همه جنبه‌های زندگی روزمره ما را به سرعت تغییر می‌دهد، از نحوه کار گرفته تا نحوه دریافت اطلاعات و نحوه تعیین رهبرانمان. مانند هر فناوری دیگری، هوش مصنوعی غیراخلاقی است، اما می تواند برای پیشرفت جامعه استفاده شود آسیب رساندن.

داده ها ژن هایی هستند که برنامه های کاربردی هوش مصنوعی را تقویت می کنند. این DNA و RNA است که همه در یکی پیچیده شده اند. همانطور که اغلب در هنگام ساختن سیستم‌های نرم‌افزاری گفته می‌شود: "زباله در/آشغال بیرون". فناوری هوش مصنوعی به اندازه منابع داده ای که به آنها تکیه می کند دقیق، ایمن و کاربردی است. کلید اطمینان از اینکه هوش مصنوعی به وعده خود عمل می کند و از کابوس های خود جلوگیری می کند، در توانایی دور نگه داشتن زباله ها و جلوگیری از تکثیر و تکثیر آن در میلیون ها برنامه هوش مصنوعی نهفته است.

این منشأ داده نامیده می‌شود، و ما نمی‌توانیم یک روز دیگر صبر کنیم تا کنترل‌هایی را اجرا کنیم که از تبدیل شدن آینده هوش مصنوعی به زباله‌های عظیم جلوگیری می‌کند.

داده‌های بد منجر به مدل‌های هوش مصنوعی می‌شود که می‌توانند آسیب‌پذیری‌های امنیت سایبری، اطلاعات نادرست و سایر حملات را در چند ثانیه در سطح جهان منتشر کنند. امروز هوش مصنوعی مولد مدل‌های (GenAI) فوق‌العاده پیچیده هستند، اما در اصل، مدل‌های GenAI با توجه به مجموعه‌ای از داده‌های قبلی موجود، به سادگی بهترین بخش بعدی داده را برای خروجی پیش‌بینی می‌کنند.

اندازه گیری دقت

یک مدل از نوع ChatGPT مجموعه کلماتی را که سؤال اصلی پرسیده شده را تشکیل می‌دهند و تمام کلمات موجود در پاسخ مدل تاکنون ارزیابی می‌کند تا بهترین کلمه بعدی را برای خروجی محاسبه کند. این کار را مکررا انجام می دهد تا زمانی که تصمیم بگیرد به اندازه کافی پاسخ داده است. فرض کنید که شما توانایی مدل را در ردیف کردن کلماتی که جملاتی را که به خوبی شکل گرفته و از نظر گرامری درست هستند و به طور کلی مربوط به مکالمه هستند، تشکیل می دهند، ارزیابی می کنید. در این صورت، مدل های امروزی به طرز شگفت انگیزی خوب هستند - اندازه گیری دقت.

عمیق تر شیرجه بزنید آیا متن تولید شده با هوش مصنوعی همیشه اطلاعات "درست" را منتقل می کند؟ و به طور مناسب سطح اطمینان اطلاعات منتقل شده را نشان می دهد. این مشکلاتی را نشان می‌دهد که از مدل‌هایی که به طور متوسط ​​خیلی خوب پیش‌بینی می‌کنند، اما در مورد لبه‌ها چندان خوب پیش‌بینی نمی‌کنند - نشان دهنده یک مشکل استحکام است. زمانی که داده های ضعیف از مدل های هوش مصنوعی به صورت آنلاین ذخیره می شود و به عنوان داده های آموزشی آینده برای این مدل ها و سایر مدل ها استفاده می شود، می تواند ترکیب شود.

خروجی‌های ضعیف می‌توانند در مقیاسی تکرار شوند که هرگز ندیده‌ایم، و باعث ایجاد یک حلقه نابودی هوش مصنوعی به سمت پایین شود.

اگر بازیگر بدی بخواهد به این روند کمک کند، می‌توانست عمدا داده‌های بد اضافی را به تولید، ذخیره و انتشار تشویق کند - که منجر به اطلاعات نادرست بیشتر از چت‌بات‌ها می‌شود، یا چیزی به همان زشت و ترسناک که مدل‌های خلبان خودکار خودرو تصمیم می‌گیرند که به این کار نیاز دارند. با وجود اینکه اجسام در مسیر قرار دارند، اگر یک تصویر خاص ساخته شده را در جلوی خود «ببینند» (البته به صورت فرضی) خودرو را به سرعت به سمت راست منحرف کنید.

پس از دهه‌ها، صنعت توسعه نرم‌افزار – به رهبری آژانس امنیت زیرساخت امنیت سایبری – سرانجام در حال پیاده‌سازی ایمن با طراحی چارچوب ایمن با طراحی الزام می کند که امنیت سایبری اساس فرآیند توسعه نرم افزار است و یکی از اصول اصلی آن مستلزم فهرست نویسی هر جزء توسعه نرم افزار است - صورتحساب مواد نرم افزاری (SBOM) - برای تقویت امنیت و انعطاف پذیری. در نهایت، امنیت جایگزین سرعت به عنوان حیاتی ترین عامل ورود به بازار شده است.

ایمن سازی طرح های هوش مصنوعی

هوش مصنوعی به چیزی مشابه نیاز دارد. حلقه بازخورد هوش مصنوعی از تکنیک‌های رایج دفاعی امنیت سایبری گذشته، مانند ردیابی امضاهای بدافزار، ایجاد محیط پیرامون منابع شبکه، یا اسکن کدهای نوشته شده توسط انسان برای آسیب‌پذیری‌ها، جلوگیری می‌کند. ما باید طراحی های ایمن هوش مصنوعی را در دوران ابتدایی این فناوری به یک الزام تبدیل کنیم تا بتوان هوش مصنوعی را مدت ها قبل از باز شدن جعبه پاندورا ایمن کرد.

بنابراین، چگونه این مشکل را حل کنیم؟ ما باید یک صفحه از دنیای دانشگاهی برداریم. ما دانش‌آموزان را با داده‌های آموزشی بسیار مدیریت‌شده، که از طریق صنعت معلمان تفسیر و به آنها منتقل می‌شود، آموزش می‌دهیم. ما این رویکرد را برای آموزش به بزرگسالان ادامه می‌دهیم، اما از بزرگسالان انتظار می‌رود که خودشان اطلاعات بیشتری را انجام دهند.

آموزش مدل هوش مصنوعی باید یک رویکرد داده‌های مدیریت‌شده دو مرحله‌ای داشته باشد. برای شروع، مدل‌های پایه هوش مصنوعی با استفاده از روش‌های فعلی با استفاده از مقادیر انبوهی از مجموعه‌های داده کم‌تر آموزش داده می‌شوند. این مدل‌های پایه زبان بزرگ (LLM) تقریباً مشابه یک نوزاد تازه متولد شده است. سپس مدل‌های سطح پایه با مجموعه داده‌های بسیار مدیریت‌شده مشابه نحوه آموزش و پرورش کودکان برای بزرگسال شدن آموزش داده می‌شوند.

تلاش برای ایجاد مجموعه داده های آموزشی بزرگ و منتخب برای همه انواع اهداف کم نخواهد بود. این مشابه تمام تلاش‌هایی است که والدین، مدارس و جامعه برای ارائه یک محیط با کیفیت و اطلاعات با کیفیت برای کودکان انجام می‌دهند، در حالی که آنها (امیدوارم) به مشارکت‌کنندگانی کارآمد و با ارزش افزوده برای جامعه تبدیل می‌شوند. این سطح تلاشی است که برای ساخت مجموعه داده‌های با کیفیت برای آموزش مدل‌های هوش مصنوعی با کیفیت، با عملکرد خوب و با حداقل خرابی لازم است، و می‌تواند منجر به همکاری صنعت کامل هوش مصنوعی و انسان‌ها شود تا به مدل‌های هوش مصنوعی بیاموزند که در شغل هدف خود خوب عمل کنند. .

وضعیت فرآیند آموزش هوش مصنوعی امروزی نشانه هایی از این فرآیند دو مرحله ای را نشان می دهد. اما، به دلیل نوپا بودن فناوری GenAI و صنعت، آموزش بیش از حد، رویکرد مرحله اول کمتری دارد.

وقتی صحبت از امنیت هوش مصنوعی به میان می آید، ما نمی توانیم یک ساعت صبر کنیم، چه برسد به یک دهه. هوش مصنوعی به یک برنامه کاربردی 23andMe نیاز دارد که امکان بررسی کامل "تبارشناسی الگوریتم" را فراهم می کند تا توسعه دهندگان بتوانند به طور کامل تاریخچه "خانوادگی" هوش مصنوعی را درک کنند تا از تکرار مشکلات مزمن، آلوده کردن سیستم های حیاتی که هر روز به آن ها تکیه می کنیم و ایجاد آسیب های اقتصادی و اجتماعی جلوگیری کنند. که ممکن است برگشت ناپذیر باشد.

امنیت ملی ما به آن بستگی دارد.

تمبر زمان:

بیشتر از تاریک خواندن