هوش مصنوعی منبع باز رایانه‌های شخصی مدرن را مرتبط می‌کند و اشتراک‌ها نامرغوب به نظر می‌رسند

هوش مصنوعی منبع باز رایانه‌های شخصی مدرن را مرتبط می‌کند و اشتراک‌ها نامرغوب به نظر می‌رسند

هوش مصنوعی منبع باز رایانه‌های شخصی مدرن را مرتبط می‌سازد، و اشتراک‌ها، هوش داده پلاتوبلاک‌چین ضعیف به نظر می‌رسند. جستجوی عمودی Ai.

ستون سال گذشته در این زمان نادیده گرفتن آخرین روند در محاسبات غیرممکن شد: صفحات عظیم سیلیکونی با صدها میلیارد ترانزیستور - پیامد اجتناب‌ناپذیر مجموعه دیگری از راه‌حل‌ها که قانون مور را از فراموشی دور نگه داشت.

اما کاهش فروش رایانه های شخصی نشان می دهد که ما به این رایانه های هیولا نیاز نداریم - و نه فقط به دلیل سایه فروش ناشی از کووید.

در نیمه اول سال 2022، محاسبات شرکتی تقریباً مانند دهه گذشته به نظر می رسید: برنامه های اداری اصلی، برنامه های ارتباطی تیمی، و برای طبقه خلاق، چند ابزار رسانه ای غنی. مطمئناً، گیمرها همیشه راهی برای به کار انداختن این ترانزیستورها پیدا می‌کردند، اما اکثریت قریب به اتفاق سخت‌افزار قبلاً بیش از حد قدرتمند و کم کار شده بودند. چرا ترانزیستورها را برای مشکلات حل شده هدر می دهیم؟

سپس جهان تغییر کرد. یک سال پیش، OpenAI، DALL-E را راه‌اندازی کرد، اولین ابزار هوش مصنوعی مولد در دسترس - یک "دیفیوزر" که نویز، یک پیام متنی و یک پایگاه داده عظیم از وزن‌ها را به تصاویر تبدیل می‌کند. تقریباً شبیه جادو به نظر می رسید. اندکی بعد، Midjourney تقریباً همان را ارائه کرد - اگرچه به زیبایی جلد آلبوم پروگ راک دهه 70 تنظیم شده بود. به نظر می‌رسید که تقاضا برای رایانش ابری سر به فلک بکشد زیرا این ابزارها به محصولات مایکروسافت، Canva، Adobe و دیگران راه پیدا کردند.

سپس جهان دوباره تغییر کرد. در ماه آگوست، هوش مصنوعی پایداری یک پایگاه داده منبع باز از وزن دهی دیفیوزر را معرفی کرد. Stable Diffusion در آغاز خود، نیاز به یک پردازنده گرافیکی پیشرفته داشت، اما جامعه منبع باز به زودی دریافت که می تواند دیفیوزر را برای اجرا بر روی تقریباً هر چیزی بهینه کند. لزوماً سریع نیست، اما کار می‌کند – و با سخت‌افزار شما افزایش می‌یابد.

به جای مطالبه منابع عظیم ابری، این ابزارهای جدید هوش مصنوعی به صورت محلی اجرا می شوند. و اگر یک کامپیوتر هیولا خریداری کرده باشید، حداقل به سرعت هر چیزی که از OpenAI یا Midjourney ارائه می شود – بدون اشتراک اجرا می شود.

جامعه متن‌باز همیشه هیجان‌انگیز که Stable Diffusion را هدایت می‌کند، مجموعه‌ای چشمگیر از وزن‌دهی منتشرکننده جدید ایجاد کرده است که هر یک زیبایی‌شناسی خاصی را هدف قرار می‌دهند. Stable Diffusion صرفاً به سرعت هر چیزی که توسط یک شرکت تجاری هوش مصنوعی ارائه می شود نیست - هم مفیدتر و هم توسعه پذیرتر است.

و سپس - بله، درست حدس زدید - جهان دوباره تغییر کرد. در آغاز دسامبر، OpenAI GPT چت انتظارات ما برای هوش مصنوعی را به طور کامل بازنویسی کرد و به سریع ترین برنامه وب تبدیل شد که به 100 میلیون کاربر می رسد. یک مدل زبان بزرگ (LLM) که توسط یک "ترانسفورماتور از پیش آموزش دیده مولد" نیرو می گیرد - چند نفر از ما فراموش کرده ایم که GPT مخفف این است؟ - که وزن خود را بر روی حجم وسیعی از متن موجود در اینترنت آموزش داده است.

برآورد می شود که این تلاش آموزشی میلیون ها (احتمالاً ده ها میلیون) در منابع رایانش ابری Azure هزینه داشته باشد. انتظار می رفت که این هزینه ورود برای دور نگه داشتن رقبا کافی باشد - به جز گوگل و متا.

تا اینکه دوباره دنیا عوض شد. در ماه مارس، متا LLaMA را منتشر کرد – یک مدل زبان بسیار فشرده تر و کارآمدتر، با پایگاه داده نسبتاً کوچکی از وزن ها، در عین حال با کیفیت پاسخگویی به GPT-4 OpenAI.

با مدلی با تنها سی میلیارد پارامتر، LLaMA می تواند به راحتی در رایانه شخصی با 32 گیگابایت رم بنشیند. چیزی شبیه به ChatGPT - که به دلیل پایگاه داده عظیم وزن‌هایش روی Azure Cloud اجرا می‌شود - تقریباً در هر جایی قابل اجرا است.

محققان متا وزن خود را به همتایان دانشگاهی خود برای دانلود رایگان ارائه کردند. از آنجایی که LLaMA می توانست روی رایانه های آزمایشگاهی آنها اجرا شود، محققان در استنفورد بلافاصله LLaMA را از طریق تکنیک آموزشی جدید خود به نام بهبود دادند. آلپاکا-لوراکه هزینه آموزش یک مجموعه وزنی موجود را از صدها هزار دلار به چند صد دلار کاهش داد. آنها کد خود را نیز به اشتراک گذاشتند.

درست همانطور که DALL-E برای قابلیت استفاده و توسعه پذیری به Stable Diffusion باخت، ChatGPT نیز به نظر می رسد در حال شکست یک مسابقه دیگر است، زیرا محققان طیف وسیعی از مدل ها را تولید می کنند - مانند Alpaca، ویکونا, کوآلا، و یک باغبانی از دیگران - که به سرعت و کم هزینه آموزش می دهند و دوباره آموزش می بینند.

آنها خیلی سریعتر از چیزی که انتظار داشت در حال بهبود هستند. تا حدی به این دلیل است که آنها در حال آموزش روی بسیاری از "مکالمات" ChatGPT هستند که در سایت هایی مانند Reddit به اشتراک گذاشته شده است، و می توانند به خوبی روی اکثر رایانه های شخصی اجرا شوند. اگر یک کامپیوتر هیولا دارید، آنها واقعاً خوب کار می کنند.

ماشین‌هایی که فقط یک سال پیش نمی‌توانستیم استفاده از آن‌ها را تصور کنیم، هدف خود را یافته‌اند: آن‌ها در حال تبدیل شدن به نیروی کار همه وظایف مولد هوش مصنوعی ما هستند. آنها به ما کمک می کنند تا کدنویسی کنیم، برنامه ریزی کنیم، بنویسیم، ترسیم کنیم، مدل سازی کنیم، و خیلی چیزهای دیگر.

و ما برای کارکرد این ابزارهای جدید وابسته به اشتراک ها نخواهیم بود. Tt به نظر می رسد که منبع باز قبلاً از توسعه تجاری دیفیوزرها و ترانسفورماتورها پیشی گرفته است.

هوش مصنوعی منبع باز همچنین دلیل تکثیر رایانه شخصی را به ما یادآوری کرده است: با ایجاد امکان آوردن ابزارهایی به خانه که زمانی فقط در دفتر در دسترس بودند.

این درها را به روی تجارت نمی بندد. در هر صورت، به این معنی است که کارآفرینان فضای بیشتری برای ایجاد محصولات جدید دارند، بدون اینکه نگران این باشند که آیا آنها مدل‌های تجاری زیربنای Google، Microsoft، Meta یا هر شخص دیگری را نقض می‌کنند. ما به دورانی از اختلال فراگیر در فناوری وارد شده‌ایم - و به نظر نمی‌رسد اندازه مزایای زیادی به همراه داشته باشد.

هیولاها در حال رها شدن هستند. من فکر می کنم این چیز خوبی است. ®

تمبر زمان:

بیشتر از ثبت نام