ہاتھ پر بڑے پیمانے پر مشین لرننگ ٹریننگ کلسٹرز اور اے آئی پی سی کی تمام باتوں کے ساتھ آپ کو یہ سوچنے پر معاف کر دیا جائے گا کہ آپ کو گھر پر ٹیکسٹ اور کوڈ بنانے والے بڑے لینگویج ماڈلز (LLMs) کے ساتھ کھیلنے کے لیے کسی خاص ہارڈ ویئر کی ضرورت ہے۔
حقیقت میں، ایک اچھا موقع ہے کہ آپ جس ڈیسک ٹاپ سسٹم پر اسے پڑھ رہے ہیں۔ قابلیت سے زیادہ ایل ایل ایم کی ایک وسیع رینج کو چلانے کا، بشمول چیٹ بوٹس جیسے Mistral یا سورس کوڈ جنریٹرز جیسے Codellama۔
درحقیقت، Ollama، LM Suite، اور Llama.cpp جیسے کھلے عام دستیاب ٹولز کے ساتھ، ان ماڈلز کو آپ کے سسٹم پر چلانا نسبتاً آسان ہے۔
سادگی اور کراس پلیٹ فارم مطابقت کے مفاد میں، ہم اس پر غور کرنے جا رہے ہیں۔ علامہ، جو ایک بار انسٹال ہونے کے بعد ونڈوز، لینکس اور میکس میں کم و بیش ایک جیسا کام کرتا ہے۔
کارکردگی، مطابقت، اور AMD GPU سپورٹ پر ایک لفظ:
عام طور پر، Mistral یا Llama 2 جیسے بڑے لینگوئج ماڈلز سرشار ایکسلریٹر کے ساتھ بہترین چلتے ہیں۔ اس کی ایک وجہ ہے کہ ڈیٹا سینٹر آپریٹرز 10,000 یا اس سے زیادہ کے کلسٹرز میں GPUs خرید رہے ہیں اور تعینات کر رہے ہیں، حالانکہ آپ کو اس طرح کے وسائل کے سب سے بڑے حصے کی ضرورت ہوگی۔
اولاما Nvidia اور Apple کے M-series GPUs کے لیے مقامی مدد فراہم کرتا ہے۔ کم از کم 4GB میموری والے Nvidia GPUs کو کام کرنا چاہیے۔ ہم نے 12GB RTX 3060 کے ساتھ تجربہ کیا، حالانکہ ہم M-series Macs کے لیے کم از کم 16GB میموری کی تجویز کرتے ہیں۔
لینکس کے صارفین چاہیں گے کہ Nvidia کا جدید ترین ملکیتی ڈرائیور اور شاید CUDA بائنریز پہلے انسٹال ہوں۔ اسے ترتیب دینے کے بارے میں مزید معلومات موجود ہیں۔ یہاں.
اگر آپ Radeon 7000-series GPU یا اس سے جدید تر کر رہے ہیں، تو AMD کے پاس آپ کے سسٹم پر LLM چلانے کے بارے میں مکمل گائیڈ ہے، جسے آپ تلاش کر سکتے ہیں۔ یہاں.
اچھی خبر یہ ہے کہ، اگر آپ کے پاس تعاون یافتہ گرافکس کارڈ نہیں ہے، تو اولاما پھر بھی AVX2-مطابقت پذیر CPU پر چلے گا، حالانکہ اگر آپ کے پاس تعاون یافتہ GPU تھا تو اس سے بہت زیادہ سست ہے۔ اور جب کہ 16 جی بی میموری کی سفارش کی جاتی ہے، آپ کوانٹائزڈ ماڈل کا انتخاب کرکے کم کے ساتھ حاصل کرنے کے قابل ہوسکتے ہیں - اس پر ایک منٹ میں مزید۔
اولامہ کو انسٹال کرنا
آپ کے بنیادی آپریٹنگ سسٹم سے قطع نظر، اولاما کو انسٹال کرنا بالکل سیدھا ہے۔ یہ اوپن سورس ہے، جسے آپ چیک کر سکتے ہیں۔ یہاں.
ونڈوز یا میک او ایس چلانے والوں کے لیے، آگے بڑھیں۔ ollama.com اور کسی بھی دوسری ایپلی کیشن کی طرح اسے ڈاؤن لوڈ اور انسٹال کریں۔
لینکس چلانے والوں کے لیے، یہ اور بھی آسان ہے: بس اس ون لائنر کو چلائیں — آپ انسٹالیشن کی ہدایات دستی تلاش کر سکتے ہیں۔ یہاں، اگر آپ انہیں چاہتے ہیں - اور آپ ریس میں شامل ہیں۔
curl -fsSL https://ollama.com/install.sh | ایسیچ
اپنا پہلا ماڈل انسٹال کرنا
آپ کے آپریٹنگ سسٹم سے قطع نظر، Ollama کے ساتھ کام کرنا زیادہ تر ایک جیسا ہے۔ اولاما سے شروع کرنے کا مشورہ دیتے ہیں۔ لاما 2 7B، ایک سات بلین پیرامیٹر ٹرانسفارمر پر مبنی نیورل نیٹ ورک، لیکن اس گائیڈ کے لیے ہم اس پر ایک نظر ڈالیں گے۔ Mistral 7B چونکہ یہ کافی قابل ہے اور کچھ کا ذریعہ رہا ہے۔ تنازعات حالیہ ہفتوں میں.
پاور شیل یا ٹرمینل ایمولیٹر کھول کر اور ماڈل کو انٹرایکٹو چیٹ موڈ میں ڈاؤن لوڈ اور شروع کرنے کے لیے درج ذیل کمانڈ پر عمل کرکے شروع کریں۔
ollama رن mistral
ڈاؤن لوڈ کرنے پر، آپ کو ایک چیٹ پرامپٹ پر بھیج دیا جائے گا جہاں آپ ChatGPT، Copilot، یا Google Gemini کی طرح ماڈل کے ساتھ بات چیت شروع کر سکتے ہیں۔
ایل ایل ایمز، جیسے Mistral 7B، حیرت انگیز طور پر اس 2 سالہ M1 Max MacBook Pro پر چلتے ہیں - بڑا کرنے کے لیے کلک کریں
اگر آپ کو کچھ حاصل نہیں ہوتا ہے، تو آپ کو پہلے ونڈوز کے اسٹارٹ مینو یا میک پر ایپلیکیشنز فولڈر سے اولاما کو لانچ کرنے کی ضرورت پڑسکتی ہے۔
ماڈلز، ٹیگز، اور کوانٹائزیشن
Mistal 7B کئی LLMs میں سے ایک ہے، بشمول ماڈل کے دوسرے ورژن، جو Ollama کے استعمال سے قابل رسائی ہیں۔ آپ ہر ایک کو چلانے کے لیے ہدایات کے ساتھ مکمل فہرست تلاش کر سکتے ہیں۔ یہاں، لیکن عام نحو کچھ اس طرح ہے:
ollama run model-name:model-tag
ماڈل ٹیگز کا استعمال یہ بتانے کے لیے کیا جاتا ہے کہ آپ جس ماڈل کا ورژن ڈاؤن لوڈ کرنا چاہتے ہیں۔ اگر آپ اسے چھوڑ دیتے ہیں تو، اولاما فرض کریں کہ آپ کو تازہ ترین ورژن چاہیے۔ ہمارے تجربے میں، یہ ماڈل کا 4 بٹ کوانٹائزڈ ورژن ہوتا ہے۔
اگر، مثال کے طور پر، آپ FP2 پر Meta's Llama7 16B چلانا چاہتے ہیں، تو یہ اس طرح نظر آئے گا:
ollama run llama2:7b-chat-fp16
لیکن اس سے پہلے کہ آپ اسے آزمائیں، ہو سکتا ہے کہ آپ دوگنا چیک کرنا چاہیں کہ آپ کے سسٹم میں کافی میموری ہے۔ Mistral کے ساتھ ہماری پچھلی مثال نے 4 بٹ کوانٹائزیشن کا استعمال کیا، جس کا مطلب ہے کہ ماڈل کو ہر 1 بلین پیرامیٹرز کے لیے آدھی گیگا بائٹ میموری کی ضرورت ہے۔ اور مت بھولنا: اس کے سات ارب پیرامیٹرز ہیں۔
کوانٹائزیشن ایک تکنیک ہے جو ماڈل کو اس کے وزن اور ایکٹیویشن کو کم درستگی میں تبدیل کرکے کمپریس کرنے کے لیے استعمال کی جاتی ہے۔ یہ Mistral 7B کو GPU یا سسٹم RAM کے 4GB کے اندر چلنے کی اجازت دیتا ہے، عام طور پر آؤٹ پٹ کے معیار میں کم سے کم قربانی کے ساتھ، اگرچہ آپ کا مائلیج مختلف ہو سکتا ہے۔
اوپر استعمال شدہ Llama 2 7B مثال نصف درستگی (FP16) پر چلتی ہے۔ نتیجے کے طور پر، آپ کو فی بلین پیرامیٹرز کے لیے درحقیقت 2GB میموری کی ضرورت ہوگی، جو اس صورت میں صرف 14GB تک کام کرتی ہے۔ جب تک کہ آپ کے پاس 16GB یا اس سے زیادہ vRAM کے ساتھ ایک نیا GPU نہیں ہے، ہو سکتا ہے آپ کے پاس اتنے وسائل نہ ہوں کہ ماڈل کو اس درستگی سے چلا سکیں۔
اولاما کا انتظام
Ollama کا استعمال کرتے ہوئے انسٹال کردہ ماڈلز کا نظم و نسق، اپ ڈیٹ کرنا اور ہٹانا کسی بھی شخص کے لیے گھر میں ٹھیک محسوس کرنا چاہیے جس نے پہلے Docker CLI جیسی چیزیں استعمال کی ہوں۔
اس سیکشن میں ہم چند عام کاموں کو دیکھیں گے جنہیں آپ انجام دینا چاہتے ہیں۔
انسٹال کردہ ماڈلز کی فہرست حاصل کرنے کے لیے چلائیں:
ollama فہرست
ماڈل کو ہٹانے کے لیے، آپ چلائیں گے:
ollama rm ماڈل کا نام: ماڈل ٹیگ
موجودہ ماڈل کو کھینچنے یا اپ ڈیٹ کرنے کے لیے، چلائیں:
اولاما پل ماڈل کا نام: ماڈل ٹیگ
اضافی اولاما کمانڈز کو چلا کر پایا جا سکتا ہے:
ollama -- مدد
جیسا کہ ہم نے پہلے نوٹ کیا، اولاما مقامی LLMs کو چلانے اور جانچنے کے لیے بہت سے فریم ورکس میں سے ایک ہے۔ اگر آپ اس کے ساتھ مصیبت میں بھاگتے ہیں، تو آپ کو دوسروں کے ساتھ زیادہ قسمت مل سکتی ہے۔ اور نہیں، ایک AI نے یہ نہیں لکھا۔
رجسٹر مستقبل قریب میں آپ کو LLMs کے استعمال کے بارے میں مزید معلومات فراہم کرنے کا مقصد ہے، لہذا تبصرے کے سیکشن میں اپنے AI PC سوالات کو ضرور شیئر کریں۔ اور مت بھولنا سپلائی چین سیکورٹی. ۔
- SEO سے چلنے والا مواد اور PR کی تقسیم۔ آج ہی بڑھا دیں۔
- پلیٹو ڈیٹا ڈاٹ نیٹ ورک ورٹیکل جنریٹو اے آئی۔ اپنے آپ کو بااختیار بنائیں۔ یہاں تک رسائی حاصل کریں۔
- پلیٹوآئ اسٹریم۔ ویب 3 انٹیلی جنس۔ علم میں اضافہ۔ یہاں تک رسائی حاصل کریں۔
- پلیٹو ای ایس جی۔ کاربن، کلین ٹیک، توانائی ، ماحولیات، شمسی، ویسٹ مینجمنٹ یہاں تک رسائی حاصل کریں۔
- پلیٹو ہیلتھ۔ بائیوٹیک اینڈ کلینیکل ٹرائلز انٹیلی جنس۔ یہاں تک رسائی حاصل کریں۔
- ماخذ: https://go.theregister.com/feed/www.theregister.com/2024/03/17/ai_pc_local_llm/
- : ہے
- : ہے
- : نہیں
- :کہاں
- $UP
- 000
- 1
- 10
- a
- قابلیت
- ہمارے بارے میں
- اوپر
- ایکسلریٹر
- قابل رسائی
- کے پار
- ایکٹیویشنز
- اصل میں
- AI
- مقصد ہے
- تمام
- کی اجازت دیتا ہے
- ساتھ
- اگرچہ
- AMD
- an
- اور
- کوئی بھی
- کسی
- کچھ
- درخواست
- ایپلی کیشنز
- کیا
- AS
- فرض کرو
- At
- دستیاب
- بیس
- BE
- رہا
- اس سے پہلے
- BEST
- ارب
- سرحد
- خودکار صارف دکھا ئیں
- لانے
- جل
- لیکن
- خرید
- by
- کر سکتے ہیں
- صلاحیت رکھتا
- کارڈ
- کیس
- چین
- موقع
- چیٹ
- چیٹ جی پی ٹی
- چیک کریں
- cli
- کلک کریں
- CO
- کوڈ
- تبصروں
- کامن
- مطابقت
- تبدیل کرنا
- ڈیٹا سنٹر
- وقف
- تعینات
- ڈیسک ٹاپ
- DID
- میں Docker
- ڈان
- نہیں
- دوگنا
- ڈاؤن لوڈ، اتارنا
- ڈرائیور
- گرا دیا
- ہر ایک
- اس سے قبل
- آسان
- کافی
- بھی
- ہر کوئی
- مثال کے طور پر
- عملدرآمد
- پھانسی
- موجودہ
- تجربہ
- حقیقت یہ ہے
- محسوس
- چند
- مل
- پہلا
- کے بعد
- کے لئے
- آگے
- ملا
- کسر
- فریم ورک
- سے
- مکمل
- مستقبل
- جیمنی
- جنرل
- جنریٹر
- حاصل
- حاصل کرنے
- GIF
- Go
- جاتا ہے
- جا
- اچھا
- گوگل
- ملا
- GPU
- GPUs
- گرافکس
- رہنمائی
- تھا
- نصف
- ہارڈ ویئر
- ہے
- سر
- ہوم پیج (-)
- کس طرح
- کیسے
- HTTPS
- if
- in
- سمیت
- معلومات
- انسٹال
- تنصیب
- نصب
- ہدایات
- بات چیت
- انٹرایکٹو
- دلچسپی
- IT
- میں
- صرف
- صرف ایک
- بچے
- لیبل
- زبان
- بڑے
- بڑے پیمانے پر
- تازہ ترین
- شروع
- کم سے کم
- چھوڑ دو
- کم
- کی طرح
- لینکس
- لسٹ
- ll
- لاما
- ایل ایل ایم
- مقامی
- مقامی طور پر
- دیکھو
- کی طرح دیکھو
- تلاش
- بہت
- کم
- قسمت
- میک
- دستی
- بہت سے
- بڑے پیمانے پر
- میکس
- مئی..
- کا مطلب ہے کہ
- یاد داشت
- مینو
- شاید
- کم سے کم
- منٹ
- منٹ
- موڈ
- ماڈل
- ماڈل
- زیادہ
- مقامی
- قریب
- ضرورت ہے
- ضروریات
- نیٹ ورک
- عصبی
- عصبی نیٹ ورک
- نیا
- خبر
- نہیں
- کا کہنا
- NVIDIA
- of
- بند
- تجویز
- on
- ایک بار
- ایک
- کھول
- اوپن سورس
- کھولنے
- کھل کر
- کام
- آپریٹنگ سسٹم
- آپریٹرز
- or
- OS
- دیگر
- دیگر
- ہمارے
- باہر
- پیداوار
- پر
- پیرامیٹرز
- PC
- پی سی
- فی
- کارکردگی
- پلاٹا
- افلاطون ڈیٹا انٹیلی جنس
- پلیٹو ڈیٹا
- کھیلیں
- پاورشیل
- صحت سے متعلق
- خوبصورت
- پچھلا
- فی
- شاید
- ملکیت
- معیار
- سوالات
- ریس
- RAM
- رینج
- پڑھنا
- حقیقت
- وجہ
- حال ہی میں
- سفارش
- سفارش کی
- تجویز ہے
- بے شک
- نسبتا
- ہٹا
- کو ہٹانے کے
- وسائل
- نتیجہ
- ٹھیک ہے
- آر ٹی ایکس
- RTX 3060
- رن
- چل رہا ہے
- چلتا ہے
- s
- قربان
- اسی
- سیکشن
- قائم کرنے
- سات
- کئی
- سیکنڈ اور
- ہونا چاہئے
- سادہ
- سادگی
- بعد
- So
- کچھ
- کچھ
- ماخذ
- ماخذ کوڈ
- خصوصی
- شروع کریں
- شروع
- ابھی تک
- براہ راست
- اس طرح
- سویٹ
- حمایت
- تائید
- اس بات کا یقین
- حیرت کی بات ہے
- نحو
- کے نظام
- لینے
- بات
- کاموں
- تکنیک
- رجحان
- ٹرمنل
- تجربہ
- ٹیسٹنگ
- سے
- کہ
- ۔
- ماخذ
- ان
- وہاں.
- یہ
- چیزیں
- سوچنا
- اس
- ان
- اگرچہ؟
- کرنے کے لئے
- اوزار
- ٹریننگ
- مصیبت
- کوشش
- جب تک کہ
- اپ ڈیٹ کریں
- اپ ڈیٹ
- استعمال کیا جاتا ہے
- صارفین
- کا استعمال کرتے ہوئے
- عام طور پر
- استعمال کرنا۔
- مختلف
- ورژن
- ورژن
- چاہتے ہیں
- چاہتے تھے
- we
- مہینے
- اچھا ہے
- جس
- جبکہ
- پوری
- وسیع
- وسیع رینج
- گے
- کھڑکیاں
- ساتھ
- کے اندر
- لفظ
- کام
- کام کر
- کام کرتا ہے
- لکھنا
- تم
- اور
- زیفیرنیٹ