تعارف
یہ گائیڈ سپورٹ ویکٹر مشینوں (SVMs) کے بارے میں تین گائیڈز کا تیسرا اور آخری حصہ ہے۔ اس گائیڈ میں، ہم جعلی بینک نوٹوں کے استعمال کے کیس کے ساتھ کام کرتے رہیں گے، SVMs کے پیچھے عام خیال کے بارے میں ایک فوری جائزہ لیں گے، سمجھیں گے کہ کرنل کی چال کیا ہے، اور Scikit-Learn کے ساتھ مختلف قسم کے نان لکیری کرنل کو لاگو کریں گے۔
SVM گائیڈز کی مکمل سیریز میں، SVM کی دیگر اقسام کے بارے میں سیکھنے کے علاوہ، آپ سادہ SVM، SVM پہلے سے طے شدہ پیرامیٹرز، C اور Gamma hyperparameters کے بارے میں بھی سیکھیں گے اور یہ بھی سیکھیں گے کہ انہیں گرڈ سرچ اور کراس توثیق کے ساتھ کیسے بنایا جا سکتا ہے۔
اگر آپ پچھلی گائیڈز کو پڑھنا چاہتے ہیں، تو آپ پہلے دو گائیڈز پر ایک نظر ڈال سکتے ہیں یا دیکھ سکتے ہیں کہ آپ کو کون سے عنوانات میں سب سے زیادہ دلچسپی ہے۔ ذیل میں ہر گائیڈ میں شامل عنوانات کا جدول ہے:
- کیس استعمال کریں: بینک نوٹ بھول جائیں۔
- SVMs کا پس منظر
- سادہ (لکیری) SVM ماڈل
- ڈیٹا سیٹ کے بارے میں
- ڈیٹاسیٹ درآمد کرنا
- ڈیٹا سیٹ کی تلاش
- Scikit-Learn کے ساتھ SVM کو نافذ کرنا
- ڈیٹا کو ٹرین/ٹیسٹ سیٹ میں تقسیم کرنا
- ماڈل کی تربیت
- پیش گوئیاں کرنا
- ماڈل کا اندازہ لگانا
- نتائج کی ترجمانی کرنا
- سی ہائپر پیرامیٹر
- گاما ہائپر پیرامیٹر
3. Python's Scikit-Learn کے ساتھ دیگر SVM ذائقوں کو نافذ کرنا
- SVMs کا عمومی خیال (ایک خلاصہ)
- دانا (ٹرک) SVM
- Scikit-Learn کے ساتھ Non-Linear Kernel SVM کو نافذ کرنا
- لائبریریاں درآمد کرنا
- ڈیٹاسیٹ درآمد کرنا
- ڈیٹا کو فیچرز (X) اور ہدف (y) میں تقسیم کرنا
- ڈیٹا کو ٹرین/ٹیسٹ سیٹ میں تقسیم کرنا
- الگورتھم کی تربیت
- متعدد دانا
- پیش گوئیاں کرنا
- الگورتھم کا اندازہ لگانا
- گاوسی دانا
- پیشن گوئی اور تشخیص
- سگمائیڈ دانا
- پیشن گوئی اور تشخیص
- غیر لکیری دانا کی کارکردگی کا موازنہ
آئیے یاد رکھیں کہ SVM کے بارے میں کچھ دلچسپ SVM کرنل تغیرات دیکھنے سے پہلے کیا ہے۔
SVMs کا عمومی خیال
دو جہتوں میں لکیری طور پر الگ ہونے والے ڈیٹا کی صورت میں (جیسا کہ تصویر 1 میں دکھایا گیا ہے) عام مشین لرننگ الگورتھم کا طریقہ یہ ہوگا کہ ایک حد تلاش کرنے کی کوشش کی جائے جو ڈیٹا کو اس طرح تقسیم کرے کہ غلط درجہ بندی کی غلطی کو کم سے کم کیا جائے۔ اگر آپ اعداد و شمار 1 کو قریب سے دیکھیں تو دیکھیں کہ کئی حدود (لامحدود) ہوسکتی ہیں جو ڈیٹا پوائنٹس کو صحیح طریقے سے تقسیم کرتی ہیں۔ دو ڈیشڈ لائنوں کے ساتھ ساتھ ٹھوس لائن ڈیٹا کی تمام درست درجہ بندی ہیں۔
تصویر 1: ایک سے زیادہ فیصلے کی حدود
جب SVM منتخب کرتا ہے۔ فیصلہ کی حد، یہ ایک ایسی باؤنڈری کا انتخاب کرتا ہے جو اپنے اور کلاسز کے قریب ترین ڈیٹا پوائنٹس کے درمیان فاصلے کو زیادہ سے زیادہ کرتا ہے۔ ہم پہلے ہی جانتے ہیں کہ قریب ترین ڈیٹا پوائنٹس سپورٹ ویکٹر ہیں اور یہ کہ فاصلہ دونوں کے ذریعے پیرامیٹرائز کیا جا سکتا ہے۔ C
اور gamma
hyperparameters
اس فیصلے کی حد کا حساب لگاتے ہوئے، الگورتھم منتخب کرتا ہے کہ کتنے نکات پر غور کرنا ہے اور مارجن کتنی دور جا سکتا ہے - یہ مارجن کو زیادہ سے زیادہ کرنے کا مسئلہ تشکیل دیتا ہے۔ مارجن کو زیادہ سے زیادہ کرنے کے اس مسئلے کو حل کرنے کے لیے، SVM سپورٹ ویکٹرز کا استعمال کرتا ہے (جیسا کہ تصویر 2 میں دیکھا گیا ہے) اور یہ جاننے کی کوشش کرتا ہے کہ کون سی بہترین قدریں ہیں جو مارجن کے فاصلے کو بڑا رکھتی ہیں، جبکہ مزید پوائنٹس کو اس فنکشن کے مطابق درست طریقے سے درجہ بندی کرتا ہے جو استعمال کیا جا رہا ہے۔ ڈیٹا کو الگ کریں.
تصویر 2: سپورٹ ویکٹر کے ساتھ فیصلہ کی حد
یہی وجہ ہے کہ SVM دوسرے درجہ بندی کے الگورتھم سے مختلف ہے، ایک بار جب یہ محض فیصلہ کی حد نہیں ڈھونڈتا ہے، بلکہ یہ فیصلہ کرنے کی بہترین حد تلاش کرتا ہے۔
اعداد و شمار اور کمپیوٹیشنل طریقوں سے اخذ کردہ پیچیدہ ریاضی ہے جو سپورٹ ویکٹرز کو تلاش کرنے، فیصلے کی حد اور سپورٹ ویکٹر کے درمیان مارجن کا حساب لگانا، اور اس مارجن کو زیادہ سے زیادہ کرنے کے پیچھے شامل ہے۔ اس بار، ہم اس کی تفصیلات میں نہیں جائیں گے کہ ریاضی کیسے چلتی ہے۔
گہرائی میں غوطہ لگانا اور اس بات کو یقینی بنانا ہمیشہ اہم ہوتا ہے کہ مشین لرننگ الگورتھم کسی قسم کے پراسرار جادو نہیں ہیں، حالانکہ اس وقت ریاضی کی ہر تفصیل کو نہ جاننا آپ کو الگورتھم پر عمل کرنے اور نتائج حاصل کرنے کے قابل ہونے سے نہیں روکے گا اور نہ ہی روکے گا۔
مشورہ: اب جب کہ ہم نے الگورتھمک عمل کا دوبارہ جائزہ لیا ہے، یہ واضح ہے کہ ڈیٹا پوائنٹس کے درمیان فاصلہ SVM کے منتخب کردہ فیصلے کی حد کو متاثر کرے گا، اس کی وجہ سے، ڈیٹا کی پیمائش SVM درجہ بندی استعمال کرتے وقت عام طور پر ضروری ہوتا ہے۔ استعمال کرنے کی کوشش کریں۔ Scikit-learn کا معیاری اسکیلر طریقہ ڈیٹا تیار کرنے کے لیے، اور پھر کوڈز کو دوبارہ چلانے کے لیے یہ دیکھنے کے لیے کہ آیا نتائج میں کوئی فرق ہے۔
دانا (ٹرک) SVM
پچھلے حصے میں، ہم نے SVM کے عمومی خیال کو یاد کیا اور اسے منظم کیا ہے - یہ دیکھتے ہوئے کہ اسے لکیری طور پر الگ کیے جانے والے ڈیٹا کے لیے بہترین فیصلہ کی حد تلاش کرنے کے لیے کیسے استعمال کیا جا سکتا ہے۔ تاہم، غیر لکیری طور پر الگ ہونے والے ڈیٹا کی صورت میں، جیسا کہ تصویر 3 میں دکھایا گیا ہے، ہم پہلے ہی جانتے ہیں کہ سیدھی لکیر کو فیصلہ کی حد کے طور پر استعمال نہیں کیا جا سکتا۔
تصویر 3: غیر خطی طور پر الگ ہونے والا ڈیٹا
بلکہ، ہم SVM کا ترمیم شدہ ورژن استعمال کر سکتے ہیں جس پر ہم نے شروع میں بحث کی تھی، جسے Kernel SVM کہتے ہیں۔
بنیادی طور پر، کرنل SVM جو کرے گا وہ یہ ہے کہ نچلے جہتوں کے غیر لکیری طور پر الگ ہونے والے ڈیٹا کو اعلیٰ جہتوں میں اس کی متعلقہ شکل میں پیش کیا جائے۔ یہ ایک چال ہے، کیونکہ جب غیر خطی طور پر الگ ہونے والے ڈیٹا کو اعلیٰ جہتوں میں پیش کیا جاتا ہے، تو ڈیٹا کی شکل اس طرح بدل جاتی ہے کہ یہ الگ ہونے والا بن جاتا ہے۔ مثال کے طور پر، جب 3 ڈائمینشنز کے بارے میں سوچتے ہیں، تو ہر کلاس کے ڈیٹا پوائنٹس کو ایک مختلف ڈائمینشن میں مختص کیا جا سکتا ہے، جس سے اسے الگ کیا جا سکتا ہے۔ ڈیٹا کے طول و عرض کو بڑھانے کا ایک طریقہ اس کی وضاحت کے ذریعے ہو سکتا ہے۔ ایک بار پھر، اس میں پیچیدہ ریاضی شامل ہے، لیکن SVM استعمال کرنے کے لیے آپ کو اس کے بارے میں فکر کرنے کی ضرورت نہیں ہے۔ بلکہ، ہم Python کی Scikit-Learn لائبریری کو استعمال کر سکتے ہیں اور غیر لکیری کرنل کو اسی طرح استعمال کر سکتے ہیں جس طرح ہم نے لکیری کو استعمال کیا ہے۔
Scikit-Learn کے ساتھ Non-Linear Kernel SVM کو نافذ کرنا
اس سیکشن میں، ہم اسی ڈیٹاسیٹ کا استعمال کرتے ہوئے یہ اندازہ لگائیں گے کہ آیا کوئی بینک نوٹ اصلی ہے یا جعلی چار خصوصیات کے مطابق جو ہم پہلے سے جانتے ہیں۔
آپ دیکھیں گے کہ باقی اقدامات مشین سیکھنے کے مخصوص مراحل ہیں اور جب تک ہم اس حصے تک نہیں پہنچ جاتے جہاں ہم اپنے غیر لکیری کرنل SVMs کو تربیت دیتے ہیں، بہت کم وضاحت کی ضرورت ہوتی ہے۔
لائبریریاں درآمد کرنا
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
import seaborn as sns
from sklearn.model_selection import train_test_split
ڈیٹاسیٹ درآمد کرنا
data_link = "https://archive.ics.uci.edu/ml/machine-learning-databases/00267/data_banknote_authentication.txt"
col_names = ["variance", "skewness", "curtosis", "entropy", "class"] bankdata = pd.read_csv(data_link, names=col_names, sep=",", header=None)
bankdata.head()mes)
ڈیٹا کو فیچرز (X) اور ہدف (y) میں تقسیم کرنا
X = bankdata.drop('class', axis=1)
y = bankdata['class']
ڈیٹا کو ٹرین/ٹیسٹ سیٹ میں تقسیم کرنا
SEED = 42 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.20, random_state = SEED)
الگورتھم کی تربیت
کرنل SVM کو تربیت دینے کے لیے، ہم اسی کو استعمال کریں گے۔ SVC
Scikit-Learn's کی کلاس svm
کتب خانہ. فرق کے کرنل پیرامیٹر کی قدر میں ہے۔ SVC
کلاس.
سادہ ایس وی ایم کے معاملے میں ہم نے کرنل پیرامیٹر کی قدر کے طور پر "لینیئر" کا استعمال کیا ہے۔ تاہم، جیسا کہ ہم نے پہلے ذکر کیا ہے، دانا SVM کے لیے، ہم Gaussian، polynomial، sigmoid، یا computable kernels استعمال کر سکتے ہیں۔ ہم کثیر الثانی، گاوسی، اور سگمائیڈ کرنل کو لاگو کریں گے اور اس کے آخری میٹرکس کو دیکھیں گے تاکہ یہ معلوم ہو سکے کہ کون سی ہماری کلاسوں میں زیادہ میٹرک کے ساتھ فٹ ہوتی ہے۔
1. متعدد دانا
الجبرا میں، ایک کثیر الجہتی شکل کا اظہار ہے:
$$
2a*b^3 + 4a – 9
$$
اس میں متغیرات ہیں، جیسے a
اور b
, constants، ہماری مثال میں، 9
اور گتانک (متغیرات کے ساتھ مستقل)، جیسے 2
اور 4
. 3
کثیر الثانی کی ڈگری سمجھا جاتا ہے۔
اعداد و شمار کی ایسی قسمیں ہیں جن کو ایک کثیر نامی فنکشن کا استعمال کرتے وقت بہترین طور پر بیان کیا جا سکتا ہے، یہاں، دانا ہمارے ڈیٹا کو ایک کثیر نام پر نقشہ بنائے گا جس کے لیے ہم ڈگری کا انتخاب کریں گے۔ ڈگری جتنی زیادہ ہوگی، فنکشن اتنا ہی زیادہ ڈیٹا کے قریب جانے کی کوشش کرے گا، اس لیے فیصلہ کی حد زیادہ لچکدار ہوتی ہے (اور زیادہ فٹ ہونے کا زیادہ خطرہ) – ڈگری جتنی کم ہوگی، کم از کم لچکدار ہوگی۔
بہترین طرز عمل، صنعت کے لیے منظور شدہ معیارات، اور چیٹ شیٹ کے ساتھ Git سیکھنے کے لیے ہمارے ہینڈ آن، عملی گائیڈ کو دیکھیں۔ گوگلنگ گٹ کمانڈز کو روکیں اور اصل میں سیکھ یہ!
لہذا، لاگو کرنے کے لئے کثیر الثانی داناکو منتخب کرنے کے علاوہ poly
kernel، ہم اس کے لیے ایک قدر بھی پاس کریں گے۔ degree
کے پیرامیٹر SVC
کلاس ذیل میں کوڈ ہے:
from sklearn.svm import SVC
svc_poly = SVC(kernel='poly', degree=8)
svc_poly.fit(X_train, y_train)
پیش گوئیاں کرنا
اب، ایک بار جب ہم الگورتھم کو تربیت دے چکے ہیں، اگلا مرحلہ ٹیسٹ ڈیٹا پر پیشین گوئیاں کرنا ہے۔
جیسا کہ ہم پہلے کر چکے ہیں، ہم ایسا کرنے کے لیے درج ذیل اسکرپٹ پر عمل کر سکتے ہیں:
y_pred_poly = svclassifier.predict(X_test)
الگورتھم کا اندازہ لگانا
ہمیشہ کی طرح، آخری مرحلہ کثیر الثانی دانا پر تشخیص کرنا ہے۔ چونکہ ہم نے درجہ بندی کی رپورٹ اور کنفیوژن میٹرکس کے کوڈ کو چند بار دہرایا ہے، آئیے اسے ایک فنکشن میں تبدیل کریں جو display_results
متعلقہ وصول کرنے کے بعد y_test
, y_pred
اور Seaborn کے کنفیوژن میٹرکس کے ساتھ عنوان cm_title
:
def display_results(y_test, y_pred, cm_title): cm = confusion_matrix(y_test,y_pred) sns.heatmap(cm, annot=True, fmt='d').set_title(cm_title) print(classification_report(y_test,y_pred))
اب، ہم فنکشن کو کال کر سکتے ہیں اور polynomial kernel کے ساتھ حاصل کردہ نتائج کو دیکھ سکتے ہیں:
cm_title_poly = "Confusion matrix with polynomial kernel"
display_results(y_test, y_pred_poly, cm_title_poly)
آؤٹ پٹ اس طرح لگتا ہے:
precision recall f1-score support 0 0.69 1.00 0.81 148 1 1.00 0.46 0.63 127 accuracy 0.75 275 macro avg 0.84 0.73 0.72 275
weighted avg 0.83 0.75 0.73 275
اب ہم گاوسی اور سگمائیڈ کرنل کے لیے انہی اقدامات کو دہرا سکتے ہیں۔
2. گاوسی دانا
گاوسی کرنل کو استعمال کرنے کے لیے، ہمیں صرف 'rbf' کی قدر کے طور پر وضاحت کرنے کی ضرورت ہے۔ kernel
SVC کلاس کا پیرامیٹر:
svc_gaussian = SVC(kernel='rbf', degree=8)
svc_gaussian.fit(X_train, y_train)
اس دانا کو مزید دریافت کرتے وقت، آپ اسے مختلف کے ساتھ جوڑنے کے لیے گرڈ سرچ بھی استعمال کر سکتے ہیں۔ C
اور gamma
اقدار
پیشن گوئی اور تشخیص
y_pred_gaussian = svc_gaussian.predict(X_test)
cm_title_gaussian = "Confusion matrix with Gaussian kernel"
display_results(y_test, y_pred_gaussian, cm_title_gaussian)
Gaussian کرنل SVM کا آؤٹ پٹ اس طرح لگتا ہے:
precision recall f1-score support 0 1.00 1.00 1.00 148 1 1.00 1.00 1.00 127 accuracy 1.00 275 macro avg 1.00 1.00 1.00 275
weighted avg 1.00 1.00 1.00 275
3. سگمائیڈ کرنل
آخر میں، کرنل SVM کو لاگو کرنے کے لیے ایک سگمائڈ کرنل استعمال کریں۔ درج ذیل اسکرپٹ پر ایک نظر ڈالیں:
svc_sigmoid = SVC(kernel='sigmoid')
svc_sigmoid.fit(X_train, y_train)
سگمائڈ کرنل استعمال کرنے کے لیے، آپ کو 'sigmoid' کی قدر کے طور پر وضاحت کرنی ہوگی۔ kernel
کے پیرامیٹر SVC
کلاس.
پیشن گوئی اور تشخیص
y_pred_sigmoid = svc_sigmoid.predict(X_test)
cm_title_sigmoid = "Confusion matrix with Sigmoid kernel"
display_results(y_test, y_pred_sigmoid, cm_title_sigmoid)
Sigmoid کرنل کے ساتھ Kernel SVM کا آؤٹ پٹ اس طرح لگتا ہے:
precision recall f1-score support 0 0.67 0.71 0.69 148 1 0.64 0.59 0.61 127 accuracy 0.65 275 macro avg 0.65 0.65 0.65 275
weighted avg 0.65 0.65 0.65 275
غیر لکیری دانا کی کارکردگی کا موازنہ
اگر ہم مختلف قسم کے نان لکیری دانا کی کارکردگی کا مختصراً موازنہ کریں، تو ایسا لگتا ہے کہ سگمائیڈ کرنل میں سب سے کم میٹرکس ہیں، اس لیے سب سے خراب کارکردگی۔
Gaussian اور polynomial kernels کے درمیان، ہم دیکھ سکتے ہیں کہ Gaussian kernel نے 100% پیشین گوئی کی کامل شرح حاصل کی ہے - جو کہ عام طور پر مشتبہ ہوتا ہے اور یہ زیادہ فٹ ہونے کی نشاندہی کر سکتا ہے، جبکہ کثیر الثانی دانا نے کلاس 68 کی 1 مثالوں کو غلط درجہ بندی کیا ہے۔
لہذا، کوئی سخت اور تیز قاعدہ نہیں ہے کہ کون سا دانا ہر منظر نامے میں یا ہمارے موجودہ منظر نامے میں ہائپر پیرامیٹر کی مزید تلاش کیے بغیر، ہر فنکشن کی شکل کے بارے میں سمجھے، ڈیٹا کو تلاش کیے، اور ٹرین اور ٹیسٹ کے نتائج کا موازنہ کیے بغیر یہ دیکھنے کے لیے بہترین کارکردگی کا مظاہرہ کرتا ہے کہ آیا الگورتھم عام کر رہا ہے.
یہ تمام دانا کی جانچ کرنے اور پیرامیٹرز اور ڈیٹا کی تیاری کے امتزاج کے ساتھ ایک کو منتخب کرنے کے بارے میں ہے جو آپ کے پروجیکٹ کے سیاق و سباق کے مطابق متوقع نتائج دیتے ہیں۔
مزید جانا - ہاتھ سے پکڑے گئے اینڈ ٹو اینڈ پروجیکٹ
آپ کی جستجو کرنے والی فطرت آپ کو مزید آگے بڑھنا چاہتی ہے؟ ہم اپنے کو چیک کرنے کی تجویز کرتے ہیں۔ گائیڈڈ پروجیکٹ: "ہینڈ آن ہاؤس پرائس کی پیشن گوئی - Python میں مشین لرننگ".
اس گائیڈڈ پروجیکٹ میں - آپ سیکھیں گے کہ طاقتور روایتی مشین لرننگ ماڈلز کے ساتھ ساتھ ڈیپ لرننگ ماڈلز بنانے کا طریقہ، Ensemble لرننگ اور میٹا لرنرز کو تربیت دینے کا طریقہ Scikit-Learn اور Keras ماڈلز کے بیگ سے گھر کی قیمتوں کا اندازہ لگانے کے لیے استعمال کریں۔
Keras کا استعمال کرتے ہوئے، Tensorflow کے اوپر بنایا گیا گہری سیکھنے والا API، ہم فن تعمیر کے ساتھ تجربہ کریں گے، اسٹیک شدہ ماڈلز کا ایک جوڑا بنائیں گے اور ایک میٹا لرنر نیورل نیٹ ورک (سطح 1 ماڈل) گھر کی قیمت کا تعین کرنے کے لیے۔
گہرائی سے سیکھنا حیرت انگیز ہے - لیکن اس کا سہارا لینے سے پہلے، یہ مشورہ دیا جاتا ہے کہ اس مسئلے کو آسان تراکیب کے ساتھ حل کرنے کی بھی کوشش کریں، جیسے کہ اتلی سیکھنے الگورتھم ہماری بنیادی کارکردگی a پر مبنی ہوگی۔ رینڈم فارسٹ ریگریشن الگورتھم مزید برآں - ہم Scikit-Learn کے ذریعے تکنیکوں کے ذریعے ماڈلز کے جوڑ بنانے کی تلاش کریں گے جیسے بیگنگ اور ووٹنگ.
یہ اینڈ ٹو اینڈ پراجیکٹ ہے، اور مشین لرننگ کے تمام پروجیکٹس کی طرح، ہم شروع کریں گے - کے ساتھ تحقیقی ڈیٹا کا تجزیہاس کے بعد ڈیٹا پروپوزل کی گذارش اور آخر میں اتلی عمارت اور گہری سیکھنے کے ماڈل اس ڈیٹا کو فٹ کرنے کے لیے جو ہم نے پہلے دریافت اور صاف کیا ہے۔
نتیجہ
اس آرٹیکل میں ہم نے SVMs پر ایک فوری ریکپ بنایا، کرنل ٹرِک کے بارے میں مطالعہ کیا اور غیر لکیری SVMs کے مختلف ذائقوں کو لاگو کیا۔
میرا مشورہ ہے کہ آپ ہر دانا کو لاگو کریں اور آگے بڑھتے رہیں۔ آپ مختلف داناوں میں سے ہر ایک کو بنانے کے لیے استعمال ہونے والی ریاضی کو تلاش کر سکتے ہیں، وہ کیوں بنائے گئے تھے اور ان کے ہائپر پیرامیٹر سے متعلق اختلافات۔ اس طرح، آپ تکنیکوں کے بارے میں جانیں گے اور سیاق و سباق اور دستیاب ڈیٹا کے لحاظ سے کس قسم کا دانا استعمال کرنا بہتر ہے۔
ہر دانا کس طرح کام کرتا ہے اور انہیں کب استعمال کرنا ہے اس کی واضح سمجھ رکھنا یقینی طور پر آپ کے سفر میں مددگار ثابت ہوگا۔ ہمیں بتائیں کہ پیشرفت کیسی جا رہی ہے اور خوشی کوڈنگ!
- SEO سے چلنے والا مواد اور PR کی تقسیم۔ آج ہی بڑھا دیں۔
- پلیٹو بلاک چین۔ Web3 Metaverse Intelligence. علم میں اضافہ۔ یہاں تک رسائی حاصل کریں۔
- ایڈریین ایشلے کے ساتھ مستقبل کا نقشہ بنانا۔ یہاں تک رسائی حاصل کریں۔
- ماخذ: https://stackabuse.com/implementing-other-svm-flavors-with-pythons-scikit-learn/
- : ہے
- : ہے
- : نہیں
- :کہاں
- $UP
- 1
- 20
- 67
- 8
- 84
- a
- قابلیت
- ہمارے بارے میں
- اس کے بارے میں
- کے مطابق
- درستگی
- حاصل کیا
- اصل میں
- اس کے علاوہ
- پر اثر انداز
- کے بعد
- انتباہ
- یلگورتم
- الگورتھم
- یلگوردمز
- تمام
- مختص
- پہلے ہی
- بھی
- اگرچہ
- ہمیشہ
- حیرت انگیز
- an
- اور
- اے پی آئی
- کا اطلاق کریں
- نقطہ نظر
- کیا
- مضمون
- AS
- At
- دستیاب
- بیگ
- بینک
- کی بنیاد پر
- بیس لائن
- BE
- کیونکہ
- ہو جاتا ہے
- اس سے پہلے
- شروع
- پیچھے
- کیا جا رہا ہے
- نیچے
- BEST
- کے درمیان
- بڑا
- سرحد
- دونوں
- حدود
- مختصر
- تعمیر
- تعمیر
- لیکن
- by
- حساب
- فون
- کہا جاتا ہے
- کر سکتے ہیں
- نہیں کر سکتے ہیں
- کیس
- تبدیلیاں
- جانچ پڑتال
- میں سے انتخاب کریں
- منتخب کریں
- طبقے
- کلاس
- درجہ بندی
- واضح
- قریب سے
- قریب
- کوڈ
- مجموعہ
- جمع
- موازنہ
- موازنہ
- مکمل
- پیچیدہ
- اختتام
- الجھن
- غور کریں
- سمجھا
- سیاق و سباق
- اسی کے مطابق
- سکتا ہے
- احاطہ کرتا ہے
- تخلیق
- بنائی
- تخلیق
- پار
- موجودہ
- اعداد و شمار
- ڈیٹا پوائنٹس
- ڈیٹا کی تیاری
- فیصلہ
- گہری
- گہری سیکھنے
- گہرے
- ضرور
- ڈگری
- منحصر ہے
- اخذ کردہ
- بیان کیا
- تفصیل
- تفصیلات
- فرق
- اختلافات
- مختلف
- طول و عرض
- طول و عرض
- بات چیت
- فاصلے
- do
- ہر ایک
- اس سے قبل
- آخر سے آخر تک
- ختم ہو جاتا ہے
- خرابی
- اندازہ
- ہر کوئی
- مثال کے طور پر
- عملدرآمد
- توقع
- تجربہ
- وضاحت
- تلاش
- وضاحت کی
- ایکسپلور
- فاسٹ
- خصوصیات
- چند
- اعداد و شمار
- فائنل
- آخر
- مل
- تلاش
- پہلا
- فٹ
- لچکدار
- توجہ مرکوز
- پیچھے پیچھے
- کے بعد
- کے لئے
- جنگل
- فارم
- چار
- سے
- تقریب
- مزید
- جنرل
- حاصل
- جاؤ
- دے دو
- Go
- جا
- گرڈ
- رہنمائی
- ہدایات
- ہاتھوں پر
- خوش
- ہارڈ
- ہے
- مدد
- یہاں
- اعلی
- ہاؤس
- ہور
- کس طرح
- کیسے
- تاہم
- HTML
- HTTPS
- آئکن
- خیال
- پر عملدرآمد
- عملدرآمد
- پر عمل درآمد
- اہم
- in
- شامل
- اضافہ
- اشارہ کرتے ہیں
- لامتناہی
- مثال کے طور پر
- دلچسپی
- دلچسپ
- میں
- تعارف
- ملوث
- IT
- میں
- خود
- سفر
- فوٹو
- رکھیں
- کیرا
- بچے
- جان
- جاننا
- جانیں
- سیکھنے
- LG
- لائبریریوں
- لائبریری
- جھوٹ ہے
- کی طرح
- لائن
- لائنوں
- تھوڑا
- دیکھو
- دیکھنا
- مشین
- مشین لرننگ
- مشینیں
- میکرو
- بنا
- بنا
- بناتا ہے
- بنانا
- بہت سے
- نقشہ
- مارجن
- ریاضیاتی
- ریاضی
- matplotlib
- میٹرکس
- زیادہ سے زیادہ کرتا ہے
- مئی..
- ذکر کیا
- محض
- طریقوں
- میٹرک۔
- پیمائش کا معیار
- شاید
- ماڈل
- ماڈل
- نظر ثانی کی
- زیادہ
- سب سے زیادہ
- ایک سے زیادہ
- پراسرار
- فطرت، قدرت
- ضروری
- ضرورت ہے
- نیٹ ورک
- عصبی نیٹ ورک
- اگلے
- نوٹس
- اب
- عجیب
- حاصل
- حاصل کی
- of
- on
- ایک
- صرف
- زیادہ سے زیادہ
- or
- حکم
- منظم
- دیگر
- ہمارے
- پیداوار
- pandas
- پیرامیٹر
- پیرامیٹرز
- حصہ
- منظور
- کامل
- کارکردگی
- کارکردگی کا مظاہرہ
- پلاٹا
- افلاطون ڈیٹا انٹیلی جنس
- پلیٹو ڈیٹا
- کھیلیں
- پوائنٹس
- طاقتور
- عملی
- صحت سے متعلق
- پیشن گوئی
- کی پیشن گوئی
- پیشن گوئی
- تیار
- پچھلا
- پہلے
- قیمت
- قیمت کی پیشن گوئی
- قیمتیں
- قیمتوں کا تعین
- مسئلہ
- عمل
- پیش رفت
- منصوبے
- منصوبوں
- ازگر
- فوری
- شرح
- بلکہ
- آر بی ایف
- تک پہنچنے
- پڑھیں
- اصلی
- ریپپ
- وصول کرنا
- سفارش
- کے بارے میں
- یاد
- دوبارہ
- بار بار
- رپورٹ
- باقی
- نتائج کی نمائش
- رنگ
- حکمرانی
- چل رہا ہے
- s
- اسی
- منظر نامے
- سائنٹ سیکھنا
- سمندری
- تلاش کریں
- تلاش
- سیکشن
- بیج
- دیکھ کر
- لگتا ہے
- منتخب
- علیحدہ
- سیریز
- کئی
- شیڈو
- شکل
- دکھایا گیا
- سادہ
- بعد
- So
- ٹھوس
- حل کرنا۔
- کچھ
- جادو
- Stackabuse
- سجا دیئے
- معیار
- معیار
- شروع کریں
- کے اعداد و شمار
- مرحلہ
- مراحل
- بند کرو
- براہ راست
- تعلیم حاصل کی
- اس طرح
- حمایت
- مشکوک
- SVG
- ٹیبل
- لے لو
- ہدف
- تکنیک
- ٹیسسرور
- ٹیسٹ
- ٹیسٹنگ
- کہ
- ۔
- ان
- ان
- وہاں.
- وہ
- سوچنا
- تھرڈ
- اس
- تین
- کے ذریعے
- وقت
- اوقات
- عنوان
- کرنے کے لئے
- سب سے اوپر
- موضوعات
- روایتی
- ٹرین
- تربیت یافتہ
- ٹریننگ
- تبدیل
- منتقلی
- سچ
- اقسام
- ٹھیٹھ
- سمجھ
- افہام و تفہیم
- us
- استعمال کی شرائط
- استعمال کیس
- استعمال کیا جاتا ہے
- کا استعمال کرتے ہوئے
- عام طور پر
- استعمال
- توثیق
- قیمت
- اقدار
- Ve
- ورژن
- کی طرف سے
- راستہ..
- we
- اچھا ہے
- تھے
- کیا
- کیا ہے
- چاہے
- جس
- جبکہ
- کیوں
- وکیپیڈیا
- گے
- ساتھ
- بغیر
- وون
- کام کر
- کام کرتا ہے
- بدترین
- گا
- X
- تم
- اور
- زیفیرنیٹ