Python's Scikit-Learn کے ساتھ دیگر SVM ذائقوں کو نافذ کرنا

Python's Scikit-Learn کے ساتھ دیگر SVM ذائقوں کو نافذ کرنا

تعارف

یہ گائیڈ سپورٹ ویکٹر مشینوں (SVMs) کے بارے میں تین گائیڈز کا تیسرا اور آخری حصہ ہے۔ اس گائیڈ میں، ہم جعلی بینک نوٹوں کے استعمال کے کیس کے ساتھ کام کرتے رہیں گے، SVMs کے پیچھے عام خیال کے بارے میں ایک فوری جائزہ لیں گے، سمجھیں گے کہ کرنل کی چال کیا ہے، اور Scikit-Learn کے ساتھ مختلف قسم کے نان لکیری کرنل کو لاگو کریں گے۔

SVM گائیڈز کی مکمل سیریز میں، SVM کی دیگر اقسام کے بارے میں سیکھنے کے علاوہ، آپ سادہ SVM، SVM پہلے سے طے شدہ پیرامیٹرز، C اور Gamma hyperparameters کے بارے میں بھی سیکھیں گے اور یہ بھی سیکھیں گے کہ انہیں گرڈ سرچ اور کراس توثیق کے ساتھ کیسے بنایا جا سکتا ہے۔

اگر آپ پچھلی گائیڈز کو پڑھنا چاہتے ہیں، تو آپ پہلے دو گائیڈز پر ایک نظر ڈال سکتے ہیں یا دیکھ سکتے ہیں کہ آپ کو کون سے عنوانات میں سب سے زیادہ دلچسپی ہے۔ ذیل میں ہر گائیڈ میں شامل عنوانات کا جدول ہے:

  1. Python's Scikit-Learn کے ساتھ SVM اور Kernel SVM کو نافذ کرنا
  • کیس استعمال کریں: بینک نوٹ بھول جائیں۔
  • SVMs کا پس منظر
  • سادہ (لکیری) SVM ماڈل
    • ڈیٹا سیٹ کے بارے میں
    • ڈیٹاسیٹ درآمد کرنا
    • ڈیٹا سیٹ کی تلاش
  • Scikit-Learn کے ساتھ SVM کو نافذ کرنا
    • ڈیٹا کو ٹرین/ٹیسٹ سیٹ میں تقسیم کرنا
    • ماڈل کی تربیت
    • پیش گوئیاں کرنا
    • ماڈل کا اندازہ لگانا
    • نتائج کی ترجمانی کرنا
  1. SVM ہائپر پیرامیٹرز کو سمجھنا
  • سی ہائپر پیرامیٹر
  • گاما ہائپر پیرامیٹر

3. Python's Scikit-Learn کے ساتھ دیگر SVM ذائقوں کو نافذ کرنا

  • SVMs کا عمومی خیال (ایک خلاصہ)
  • دانا (ٹرک) SVM
  • Scikit-Learn کے ساتھ Non-Linear Kernel SVM کو نافذ کرنا
  • لائبریریاں درآمد کرنا
    • ڈیٹاسیٹ درآمد کرنا
    • ڈیٹا کو فیچرز (X) اور ہدف (y) میں تقسیم کرنا
    • ڈیٹا کو ٹرین/ٹیسٹ سیٹ میں تقسیم کرنا
    • الگورتھم کی تربیت
  • متعدد دانا
    • پیش گوئیاں کرنا
    • الگورتھم کا اندازہ لگانا
  • گاوسی دانا
    • پیشن گوئی اور تشخیص
  • سگمائیڈ دانا
    • پیشن گوئی اور تشخیص
  • غیر لکیری دانا کی کارکردگی کا موازنہ

آئیے یاد رکھیں کہ SVM کے بارے میں کچھ دلچسپ SVM کرنل تغیرات دیکھنے سے پہلے کیا ہے۔

SVMs کا عمومی خیال

دو جہتوں میں لکیری طور پر الگ ہونے والے ڈیٹا کی صورت میں (جیسا کہ تصویر 1 میں دکھایا گیا ہے) عام مشین لرننگ الگورتھم کا طریقہ یہ ہوگا کہ ایک حد تلاش کرنے کی کوشش کی جائے جو ڈیٹا کو اس طرح تقسیم کرے کہ غلط درجہ بندی کی غلطی کو کم سے کم کیا جائے۔ اگر آپ اعداد و شمار 1 کو قریب سے دیکھیں تو دیکھیں کہ کئی حدود (لامحدود) ہوسکتی ہیں جو ڈیٹا پوائنٹس کو صحیح طریقے سے تقسیم کرتی ہیں۔ دو ڈیشڈ لائنوں کے ساتھ ساتھ ٹھوس لائن ڈیٹا کی تمام درست درجہ بندی ہیں۔

ایک سے زیادہ فیصلے کی حدود

تصویر 1: ایک سے زیادہ فیصلے کی حدود

جب SVM منتخب کرتا ہے۔ فیصلہ کی حد، یہ ایک ایسی باؤنڈری کا انتخاب کرتا ہے جو اپنے اور کلاسز کے قریب ترین ڈیٹا پوائنٹس کے درمیان فاصلے کو زیادہ سے زیادہ کرتا ہے۔ ہم پہلے ہی جانتے ہیں کہ قریب ترین ڈیٹا پوائنٹس سپورٹ ویکٹر ہیں اور یہ کہ فاصلہ دونوں کے ذریعے پیرامیٹرائز کیا جا سکتا ہے۔ C اور gamma hyperparameters

اس فیصلے کی حد کا حساب لگاتے ہوئے، الگورتھم منتخب کرتا ہے کہ کتنے نکات پر غور کرنا ہے اور مارجن کتنی دور جا سکتا ہے - یہ مارجن کو زیادہ سے زیادہ کرنے کا مسئلہ تشکیل دیتا ہے۔ مارجن کو زیادہ سے زیادہ کرنے کے اس مسئلے کو حل کرنے کے لیے، SVM سپورٹ ویکٹرز کا استعمال کرتا ہے (جیسا کہ تصویر 2 میں دیکھا گیا ہے) اور یہ جاننے کی کوشش کرتا ہے کہ کون سی بہترین قدریں ہیں جو مارجن کے فاصلے کو بڑا رکھتی ہیں، جبکہ مزید پوائنٹس کو اس فنکشن کے مطابق درست طریقے سے درجہ بندی کرتا ہے جو استعمال کیا جا رہا ہے۔ ڈیٹا کو الگ کریں.

سپورٹ ویکٹر کے ساتھ فیصلہ کی حد

تصویر 2: سپورٹ ویکٹر کے ساتھ فیصلہ کی حد

یہی وجہ ہے کہ SVM دوسرے درجہ بندی کے الگورتھم سے مختلف ہے، ایک بار جب یہ محض فیصلہ کی حد نہیں ڈھونڈتا ہے، بلکہ یہ فیصلہ کرنے کی بہترین حد تلاش کرتا ہے۔

اعداد و شمار اور کمپیوٹیشنل طریقوں سے اخذ کردہ پیچیدہ ریاضی ہے جو سپورٹ ویکٹرز کو تلاش کرنے، فیصلے کی حد اور سپورٹ ویکٹر کے درمیان مارجن کا حساب لگانا، اور اس مارجن کو زیادہ سے زیادہ کرنے کے پیچھے شامل ہے۔ اس بار، ہم اس کی تفصیلات میں نہیں جائیں گے کہ ریاضی کیسے چلتی ہے۔

گہرائی میں غوطہ لگانا اور اس بات کو یقینی بنانا ہمیشہ اہم ہوتا ہے کہ مشین لرننگ الگورتھم کسی قسم کے پراسرار جادو نہیں ہیں، حالانکہ اس وقت ریاضی کی ہر تفصیل کو نہ جاننا آپ کو الگورتھم پر عمل کرنے اور نتائج حاصل کرنے کے قابل ہونے سے نہیں روکے گا اور نہ ہی روکے گا۔

مشورہ: اب جب کہ ہم نے الگورتھمک عمل کا دوبارہ جائزہ لیا ہے، یہ واضح ہے کہ ڈیٹا پوائنٹس کے درمیان فاصلہ SVM کے منتخب کردہ فیصلے کی حد کو متاثر کرے گا، اس کی وجہ سے، ڈیٹا کی پیمائش SVM درجہ بندی استعمال کرتے وقت عام طور پر ضروری ہوتا ہے۔ استعمال کرنے کی کوشش کریں۔ Scikit-learn کا معیاری اسکیلر طریقہ ڈیٹا تیار کرنے کے لیے، اور پھر کوڈز کو دوبارہ چلانے کے لیے یہ دیکھنے کے لیے کہ آیا نتائج میں کوئی فرق ہے۔

دانا (ٹرک) SVM

پچھلے حصے میں، ہم نے SVM کے عمومی خیال کو یاد کیا اور اسے منظم کیا ہے - یہ دیکھتے ہوئے کہ اسے لکیری طور پر الگ کیے جانے والے ڈیٹا کے لیے بہترین فیصلہ کی حد تلاش کرنے کے لیے کیسے استعمال کیا جا سکتا ہے۔ تاہم، غیر لکیری طور پر الگ ہونے والے ڈیٹا کی صورت میں، جیسا کہ تصویر 3 میں دکھایا گیا ہے، ہم پہلے ہی جانتے ہیں کہ سیدھی لکیر کو فیصلہ کی حد کے طور پر استعمال نہیں کیا جا سکتا۔

غیر خطی طور پر الگ کرنے والا ڈیٹا

تصویر 3: غیر خطی طور پر الگ ہونے والا ڈیٹا

بلکہ، ہم SVM کا ترمیم شدہ ورژن استعمال کر سکتے ہیں جس پر ہم نے شروع میں بحث کی تھی، جسے Kernel SVM کہتے ہیں۔

بنیادی طور پر، کرنل SVM جو کرے گا وہ یہ ہے کہ نچلے جہتوں کے غیر لکیری طور پر الگ ہونے والے ڈیٹا کو اعلیٰ جہتوں میں اس کی متعلقہ شکل میں پیش کیا جائے۔ یہ ایک چال ہے، کیونکہ جب غیر خطی طور پر الگ ہونے والے ڈیٹا کو اعلیٰ جہتوں میں پیش کیا جاتا ہے، تو ڈیٹا کی شکل اس طرح بدل جاتی ہے کہ یہ الگ ہونے والا بن جاتا ہے۔ مثال کے طور پر، جب 3 ڈائمینشنز کے بارے میں سوچتے ہیں، تو ہر کلاس کے ڈیٹا پوائنٹس کو ایک مختلف ڈائمینشن میں مختص کیا جا سکتا ہے، جس سے اسے الگ کیا جا سکتا ہے۔ ڈیٹا کے طول و عرض کو بڑھانے کا ایک طریقہ اس کی وضاحت کے ذریعے ہو سکتا ہے۔ ایک بار پھر، اس میں پیچیدہ ریاضی شامل ہے، لیکن SVM استعمال کرنے کے لیے آپ کو اس کے بارے میں فکر کرنے کی ضرورت نہیں ہے۔ بلکہ، ہم Python کی Scikit-Learn لائبریری کو استعمال کر سکتے ہیں اور غیر لکیری کرنل کو اسی طرح استعمال کر سکتے ہیں جس طرح ہم نے لکیری کو استعمال کیا ہے۔

Scikit-Learn کے ساتھ Non-Linear Kernel SVM کو نافذ کرنا

اس سیکشن میں، ہم اسی ڈیٹاسیٹ کا استعمال کرتے ہوئے یہ اندازہ لگائیں گے کہ آیا کوئی بینک نوٹ اصلی ہے یا جعلی چار خصوصیات کے مطابق جو ہم پہلے سے جانتے ہیں۔

آپ دیکھیں گے کہ باقی اقدامات مشین سیکھنے کے مخصوص مراحل ہیں اور جب تک ہم اس حصے تک نہیں پہنچ جاتے جہاں ہم اپنے غیر لکیری کرنل SVMs کو تربیت دیتے ہیں، بہت کم وضاحت کی ضرورت ہوتی ہے۔

لائبریریاں درآمد کرنا

import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
import seaborn as sns
from sklearn.model_selection import train_test_split

ڈیٹاسیٹ درآمد کرنا

data_link = "https://archive.ics.uci.edu/ml/machine-learning-databases/00267/data_banknote_authentication.txt"
col_names = ["variance", "skewness", "curtosis", "entropy", "class"] bankdata = pd.read_csv(data_link, names=col_names, sep=",", header=None)
bankdata.head()mes)

ڈیٹا کو فیچرز (X) اور ہدف (y) میں تقسیم کرنا

X = bankdata.drop('class', axis=1)
y = bankdata['class']

ڈیٹا کو ٹرین/ٹیسٹ سیٹ میں تقسیم کرنا

SEED = 42 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.20, random_state = SEED)

الگورتھم کی تربیت

کرنل SVM کو تربیت دینے کے لیے، ہم اسی کو استعمال کریں گے۔ SVC Scikit-Learn's کی کلاس svm کتب خانہ. فرق کے کرنل پیرامیٹر کی قدر میں ہے۔ SVC کلاس.

سادہ ایس وی ایم کے معاملے میں ہم نے کرنل پیرامیٹر کی قدر کے طور پر "لینیئر" کا استعمال کیا ہے۔ تاہم، جیسا کہ ہم نے پہلے ذکر کیا ہے، دانا SVM کے لیے، ہم Gaussian، polynomial، sigmoid، یا computable kernels استعمال کر سکتے ہیں۔ ہم کثیر الثانی، گاوسی، اور سگمائیڈ کرنل کو لاگو کریں گے اور اس کے آخری میٹرکس کو دیکھیں گے تاکہ یہ معلوم ہو سکے کہ کون سی ہماری کلاسوں میں زیادہ میٹرک کے ساتھ فٹ ہوتی ہے۔

1. متعدد دانا

الجبرا میں، ایک کثیر الجہتی شکل کا اظہار ہے:

$$
2a*b^3 + 4a – 9
$$

اس میں متغیرات ہیں، جیسے a اور b, constants، ہماری مثال میں، 9 اور گتانک (متغیرات کے ساتھ مستقل)، جیسے 2 اور 4. 3 کثیر الثانی کی ڈگری سمجھا جاتا ہے۔

اعداد و شمار کی ایسی قسمیں ہیں جن کو ایک کثیر نامی فنکشن کا استعمال کرتے وقت بہترین طور پر بیان کیا جا سکتا ہے، یہاں، دانا ہمارے ڈیٹا کو ایک کثیر نام پر نقشہ بنائے گا جس کے لیے ہم ڈگری کا انتخاب کریں گے۔ ڈگری جتنی زیادہ ہوگی، فنکشن اتنا ہی زیادہ ڈیٹا کے قریب جانے کی کوشش کرے گا، اس لیے فیصلہ کی حد زیادہ لچکدار ہوتی ہے (اور زیادہ فٹ ہونے کا زیادہ خطرہ) – ڈگری جتنی کم ہوگی، کم از کم لچکدار ہوگی۔

بہترین طرز عمل، صنعت کے لیے منظور شدہ معیارات، اور چیٹ شیٹ کے ساتھ Git سیکھنے کے لیے ہمارے ہینڈ آن، عملی گائیڈ کو دیکھیں۔ گوگلنگ گٹ کمانڈز کو روکیں اور اصل میں سیکھ یہ!

لہذا، لاگو کرنے کے لئے کثیر الثانی داناکو منتخب کرنے کے علاوہ poly kernel، ہم اس کے لیے ایک قدر بھی پاس کریں گے۔ degree کے پیرامیٹر SVC کلاس ذیل میں کوڈ ہے:

from sklearn.svm import SVC
svc_poly = SVC(kernel='poly', degree=8)
svc_poly.fit(X_train, y_train)

پیش گوئیاں کرنا

اب، ایک بار جب ہم الگورتھم کو تربیت دے چکے ہیں، اگلا مرحلہ ٹیسٹ ڈیٹا پر پیشین گوئیاں کرنا ہے۔

جیسا کہ ہم پہلے کر چکے ہیں، ہم ایسا کرنے کے لیے درج ذیل اسکرپٹ پر عمل کر سکتے ہیں:

y_pred_poly = svclassifier.predict(X_test)

الگورتھم کا اندازہ لگانا

ہمیشہ کی طرح، آخری مرحلہ کثیر الثانی دانا پر تشخیص کرنا ہے۔ چونکہ ہم نے درجہ بندی کی رپورٹ اور کنفیوژن میٹرکس کے کوڈ کو چند بار دہرایا ہے، آئیے اسے ایک فنکشن میں تبدیل کریں جو display_results متعلقہ وصول کرنے کے بعد y_test, y_pred اور Seaborn کے کنفیوژن میٹرکس کے ساتھ عنوان cm_title:

def display_results(y_test, y_pred, cm_title): cm = confusion_matrix(y_test,y_pred) sns.heatmap(cm, annot=True, fmt='d').set_title(cm_title) print(classification_report(y_test,y_pred))

اب، ہم فنکشن کو کال کر سکتے ہیں اور polynomial kernel کے ساتھ حاصل کردہ نتائج کو دیکھ سکتے ہیں:

cm_title_poly = "Confusion matrix with polynomial kernel"
display_results(y_test, y_pred_poly, cm_title_poly)

آؤٹ پٹ اس طرح لگتا ہے:

 precision recall f1-score support 0 0.69 1.00 0.81 148 1 1.00 0.46 0.63 127 accuracy 0.75 275 macro avg 0.84 0.73 0.72 275
weighted avg 0.83 0.75 0.73 275

Implementing Other SVM Flavors with Python's Scikit-Learn PlatoBlockchain Data Intelligence. Vertical Search. Ai.

اب ہم گاوسی اور سگمائیڈ کرنل کے لیے انہی اقدامات کو دہرا سکتے ہیں۔

2. گاوسی دانا

گاوسی کرنل کو استعمال کرنے کے لیے، ہمیں صرف 'rbf' کی قدر کے طور پر وضاحت کرنے کی ضرورت ہے۔ kernel SVC کلاس کا پیرامیٹر:

svc_gaussian = SVC(kernel='rbf', degree=8)
svc_gaussian.fit(X_train, y_train)

اس دانا کو مزید دریافت کرتے وقت، آپ اسے مختلف کے ساتھ جوڑنے کے لیے گرڈ سرچ بھی استعمال کر سکتے ہیں۔ C اور gamma اقدار

پیشن گوئی اور تشخیص

y_pred_gaussian = svc_gaussian.predict(X_test)
cm_title_gaussian = "Confusion matrix with Gaussian kernel"
display_results(y_test, y_pred_gaussian, cm_title_gaussian)

Gaussian کرنل SVM کا آؤٹ پٹ اس طرح لگتا ہے:

 precision recall f1-score support 0 1.00 1.00 1.00 148 1 1.00 1.00 1.00 127 accuracy 1.00 275 macro avg 1.00 1.00 1.00 275
weighted avg 1.00 1.00 1.00 275

Implementing Other SVM Flavors with Python's Scikit-Learn PlatoBlockchain Data Intelligence. Vertical Search. Ai.

3. سگمائیڈ کرنل

آخر میں، کرنل SVM کو لاگو کرنے کے لیے ایک سگمائڈ کرنل استعمال کریں۔ درج ذیل اسکرپٹ پر ایک نظر ڈالیں:

svc_sigmoid = SVC(kernel='sigmoid')
svc_sigmoid.fit(X_train, y_train)

سگمائڈ کرنل استعمال کرنے کے لیے، آپ کو 'sigmoid' کی قدر کے طور پر وضاحت کرنی ہوگی۔ kernel کے پیرامیٹر SVC کلاس.

پیشن گوئی اور تشخیص

y_pred_sigmoid = svc_sigmoid.predict(X_test)
cm_title_sigmoid = "Confusion matrix with Sigmoid kernel"
display_results(y_test, y_pred_sigmoid, cm_title_sigmoid)

Sigmoid کرنل کے ساتھ Kernel SVM کا آؤٹ پٹ اس طرح لگتا ہے:

 precision recall f1-score support 0 0.67 0.71 0.69 148 1 0.64 0.59 0.61 127 accuracy 0.65 275 macro avg 0.65 0.65 0.65 275
weighted avg 0.65 0.65 0.65 275

Implementing Other SVM Flavors with Python's Scikit-Learn PlatoBlockchain Data Intelligence. Vertical Search. Ai.

غیر لکیری دانا کی کارکردگی کا موازنہ

اگر ہم مختلف قسم کے نان لکیری دانا کی کارکردگی کا مختصراً موازنہ کریں، تو ایسا لگتا ہے کہ سگمائیڈ کرنل میں سب سے کم میٹرکس ہیں، اس لیے سب سے خراب کارکردگی۔

Gaussian اور polynomial kernels کے درمیان، ہم دیکھ سکتے ہیں کہ Gaussian kernel نے 100% پیشین گوئی کی کامل شرح حاصل کی ہے - جو کہ عام طور پر مشتبہ ہوتا ہے اور یہ زیادہ فٹ ہونے کی نشاندہی کر سکتا ہے، جبکہ کثیر الثانی دانا نے کلاس 68 کی 1 مثالوں کو غلط درجہ بندی کیا ہے۔

لہذا، کوئی سخت اور تیز قاعدہ نہیں ہے کہ کون سا دانا ہر منظر نامے میں یا ہمارے موجودہ منظر نامے میں ہائپر پیرامیٹر کی مزید تلاش کیے بغیر، ہر فنکشن کی شکل کے بارے میں سمجھے، ڈیٹا کو تلاش کیے، اور ٹرین اور ٹیسٹ کے نتائج کا موازنہ کیے بغیر یہ دیکھنے کے لیے بہترین کارکردگی کا مظاہرہ کرتا ہے کہ آیا الگورتھم عام کر رہا ہے.

یہ تمام دانا کی جانچ کرنے اور پیرامیٹرز اور ڈیٹا کی تیاری کے امتزاج کے ساتھ ایک کو منتخب کرنے کے بارے میں ہے جو آپ کے پروجیکٹ کے سیاق و سباق کے مطابق متوقع نتائج دیتے ہیں۔

مزید جانا - ہاتھ سے پکڑے گئے اینڈ ٹو اینڈ پروجیکٹ

آپ کی جستجو کرنے والی فطرت آپ کو مزید آگے بڑھنا چاہتی ہے؟ ہم اپنے کو چیک کرنے کی تجویز کرتے ہیں۔ گائیڈڈ پروجیکٹ: "ہینڈ آن ہاؤس پرائس کی پیشن گوئی - Python میں مشین لرننگ".

Implementing Other SVM Flavors with Python's Scikit-Learn PlatoBlockchain Data Intelligence. Vertical Search. Ai.

اس گائیڈڈ پروجیکٹ میں - آپ سیکھیں گے کہ طاقتور روایتی مشین لرننگ ماڈلز کے ساتھ ساتھ ڈیپ لرننگ ماڈلز بنانے کا طریقہ، Ensemble لرننگ اور میٹا لرنرز کو تربیت دینے کا طریقہ Scikit-Learn اور Keras ماڈلز کے بیگ سے گھر کی قیمتوں کا اندازہ لگانے کے لیے استعمال کریں۔

Keras کا استعمال کرتے ہوئے، Tensorflow کے اوپر بنایا گیا گہری سیکھنے والا API، ہم فن تعمیر کے ساتھ تجربہ کریں گے، اسٹیک شدہ ماڈلز کا ایک جوڑا بنائیں گے اور ایک میٹا لرنر نیورل نیٹ ورک (سطح 1 ماڈل) گھر کی قیمت کا تعین کرنے کے لیے۔

گہرائی سے سیکھنا حیرت انگیز ہے - لیکن اس کا سہارا لینے سے پہلے، یہ مشورہ دیا جاتا ہے کہ اس مسئلے کو آسان تراکیب کے ساتھ حل کرنے کی بھی کوشش کریں، جیسے کہ اتلی سیکھنے الگورتھم ہماری بنیادی کارکردگی a پر مبنی ہوگی۔ رینڈم فارسٹ ریگریشن الگورتھم مزید برآں - ہم Scikit-Learn کے ذریعے تکنیکوں کے ذریعے ماڈلز کے جوڑ بنانے کی تلاش کریں گے جیسے بیگنگ اور ووٹنگ.

یہ اینڈ ٹو اینڈ پراجیکٹ ہے، اور مشین لرننگ کے تمام پروجیکٹس کی طرح، ہم شروع کریں گے - کے ساتھ تحقیقی ڈیٹا کا تجزیہاس کے بعد ڈیٹا پروپوزل کی گذارش اور آخر میں اتلی عمارت اور گہری سیکھنے کے ماڈل اس ڈیٹا کو فٹ کرنے کے لیے جو ہم نے پہلے دریافت اور صاف کیا ہے۔

نتیجہ

اس آرٹیکل میں ہم نے SVMs پر ایک فوری ریکپ بنایا، کرنل ٹرِک کے بارے میں مطالعہ کیا اور غیر لکیری SVMs کے مختلف ذائقوں کو لاگو کیا۔

میرا مشورہ ہے کہ آپ ہر دانا کو لاگو کریں اور آگے بڑھتے رہیں۔ آپ مختلف داناوں میں سے ہر ایک کو بنانے کے لیے استعمال ہونے والی ریاضی کو تلاش کر سکتے ہیں، وہ کیوں بنائے گئے تھے اور ان کے ہائپر پیرامیٹر سے متعلق اختلافات۔ اس طرح، آپ تکنیکوں کے بارے میں جانیں گے اور سیاق و سباق اور دستیاب ڈیٹا کے لحاظ سے کس قسم کا دانا استعمال کرنا بہتر ہے۔

ہر دانا کس طرح کام کرتا ہے اور انہیں کب استعمال کرنا ہے اس کی واضح سمجھ رکھنا یقینی طور پر آپ کے سفر میں مددگار ثابت ہوگا۔ ہمیں بتائیں کہ پیشرفت کیسی جا رہی ہے اور خوشی کوڈنگ!

ٹائم اسٹیمپ:

سے زیادہ Stackabuse