Amazon SageMaker اور Amazon Recognition کا استعمال کرتے ہوئے تصاویر میں کار کی پوزیشنوں کا پتہ لگانے کے لیے کمپیوٹر وژن ماڈلز بنائیں اور ان کی تربیت کریں۔ ایمیزون ویب سروسز

Amazon SageMaker اور Amazon Recognition کا استعمال کرتے ہوئے تصاویر میں کار کی پوزیشنوں کا پتہ لگانے کے لیے کمپیوٹر وژن ماڈلز بنائیں اور ان کی تربیت کریں۔ ایمیزون ویب سروسز

کمپیوٹر وژن (CV) مشین لرننگ (ML) اور گہری سیکھنے کی سب سے عام ایپلی کیشنز میں سے ایک ہے۔ سیلف ڈرائیونگ کاروں، سوشل میڈیا پلیٹ فارمز پر مواد میں اعتدال، کینسر کا پتہ لگانے، اور خودکار خرابی کا پتہ لگانے سے لے کر کیسز کا استعمال کریں۔ ایمیزون پہچان۔ ایک مکمل طور پر منظم سروس ہے جو کسی بھی ML تجربے کی ضرورت کے بغیر ڈیٹا سے بصیرت نکالنے کے لیے آبجیکٹ کا پتہ لگانے، ویڈیو سیگمنٹ کا پتہ لگانے، مواد کی اعتدال پسندی، اور بہت کچھ جیسے CV کام انجام دے سکتی ہے۔ بعض صورتوں میں، ایک بہت ہی مخصوص مسئلہ کو حل کرنے کے لیے سروس کے ساتھ ایک زیادہ حسب ضرورت حل کی ضرورت پڑ سکتی ہے۔

اس پوسٹ میں، ہم ان علاقوں کی نشاندہی کرتے ہیں جہاں CV کو استعمال کرنے کے لیے لاگو کیا جا سکتا ہے جہاں اشیاء کا پوز، ان کی پوزیشن اور واقفیت اہم ہے۔ استعمال کا ایسا ہی ایک معاملہ گاہک کا سامنا کرنے والا موبائل ایپلیکیشن ہوگا جہاں تصویر اپ لوڈ کی ضرورت ہے۔ یہ تعمیل کی وجوہات کی بناء پر ہو سکتا ہے یا صارف کو مستقل تجربہ فراہم کرنے اور مصروفیت کو بہتر بنانے کے لیے ہو سکتا ہے۔ مثال کے طور پر، آن لائن شاپنگ پلیٹ فارمز پر، تصویروں میں مصنوعات کو جس زاویے پر دکھایا گیا ہے اس کا اثر اس پروڈکٹ کو خریدنے کی شرح پر پڑتا ہے۔ ایسا ہی ایک معاملہ گاڑی کی پوزیشن کا پتہ لگانا ہے۔ ہم یہ ظاہر کرتے ہیں کہ آپ AWS کلاؤڈ پر اس مسئلے کو حل کرنے کے لیے پوسٹ پروسیسنگ کے ساتھ معروف ML حل کیسے جوڑ سکتے ہیں۔

ہم اس مسئلے کو حل کرنے کے لیے گہری سیکھنے کے ماڈل استعمال کرتے ہیں۔ پوز کے تخمینے کے لیے ML الگورتھم کی تربیت کے لیے بہت زیادہ مہارت اور حسب ضرورت ٹریننگ ڈیٹا کی ضرورت ہوتی ہے۔ دونوں ضروریات کو حاصل کرنا مشکل اور مہنگا ہے۔ لہذا، ہم دو اختیارات پیش کرتے ہیں: ایک جس میں کسی ایم ایل مہارت کی ضرورت نہیں ہے اور وہ ایمیزون کی شناخت کا استعمال کرتا ہے، اور دوسرا جو استعمال کرتا ہے ایمیزون سیج میکر اپنی مرضی کے مطابق ایم ایل ماڈل کو تربیت اور تعینات کرنے کے لیے۔ پہلے آپشن میں، ہم کار کے پہیوں کا پتہ لگانے کے لیے Amazon Recognition کا استعمال کرتے ہیں۔ اس کے بعد ہم اصول پر مبنی نظام کا استعمال کرتے ہوئے پہیے کی پوزیشنوں سے کار کی سمت کا اندازہ لگاتے ہیں۔ دوسرے آپشن میں، ہم استعمال کرتے ہوئے پہیوں اور کار کے دیگر حصوں کا پتہ لگاتے ہیں۔ ڈیٹیکٹران ماڈل یہ دوبارہ اصول پر مبنی کوڈ کے ساتھ کار کی پوزیشن کا اندازہ لگانے کے لیے استعمال ہوتے ہیں۔ دوسرے آپشن کے لیے ML تجربہ درکار ہے لیکن یہ زیادہ حسب ضرورت بھی ہے۔ اسے تصویر پر مزید پوسٹ پروسیسنگ کے لیے استعمال کیا جا سکتا ہے، مثال کے طور پر، پوری کار کو تراشنے کے لیے۔ دونوں اختیارات کو عوامی طور پر دستیاب ڈیٹا سیٹس پر تربیت دی جا سکتی ہے۔ آخر میں، ہم دکھاتے ہیں کہ آپ اس کار پوز کا پتہ لگانے کے حل کو اپنی موجودہ ویب ایپلیکیشن میں کس طرح ضم کر سکتے ہیں جیسے خدمات کا استعمال کرتے ہوئے ایمیزون API گیٹ وے اور AWS بڑھانا.

حل جائزہ

مندرجہ ذیل خاکہ حل کے فن تعمیر کی وضاحت کرتا ہے۔

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

حل ایمپلیفائی میں ایک فرضی ویب ایپلیکیشن پر مشتمل ہے جہاں صارف ایک تصویر اپ لوڈ کر سکتا ہے اور گاڑی کی پوزیشن کا پتہ لگانے کے لیے ایمیزون ریکوگنیشن ماڈل یا کسٹم ڈیٹیکٹران ماڈل کو استعمال کر سکتا ہے۔ ہر آپشن کے لیے، ہم ایک کی میزبانی کرتے ہیں۔ او ڈبلیو ایس لامبڈا۔ ایک API گیٹ وے کے پیچھے فنکشن جو ہماری فرضی ایپلیکیشن کے سامنے ہے۔ ہم نے اپنے Lambda فنکشن کو SageMaker یا Amazon Recognition میں تربیت یافتہ ڈیٹیکٹران ماڈل کے ساتھ چلانے کے لیے ترتیب دیا۔

شرائط

اس واک تھرو کے لیے، آپ کے پاس درج ذیل شرائط ہونی چاہئیں:

Amazon Recognition کا استعمال کرتے ہوئے ایک سرور لیس ایپ بنائیں

ہمارا پہلا آپشن یہ ظاہر کرتا ہے کہ آپ Amazon Recognition کا استعمال کرتے ہوئے تصاویر میں کار کی سمت کا پتہ کیسے لگا سکتے ہیں۔ خیال یہ ہے کہ کار کے محل وقوع اور اس کے پہیوں کا پتہ لگانے کے لیے Amazon Recognition کا استعمال کیا جائے اور پھر اس معلومات سے کار کی واقفیت حاصل کرنے کے لیے پوسٹ پروسیسنگ کی جائے۔ پورا حل لیمبڈا کا استعمال کرتے ہوئے تعینات کیا گیا ہے جیسا کہ میں دکھایا گیا ہے۔ گیتوب ذخیرہ. اس فولڈر میں دو اہم فائلیں ہیں: ایک Dockerfile جو Docker امیج کی وضاحت کرتی ہے جو ہمارے Lambda فنکشن میں چلے گی، اور app.py فائل، جو لیمبڈا فنکشن کا مرکزی انٹری پوائنٹ ہو گا:

def lambda_handler(event, context): body_bytes = json.loads(event["body"])["image"].split(",")[-1] body_bytes = base64.b64decode(body_bytes) rek = boto3.client('rekognition') response = rek.detect_labels(Image={'Bytes': body_bytes}, MinConfidence=80) angle, img = label_image(img_string=body_bytes, response=response) buffered = BytesIO() img.save(buffered, format="JPEG") img_str = "data:image/jpeg;base64," + base64.b64encode(buffered.getvalue()).decode('utf-8')

لیمبڈا فنکشن ایک ایسے ایونٹ کی توقع کرتا ہے جس میں ہیڈر اور باڈی ہو، جہاں باڈی کو بیس 64 ڈی کوڈ آبجیکٹ کے طور پر لیبل لگانے کے لیے درکار تصویر ہونی چاہیے۔ تصویر کو دیکھتے ہوئے، Amazon Recognition detect_labels فنکشن کو لیمبڈا فنکشن سے استعمال کیا جاتا ہے۔ بوٹو 3. یہ فنکشن تصویر میں موجود ہر شے کے لیے ایک یا زیادہ لیبلز اور جواب کے حصے کے طور پر تمام پتہ لگائے گئے آبجیکٹ کے لیبلز کے لیے باؤنڈنگ باکس کی تفصیلات واپس کرتا ہے، اس کے ساتھ دیگر معلومات جیسے تفویض کردہ لیبل کا اعتماد، شناخت کیے گئے لیبل کے آبجیکٹ لیبل، ممکن لیبل کے عرفی نام، اور جن زمروں کا پتہ لگایا گیا لیبل سے تعلق رکھتا ہے۔ Amazon Recognition کی طرف سے لوٹائے گئے لیبلز کی بنیاد پر، ہم فنکشن چلاتے ہیں۔ label_image، جو پتہ لگائے گئے پہیوں سے کار کے زاویے کا حساب لگاتا ہے:

n_wheels = len(wheel_instances) wheel_centers = [np.array(_extract_bb_coords(wheel, img)).mean(axis=0)
for wheel in wheel_instances] wheel_center_comb = list(combinations(wheel_centers, 2))
vecs = [(k, pair[0] - pair[1]) for k,pair in enumerate(wheel_center_comb)]
vecs = sorted(vecs, key = lambda vec: np.linalg.norm(vec[1])) vec_rel = vecs[1] if n_wheels == 3 else vecs[0]
angle = math.degrees(math.atan(vec_rel[1][1]/vec_rel[1][0])) wheel_centers_rel = [tuple(wheel.tolist()) for wheel in
wheel_center_comb[vec_rel[0]]]

نوٹ کریں کہ ایپلیکیشن کا تقاضا ہے کہ تصویر میں صرف ایک کار موجود ہو اور اگر ایسا نہ ہو تو ایک غلطی واپس کر دیتا ہے۔ تاہم، پوسٹ پروسیسنگ کو مزید دانے دار واقفیت کی تفصیل فراہم کرنے، کئی کاروں کا احاطہ کرنے، یا زیادہ پیچیدہ اشیاء کی واقفیت کا حساب لگانے کے لیے ڈھال لیا جا سکتا ہے۔

وہیل کا پتہ لگانے کو بہتر بنائیں

وہیل کا پتہ لگانے کی درستگی کو مزید بہتر بنانے کے لیے، آپ استعمال کر سکتے ہیں۔ ایمیزون ریکگنیشن کسٹم لیبلز. ایک حسب ضرورت ML ماڈل کو تربیت دینے اور تعینات کرنے کے لیے SageMaker کا استعمال کرتے ہوئے فائن ٹیوننگ کی طرح، آپ اپنا لیبل لگا ڈیٹا لا سکتے ہیں تاکہ Amazon Recognition صرف چند گھنٹوں میں آپ کے لیے حسب ضرورت تصویری تجزیہ ماڈل تیار کر سکے۔ ریکگنیشن کسٹم لیبلز کے ساتھ، آپ کو صرف تربیتی تصاویر کے ایک چھوٹے سیٹ کی ضرورت ہے جو آپ کے استعمال کے معاملے کے لیے مخصوص ہوں، اس معاملے میں مخصوص زاویوں کے ساتھ کار کی تصاویر، کیونکہ یہ ایمیزون کی موجودہ صلاحیتوں کو استعمال کرتا ہے جس میں لاکھوں تصاویر پر تربیت حاصل کی جا سکتی ہے۔ بہت سے زمرے. Recognition Custom Labels کو صرف چند کلکس اور Lambda فنکشن میں چھوٹے موافقت کے ساتھ ضم کیا جا سکتا ہے جسے ہم معیاری Amazon Recognition سلوشن کے لیے استعمال کرتے ہیں۔

SageMaker ٹریننگ جاب کا استعمال کرتے ہوئے ایک ماڈل کو تربیت دیں۔

ہمارے دوسرے آپشن میں، ہم SageMaker پر ایک حسب ضرورت ڈیپ لرننگ ماڈل کو تربیت دیتے ہیں۔ ہم استعمال کرتے ہیں ڈیٹیکٹرون 2 فریم ورک کار کے حصوں کی تقسیم کے لیے۔ ان حصوں کو پھر کار کی پوزیشن کا اندازہ لگانے کے لیے استعمال کیا جاتا ہے۔

Detectron2 فریم ورک ایک لائبریری ہے جو جدید ترین پتہ لگانے اور تقسیم کرنے کے الگورتھم فراہم کرتی ہے۔ ڈیٹیکٹران مختلف قسم کے ماسک R-CNN ماڈل فراہم کرتا ہے جنہیں مشہور COCO (Common Objects in Context) ڈیٹاسیٹ پر تربیت دی گئی تھی۔ اپنے کار آبجیکٹ کا پتہ لگانے کا ماڈل بنانے کے لیے، ہم پہلے سے تربیت یافتہ ماسک R-CNN ماڈل کو ٹھیک کرنے کے لیے ٹرانسفر لرننگ کا استعمال کرتے ہیں۔ کار حصوں کی تقسیم ڈیٹاسیٹ یہ ڈیٹا سیٹ ہمیں ایک ایسے ماڈل کو تربیت دینے کی اجازت دیتا ہے جو پہیوں بلکہ کار کے دیگر حصوں کا بھی پتہ لگا سکے۔ اس اضافی معلومات کو تصویر کے نسبت کار کے زاویہ کی گنتی میں مزید استعمال کیا جا سکتا ہے۔

ڈیٹاسیٹ میں کار کے پرزوں کا تشریح شدہ ڈیٹا ہوتا ہے جس کا استعمال آبجیکٹ کا پتہ لگانے اور سیمنٹک سیگمنٹیشن کے کاموں کے لیے کیا جاتا ہے: تقریباً 500 سیڈان، پک اپس، اور اسپورٹس یوٹیلیٹی وہیکلز (SUVs) کی تصاویر، جو ایک سے زیادہ نظارے (سامنے، پیچھے اور سائیڈ ویوز) میں لی گئی ہیں۔ ہر تصویر کو 18 مثال کے ماسک اور باؤنڈنگ باکسز کے ذریعے تشریح کی گئی ہے جو گاڑی کے مختلف حصوں جیسے پہیے، آئینے، لائٹس، اور سامنے اور پیچھے کے شیشے کی نمائندگی کرتے ہیں۔ ہم نے پہیوں کی بنیادی تشریحات میں اس طرح ترمیم کی ہے کہ ہر وہیل کو تصویر میں موجود تمام پہیوں کو ایک آبجیکٹ کے طور پر سمجھنے کے بجائے ایک انفرادی چیز سمجھا جاتا ہے۔

ہم استعمال کرتے ہیں ایمیزون سادہ اسٹوریج سروس (Amazon S3) تربیت یافتہ ماڈل کے نمونے کے ساتھ ڈیٹیکٹران ماڈل کی تربیت کے لیے استعمال ہونے والے ڈیٹاسیٹ کو ذخیرہ کرنے کے لیے۔ مزید یہ کہ ڈوکر کنٹینر جو لیمبڈا فنکشن میں چلتا ہے اس میں محفوظ ہے۔ ایمیزون لچکدار کنٹینر رجسٹری (ایمیزون ای سی آر)۔ کوڈ کو چلانے کے لیے مطلوبہ لائبریریوں اور انحصار کو شامل کرنے کے لیے لیمبڈا فنکشن میں ڈوکر کنٹینر کی ضرورت ہے۔ ہم متبادل طور پر استعمال کرسکتے ہیں۔ لیمبڈا پرتیں۔، لیکن یہ 250 MB کے غیر زپ شدہ تعیناتی پیکیجڈ سائز کوٹہ تک محدود ہے اور Lambda فنکشن میں زیادہ سے زیادہ پانچ پرتیں شامل کی جا سکتی ہیں۔

ہمارا حل سیج میکر پر بنایا گیا ہے: ہم پری بلٹ میں توسیع کرتے ہیں۔ سیج میکر ڈوکر کنٹینرز PyTorch ہماری مرضی کے مطابق PyTorch کو چلانے کے لیے تربیتی کوڈ. اگلا، ہم SageMaker Python SDK کو تربیتی تصویر کو SageMaker PyTorch تخمینہ کار میں لپیٹنے کے لیے استعمال کرتے ہیں، جیسا کہ درج ذیل کوڈ کے ٹکڑوں میں دکھایا گیا ہے:

d2_estimator = Estimator( image_uri=training_image_uri, role=role, sagemaker_session=sm_session, instance_count=1, instance_type=training_instance, output_path=f"s3://{session_bucket}/{prefix_model}", base_job_name=f"detectron2") d2_estimator.fit({ "training": training_channel, "validation": validation_channel, }, wait=True)

آخر میں، ہم کال کرکے تربیتی کام شروع کرتے ہیں۔ fit() تخلیق کردہ PyTorch تخمینہ لگانے والے پر فنکشن۔ تربیت مکمل ہونے پر، تربیت یافتہ ماڈل کے نمونے کو Amazon S3 میں سیشن بالٹی میں ذخیرہ کیا جاتا ہے تاکہ انفرنس پائپ لائن کے لیے استعمال کیا جائے۔

SageMaker اور inference پائپ لائنوں کا استعمال کرتے ہوئے ماڈل کو تعینات کریں۔

ہم SageMaker کا استعمال انفرنس اینڈ پوائنٹ کی میزبانی کے لیے بھی کرتے ہیں جو ہمارے کسٹم ڈیٹیکٹران ماڈل کو چلاتا ہے۔ ہمارے حل کو تعینات کرنے کے لیے استعمال ہونے والا مکمل انفراسٹرکچر AWS CDK کا استعمال کرتے ہوئے فراہم کیا گیا ہے۔ ہم اپنے کسٹم ماڈل کی میزبانی کر سکتے ہیں۔ سیج میکر ریئل ٹائم اینڈ پوائنٹ کال کرکے deploy PyTorch تخمینہ لگانے والے پر۔ یہ دوسری بار ہے جب ہم نے پہلے سے تعمیر شدہ SageMaker PyTorch کنٹینر کو PyTorch Detectron شامل کرنے کے لیے بڑھایا ہے۔ ہم اسے انفرنس اسکرپٹ چلانے کے لیے استعمال کرتے ہیں اور اپنے تربیت یافتہ PyTorch ماڈل کی میزبانی حسب ذیل کرتے ہیں:

model = PyTorchModel( name="d2-sku110k-model", model_data=d2_estimator.model_data, role=role, sagemaker_session=sm_session, entry_point="predict.py", source_dir="src", image_uri=serve_image_uri, framework_version="1.6.0") predictor = model.deploy( initial_instance_count=1, instance_type="ml.g4dn.xlarge", endpoint_name="detectron-endpoint", serializer=sagemaker.serializers.JSONSerializer(), deserializer=sagemaker.deserializers.JSONDeserializer(), wait=True)

نوٹ کریں کہ ہم نے تعیناتی کے لیے ml.g4dn.xlarge GPU استعمال کیا ہے کیونکہ یہ دستیاب سب سے چھوٹا GPU ہے اور اس ڈیمو کے لیے کافی ہے۔ ہمارے میں دو اجزاء کو ترتیب دینے کی ضرورت ہے۔ تخمینہ سکرپٹ: ماڈل لوڈنگ اور ماڈل سرونگ۔ فنکشن model_fn() تربیت یافتہ ماڈل کو لوڈ کرنے کے لیے استعمال کیا جاتا ہے جو ہوسٹڈ ڈوکر کنٹینر کا حصہ ہے اور یہ Amazon S3 میں بھی پایا جا سکتا ہے اور ایک ماڈل آبجیکٹ کو واپس کر سکتا ہے جسے ماڈل پیش کرنے کے لیے استعمال کیا جا سکتا ہے:

def model_fn(model_dir: str) -> DefaultPredictor: for p_file in Path(model_dir).iterdir(): if p_file.suffix == ".pth": path_model = p_file cfg = get_cfg() cfg.MODEL.WEIGHTS = str(path_model) return DefaultPredictor(cfg)

تقریب predict_fn() پیشن گوئی کرتا ہے اور نتیجہ واپس کرتا ہے۔ اپنے تربیت یافتہ ماڈل کو استعمال کرنے کے علاوہ، ہم تصویر میں مرکزی کار کو نکالنے کے لیے COCO ڈیٹاسیٹ پر تربیت یافتہ ماسک R-CNN ماڈل کا پہلے سے تربیت یافتہ ورژن استعمال کرتے ہیں۔ یہ ان تصاویر سے نمٹنے کے لیے ایک اضافی پوسٹ پروسیسنگ مرحلہ ہے جہاں ایک سے زیادہ کاریں موجود ہیں۔ درج ذیل کوڈ دیکھیں:

def predict_fn(input_img: np.ndarray, predictor: DefaultPredictor) -> Mapping: pretrained_predictor = _get_pretraind_model() car_mask = get_main_car_mask(pretrained_predictor, input_img) outputs = predictor(input_img) fmt_out = { "image_height": input_object.shape[0], "image_width": input_object.shape[1], "pred_boxes": outputs["instances"].pred_boxes.tensor.tolist(), "scores": outputs["instances"].scores.tolist(), "pred_classes": outputs["instances"].pred_classes.tolist(), "car_mask": car_mask.tolist() } return fmt_out

ایمیزون ریکوگنیشن حل کی طرح، باؤنڈنگ بکس کے لیے پیش گوئی کی گئی ہے۔ wheel کلاس کو پتہ لگانے کے آؤٹ پٹس سے فلٹر کیا جاتا ہے اور آؤٹ پٹ کے نسبت کار کی پوزیشن کا اندازہ کرنے کے لیے پوسٹ پروسیسنگ ماڈیول کو فراہم کیا جاتا ہے۔

آخر میں، ہم نے ڈیٹیکٹران حل کے لیے پوسٹ پروسیسنگ کو بھی بہتر کیا۔ یہ حل کا اندازہ لگانے کے لیے کار کے مختلف حصوں کے حصوں کا بھی استعمال کرتا ہے۔ مثال کے طور پر، جب بھی سامنے والے بمپر کا پتہ چلتا ہے، لیکن پیچھے کا کوئی بمپر نہیں ہے، تو یہ فرض کیا جاتا ہے کہ ہمارے پاس کار کا سامنے کا منظر ہے اور اس سے متعلقہ زاویہ کا حساب لگایا جاتا ہے۔

اپنے حل کو ویب ایپلیکیشن سے مربوط کریں۔

ماڈل اینڈ پوائنٹس کو Amplify سے مربوط کرنے کے اقدامات درج ذیل ہیں:

  • ایپلیکیشن ریپوزٹری کو کلون کریں جسے AWS CDK اسٹیک نے بنایا، جس کا نام ہے۔ car-angle-detection-website-repo. یقینی بنائیں کہ آپ اسے اس علاقے میں تلاش کر رہے ہیں جسے آپ نے تعیناتی کے لیے استعمال کیا تھا۔
  • میں تعینات لیمبڈا فنکشنز میں سے ہر ایک کے لیے API گیٹ وے اینڈ پوائنٹس کو کاپی کریں۔ index.html فائل پچھلے ذخیرے میں (وہاں پلیس ہولڈرز ہیں جہاں اختتامی نقطہ رکھنے کی ضرورت ہے)۔ درج ذیل کوڈ اس بات کی ایک مثال ہے کہ .html فائل کا یہ حصہ کیسا لگتا ہے:
<td align="center" colspan="2">
<select id="endpoint">
<option value="https://ey82aaj8ch.execute-api.eu-central-1.amazonaws.com/prod/"> Amazon Rekognition</option>
<option value="https://nhq6q88xjg.execute-api.eu-central-1.amazonaws.com/prod/"> Amazon SageMaker Detectron</option>
</select>
<input class="btn" type="file" id="ImageBrowse" />
<input class="btn btn-primary" type="submit" value="Upload">
</td>

  • HTML فائل کو محفوظ کریں اور کوڈ کی تبدیلی کو ریموٹ مین برانچ میں دھکیلیں۔

یہ تعیناتی میں HTML فائل کو اپ ڈیٹ کر دے گا۔ ایپلیکیشن اب استعمال کے لیے تیار ہے۔

  • ایمپلیفائی کنسول پر جائیں اور اپنے بنائے ہوئے پروجیکٹ کو تلاش کریں۔

درخواست کا URL تعیناتی مکمل ہونے کے بعد نظر آئے گا۔

  • URL پر جائیں اور UI کے ساتھ مزہ کریں۔

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

نتیجہ

مبارک ہو! ہم نے ایک مکمل سرور لیس فن تعمیر کو تعینات کیا ہے جس میں ہم نے Amazon Recognition کا استعمال کیا ہے، لیکن آپ کے اپنے کسٹم ماڈل کے لیے ایک آپشن بھی دیا ہے، اس مثال کے ساتھ GitHub کے. اگر آپ کے پاس اپنی ٹیم میں ایم ایل کی مہارت یا ماڈل کو تربیت دینے کے لیے کافی حسب ضرورت ڈیٹا نہیں ہے، تو آپ وہ اختیار منتخب کر سکتے ہیں جو Amazon Recognition استعمال کرتا ہو۔ اگر آپ اپنے ماڈل پر مزید کنٹرول چاہتے ہیں، اسے مزید اپنی مرضی کے مطابق بنانا چاہتے ہیں، اور کافی ڈیٹا رکھتے ہیں، تو آپ SageMaker حل منتخب کر سکتے ہیں۔ اگر آپ کے پاس ڈیٹا سائنسدانوں کی ایک ٹیم ہے، تو وہ بھی ماڈلز کو مزید بڑھانا چاہتے ہیں اور زیادہ حسب ضرورت اور لچکدار آپشن چن سکتے ہیں۔ آپ لیمبڈا فنکشن اور API گیٹ وے کو اپنی ویب ایپلیکیشن کے پیچھے دونوں آپشنز میں سے کسی ایک کا استعمال کر کے رکھ سکتے ہیں۔ آپ اس نقطہ نظر کو استعمال کے مختلف کیس کے لیے بھی استعمال کر سکتے ہیں جس کے لیے آپ کوڈ کو اپنانا چاہیں گے۔

اس سرور لیس فن تعمیر کا فائدہ یہ ہے کہ عمارت کے بلاکس مکمل طور پر قابل تبادلہ ہیں۔ مواقع تقریباً لامحدود ہیں۔ تو، آج شروع کریں!

ہمیشہ کی طرح، AWS تاثرات کا خیرمقدم کرتا ہے۔ براہ کرم کوئی تبصرہ یا سوالات بھیجیں۔


مصنفین کے بارے میں

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.مائیکل والنر AWS پروفیشنل سروسز کے ساتھ ایک سینئر کنسلٹنٹ ڈیٹا اور AI ہے اور صارفین کو AWS کلاؤڈ میں ڈیٹا سے چلنے والے اور AWSome بننے کے سفر میں اہل بنانے کے لیے پرجوش ہے۔ سب سے اوپر، وہ گاہکوں کے ساتھ ان کے لیے نئے آئیڈیاز ایجاد کرنے اور ان کے لیے بڑا سوچنا پسند کرتا ہے۔

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.آمنہ نجمی AWS پروفیشنل سروسز کے ساتھ ڈیٹا سائنٹسٹ ہے۔ وہ بزنس ویلیو اور ڈیٹا سے بصیرت حاصل کرنے کے لیے صارفین کو بگ ڈیٹا اور مصنوعی ذہانت کی ٹیکنالوجیز کے ساتھ اختراع کرنے میں مدد کرنے کے لیے پرجوش ہے۔ اسے ہیلتھ کیئر اور لائف سائنسز عمودی میں ڈیٹا پلیٹ فارم اور AI/ML پروجیکٹس پر کام کرنے کا تجربہ ہے۔ اپنے فارغ وقت میں، وہ باغبانی اور نئی جگہوں کا سفر کرنا پسند کرتی ہے۔

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.ڈیوڈ سوروین AWS پروفیشنل سروسز میں ایک سینئر ڈیٹا سائنٹسٹ ہے، جہاں وہ صارفین کو AWS کلاؤڈ پر ان کے AI/ML سفر کے قابل بناتا ہے۔ ڈیوڈ ڈیجیٹل جڑواں بچوں، پیشن گوئی اور کوانٹم کمپیوٹیشن پر توجہ مرکوز کرتا ہے۔ انہوں نے یونیورسٹی آف انسبرک، آسٹریا سے نظریاتی طبیعیات میں پی ایچ ڈی کی ہے۔ وہ جرمنی میں Max-Planck-Institute for Quantum Optics میں ڈاکٹریٹ اور پوسٹ ڈاکٹریٹ کے محقق بھی تھے۔ اپنے فارغ وقت میں وہ پڑھنا، سکینگ کرنا اور اپنے خاندان کے ساتھ وقت گزارنا پسند کرتا ہے۔

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.سری کرشنا چیتنیا کونڈورو AWS پیشہ ورانہ خدمات کے ساتھ ایک سینئر ڈیٹا سائنٹسٹ ہے۔ وہ AWS پر اپنی ML ایپلیکیشنز کو پروٹو ٹائپ کرنے اور چلانے میں صارفین کی مدد کرتا ہے۔ سری کرشنا کمپیوٹر ویژن اور این ایل پی پر توجہ مرکوز کرتا ہے۔ وہ ML پلیٹ فارم ڈیزائن اور مختلف صنعتی عمودی حصوں میں صارفین کے لیے کیس کی شناخت کے اقدامات کی بھی رہنمائی کرتا ہے۔ سری کرشنا نے RWTH Aachen یونیورسٹی، جرمنی سے بایومیڈیکل انجینئرنگ میں M.Sc کیا ہے، جس کا فوکس میڈیکل امیجنگ پر ہے۔

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.احمد منصور۔ AWS پروفیشنل سروسز میں ڈیٹا سائنٹسٹ ہے۔ وہ صارفین کو AWS کلاؤڈ پر ان کے AI/ML سفر کے ذریعے تکنیکی مدد فراہم کرتا ہے۔ احمد RL کے ساتھ پروٹین ڈومین میں NLP کی درخواستوں پر توجہ مرکوز کرتا ہے۔ انہوں نے جرمنی کی ٹیکنیکل یونیورسٹی آف میونخ سے انجینئرنگ میں پی ایچ ڈی کی ہے۔ اپنے فارغ وقت میں وہ جم جانا اور اپنے بچوں کے ساتھ کھیلنا پسند کرتا ہے۔

ٹائم اسٹیمپ:

سے زیادہ AWS مشین لرننگ