สร้างและฝึกโมเดลการมองเห็นด้วยคอมพิวเตอร์เพื่อตรวจจับตำแหน่งรถในภาพโดยใช้ Amazon SageMaker และ Amazon Rekognition | บริการเว็บอเมซอน

สร้างและฝึกโมเดลการมองเห็นด้วยคอมพิวเตอร์เพื่อตรวจจับตำแหน่งรถในภาพโดยใช้ Amazon SageMaker และ Amazon Rekognition | บริการเว็บอเมซอน

คอมพิวเตอร์วิทัศน์ (CV) เป็นหนึ่งในแอปพลิเคชันการเรียนรู้ของเครื่อง (ML) และการเรียนรู้เชิงลึกที่พบบ่อยที่สุด กรณีการใช้งานมีตั้งแต่รถยนต์ที่ขับเคลื่อนด้วยตนเอง การควบคุมเนื้อหาบนแพลตฟอร์มโซเชียลมีเดีย การตรวจหามะเร็ง และการตรวจจับข้อบกพร่องอัตโนมัติ ความหมายของ Amazon เป็นบริการที่มีการจัดการเต็มรูปแบบซึ่งสามารถทำงาน CV เช่น การตรวจจับวัตถุ การตรวจจับส่วนวิดีโอ การควบคุมเนื้อหา และอื่นๆ เพื่อดึงข้อมูลเชิงลึกจากข้อมูลโดยไม่จำเป็นต้องมีประสบการณ์ ML มาก่อน ในบางกรณี อาจจำเป็นต้องใช้โซลูชันแบบกำหนดเองเพิ่มเติมพร้อมกับบริการเพื่อแก้ไขปัญหาเฉพาะเจาะจง

ในโพสต์นี้ เราจะกล่าวถึงประเด็นต่างๆ ที่ CV สามารถนำไปใช้ในกรณีที่ตำแหน่งของวัตถุ ตำแหน่ง และการวางแนวเป็นสิ่งสำคัญ กรณีการใช้งานอย่างหนึ่งคือแอปพลิเคชันมือถือที่ต้องพบปะกับลูกค้าซึ่งจำเป็นต้องอัปโหลดรูปภาพ อาจเป็นเพราะเหตุผลด้านการปฏิบัติตามข้อกำหนดหรือเพื่อมอบประสบการณ์ผู้ใช้ที่สอดคล้องกันและปรับปรุงการมีส่วนร่วม ตัวอย่างเช่น บนแพลตฟอร์มช้อปปิ้งออนไลน์ มุมที่ผลิตภัณฑ์แสดงในรูปภาพมีผลต่ออัตราการซื้อผลิตภัณฑ์นี้ กรณีหนึ่งคือการตรวจจับตำแหน่งของรถยนต์ เราสาธิตวิธีที่คุณสามารถรวมโซลูชัน ML ที่รู้จักกันดีเข้ากับการประมวลผลภายหลังเพื่อแก้ไขปัญหานี้บน AWS Cloud

เราใช้โมเดลการเรียนรู้เชิงลึกเพื่อแก้ไขปัญหานี้ อัลกอริธึม ML การฝึกอบรมสำหรับการประมาณท่าทางต้องใช้ความเชี่ยวชาญและข้อมูลการฝึกอบรมที่กำหนดเองจำนวนมาก ข้อกำหนดทั้งสองนั้นยากและมีค่าใช้จ่ายสูงในการได้มา ดังนั้นเราจึงนำเสนอสองตัวเลือก: ตัวเลือกหนึ่งไม่จำเป็นต้องใช้ความเชี่ยวชาญด้าน ML และใช้ Amazon Rekognition และอีกตัวเลือกหนึ่งที่ใช้ อเมซอน SageMaker เพื่อฝึกอบรมและปรับใช้โมเดล ML แบบกำหนดเอง ในตัวเลือกแรก เราใช้ Amazon Rekognition เพื่อตรวจจับล้อรถ จากนั้นเราจะสรุปการวางแนวของรถจากตำแหน่งล้อโดยใช้ระบบตามกฎ ในตัวเลือกที่สอง เราจะตรวจจับล้อและชิ้นส่วนอื่นๆ ของรถยนต์โดยใช้ เครื่องตรวจจับ แบบอย่าง. สิ่งเหล่านี้ถูกนำมาใช้อีกครั้งเพื่ออนุมานตำแหน่งรถด้วยรหัสตามกฎ ตัวเลือกที่สองต้องใช้ประสบการณ์ ML แต่ก็ปรับแต่งได้มากกว่าเช่นกัน สามารถใช้สำหรับการประมวลผลภาพเพิ่มเติมได้ เช่น การครอบตัดรถยนต์ทั้งหมด ทั้งสองตัวเลือกสามารถฝึกกับชุดข้อมูลที่เปิดเผยต่อสาธารณะได้ สุดท้ายนี้ เราจะแสดงวิธีที่คุณสามารถรวมโซลูชันการตรวจจับท่าทางของรถเข้ากับเว็บแอปพลิเคชันที่มีอยู่ของคุณโดยใช้บริการต่างๆ เช่น Amazon API Gateway Amazon และ AWS ขยาย.

ภาพรวมโซลูชัน

ไดอะแกรมต่อไปนี้แสดงสถาปัตยกรรมโซลูชัน

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

โซลูชันประกอบด้วยเว็บแอปพลิเคชันจำลองใน Amplify ซึ่งผู้ใช้สามารถอัปโหลดรูปภาพและเรียกใช้โมเดล Amazon Rekognition หรือโมเดล Detectron แบบกำหนดเองเพื่อตรวจจับตำแหน่งของรถ สำหรับแต่ละตัวเลือก เราเป็นเจ้าภาพ AWS แลมบ์ดา ทำงานเบื้องหลัง API Gateway ที่เปิดเผยต่อแอปพลิเคชันจำลองของเรา เรากำหนดค่าฟังก์ชัน Lambda ให้ทำงานด้วยโมเดล Detectron ที่ได้รับการฝึกใน SageMaker หรือ Amazon Rekognition

เบื้องต้น

สำหรับคำแนะนำนี้ คุณควรมีข้อกำหนดเบื้องต้นต่อไปนี้:

สร้างแอปแบบไร้เซิร์ฟเวอร์โดยใช้ Amazon Rekognition

ตัวเลือกแรกของเราสาธิตวิธีที่คุณสามารถตรวจจับทิศทางของรถในภาพโดยใช้ Amazon Rekognition แนวคิดก็คือการใช้ Amazon Rekognition เพื่อตรวจจับตำแหน่งของรถและล้อ จากนั้นจึงดำเนินการภายหลังเพื่อให้ได้ทิศทางของรถจากข้อมูลนี้ โซลูชันทั้งหมดถูกปรับใช้โดยใช้ Lambda ดังที่แสดงใน ที่เก็บ Github. โฟลเดอร์นี้ประกอบด้วยไฟล์หลักสองไฟล์: Dockerfile ที่กำหนดอิมเมจ Docker ที่จะทำงานในฟังก์ชัน Lambda ของเรา และ app.py ซึ่งจะเป็นจุดเข้าหลักของฟังก์ชัน Lambda:

def lambda_handler(event, context): body_bytes = json.loads(event["body"])["image"].split(",")[-1] body_bytes = base64.b64decode(body_bytes) rek = boto3.client('rekognition') response = rek.detect_labels(Image={'Bytes': body_bytes}, MinConfidence=80) angle, img = label_image(img_string=body_bytes, response=response) buffered = BytesIO() img.save(buffered, format="JPEG") img_str = "data:image/jpeg;base64," + base64.b64encode(buffered.getvalue()).decode('utf-8')

ฟังก์ชัน Lambda คาดหวังเหตุการณ์ที่มีส่วนหัวและเนื้อหา โดยที่เนื้อหาควรเป็นรูปภาพที่จำเป็นในการติดป้ายกำกับว่าเป็นวัตถุที่ถอดรหัส base64 เมื่อพิจารณาจากภาพแล้ว Amazon Rekognition detect_labels ฟังก์ชันถูกเรียกใช้จากฟังก์ชัน Lambda โดยใช้ โบโต3. ฟังก์ชันส่งคืนป้ายกำกับอย่างน้อยหนึ่งรายการสำหรับแต่ละออบเจ็กต์ในรูปภาพและรายละเอียดกรอบขอบเขตสำหรับป้ายกำกับออบเจ็กต์ที่ตรวจพบทั้งหมดซึ่งเป็นส่วนหนึ่งของการตอบสนอง พร้อมด้วยข้อมูลอื่นๆ เช่น ความเชื่อมั่นของป้ายกำกับที่กำหนด ป้ายกำกับระดับบนสุดของป้ายกำกับที่ตรวจพบ นามแฝงของป้ายกำกับ และหมวดหมู่ของป้ายกำกับที่ตรวจพบ เราเรียกใช้ฟังก์ชันนี้โดยยึดตามป้ายกำกับที่ Amazon Rekognition ส่งคืน label_imageซึ่งคำนวณมุมรถจากล้อที่ตรวจพบดังนี้

n_wheels = len(wheel_instances) wheel_centers = [np.array(_extract_bb_coords(wheel, img)).mean(axis=0)
for wheel in wheel_instances] wheel_center_comb = list(combinations(wheel_centers, 2))
vecs = [(k, pair[0] - pair[1]) for k,pair in enumerate(wheel_center_comb)]
vecs = sorted(vecs, key = lambda vec: np.linalg.norm(vec[1])) vec_rel = vecs[1] if n_wheels == 3 else vecs[0]
angle = math.degrees(math.atan(vec_rel[1][1]/vec_rel[1][0])) wheel_centers_rel = [tuple(wheel.tolist()) for wheel in
wheel_center_comb[vec_rel[0]]]

โปรดทราบว่าแอปพลิเคชันต้องการให้มีรถยนต์เพียงคันเดียวอยู่ในรูปภาพ และส่งคืนข้อผิดพลาดหากไม่เป็นเช่นนั้น อย่างไรก็ตาม การประมวลผลภายหลังสามารถปรับเปลี่ยนเพื่อให้คำอธิบายการวางแนวที่ละเอียดยิ่งขึ้น ครอบคลุมรถยนต์หลายคัน หรือคำนวณการวางแนวของวัตถุที่ซับซ้อนมากขึ้น

ปรับปรุงการตรวจจับล้อ

คุณสามารถใช้เพื่อปรับปรุงความแม่นยำของการตรวจจับล้อเพิ่มเติมได้ ป้ายกำกับที่กำหนดเองของ Amazon Rekognition. เช่นเดียวกับการปรับแต่งอย่างละเอียดโดยใช้ SageMaker เพื่อฝึกฝนและปรับใช้โมเดล ML แบบกำหนดเอง คุณสามารถนำข้อมูลที่ติดป้ายกำกับของคุณเองมาเพื่อให้ Amazon Rekognition สามารถสร้างโมเดลการวิเคราะห์รูปภาพแบบกำหนดเองสำหรับคุณได้ภายในเวลาเพียงไม่กี่ชั่วโมง ด้วย Rekognition Custom Labels คุณเพียงต้องการชุดรูปภาพการฝึกชุดเล็กๆ ที่เหมาะกับกรณีการใช้งานของคุณโดยเฉพาะ ในกรณีนี้คือรูปภาพรถยนต์ที่มีมุมเฉพาะ เนื่องจากจะใช้ความสามารถที่มีอยู่ใน Amazon Rekognition ในการฝึกกับรูปภาพนับสิบล้านทั่ว หลายประเภท Rekognition Custom Labels สามารถผสานรวมได้ด้วยการคลิกเพียงไม่กี่ครั้งและการปรับเปลี่ยนเล็กน้อยกับฟังก์ชัน Lambda ที่เราใช้สำหรับโซลูชัน Amazon Rekognition มาตรฐาน

ฝึกโมเดลโดยใช้งานการฝึก SageMaker

ในตัวเลือกที่สอง เราฝึกอบรมโมเดลการเรียนรู้เชิงลึกแบบกำหนดเองบน SageMaker เราใช้ เฟรมเวิร์ก Detectron2 เพื่อการแบ่งส่วนชิ้นส่วนรถยนต์ ส่วนเหล่านี้จะถูกนำมาใช้เพื่ออนุมานตำแหน่งของรถ

เฟรมเวิร์ก Detectron2 เป็นไลบรารีที่ให้อัลกอริธึมการตรวจจับและการแบ่งส่วนที่ล้ำสมัย Detectron นำเสนอโมเดล Mask R-CNN ที่หลากหลายซึ่งได้รับการฝึกฝนเกี่ยวกับชุดข้อมูล COCO (วัตถุทั่วไปในบริบท) ที่มีชื่อเสียง ในการสร้างโมเดลการตรวจจับวัตถุในรถยนต์ เราใช้การเรียนรู้แบบถ่ายโอนเพื่อปรับแต่งโมเดล Mask R-CNN ที่ได้รับการฝึกล่วงหน้าบน การแบ่งส่วนชิ้นส่วนรถยนต์ ชุดข้อมูล ชุดข้อมูลนี้ช่วยให้เราฝึกโมเดลที่สามารถตรวจจับล้อและชิ้นส่วนอื่นๆ ของรถยนต์ได้ ข้อมูลเพิ่มเติมนี้สามารถนำมาใช้เพิ่มเติมในการคำนวณมุมของรถที่สัมพันธ์กับภาพได้

ชุดข้อมูลประกอบด้วยข้อมูลคำอธิบายประกอบของชิ้นส่วนรถยนต์ที่จะใช้สำหรับการตรวจจับวัตถุและงานการแบ่งส่วนความหมาย: รูปภาพประมาณ 500 รูปของรถเก๋ง รถปิคอัพ และรถอเนกประสงค์ (SUV) ที่ถ่ายในหลายมุมมอง (มุมมองด้านหน้า ด้านหลัง และด้านข้าง) แต่ละภาพจะมีคำอธิบายประกอบด้วยมาสก์ 18 ตัวอย่างและกล่องขอบที่แสดงถึงส่วนต่างๆ ของรถ เช่น ล้อ กระจก ไฟหน้า และกระจกหน้าและหลัง เราได้แก้ไขคำอธิบายประกอบพื้นฐานของล้อเพื่อให้แต่ละล้อถือเป็นวัตถุเดี่ยว แทนที่จะพิจารณาล้อที่มีอยู่ทั้งหมดในรูปภาพเป็นวัตถุเดียว

เราใช้ บริการจัดเก็บข้อมูลอย่างง่ายของ Amazon (Amazon S3) เพื่อจัดเก็บชุดข้อมูลที่ใช้สำหรับการฝึกโมเดล Detectron พร้อมกับอาร์ติแฟกต์ของโมเดลที่ได้รับการฝึก นอกจากนี้ คอนเทนเนอร์ Docker ที่ทำงานในฟังก์ชัน Lambda จะถูกจัดเก็บไว้ด้วย การลงทะเบียน Amazon Elastic Container (อเมซอน อีซีอาร์). จำเป็นต้องใช้คอนเทนเนอร์ Docker ในฟังก์ชัน Lambda เพื่อรวมไลบรารีที่จำเป็นและการขึ้นต่อกันสำหรับการเรียกใช้โค้ด เราสามารถใช้แทนกันได้ ชั้นแลมบ์ดาแต่จำกัดอยู่ที่โควต้าแพ็กเกจการใช้งานแบบคลายซิปที่ 250 MB และสามารถเพิ่มได้สูงสุด XNUMX เลเยอร์ในฟังก์ชัน Lambda

โซลูชันของเราสร้างขึ้นบน SageMaker: เราขยายที่สร้างไว้ล่วงหน้า คอนเทนเนอร์ SageMaker Docker สำหรับ PyTorch เพื่อรัน PyTorch ที่เรากำหนดเอง รหัสการฝึกอบรม. ต่อไป เราใช้ SageMaker Python SDK เพื่อรวมอิมเมจการฝึกลงในตัวประมาณค่า SageMaker PyTorch ดังที่แสดงในตัวอย่างโค้ดต่อไปนี้:

d2_estimator = Estimator( image_uri=training_image_uri, role=role, sagemaker_session=sm_session, instance_count=1, instance_type=training_instance, output_path=f"s3://{session_bucket}/{prefix_model}", base_job_name=f"detectron2") d2_estimator.fit({ "training": training_channel, "validation": validation_channel, }, wait=True)

ในที่สุดเราก็เริ่มงานฝึกอบรมด้วยการเรียก fit() ฟังก์ชั่นบนตัวประมาณค่า PyTorch ที่สร้างขึ้น เมื่อการฝึกเสร็จสิ้น อาร์ติแฟกต์ของโมเดลที่ได้รับการฝึกจะถูกจัดเก็บไว้ในบัคเก็ตเซสชันใน Amazon S3 เพื่อใช้สำหรับไปป์ไลน์การอนุมาน

ปรับใช้โมเดลโดยใช้ SageMaker และไปป์ไลน์การอนุมาน

นอกจากนี้เรายังใช้ SageMaker เพื่อโฮสต์ตำแหน่งข้อมูลการอนุมานที่รันโมเดล Detectron แบบกำหนดเองของเรา โครงสร้างพื้นฐานเต็มรูปแบบที่ใช้ในการปรับใช้โซลูชันของเราได้รับการจัดเตรียมโดยใช้ AWS CDK เราสามารถโฮสต์โมเดลที่เรากำหนดเองได้ผ่านทาง จุดสิ้นสุดแบบเรียลไทม์ของ SageMaker โทร deploy บนตัวประมาณค่า PyTorch นี่เป็นครั้งที่สองที่เราขยายคอนเทนเนอร์ SageMaker PyTorch ที่สร้างไว้ล่วงหน้าให้รวม PyTorch Detectron ไว้ด้วย เราใช้มันเพื่อรันสคริปต์การอนุมานและโฮสต์โมเดล PyTorch ที่ผ่านการฝึกอบรมของเราดังนี้:

model = PyTorchModel( name="d2-sku110k-model", model_data=d2_estimator.model_data, role=role, sagemaker_session=sm_session, entry_point="predict.py", source_dir="src", image_uri=serve_image_uri, framework_version="1.6.0") predictor = model.deploy( initial_instance_count=1, instance_type="ml.g4dn.xlarge", endpoint_name="detectron-endpoint", serializer=sagemaker.serializers.JSONSerializer(), deserializer=sagemaker.deserializers.JSONDeserializer(), wait=True)

โปรดทราบว่าเราใช้ ml.g4dn.xlarge GPU สำหรับการปรับใช้ เนื่องจากเป็น GPU ที่เล็กที่สุดที่มีอยู่และเพียงพอสำหรับการสาธิตนี้ จำเป็นต้องกำหนดค่าสององค์ประกอบในของเรา สคริปต์อนุมาน: การโหลดโมเดลและการให้บริการโมเดล ฟังก์ชั่น model_fn() ใช้เพื่อโหลดโมเดลที่ได้รับการฝึกซึ่งเป็นส่วนหนึ่งของคอนเทนเนอร์ Docker ที่โฮสต์ และยังสามารถพบได้ใน Amazon S3 และส่งคืนออบเจ็กต์โมเดลที่สามารถใช้สำหรับการให้บริการโมเดลได้ดังต่อไปนี้:

def model_fn(model_dir: str) -> DefaultPredictor: for p_file in Path(model_dir).iterdir(): if p_file.suffix == ".pth": path_model = p_file cfg = get_cfg() cfg.MODEL.WEIGHTS = str(path_model) return DefaultPredictor(cfg)

ฟังก์ชั่น predict_fn() ดำเนินการทำนายและส่งกลับผลลัพธ์ นอกจากการใช้โมเดลที่ได้รับการฝึกแล้ว เรายังใช้โมเดล Mask R-CNN เวอร์ชันที่ได้รับการฝึกมาก่อนซึ่งฝึกกับชุดข้อมูล COCO เพื่อดึงรถหลักในภาพออกมา นี่เป็นขั้นตอนหลังการประมวลผลเพิ่มเติมเพื่อจัดการกับภาพที่มีรถยนต์มากกว่าหนึ่งคัน ดูรหัสต่อไปนี้:

def predict_fn(input_img: np.ndarray, predictor: DefaultPredictor) -> Mapping: pretrained_predictor = _get_pretraind_model() car_mask = get_main_car_mask(pretrained_predictor, input_img) outputs = predictor(input_img) fmt_out = { "image_height": input_object.shape[0], "image_width": input_object.shape[1], "pred_boxes": outputs["instances"].pred_boxes.tensor.tolist(), "scores": outputs["instances"].scores.tolist(), "pred_classes": outputs["instances"].pred_classes.tolist(), "car_mask": car_mask.tolist() } return fmt_out

เช่นเดียวกับโซลูชัน Amazon Rekognition กล่องขอบเขตที่คาดการณ์ไว้สำหรับ wheel คลาสจะถูกกรองจากเอาต์พุตการตรวจจับและจ่ายให้กับโมดูลหลังการประมวลผลเพื่อประเมินตำแหน่งของรถยนต์ที่สัมพันธ์กับเอาต์พุต

สุดท้ายนี้ เรายังปรับปรุงการประมวลผลภายหลังสำหรับโซลูชัน Detectron อีกด้วย นอกจากนี้ยังใช้ส่วนของชิ้นส่วนรถยนต์ต่างๆ เพื่อสรุปวิธีแก้ปัญหา ตัวอย่างเช่น เมื่อใดก็ตามที่ตรวจพบกันชนหน้า แต่ไม่มีกันชนหลัง จะถือว่าเรามีมุมมองด้านหน้าของรถและจะคำนวณมุมที่สอดคล้องกัน

เชื่อมต่อโซลูชันของคุณกับเว็บแอปพลิเคชัน

ขั้นตอนในการเชื่อมต่อตำแหน่งข้อมูลโมเดลกับ Amplify มีดังต่อไปนี้:

  • โคลนพื้นที่เก็บข้อมูลแอปพลิเคชันที่สแต็ก AWS CDK สร้างขึ้นและตั้งชื่อ car-angle-detection-website-repo. ตรวจสอบให้แน่ใจว่าคุณกำลังค้นหามันในภูมิภาคที่คุณใช้ในการปรับใช้
  • คัดลอกตำแหน่งข้อมูล API Gateway สำหรับแต่ละฟังก์ชัน Lambda ที่ปรับใช้ลงใน index.html ไฟล์ในพื้นที่เก็บข้อมูลก่อนหน้า (มีตัวยึดตำแหน่งที่ต้องวางตำแหน่งข้อมูล) รหัสต่อไปนี้เป็นตัวอย่างลักษณะของส่วนนี้ของไฟล์ .html:
<td align="center" colspan="2">
<select id="endpoint">
<option value="https://ey82aaj8ch.execute-api.eu-central-1.amazonaws.com/prod/"> Amazon Rekognition</option>
<option value="https://nhq6q88xjg.execute-api.eu-central-1.amazonaws.com/prod/"> Amazon SageMaker Detectron</option>
</select>
<input class="btn" type="file" id="ImageBrowse" />
<input class="btn btn-primary" type="submit" value="Upload">
</td>

  • บันทึกไฟล์ HTML และพุชการเปลี่ยนแปลงโค้ดไปที่สาขาหลักระยะไกล

สิ่งนี้จะอัปเดตไฟล์ HTML ในการปรับใช้ แอปพลิเคชันพร้อมใช้งานแล้ว

  • ไปที่คอนโซล Amplify และค้นหาโปรเจ็กต์ที่คุณสร้างขึ้น

URL ของแอปพลิเคชันจะปรากฏให้เห็นหลังจากการปรับใช้เสร็จสมบูรณ์

  • นำทางไปยัง URL และสนุกกับ UI

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

สรุป

ยินดีด้วย! เราได้ปรับใช้สถาปัตยกรรมไร้เซิร์ฟเวอร์ที่สมบูรณ์ซึ่งเราใช้ Amazon Rekognition แต่ยังให้ตัวเลือกสำหรับโมเดลที่คุณกำหนดเองด้วย โดยมีตัวอย่างนี้อยู่ใน GitHub. หากคุณไม่มีความเชี่ยวชาญด้าน ML ในทีมหรือมีข้อมูลที่กำหนดเองไม่เพียงพอที่จะฝึกโมเดล คุณสามารถเลือกตัวเลือกที่ใช้ Amazon Rekognition ได้ หากคุณต้องการควบคุมโมเดลของคุณมากขึ้น ต้องการปรับแต่งเพิ่มเติม และมีข้อมูลเพียงพอ คุณสามารถเลือกโซลูชัน SageMaker ได้ หากคุณมีทีมนักวิทยาศาสตร์ข้อมูล พวกเขาอาจต้องการปรับปรุงแบบจำลองเพิ่มเติมและเลือกตัวเลือกที่กำหนดเองและยืดหยุ่นมากขึ้น คุณสามารถวางฟังก์ชัน Lambda และ API Gateway ไว้ด้านหลังเว็บแอปพลิเคชันของคุณได้โดยใช้ตัวเลือกใดตัวเลือกหนึ่งจากสองตัวเลือกนี้ คุณยังใช้แนวทางนี้กับกรณีการใช้งานอื่นที่คุณอาจต้องการปรับเปลี่ยนโค้ดได้ด้วย

ข้อดีของสถาปัตยกรรมแบบไร้เซิร์ฟเวอร์นี้คือ Building Block สามารถแลกเปลี่ยนได้อย่างสมบูรณ์ โอกาสนั้นแทบจะไร้ขีดจำกัด ดังนั้นเริ่มต้นวันนี้เลย!

เช่นเคย AWS ยินดีรับข้อเสนอแนะ กรุณาส่งความคิดเห็นหรือคำถามใด ๆ


เกี่ยวกับผู้เขียน

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.ไมเคิล วอลล์เนอร์ เป็นที่ปรึกษาอาวุโสด้านข้อมูลและ AI พร้อมด้วย AWS Professional Services และมีความกระตือรือร้นในการช่วยให้ลูกค้าเดินทางสู่การขับเคลื่อนด้วยข้อมูลและ AWSome ใน AWS Cloud ยิ่งไปกว่านั้น เขาชอบคิดการใหญ่กับลูกค้าเพื่อสร้างสรรค์และสร้างสรรค์แนวคิดใหม่ๆ ให้กับลูกค้า

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.อามนะ นัจมี เป็นนักวิทยาศาสตร์ข้อมูลที่มี AWS Professional Services เธอมีความกระตือรือร้นในการช่วยให้ลูกค้าสร้างสรรค์สิ่งใหม่ๆ ด้วยเทคโนโลยี Big Data และปัญญาประดิษฐ์ เพื่อใช้ประโยชน์จากมูลค่าทางธุรกิจและข้อมูลเชิงลึกจากข้อมูล เธอมีประสบการณ์ในการทำงานบนแพลตฟอร์มข้อมูลและโครงการ AI/ML ในธุรกิจการดูแลสุขภาพและวิทยาศาสตร์เพื่อชีวิต ในเวลาว่าง เธอชอบทำสวนและท่องเที่ยวไปยังสถานที่ใหม่ๆ

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.เดวิด เซาเออร์ไวน์ เป็นนักวิทยาศาสตร์ข้อมูลอาวุโสที่ AWS Professional Services ซึ่งเขาช่วยให้ลูกค้าเดินทางด้วย AI/ML บน AWS Cloud David มุ่งเน้นไปที่ฝาแฝดดิจิทัล การพยากรณ์ และการคำนวณควอนตัม เขาสำเร็จการศึกษาระดับปริญญาเอกสาขาฟิสิกส์ทฤษฎีจากมหาวิทยาลัยอินส์บรุค ประเทศออสเตรีย เขายังเป็นนักวิจัยระดับปริญญาเอกและหลังปริญญาเอกที่ Max-Planck-Institute for Quantum Optics ในประเทศเยอรมนี ในเวลาว่างเขาชอบอ่านหนังสือ เล่นสกี และใช้เวลาอยู่กับครอบครัว

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.ศรีกฤษณะ ชัยธัญญา คอนดูรู เป็นนักวิทยาศาสตร์ข้อมูลอาวุโสพร้อมบริการระดับมืออาชีพของ AWS เขาสนับสนุนลูกค้าในการสร้างต้นแบบและดำเนินการแอปพลิเคชัน ML บน AWS Srikrishna มุ่งเน้นไปที่คอมพิวเตอร์วิทัศน์และ NLP นอกจากนี้เขายังเป็นผู้นำในการออกแบบแพลตฟอร์ม ML และริเริ่มการระบุกรณีการใช้งานสำหรับลูกค้าในอุตสาหกรรมแนวดิ่งที่หลากหลาย Srikrishna สำเร็จการศึกษาระดับปริญญาโทสาขาวิศวกรรมชีวการแพทย์จากมหาวิทยาลัย RWTH Aachen ประเทศเยอรมนี โดยเน้นด้านการถ่ายภาพทางการแพทย์

Build and train computer vision models to detect car positions in images using Amazon SageMaker and Amazon Rekognition | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Ahmed Mansour เป็นนักวิทยาศาสตร์ข้อมูลที่ AWS Professional Services เขาให้การสนับสนุนทางเทคนิคแก่ลูกค้าผ่านการเดินทางของ AI/ML บน AWS Cloud อาเหม็ดมุ่งเน้นไปที่การประยุกต์ใช้ NLP กับโดเมนโปรตีนควบคู่ไปกับ RL เขามีปริญญาเอกสาขาวิศวกรรมศาสตร์จากมหาวิทยาลัยเทคนิคมิวนิก ประเทศเยอรมนี ในเวลาว่างเขาชอบไปยิมและเล่นกับลูกๆ

ประทับเวลา:

เพิ่มเติมจาก AWS Machine Learning AWS

Amazon Q Business และ Amazon Q ใน QuickSight ช่วยให้พนักงานขับเคลื่อนข้อมูลได้มากขึ้น และตัดสินใจได้ดีขึ้นและเร็วขึ้นโดยใช้ความรู้ของบริษัท | อเมซอนเว็บเซอร์วิส

โหนดต้นทาง: 1969885
ประทับเวลา: เมษายน 30, 2024