قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | خدمات الويب الأمازون

قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | خدمات الويب الأمازون

تقارير الأشعة هي وثائق شاملة وطويلة تصف وتفسر نتائج فحص التصوير الإشعاعي. في سير العمل النموذجي، يشرف أخصائي الأشعة على الصور ويقرأها ويفسرها، ثم يلخص النتائج الرئيسية بإيجاز. التلخيص (أو الانطباع) هو الجزء الأكثر أهمية في التقرير لأنه يساعد الأطباء والمرضى على التركيز على المحتويات الهامة للتقرير الذي يحتوي على معلومات لاتخاذ القرارات السريرية. يتطلب خلق انطباع واضح ومؤثر جهدًا أكبر بكثير من مجرد إعادة صياغة النتائج. وبالتالي فإن العملية برمتها شاقة، وتستغرق وقتا طويلا، وعرضة للخطأ. غالبا ما يستغرق سنوات من السلامه اولا لكي يتمكن الأطباء من تجميع ما يكفي من الخبرة في كتابة ملخصات موجزة وغنية بالمعلومات لتقارير الأشعة، مما يسلط الضوء بشكل أكبر على أهمية أتمتة العملية. بالإضافة إلى ذلك، الإنشاء التلقائي لتلخيص نتائج التقرير أمر بالغ الأهمية لتقارير الأشعة. فهو يتيح ترجمة التقارير إلى لغة يمكن قراءتها بواسطة الإنسان، وبالتالي تخفيف عبء القراءة على المرضى من خلال التقارير الطويلة والغامضة.

لحل هذه المشكلة، نقترح استخدام الذكاء الاصطناعي التوليدي، وهو نوع من الذكاء الاصطناعي يمكنه إنشاء محتوى وأفكار جديدة، بما في ذلك المحادثات والقصص والصور ومقاطع الفيديو والموسيقى. يتم تشغيل الذكاء الاصطناعي التوليدي بواسطة نماذج التعلم الآلي (ML)، وهي نماذج كبيرة جدًا تم تدريبها مسبقًا على كميات هائلة من البيانات ويشار إليها عادةً باسم النماذج الأساسية (FMs). أدت التطورات الأخيرة في تعلم الآلة (على وجه التحديد اختراع بنية الشبكة العصبية القائمة على المحولات) إلى ظهور النماذج التي تحتوي على مليارات من المعلمات أو المتغيرات. يستخدم الحل المقترح في هذا المنشور الضبط الدقيق لنماذج اللغات الكبيرة المدربة مسبقًا (LLMs) للمساعدة في إنشاء ملخصات بناءً على النتائج الواردة في تقارير الأشعة.

يوضح هذا المنشور استراتيجية لضبط شهادات LLM المتاحة للعامة لمهمة تلخيص تقرير الأشعة باستخدام خدمات AWS. لقد أظهرت LLMs قدرات ملحوظة في فهم اللغة الطبيعية وتوليدها، وهي بمثابة نماذج أساسية يمكن تكييفها مع مختلف المجالات والمهام. هناك فوائد كبيرة لاستخدام نموذج تم تدريبه مسبقًا. فهو يقلل من تكاليف الحساب، ويقلل من آثار الكربون، ويسمح لك باستخدام أحدث النماذج دون الحاجة إلى تدريب أحد النماذج من الصفر.

يستخدم الحل لدينا فلان-T5 XL إف إم، باستخدام أمازون سيج ميكر جومب ستارت، وهو مركز تعلم الآلة يقدم الخوارزميات والنماذج وحلول تعلم الآلة. نوضح كيفية تحقيق ذلك باستخدام دفتر ملاحظات في أمازون ساجميكر ستوديو. يتضمن الضبط الدقيق للنموذج الذي تم تدريبه مسبقًا مزيدًا من التدريب على بيانات محددة لتحسين الأداء في مهمة مختلفة ولكنها ذات صلة. يتضمن هذا الحل ضبط نموذج FLAN-T5 XL، وهو نسخة محسنة من T5 (محول نقل النص إلى النص) LLMs للأغراض العامة. يعيد T5 صياغة مهام معالجة اللغة الطبيعية (NLP) في تنسيق موحد لتحويل النص إلى نص، على عكس بيرتنماذج النمط التي يمكنها فقط إخراج تسمية فئة أو نطاق الإدخال. تم ضبطه بشكل دقيق للقيام بمهمة تلخيص لـ 91,544 تقريرًا إشعاعيًا نصيًا حرًا تم الحصول عليها من مجموعة بيانات MIMIC-CXR.

نظرة عامة على الحل

في هذا القسم، نناقش المكونات الرئيسية للحل الذي نقدمه: اختيار استراتيجية المهمة، وضبط ماجستير إدارة الأعمال، وتقييم النتائج. نوضح أيضًا بنية الحل وخطوات تنفيذ الحل.

تحديد استراتيجية المهمة

هناك استراتيجيات مختلفة للتعامل مع مهمة أتمتة تلخيص التقارير السريرية. على سبيل المثال، يمكننا استخدام نموذج لغة متخصص تم تدريبه مسبقًا على التقارير السريرية من الصفر. وبدلاً من ذلك، يمكننا مباشرة ضبط نموذج لغة للأغراض العامة متاح للعامة لأداء المهمة السريرية. قد يكون من الضروري استخدام نموذج دقيق لا يعتمد على المجال في الإعدادات التي يتم فيها التدريب نموذج اللغة من الصفر مكلفة للغاية. في هذا الحل، نعرض النهج الأخير لاستخدام نموذج FLAN -T5 XL، والذي نقوم بضبطه للمهمة السريرية المتمثلة في تلخيص تقارير الأشعة. ويوضح الرسم البياني التالي سير عمل النموذج.

قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | أمازون ويب سيرفيسز PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

يكون تقرير الأشعة النموذجي منظمًا جيدًا وموجزًا. غالبًا ما تحتوي هذه التقارير على ثلاثة أقسام رئيسية:

  • خلفيّة – يوفر معلومات عامة عن التركيبة السكانية للمريض مع المعلومات الأساسية عن المريض والتاريخ السريري والتاريخ الطبي ذي الصلة وتفاصيل إجراءات الفحص
  • النتائج – يقدم تشخيص الامتحان التفصيلي والنتائج
  • طبع – يلخص بإيجاز أبرز النتائج أو تفسير النتائج مع تقييم الأهمية والتشخيص المحتمل بناءً على التشوهات الملحوظة

باستخدام قسم النتائج في تقارير الأشعة، يقوم الحل بإنشاء قسم الانطباع، والذي يتوافق مع تلخيص الأطباء. الشكل التالي هو مثال لتقرير الأشعة.

قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | أمازون ويب سيرفيسز PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

صقل ماجستير في القانون للأغراض العامة لمهمة سريرية

في هذا الحل، نقوم بضبط نموذج FLAN-T5 XL (ضبط جميع معلمات النموذج وتحسينها للمهمة). نقوم بضبط النموذج باستخدام مجموعة بيانات المجال السريري تقليد-CXR، وهي مجموعة بيانات متاحة للجمهور من الصور الشعاعية للصدر. لضبط هذا النموذج من خلال SageMaker Jumpstart، يجب توفير الأمثلة المصنفة في شكل أزواج {prompt,Complete}. في هذه الحالة، نستخدم أزواجًا من {النتائج والانطباعات} من التقارير الأصلية في مجموعة بيانات MIMIC-CXR. للاستدلال، نستخدم الموجه كما هو موضح في المثال التالي:

قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | أمازون ويب سيرفيسز PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

تم ضبط النموذج بدقة على الحوسبة المتسارعة مل. 3.16xlarge مثيل مع 64 وحدة معالجة مركزية افتراضية وذاكرة تبلغ 488 جيجا بايت. للتحقق من الصحة، تم اختيار 5٪ من مجموعة البيانات بشكل عشوائي. كان الوقت المنقضي لمهمة تدريب SageMaker مع الضبط الدقيق 38,468 ثانية (حوالي 11 ساعة).

قيم النتائج

عند اكتمال التدريب، من المهم تقييم النتائج. لإجراء تحليل كمي للانطباع الناتج، نستخدم ROUGE (الدراسة الموجهة نحو الاستدعاء لتقييم الإدراج)، وهو المقياس الأكثر استخدامًا لتقييم التلخيص. يقوم هذا المقياس بمقارنة الملخص الذي يتم إنتاجه تلقائيًا مع ملخص أو ترجمة مرجعية أو مجموعة من المراجع (من إنتاج الإنسان). يشير ROUGE1 إلى تداخل com.unigrams (كل كلمة) بين المرشح (مخرجات النموذج) وملخصات المراجع. يشير ROUGE2 إلى تداخل بيجرامز (كلمتان) بين ملخص المرشح والمرجع. ROUGEL هو مقياس على مستوى الجملة ويشير إلى أطول تسلسل مشترك (LCS) بين قطعتين من النص. يتجاهل الأسطر الجديدة في النص. ROUGELsum هو مقياس على مستوى الملخص. بالنسبة لهذا المقياس، لا يتم تجاهل الأسطر الجديدة في النص ولكن يتم تفسيرها على أنها حدود للجملة. يتم بعد ذلك حساب LCS بين كل زوج من الجمل المرجعية والجمل المرشحة، ثم يتم حساب union-LCS. لتجميع هذه الدرجات على مجموعة معينة من المراجع والجمل المرشحة، يتم حساب المتوسط.

تجول والهندسة المعمارية

تتكون بنية الحل الشاملة كما هو موضح في الشكل التالي بشكل أساسي من بيئة تطوير نموذج تستخدم SageMaker Studio، ونشر النموذج باستخدام نقطة نهاية SageMaker، ولوحة معلومات إعداد التقارير باستخدام أمازون QuickSight.

قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | أمازون ويب سيرفيسز PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

في الأقسام التالية، نعرض الضبط الدقيق لمادة LLM المتاحة على SageMaker JumpStart لتلخيص مهمة خاصة بالمجال عبر SageMaker Python SDK. ونناقش على وجه الخصوص المواضيع التالية:

  • خطوات إعداد بيئة التطوير
  • نظرة عامة على مجموعات بيانات تقرير الأشعة التي تم تحسين النموذج وتقييمه بناءً عليها
  • عرض توضيحي للضبط الدقيق لنموذج FLAN-T5 XL باستخدام SageMaker JumpStart برمجيًا باستخدام SageMaker Python SDK
  • الاستدلال وتقييم النماذج المدربة مسبقًا والمضبوطة بدقة
  • مقارنة النتائج من النماذج المدربة مسبقًا والنماذج المضبوطة بدقة

الحل موجود في إنشاء انطباع تقرير الأشعة باستخدام الذكاء الاصطناعي التوليدي مع نموذج اللغة الكبير على AWS جيثب ريبو.

المتطلبات الأساسية المسبقة

للبدء، أنت بحاجة إلى حساب AWS حيث يمكنك استخدام SageMaker Studio. ستحتاج إلى إنشاء ملف تعريف مستخدم لـ SageMaker Studio إذا لم يكن لديك ملف تعريف بالفعل.

نوع مثيل التدريب المستخدم في هذا المنشور هو ml.p3.16xlarge. لاحظ أن نوع المثيل p3 يتطلب زيادة حد حصة الخدمة.

مجموعة بيانات MIMIC CXR يمكن الوصول إليها من خلال اتفاقية استخدام البيانات، والتي تتطلب تسجيل المستخدم وإكمال عملية الاعتماد.

قم بإعداد بيئة التطوير

لإعداد بيئة التطوير الخاصة بك، يمكنك إنشاء حاوية S3 وتكوين دفتر ملاحظات وإنشاء نقاط نهاية ونشر النماذج وإنشاء لوحة معلومات QuickSight.

قم بإنشاء دلو S3

قم بإنشاء دلو S3 تسمى llm-radiology-bucket لاستضافة مجموعات بيانات التدريب والتقييم. سيتم استخدام هذا أيضًا لتخزين قطعة أثرية النموذج أثناء تطوير النموذج.

تكوين دفتر ملاحظات

أكمل الخطوات التالية:

  1. قم بتشغيل SageMaker Studio إما من وحدة تحكم SageMaker أو من واجهة سطر الأوامر AWS (AWS CLI).

لمزيد من المعلومات حول الإعداد إلى المجال، راجع على متن الطائرة إلى Amazon SageMaker Domain.

  1. إنشاء جديد دفتر الملاحظات SageMaker Studio لتنظيف بيانات التقرير وضبط النموذج. نحن نستخدم مثيل الكمبيوتر الدفتري ml.t3.medium 2vCPU+4GiB مع نواة Python 3.
  1. داخل دفتر الملاحظات، قم بتثبيت الحزم ذات الصلة مثل nest-asyncio, IPyWidgets (للحصول على عناصر واجهة المستخدم التفاعلية لجهاز Jupyter Notebook)، وSageMaker Python SDK:
!pip install nest-asyncio==1.5.5 --quiet !pip install ipywidgets==8.0.4 --quiet !pip install sagemaker==2.148.0 --quiet

إنشاء نقاط النهاية ونشر النماذج للاستدلال

للاستدلال على النماذج المدربة مسبقًا والمضبوطة بدقة، إنشاء نقطة نهاية ونشر كل نموذج في دفتر على النحو التالي:

  1. قم بإنشاء كائن نموذج من فئة النموذج الذي يمكن نشره إلى نقطة نهاية HTTPS.
  2. قم بإنشاء نقطة نهاية HTTPS باستخدام كائن النموذج المُنشأ مسبقًا deploy() الأسلوب:
from sagemaker import model_uris, script_uris
from sagemaker.model import Model
from sagemaker.predictor import Predictor
from sagemaker.utils import name_from_base # Retrieve the URI of the pre-trained model
pre_trained_model_uri =model_uris.retrieve(model_id=model_id, model_version=model_version, model_scope="inference") large_model_env = {"SAGEMAKER_MODEL_SERVER_WORKERS": "1", "TS_DEFAULT_WORKERS_PER_MODEL": "1"} pre_trained_name = name_from_base(f"jumpstart-demo-pre-trained-{model_id}") # Create the SageMaker model instance of the pre-trained model
if ("small" in model_id) or ("base" in model_id): deploy_source_uri = script_uris.retrieve( model_id=model_id, model_version=model_version, script_scope="inference" ) pre_trained_model = Model( image_uri=deploy_image_uri, source_dir=deploy_source_uri, entry_point="inference.py", model_data=pre_trained_model_uri, role=aws_role, predictor_cls=Predictor, name=pre_trained_name, )
else: # For those large models, we already repack the inference script and model # artifacts for you, so the `source_dir` argument to Model is not required. pre_trained_model = Model( image_uri=deploy_image_uri, model_data=pre_trained_model_uri, role=aws_role, predictor_cls=Predictor, name=pre_trained_name, env=large_model_env, ) # Deploy the pre-trained model. Note that we need to pass Predictor class when we deploy model
# through Model class, for being able to run inference through the SageMaker API
pre_trained_predictor = pre_trained_model.deploy( initial_instance_count=1, instance_type=inference_instance_type, predictor_cls=Predictor, endpoint_name=pre_trained_name,
)

إنشاء لوحة معلومات QuickSight

إنشاء لوحة تحكم QuickSight مع مصدر بيانات أثينا مع استنتاج النتائج خدمة تخزين أمازون البسيطة (Amazon S3) لمقارنة نتائج الاستدلال بالحقيقة الأرضية. تُظهر لقطة الشاشة التالية مثالاً للوحة القيادة الخاصة بنا. قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | أمازون ويب سيرفيسز PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

مجموعات بيانات تقرير الأشعة

تم الآن ضبط النموذج بشكل دقيق، حيث تم ضبط جميع معلمات النموذج على 91,544 تقريرًا تم تنزيلها من مجموعة بيانات MIMIC-CXR v2.0. نظرًا لأننا استخدمنا فقط البيانات النصية لتقرير الأشعة، فقد قمنا بتنزيل ملف تقرير مضغوط واحد فقط (mimic-cxr-reports.zip) من موقع MIMIC-CXR. نقوم الآن بتقييم النموذج المضبوط على 2,000 تقرير (يشار إليها باسم dev1 مجموعة البيانات) من المنفصلة عقدت مجموعة فرعية من مجموعة البيانات هذه. نستخدم 2,000 تقرير إشعاعي آخر (يشار إليها باسم dev2) لتقييم النموذج المضبوط بدقة من مجموعة الأشعة السينية للصدر من شبكة مستشفيات جامعة إنديانا. تتم قراءة كافة مجموعات البيانات كملفات JSON ويتم تحميلها إلى مجموعة S3 التي تم إنشاؤها حديثًا llm-radiology-bucket. لاحظ أن جميع مجموعات البيانات لا تحتوي بشكل افتراضي على أي معلومات صحية محمية (PHI)؛ يتم استبدال جميع المعلومات الحساسة بثلاث شرطات سفلية متتالية (___) من قبل مقدمي الخدمة.

يمكنك الضبط الدقيق باستخدام SageMaker Python SDK

من أجل الضبط الدقيق، model_id تم تحديده على أنه huggingface-text2text-flan-t5-xl من قائمة نماذج SageMaker JumpStart. ال training_instance_type تم تعيينه كـ ml.p3.16xlarge و inference_instance_type مثل ml.g5.2xlarge. تتم قراءة بيانات التدريب بتنسيق JSON من مجموعة S3. الخطوة التالية هي استخدام model_id المحدد لاستخراج معرفات الموارد المنتظمة (URI) لمورد SageMaker JumpStart، بما في ذلك image_uri (لل سجل الأمازون المرنة للحاويات (Amazon ECR) URI لصورة Docker)، model_uri (النموذج المُدرب مسبقًا لـ Amazon S3 URI)، و script_uri (سيناريو التدريب):

from sagemaker import image_uris, model_uris, script_uris # Training instance will use this image
train_image_uri = image_uris.retrieve( region=aws_region, framework=None, # automatically inferred from model_id model_id=model_id, model_version=model_version, image_scope="training", instance_type=training_instance_type,
) # Pre-trained model
train_model_uri = model_uris.retrieve( model_id=model_id, model_version=model_version, model_scope="training"
) # Script to execute on the training instance
train_script_uri = script_uris.retrieve( model_id=model_id, model_version=model_version, script_scope="training"
) output_location = f"s3://{output_bucket}/demo-llm-rad-fine-tune-flan-t5/"

كما يتم أيضًا إعداد موقع الإخراج كمجلد داخل حاوية S3.

يتم تغيير معلمة تشعبية واحدة فقط، وهي العصور، إلى 3، ويتم تعيين الباقي جميعًا كإعداد افتراضي:

from sagemaker import hyperparameters # Retrieve the default hyper-parameters for fine-tuning the model
hyperparameters = hyperparameters.retrieve_default(model_id=model_id, model_version=model_version) # We will override some default hyperparameters with custom values
hyperparameters["epochs"] = "3"
print(hyperparameters)

مقاييس التدريب مثل eval_loss (لخسارة التحقق من الصحة)، loss (لخسارة التدريب)، و epoch يتم تحديد وإدراج المراد تتبعها:

from sagemaker.estimator import Estimator
from sagemaker.utils import name_from_base model_name = "-".join(model_id.split("-")[2:]) # get the most informative part of ID
training_job_name = name_from_base(f"js-demo-{model_name}-{hyperparameters['epochs']}")
print(f"{bold}job name:{unbold} {training_job_name}") training_metric_definitions = [ {"Name": "val_loss", "Regex": "'eval_loss': ([0-9.]+)"}, {"Name": "train_loss", "Regex": "'loss': ([0-9.]+)"}, {"Name": "epoch", "Regex": "'epoch': ([0-9.]+)"},
]

نحن نستخدم عناوين URI لمورد SageMaker JumpStart (image_uri, model_uri, script_uri) تم تحديده مسبقًا لإنشاء مُقدِّر وضبطه على مجموعة بيانات التدريب عن طريق تحديد مسار S3 لمجموعة البيانات. تتطلب فئة المقدر entry_point معامل. في هذه الحالة، يستخدم JumpStart transfer_learning.py. يفشل تشغيل مهمة التدريب إذا لم يتم تعيين هذه القيمة.

# Create SageMaker Estimator instance
sm_estimator = Estimator( role=aws_role, image_uri=train_image_uri, model_uri=train_model_uri, source_dir=train_script_uri, entry_point="transfer_learning.py", instance_count=1, instance_type=training_instance_type, volume_size=300, max_run=360000, hyperparameters=hyperparameters, output_path=output_location, metric_definitions=training_metric_definitions,
) # Launch a SageMaker training job over data located in the given S3 path
# Training jobs can take hours, it is recommended to set wait=False,
# and monitor job status through SageMaker console
sm_estimator.fit({"training": train_data_location}, job_name=training_job_name, wait=True)

يمكن أن تستغرق هذه المهمة التدريبية ساعات حتى تكتمل؛ لذلك، يوصى بتعيين معلمة الانتظار على False ومراقبة حالة مهمة التدريب على وحدة تحكم SageMaker. استخدم ال TrainingJobAnalytics وظيفة لتتبع مقاييس التدريب في طوابع زمنية مختلفة:

from sagemaker import TrainingJobAnalytics # Wait for a couple of minutes for the job to start before running this cell
# This can be called while the job is still running
df = TrainingJobAnalytics(training_job_name=training_job_name).dataframe()

نشر نقاط النهاية الاستدلالية

من أجل إجراء المقارنات، نقوم بنشر نقاط النهاية الاستدلالية لكل من النماذج المدربة مسبقًا والمضبوطة بدقة.

أولاً، قم باسترداد معرف URI لصورة Docker الاستدلالية باستخدامه model_id، واستخدم URI هذا لإنشاء مثيل نموذج SageMaker للنموذج المُدرب مسبقًا. انشر النموذج الذي تم تدريبه مسبقًا عن طريق إنشاء نقطة نهاية HTTPS باستخدام كائن النموذج الذي تم إنشاؤه مسبقًا deploy() طريقة. لتشغيل الاستدلال من خلال SageMaker API، تأكد من اجتياز فئة Predictor.

from sagemaker import image_uris
# Retrieve the inference docker image URI. This is the base HuggingFace container image
deploy_image_uri = image_uris.retrieve( region=aws_region, framework=None, # automatically inferred from model_id model_id=model_id, model_version=model_version, image_scope="inference", instance_type=inference_instance_type,
) # Retrieve the URI of the pre-trained model
pre_trained_model_uri = model_uris.retrieve( model_id=model_id, model_version=model_version, model_scope="inference"
) pre_trained_model = Model( image_uri=deploy_image_uri, model_data=pre_trained_model_uri, role=aws_role, predictor_cls=Predictor, name=pre_trained_name, env=large_model_env, ) # Deploy the pre-trained model. Note that we need to pass Predictor class when we deploy model
# through Model class, for being able to run inference through the SageMaker API
pre_trained_predictor = pre_trained_model.deploy( initial_instance_count=1, instance_type=inference_instance_type, predictor_cls=Predictor, endpoint_name=pre_trained_name,
)

كرر الخطوة السابقة لإنشاء مثيل نموذج SageMaker للنموذج الذي تم ضبطه بدقة وإنشاء نقطة نهاية لنشر النموذج.

تقييم النماذج

أولاً، قم بتعيين طول النص الملخص، وعدد مخرجات النموذج (يجب أن يكون أكبر من 1 إذا كانت هناك حاجة إلى إنشاء ملخصات متعددة)، وعدد حزم النموذج بحث شعاع.

أنشئ طلب الاستدلال كحمولة JSON واستخدمه للاستعلام عن نقاط النهاية للنماذج المدربة مسبقًا والمضبوطة بدقة.

حساب المجمعة عشرات الحمر (ROUGE1، ROUGE2، ROUGEL، ROUGELsum) كما هو موضح سابقًا.

قارن النتائج

والجدول التالي يوضح نتائج التقييم ل dev1 و dev2 مجموعات البيانات. نتيجة التقييم على dev1 (2,000 نتيجة من تقرير الأشعة MIMIC CXR) تُظهر تحسنًا بنسبة 38 نقطة مئوية تقريبًا في المتوسط ​​الإجمالي روج1 و روج2 النتائج مقارنة بالنموذج الذي تم تدريبه مسبقًا. بالنسبة لـ dev2، لوحظ تحسن قدره 31 نقطة مئوية و25 نقطة مئوية في درجات ROUGE1 وROUGE2. بشكل عام، أدى الضبط الدقيق إلى تحسن قدره 38.2 نقطة مئوية و31.3 نقطة مئوية في درجات ROUGELsum لـ dev1 و dev2 مجموعات البيانات، على التوالي.

التقييم

بيانات

نموذج مدرب مسبقًا نموذج مضبوط
روج1 روج2 روجيل روجيلسوم روج1 روج2 روجيل روجيلسوم
dev1 0.2239 0.1134 0.1891 0.1891 0.6040 0.4800 0.5705 0.5708
dev2 0.1583 0.0599 0.1391 0.1393 0.4660 0.3125 0.4525 0.4525

تصور مخططات الصندوق التالية توزيع درجات ROUGE لـ dev1 و dev2 تم تقييم مجموعات البيانات باستخدام النموذج الدقيق.

قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | أمازون ويب سيرفيسز PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية. قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | أمازون ويب سيرفيسز PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.
(أ): dev1 (ب): dev2

يوضح الجدول التالي أن درجات ROUGE لمجموعات بيانات التقييم لها نفس الوسيط والمتوسط ​​تقريبًا وبالتالي يتم توزيعها بشكل متماثل.

قواعد البيانات قطعة موسيقى العد التنازلي تعني الانحراف الحد الأدنى 25٪ النسبة المئوية 50٪ النسبة المئوية 75٪ النسبة المئوية أقصى
dev1 روج1 2000.00 0.6038 0.3065 0.0000 0.3653 0.6000 0.9384 1.0000
روج 2 2000.00 0.4798 0.3578 0.0000 0.1818 0.4000 0.8571 1.0000
روج ل 2000.00 0.5706 0.3194 0.0000 0.3000 0.5345 0.9101 1.0000
روجيلسوم 2000.00 0.5706 0.3194 0.0000 0.3000 0.5345 0.9101 1.0000
dev2 روج 1 2000.00 0.4659 0.2525 0.0000 0.2500 0.5000 0.7500 1.0000
روج 2 2000.00 0.3123 0.2645 0.0000 0.0664 0.2857 0.5610 1.0000
روج ل 2000.00 0.4529 0.2554 0.0000 0.2349 0.4615 0.7500 1.0000
روج لاسوم 2000.00 0.4529 0.2554 0.0000 0.2349 0.4615 0.7500 1.0000

تنظيف

لتجنب تكبد رسوم مستقبلية، احذف الموارد التي قمت بإنشائها باستخدام الكود التالي:

# Delete resources
pre_trained_predictor.delete_model()
pre_trained_predictor.delete_endpoint()
fine_tuned_predictor.delete_model()
fine_tuned_predictor.delete_endpoint()

وفي الختام

في هذا المنشور، أوضحنا كيفية ضبط نموذج FLAN-T5 XL لمهمة تلخيص سريرية خاصة بالمجال باستخدام SageMaker Studio. ولزيادة الثقة، قمنا بمقارنة التوقعات بالحقيقة الأرضية وقمنا بتقييم النتائج باستخدام مقاييس ROUGE. لقد أثبتنا أن النموذج الذي تم ضبطه جيدًا لمهمة معينة يؤدي إلى نتائج أفضل من النموذج الذي تم تدريبه مسبقًا على مهمة البرمجة اللغوية العصبية العامة. نود أن نشير إلى أن ضبط LLM للأغراض العامة يلغي تكلفة التدريب المسبق تمامًا.

على الرغم من أن العمل المقدم هنا يركز على تقارير الأشعة السينية للصدر، إلا أنه يمكن توسيعه ليشمل مجموعات بيانات أكبر ذات تشريحات وطرائق متنوعة، مثل التصوير بالرنين المغناطيسي والتصوير المقطعي المحوسب، حيث قد تكون تقارير الأشعة أكثر تعقيدًا مع نتائج متعددة. في مثل هذه الحالات، يمكن لأخصائيي الأشعة توليد انطباعات حسب درجة الأهمية وتضمين توصيات المتابعة. علاوة على ذلك، فإن إنشاء حلقة ردود فعل لهذا التطبيق من شأنه أن يمكّن أخصائيي الأشعة من تحسين أداء النموذج بمرور الوقت.

كما أظهرنا في هذا المنشور، يُنشئ النموذج المضبوط بدقة مرات ظهور لتقارير الأشعة ذات درجات ROUGE العالية. يمكنك محاولة ضبط LLMs على التقارير الطبية الأخرى الخاصة بالمجال من أقسام مختلفة.


عن المؤلفين

قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | أمازون ويب سيرفيسز PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.الدكتور أديوالي أكينفادرين هو أحد كبار علماء البيانات في الرعاية الصحية وعلوم الحياة في AWS. وتتمثل خبرته في أساليب الذكاء الاصطناعي/تعلم الآلة القابلة للتكرار والشاملة، والتطبيقات العملية، ومساعدة عملاء الرعاية الصحية العالميين على صياغة وتطوير حلول قابلة للتطوير للمشاكل متعددة التخصصات. حصل على درجتين عليا في الفيزياء ودرجة الدكتوراه في الهندسة.

قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | أمازون ويب سيرفيسز PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.بريا باداتي هو أحد كبار مهندسي الحلول الشريكة ويتمتع بخبرة واسعة في مجال الرعاية الصحية وعلوم الحياة في AWS. تقود بريا استراتيجيات الذهاب إلى السوق مع الشركاء وتدفع تطوير الحلول لتسريع التطوير القائم على الذكاء الاصطناعي/التعلم الآلي. إنها متحمسة لاستخدام التكنولوجيا لتحويل صناعة الرعاية الصحية لتحقيق نتائج أفضل لرعاية المرضى.

قم بإنشاء انطباعات تلقائيًا من النتائج الواردة في تقارير الأشعة باستخدام الذكاء الاصطناعي التوليدي على AWS | أمازون ويب سيرفيسز PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.إكتا واليا بهولاردكتوراه، وهو أحد كبار مستشاري الذكاء الاصطناعي/تعلم الآلة في وحدة أعمال الخدمات المهنية في AWS للرعاية الصحية وعلوم الحياة (HCLS). تتمتع بخبرة واسعة في تطبيق الذكاء الاصطناعي/التعلم الآلي في مجال الرعاية الصحية، وخاصة في مجال الأشعة. خارج العمل، عندما لا تناقش الذكاء الاصطناعي في الأشعة، فإنها تحب الركض والمشي لمسافات طويلة.

الطابع الزمني:

اكثر من التعلم الآلي من AWS