광범위한 지식을 갖춘 대규모 언어 모델(LLM)은 거의 모든 주제에 대해 인간과 유사한 텍스트를 생성할 수 있습니다. 그러나 대규모 데이터 세트에 대한 교육으로 인해 전문 작업에 대한 유용성이 제한되기도 합니다. 지속적인 학습이 없으면 이러한 모델은 초기 학습 후에 나타나는 새로운 데이터와 추세를 인식하지 못합니다. 또한 새로운 LLM을 교육하는 데 드는 비용은 많은 기업 환경에서 엄청나게 높을 수 있습니다. 그러나 원본 전문 콘텐츠와 모델 답변을 상호 참조할 수 있으므로 RAG(Retrieval-Augmented Generation)를 사용하여 새로운 LLM 모델을 교육할 필요가 없습니다.
RAG는 LLM에게 외부 지식을 검색하고 통합할 수 있는 기능을 제공하여 권한을 부여합니다. 사전 훈련된 지식에만 의존하는 대신 RAG를 사용하면 모델이 문서, 데이터베이스 등에서 데이터를 가져올 수 있습니다. 그런 다음 모델은 이러한 외부 정보를 생성된 텍스트에 능숙하게 통합합니다. 상황에 맞는 데이터를 소싱함으로써 모델은 귀하의 사용 사례에 맞는 정보에 기초한 최신 응답을 제공할 수 있습니다. 지식 증강은 또한 환각과 부정확하거나 무의미한 텍스트의 가능성을 줄여줍니다. RAG를 사용하면 기초 모델은 지식 기반이 성장함에 따라 진화하는 적응형 전문가가 됩니다.
오늘 우리는 라이선스가 부여된 세 가지 생성 AI 데모를 공개하게 되어 기쁘게 생각합니다. MIT-0 라이센스:
- 기초 LLM을 갖춘 Amazon Kendra – 심층 검색 기능을 활용합니다. 아마존 켄드라 LLM에 대한 광범위한 지식과 결합됩니다. 이러한 통합은 다양한 소스로부터 정보를 얻어 복잡한 쿼리에 대한 정확하고 상황에 맞는 답변을 제공합니다.
- 기본 LLM을 사용한 임베딩 모델 – 단어와 구문의 의미론적 의미를 포착하는 기술인 임베딩의 힘을 LLM의 방대한 지식 기반과 병합합니다. 이러한 시너지 효과로 더욱 정확한 주제 모델링, 콘텐츠 추천, 의미론적 검색 기능이 가능해집니다.
- 기초 모델 제약 광고 생성기 – 제약산업에 특화된 애플리케이션입니다. 기본 모델의 생성 기능을 활용하는 이 도구는 설득력 있고 규정을 준수하는 제약 광고를 제작하여 콘텐츠가 업계 표준 및 규정을 준수하도록 보장합니다.
이러한 데모는 AWS 계정에 원활하게 배포될 수 있으며, 최첨단 LLM 생성 AI 질문 및 답변 봇과 콘텐츠 생성을 생성하기 위해 AWS 서비스 활용에 대한 기본적인 통찰력과 지침을 제공합니다.
이 게시물에서는 Amazon Kendra 또는 사용자 지정 임베딩과 결합된 RAG가 이러한 문제를 극복하고 자연어 쿼리에 대한 세련된 응답을 제공할 수 있는 방법을 살펴봅니다.
솔루션 개요
이 솔루션을 채택하면 다음과 같은 이점을 얻을 수 있습니다.
- 향상된 정보 액세스 – RAG를 사용하면 모델이 방대한 외부 소스에서 정보를 가져올 수 있으며, 이는 사전 훈련된 모델의 지식이 오래되었거나 불완전할 때 특히 유용할 수 있습니다.
- 확장성 – RAG를 사용하면 사용 가능한 모든 데이터에 대해 모델을 교육하는 대신 모델이 관련 정보를 즉시 검색할 수 있습니다. 이는 새로운 데이터를 사용할 수 있게 되면 전체 모델을 재교육할 필요 없이 검색 데이터베이스에 추가할 수 있음을 의미합니다.
- 메모리 효율성 – LLM에는 매개변수를 저장하는 데 상당한 메모리가 필요합니다. RAG를 사용하면 모든 세부 사항을 기억할 필요가 없기 때문에 모델이 더 작아질 수 있습니다. 필요할 때 검색할 수 있습니다.
- 동적 지식 업데이트 – 지식 엔드포인트가 설정된 기존 모델과 달리 RAG의 외부 데이터베이스는 정기적으로 업데이트되어 모델에 최신 정보에 대한 액세스 권한을 부여할 수 있습니다. 검색 기능은 개별 작업에 맞게 미세 조정할 수 있습니다. 예를 들어, 의료 진단 작업은 의학 저널에서 데이터를 가져와 모델이 전문가와 적절한 통찰력을 얻을 수 있도록 보장합니다.
- 바이어스 완화 – 잘 정리된 데이터베이스에서 정보를 추출하는 능력은 균형 있고 공평한 외부 소스를 보장함으로써 편견을 최소화할 수 있는 가능성을 제공합니다.
Amazon Kendra와 기본 LLM의 통합을 시작하기 전에 필요한 도구와 시스템 요구 사항을 갖추는 것이 중요합니다. 올바른 설정을 갖추는 것이 데모를 원활하게 배포하기 위한 첫 번째 단계입니다.
사전 조건
다음 전제 조건이 있어야 합니다.
로컬 컴퓨터에서 이 튜토리얼에 자세히 설명된 인프라를 설정하고 배포할 수 있지만 AWS 클라우드9 편리한 대안을 제시합니다. AWS CLI, AWS CDK, Docker와 같은 도구가 사전 탑재된 AWS Cloud9은 배포 워크스테이션으로 작동할 수 있습니다. 이 서비스를 이용하려면 간단히 환경을 설정하다 를 통해 AWS Cloud9 콘솔.
전제 조건을 마치고 기본 LLM을 통해 Amazon Kendra의 기능을 자세히 살펴보겠습니다.
기초 LLM을 갖춘 Amazon Kendra
Amazon Kendra는 즉시 사용 가능한 의미 검색 기능을 제공하는 기계 학습(ML)으로 강화된 고급 엔터프라이즈 검색 서비스입니다. Amazon Kendra는 자연어 처리(NLP)를 활용하여 문서의 내용과 사용자 쿼리의 기본 의도를 모두 이해하여 RAG 기반 솔루션을 위한 콘텐츠 검색 도구로 자리매김합니다. Kendra의 정확도가 높은 검색 콘텐츠를 RAG 페이로드로 사용하면 더 나은 LLM 응답을 얻을 수 있습니다. 이 솔루션에서 Amazon Kendra를 사용하면 최종 사용자 콘텐츠 액세스 권한에 따라 응답을 필터링하여 개인화된 검색도 가능합니다.
다음 다이어그램은 RAG 접근 방식을 사용하는 생성 AI 애플리케이션의 아키텍처를 보여줍니다.
문서는 Amazon Kendra에 의해 처리되고 인덱싱됩니다. Amazon Simple Storage Service(Amazon S3) 커넥터. Amazon Kendra의 고객 요청 및 상황별 데이터는 아마존 기반암 기초 모델. 데모를 사용하면 Amazon Bedrock에서 지원하는 Amazon의 Titan, AI21의 Jurassic 및 Anthropic의 Claude 모델 중에서 선택할 수 있습니다. 대화 기록은 다음 위치에 저장됩니다. 아마존 DynamoDB, LLM이 응답을 생성할 수 있도록 추가 컨텍스트를 제공합니다.
우리는 이 데모를 다음에서 제공했습니다. GitHub 레포. AWS 계정에 배포하려면 추가 정보 파일에 있는 배포 지침을 참조하세요.
다음 단계에서는 사용자가 생성 AI 앱과 상호 작용할 때의 프로세스를 간략하게 설명합니다.
- 사용자는 인증된 웹앱에 로그인합니다. 아마존 코 그니 토.
- 사용자는 하나 이상의 문서를 Amazon S3에 업로드합니다.
- 사용자는 Amazon Kendra 동기화 작업을 실행하여 S3 문서를 Amazon Kendra 인덱스로 수집합니다.
- 사용자의 질문은 다음에서 호스팅되는 보안 WebSocket API를 통해 라우팅됩니다. 아마존 API 게이트웨이 에 의해 뒷받침되는 AWS 람다 기능.
- Lambda 기능은 다음을 통해 강화됩니다. 랭체인 AI 언어 모델로 구동되는 애플리케이션을 생성하기 위해 설계된 다목적 도구인 프레임워크는 Amazon Bedrock 엔드포인트에 연결하여 채팅 기록을 기반으로 사용자의 질문을 바꿔줍니다. 다시 표현한 후 질문은 Retrieve API를 사용하여 Amazon Kendra로 전달됩니다. 이에 대한 응답으로 Amazon Kendra 인덱스는 검색 결과를 표시하고 기업이 수집한 데이터에서 가져온 관련 문서에서 발췌한 내용을 제공합니다.
- 색인에서 검색된 데이터와 함께 사용자의 질문이 LLM 프롬프트의 컨텍스트로 전송됩니다. LLM의 응답은 DynamoDB 내에 채팅 기록으로 저장됩니다.
- 마지막으로 LLM의 응답이 사용자에게 다시 전송됩니다.
문서 색인 작업 과정
문서 처리 및 색인화 절차는 다음과 같습니다.
- 사용자는 사용자 인터페이스(UI)를 통해 문서를 제출합니다.
- 문서는 다음을 활용하여 S3 버킷으로 전송됩니다. AWS 증폭 API.
- Amazon Kendra는 Amazon Kendra S3 커넥터를 통해 S3 버킷의 새 문서를 인덱싱합니다.
장점
다음 목록은 이 솔루션의 장점을 강조합니다.
- 엔터프라이즈 수준 검색 – Amazon Kendra는 엔터프라이즈 검색용으로 설계되어 방대한 양의 정형 및 비정형 데이터를 보유한 조직에 적합합니다.
- 의미론적 이해 – Amazon Kendra의 ML 기능은 검색이 키워드 일치뿐만 아니라 깊은 의미론적 이해를 기반으로 하도록 보장합니다.
- 확장성 – Amazon Kendra는 대규모 데이터 소스를 처리하고 빠르고 관련성 있는 검색 결과를 제공할 수 있습니다.
- 유연성 – 기본 모델은 광범위한 상황을 기반으로 답변을 생성할 수 있으므로 시스템이 다용도로 유지되도록 보장합니다.
- 통합 기능 – Amazon Kendra는 다양한 AWS 서비스 및 데이터 소스와 통합되어 다양한 조직 요구 사항에 맞게 조정할 수 있습니다.
기본 LLM을 사용한 임베딩 모델
An 임베딩 텍스트, 이미지, 오디오, 문서 등 다양한 데이터 유형의 핵심 본질을 나타내는 수치 벡터입니다. 이 표현은 데이터의 본질적인 의미를 포착할 뿐만 아니라 광범위한 실제 적용에 맞게 조정합니다. ML의 한 분야인 임베딩 모델은 단어나 구문과 같은 복잡한 데이터를 연속적인 벡터 공간으로 변환합니다. 이러한 벡터는 본질적으로 데이터 간의 의미적 연결을 파악하여 더 깊고 통찰력 있는 비교를 가능하게 합니다.
RAG는 변환기와 같은 기본 모델의 장점과 임베딩의 정확성을 완벽하게 결합하여 관련 정보를 찾기 위해 방대한 데이터베이스를 선별합니다. 쿼리를 받으면 시스템은 임베딩을 활용하여 광범위한 데이터 본문에서 관련 섹션을 식별하고 추출합니다. 그런 다음 기본 모델은 추출된 정보를 기반으로 상황에 맞게 정확한 응답을 공식화합니다. 데이터 검색과 응답 생성 간의 완벽한 시너지 효과를 통해 시스템은 광범위한 데이터베이스에 저장된 방대한 지식을 바탕으로 철저한 답변을 제공할 수 있습니다.
아키텍처 레이아웃에서는 UI 선택에 따라 사용자가 Amazon Bedrock 또는 Amazon SageMaker 점프스타트 기초 모델. 문서는 처리를 거치며 임베딩 모델에 의해 벡터 임베딩이 생성됩니다. 그런 다음 이러한 임베딩은 다음을 사용하여 인덱싱됩니다. 파이스 효율적인 의미 검색을 가능하게 합니다. 대화 기록은 DynamoDB에 보존되어 LLM이 응답을 작성할 수 있는 컨텍스트를 풍부하게 해줍니다.
다음 다이어그램은 솔루션 아키텍처와 워크플로를 보여줍니다.
우리는 이 데모를 다음에서 제공했습니다. GitHub 레포. AWS 계정에 배포하려면 추가 정보 파일에 있는 배포 지침을 참조하세요.
임베딩 모델
임베딩 모델의 역할은 다음과 같습니다.
- 이 모델은 텍스트(예: 문서 또는 구절)를 일반적으로 임베딩이라고 알려진 조밀한 벡터 표현으로 변환하는 역할을 합니다.
- 이러한 임베딩은 텍스트의 의미론적 의미를 포착하여 다양한 텍스트 조각 간에 효율적이고 의미론적으로 의미 있는 비교를 가능하게 합니다.
- 임베딩 모델은 기본 모델과 동일한 방대한 자료에서 훈련되거나 특정 도메인에 특화될 수 있습니다.
Q&A 워크플로우
다음 단계에서는 문서에 대한 질문 답변의 워크플로를 설명합니다.
- 사용자는 Amazon Cognito에서 인증한 웹 앱에 로그인합니다.
- 사용자가 Amazon S3에 하나 이상의 문서를 업로드합니다.
- 문서 전송 시 S3 이벤트 알림은 Lambda 함수를 트리거한 다음 SageMaker 임베딩 모델 엔드포인트를 호출하여 새 문서에 대한 임베딩을 생성합니다. 임베딩 모델은 질문을 조밀한 벡터 표현(임베딩)으로 변환합니다. 결과 벡터 파일은 S3 버킷 내에 안전하게 저장됩니다.
- FAISS 검색기는 이 질문 임베딩을 데이터베이스의 모든 문서 또는 구절의 임베딩과 비교하여 가장 관련성이 높은 구절을 찾습니다.
- 사용자의 질문과 함께 구절은 기본 모델에 대한 맥락으로 제공됩니다. Lambda 함수는 LangChain 라이브러리를 사용하고 컨텍스트 기반 쿼리를 통해 Amazon Bedrock 또는 SageMaker JumpStart 엔드포인트에 연결합니다.
- LLM의 응답은 사용자 쿼리, 타임스탬프, 고유 식별자 및 질문 카테고리와 같은 항목에 대한 기타 임의 식별자와 함께 DynamoDB에 저장됩니다. 질문과 답변을 개별 항목으로 저장하면 Lambda 함수가 질문을 받은 시간을 기준으로 사용자의 대화 기록을 쉽게 다시 생성할 수 있습니다.
- 마지막으로 응답은 API Gateway WebSocket API 통합 응답을 통한 HTTP 요청을 통해 사용자에게 다시 전송됩니다.
장점
다음 목록에서는 이 솔루션의 이점을 설명합니다.
- 의미론적 이해 – 임베딩 모델은 검색자가 키워드 일치뿐만 아니라 깊은 의미론적 이해를 기반으로 구절을 선택하도록 보장합니다.
- 확장성 – 임베딩을 사용하면 효율적인 유사성 비교가 가능하므로 방대한 문서 데이터베이스를 빠르게 검색할 수 있습니다.
- 유연성 – 기본 모델은 광범위한 상황을 기반으로 답변을 생성할 수 있으므로 시스템이 다용도로 유지되도록 보장합니다.
- 도메인 적응성 – 임베딩 모델은 특정 도메인에 대해 훈련되거나 미세 조정될 수 있으므로 시스템을 다양한 애플리케이션에 맞게 조정할 수 있습니다.
기초 모델 제약 광고 생성기
오늘날 빠르게 변화하는 제약 산업에서는 효율적이고 현지화된 광고가 그 어느 때보다 중요합니다. 생성 AI의 성능을 사용하여 소스 이미지와 PDF에서 현지화된 제약 광고를 제작하는 혁신적인 솔루션이 등장하는 곳입니다. 단순히 광고 생성 프로세스의 속도를 높이는 것 이상으로 이 접근 방식은 MLR(Medical Legal Review) 프로세스를 간소화합니다. MLR은 의료, 법률 및 규제 팀이 홍보 자료를 꼼꼼하게 평가하여 정확성, 과학적 뒷받침 및 규제 준수를 보장하는 엄격한 검토 메커니즘입니다. 기존 콘텐츠 생성 방법은 번거로울 수 있으며, 지역 규정 준수 및 관련성을 보장하기 위해 수동 조정과 광범위한 검토가 필요한 경우가 많습니다. 그러나 생성 AI의 출현으로 이제 우리는 엄격한 표준과 지침을 유지하면서 현지 청중의 공감을 불러일으키는 광고 제작을 자동화할 수 있습니다.
다음 다이어그램은 솔루션 아키텍처를 보여줍니다.
선택한 모델과 광고 기본 설정을 기반으로 하는 아키텍처 레이아웃에서 사용자는 Amazon Bedrock 기반 모델로 원활하게 안내됩니다. 이러한 간소화된 접근 방식을 통해 원하는 구성에 따라 정확하게 새 광고가 생성됩니다. 프로세스의 일부로 문서가 효율적으로 처리됩니다. 아마존 텍사스, 결과 텍스트는 DynamoDB에 안전하게 저장됩니다. 뛰어난 기능은 이미지 및 텍스트 생성을 위한 모듈식 설계로, 필요에 따라 모든 구성 요소를 독립적으로 재생성할 수 있는 유연성을 제공합니다.
우리는 이 데모를 다음에서 제공했습니다. GitHub 레포. AWS 계정에 배포하려면 추가 정보 파일에 있는 배포 지침을 참조하세요.
콘텐츠 생성 워크플로
다음 단계에서는 콘텐츠 생성 프로세스를 간략하게 설명합니다.
- 사용자는 문서, 소스 이미지, 광고 게재위치, 언어 및 이미지 스타일을 선택합니다.
- 웹 애플리케이션에 대한 안전한 액세스는 Amazon Cognito 인증을 통해 보장됩니다.
- 웹 애플리케이션의 프런트 엔드는 Amplify를 통해 호스팅됩니다.
- API Gateway에서 관리하는 WebSocket API는 사용자 요청을 용이하게 합니다. 이러한 요청은 다음을 통해 인증됩니다. AWS 자격 증명 및 액세스 관리 (나는).
- Amazon Bedrock과의 통합에는 다음 단계가 포함됩니다.
- Lambda 함수는 LangChain 라이브러리를 사용하여 풍부한 컨텍스트 쿼리를 사용하여 Amazon Bedrock 엔드포인트에 연결합니다.
- 텍스트-텍스트 기반 모델은 주어진 상황과 설정을 기반으로 상황에 맞는 광고를 제작합니다.
- 텍스트-이미지 기반 모델은 소스 이미지, 선택한 스타일 및 위치의 영향을 받아 맞춤형 이미지를 생성합니다.
- 사용자는 통합 API Gateway WebSocket API를 통해 HTTPS 요청을 통해 응답을 받습니다.
문서 및 이미지 처리 워크플로
문서 및 이미지 처리 절차는 다음과 같습니다.
- 사용자는 지정된 UI를 통해 자산을 업로드합니다.
- Amplify API는 문서를 S3 버킷으로 전송합니다.
- 자산이 Amazon S3로 전송된 후 다음 작업 중 하나가 수행됩니다.
- 문서인 경우 Lambda 함수는 Amazon Textract를 사용하여 광고 생성을 위한 텍스트를 처리하고 추출합니다.
- 이미지인 경우 Lambda 함수는 소스에서 새 이미지를 생성하는 Stable Diffusion 모델에 적합한 base64 형식으로 변환합니다.
- 추출된 텍스트 또는 base64 이미지 문자열은 DynamoDB에 안전하게 저장됩니다.
장점
다음 목록에서는 이 솔루션의 이점을 설명합니다.
- 효율성 – 생성적 AI를 사용하면 광고 생성 프로세스가 크게 가속화되어 수동 조정이 필요하지 않습니다.
- 규정 준수 준수 – 이 솔루션은 생성된 광고가 FDA의 마케팅 지침과 같은 특정 지침 및 규정을 준수하도록 보장합니다.
- 비용 효율적인 – 맞춤형 광고 제작을 자동화함으로써 기업은 광고 제작 및 수정과 관련된 비용을 크게 줄일 수 있습니다.
- 간소화된 MLR 프로세스 – 이 솔루션은 MLR 프로세스를 단순화하여 마찰 지점을 줄이고 보다 원활한 검토를 보장합니다.
- 국부적인 공명 – Generative AI는 현지 청중의 공감을 불러일으키는 광고를 제작하여 다양한 지역에서의 관련성과 영향력을 보장합니다.
- 표준화 – 솔루션은 필요한 표준과 지침을 유지하여 생성된 모든 광고의 일관성을 보장합니다.
- 확장성 – AI 기반 접근 방식은 방대한 소스 이미지 및 PDF 데이터베이스를 처리할 수 있어 대규모 광고 생성이 가능합니다.
- 수동 개입 감소 – 자동화는 사람의 개입 필요성을 줄여 오류를 최소화하고 일관성을 보장합니다.
이 자습서의 인프라를 로컬 컴퓨터에서 배포하거나 AWS Cloud9을 배포 워크스테이션으로 사용할 수 있습니다. AWS Cloud9에는 AWS CLI, AWS CDK 및 Docker가 사전 로드되어 있습니다. AWS Cloud9을 선택하는 경우, 환경을 조성하다 인사말 AWS Cloud9 콘솔.
정리
불필요한 비용을 방지하려면 AWS CloudFormation 콘솔을 통해 또는 워크스테이션에서 다음 명령을 실행하여 생성된 모든 인프라를 정리하십시오.
또한 SageMaker 콘솔을 통해 시작한 모든 SageMaker 엔드포인트를 중지해야 합니다. Amazon Kendra 인덱스를 삭제해도 스토리지에서 원본 문서는 제거되지 않습니다.
결론
LLM으로 대표되는 생성적 AI는 정보에 접근하고 생성하는 방식에 패러다임 변화를 예고합니다. 이러한 모델은 강력하기는 하지만 훈련 데이터의 한계로 인해 제한되는 경우가 많습니다. RAG는 이러한 문제를 해결하여 이러한 모델 내의 방대한 지식에 관련성 있는 최신 통찰력이 지속적으로 주입되도록 보장합니다.
RAG 기반 데모는 이에 대한 실질적인 증거를 제공합니다. Amazon Kendra, 벡터 임베딩 및 LLM 간의 원활한 시너지 효과를 보여줌으로써 정보가 방대할 뿐만 아니라 정확하고 시의적절한 시스템을 구축합니다. 이러한 데모를 진행하면서 사전 학습된 지식과 RAG의 동적 기능을 결합하여 신뢰할 수 있고 기업 콘텐츠에 맞춤화된 출력을 얻을 수 있는 혁신적인 잠재력을 직접 탐색하게 됩니다.
LLM을 기반으로 하는 생성적 AI는 정보 통찰력을 얻을 수 있는 새로운 방법을 열어 주지만 이러한 통찰력은 신뢰할 수 있어야 하며 RAG 접근 방식을 사용하는 엔터프라이즈 콘텐츠에만 국한되어야 합니다. 이러한 RAG 기반 데모를 통해 정확하고 최신의 통찰력을 얻을 수 있습니다. 이러한 통찰력의 품질은 Amazon Kendra 및 벡터 임베딩을 사용하여 활성화되는 의미적 관련성에 따라 달라집니다.
생성 AI의 성능을 더 자세히 탐색하고 활용할 준비가 되었다면 다음 단계는 다음과 같습니다.
- 데모에 참여하세요 – 직접 경험해 보는 것이 매우 중요합니다. 기능을 살펴보고, 통합을 이해하고, 인터페이스에 익숙해지세요.
- 지식을 심화시키세요 – 사용 가능한 리소스를 활용하세요. AWS는 AI 여정에 도움이 되는 심층적인 문서, 자습서 및 커뮤니티 지원을 제공합니다.
- 파일럿 프로젝트 시작 – 기업에서 생성적 AI를 소규모로 구현하는 것부터 시작해 보세요. 이를 통해 특정 상황 내에서 시스템의 실용성과 적응성에 대한 통찰력을 얻을 수 있습니다.
AWS의 생성적 AI 애플리케이션에 대한 자세한 내용은 다음을 참조하십시오.
AI의 환경은 끊임없이 진화하고 있다는 점을 기억하십시오. 최신 정보를 유지하고, 호기심을 갖고, 항상 적응하고 혁신할 준비를 하십시오.
저자 정보
진 탄 루안 그는 NLP 및 생성 AI를 전문으로 하는 AWS Industries Prototyping and Customer Engineering(PACE) 팀 내의 프로토타입 개발자입니다. 소프트웨어 개발에 대한 배경 지식과 XNUMX개의 AWS 자격증을 보유한 Jin은 풍부한 경험을 바탕으로 AWS 고객이 AWS 플랫폼을 사용하여 AI/ML 및 생성적 AI 비전을 실현하도록 지원합니다. 그는 시러큐스 대학교에서 컴퓨터 과학 및 소프트웨어 공학 석사 학위를 취득했습니다. 업무 외 시간에는 비디오 게임을 즐기고 스릴 넘치는 공포 영화의 세계에 빠져드는 것을 즐깁니다.
아 라빈 드 코 단다 라 마이 아 AWS Industries Prototyping and Customer Engineering(PACE) 팀 내의 수석 프로토타이핑 풀 스택 솔루션 빌더입니다. 그는 AWS 고객이 혁신적인 아이디어를 측정 가능하고 즐거운 결과를 제공하는 솔루션으로 전환하도록 돕는 데 중점을 두고 있습니다. 그는 클라우드 보안, DevOps, AI/ML을 포함한 다양한 주제에 열정을 갖고 있으며 일반적으로 이러한 기술을 다루는 모습을 볼 수 있습니다.
아르준 샤크더 그는 기술을 삶의 구조에 결합하는 데 열정을 갖고 있는 AWS Industries Prototyping(PACE) 팀의 개발자입니다. Purdue University에서 석사 학위를 취득한 Arjun의 현재 역할은 다양한 도메인에 걸쳐 현재 AI/ML 및 IoT 영역을 두드러지게 특징으로 하는 최첨단 프로토타입을 설계하고 구축하는 것입니다. 코드와 디지털 풍경에 푹 빠져 있지 않을 때면 Arjun은 커피의 세계에 빠져들고 시계학의 복잡한 메커니즘을 탐구하거나 자동차의 예술성을 마음껏 즐깁니다.
- SEO 기반 콘텐츠 및 PR 배포. 오늘 증폭하십시오.
- PlatoData.Network 수직 생성 Ai. 자신에게 권한을 부여하십시오. 여기에서 액세스하십시오.
- PlatoAiStream. 웹3 인텔리전스. 지식 증폭. 여기에서 액세스하십시오.
- 플라톤ESG. 탄소, 클린테크, 에너지, 환경, 태양광, 폐기물 관리. 여기에서 액세스하십시오.
- PlatoHealth. 생명 공학 및 임상 시험 인텔리전스. 여기에서 액세스하십시오.
- 출처: https://aws.amazon.com/blogs/machine-learning/harnessing-the-power-of-enterprise-data-with-generative-ai-insights-from-amazon-kendra-langchain-and-large-language-models/
- :이다
- :아니
- :어디
- $UP
- 100
- 150
- 7
- a
- 능력
- 소개
- 가속하다
- ACCESS
- 에 따르면
- 계정
- 정확한
- 가로질러
- 행위
- Ad
- 각색하다
- 적응하다
- 추가
- 구애
- 가입 한
- 조정
- 채택
- 광고
- 많은
- 이점
- 장점
- 출현
- 광고
- 후
- AI
- AI / ML
- 도움
- 조정
- All
- 수
- 허용
- 수
- 거의
- 따라
- 또한
- 대안
- 항상
- 아마존
- 아마존 코 그니 토
- 아마존 켄드라
- 아마존 텍사스
- Amazon Web Services
- 금액
- 상세히 설명하다
- an
- 및
- 답변
- 답변
- 어떤
- API를
- 앱
- 어플리케이션
- 어플리케이션
- 접근
- 적당한
- 건축
- 아키텍처
- 있군요
- 약
- 배열
- 예술적 기교
- AS
- 유산
- 자산
- 지원
- 관련
- 청문회
- 오디오
- 인증 된
- 인증
- 자동화
- 자동화
- 자동화
- 가능
- 피하기
- 피하고
- AWS
- AWS 클라우드9
- AWS 클라우드 포메이션
- 뒤로
- 뒷받침 된
- 배경
- 역행
- 기지
- 기반으로
- BE
- 때문에
- 가
- 된다
- 혜택
- 더 나은
- 사이에
- 그 너머
- 편견
- 혼합
- 몸
- 봇
- 두
- 지사
- 돋보이게
- 넓은
- 건축업자
- 건물
- 비자 면제 프로그램에 해당하는 국가의 시민권을 가지고 있지만
- by
- 통화
- CAN
- 얻을 수 있습니다
- 기능
- 포착
- 캡처
- 케이스
- 범주
- 인증
- 도전
- 과제
- 왼쪽 메뉴에서
- 선택
- 황어 무리
- 클라우드
- 클라우드 보안
- Cloud9
- 암호
- 커피
- 결합 된
- 결합
- 제공
- 일반적으로
- 커뮤니티
- 기업
- 비교
- 복잡한
- compliance
- 준수
- 구성 요소
- 이해한다
- 컴퓨터
- 컴퓨터 과학
- 구성
- 연결하기
- 연결
- 커넥트
- 고려
- 일관되게
- 콘솔에서
- 끊임없이
- 함유량
- 컨텐츠 생성
- 콘텐츠 제작
- 문맥
- 문맥
- 문맥
- 계속
- 끊임없는
- 편리한
- 전통적인
- 대화
- 변환
- 핵심
- 비용
- 비용
- 내기
- 만들
- 만든
- 생성
- 만들기
- 창조
- 결정적인
- 성가신
- 이상한
- Current
- 관습
- 고객
- 고객
- 최첨단
- 데이터
- 데이터베이스
- 데이터베이스
- 데이터 세트
- 날짜
- 깊은
- 깊이
- 도
- 매우 기쁜
- 데모
- 데모 곡
- 의존하는
- 배포
- 배포
- 배치
- 전개
- 설명
- 디자인
- 설계
- 원하는
- 파괴
- 상세한
- 세부설명
- 개발자
- 개발
- 진단
- 다른
- 방송
- 디지털
- 감독 된
- 디스플레이
- 뚜렷한
- 잠수
- 몇몇의
- 다이빙
- 도커
- 문서
- 선적 서류 비치
- 서류
- 하지 않습니다
- 도메인
- 무승부
- 그림
- 구동
- 동적
- 용이하게
- 효율성
- 효율적인
- 효율적으로
- 중
- 제거
- 임베딩
- 벗어나 다
- 고용하다
- 권한
- 힘을 실어
- 가능
- 사용 가능
- 수
- 가능
- end
- 종점
- 엔지니어링
- 강화
- 우리의 영적인 행로를
- 확인
- 보장
- 보장
- 보장
- Enterprise
- 전체의
- 갖추어 준
- 오류
- 특히
- 에센스
- 평가
- 이벤트
- EVER
- 진화시키다
- 진화하는
- 예
- 흥분한
- 널찍한
- 경험
- 전문가
- 전문가
- 탐험
- 탐색
- 광대 한
- 외부
- 추출물
- 구조
- 을 용이하게
- 친하게 하다
- 빠르게 진행되는
- FB
- 실행할 수 있는
- 특색
- 특징
- 특색
- 입양 부모로서의 귀하의 적합성을 결정하기 위해 미국 이민국에
- 필터링
- Find
- 먼저,
- 유연성
- 집중
- 수행원
- 다음
- 럭셔리
- 체재
- 발견
- Foundation
- 마찰
- 에
- 앞
- 프론트 엔드
- 가득 찬
- 풀 스택
- 기능
- 기능성
- 추가
- 게다가
- 이득
- 획득
- Games
- 게이트웨이
- 생성
- 생성
- 세대
- 생성적인
- 제너레이티브 AI
- 발전기
- 얻을
- 주어진
- 기부
- 부여
- 파악
- 성장
- 보증
- 지도
- 안내를받은
- 가이드 라인
- 핸들
- 손 -에
- 마구
- 마구
- 있다
- 데
- he
- 도움이
- 헤럴드
- 여기에서 지금 확인해 보세요.
- 하이라이트
- 그 자신
- 역사
- history
- 보유
- 보유
- 공포
- 호스팅
- 방법
- 그러나
- HTML
- HTTP
- HTTPS
- 사람의
- 아이디어
- 식별자
- 식별자
- 확인
- 통합 인증
- if
- 설명하다
- 영상
- 형상
- 잠긴
- 영향
- 이행
- in
- 심도
- 부정확 한
- 포함
- 포함
- 통합
- 독립하여
- 색인
- 색인
- 색인
- 산업
- 산업
- 산업 표준
- 영향을받은
- 정보
- 정보
- 인프라
- 본질적으로
- 처음에는
- 시작
- 받아 들여 쓰다
- 혁신적인
- 통찰력
- 통찰력
- 를 받아야 하는 미국 여행자
- 명령
- 통합 된
- 통합
- 완성
- 통합
- 의지
- 인터렉티브
- 인터페이스
- 개입
- 으로
- 본래 갖추어 진
- 헤아릴
- IOT
- IT
- 항목
- 그
- 일
- 여행
- JPG
- 다만
- 지식
- 알려진
- 경치
- 언어
- 넓은
- 대규모
- 레이아웃
- 배우기
- 이용약관
- 수
- 도서관
- 라이센스
- 생활
- 처럼
- 있을 수 있는 일
- 제한된
- 제한
- 명부
- LLM
- 지방의
- 위치
- 기계
- 기계 학습
- 유지
- 유튜브 영상을 만드는 것은
- 관리
- 조작
- .
- 마케팅
- 거대한
- 석사
- 성냥
- 재료
- 의미
- 의미있는
- 의미
- 방법
- 역학
- 기구
- 의료
- 메모리
- 단지
- 합병
- 합병
- 방법
- 꼼꼼하게
- 최소화
- 완화
- ML
- 모델
- 모델링
- 모델
- 모듈러
- 배우기
- 가장
- 영화 산업
- 절대로 필요한 것
- 자연의
- 자연 언어 처리
- 필요한
- 필요
- 필요
- 필요
- 요구
- 신제품
- 다음 것
- 구
- nlp
- 공고
- 지금
- of
- 제공
- 제공
- 자주
- on
- ONE
- 만
- 열립니다
- or
- 조직
- 조직
- 실물
- 기타
- 우리의
- 아웃
- 결과
- 개요
- 출력
- 외부
- 위에
- 극복하다
- 평화
- 패러다임
- 매개 변수
- 부품
- 열렬한
- 완전한
- 권한
- 맞춤형 교육 플랫폼
- 제약회사
- 제약
- 구문
- 개
- 조종사
- 시범 사업
- 장소
- 게재
- 플랫폼
- 플라톤
- 플라톤 데이터 인텔리전스
- 플라토데이터
- 연극
- 연주
- 전철기
- 위치
- 가능한
- 게시하다
- 가능성
- 힘
- powered
- 강한
- 실용적인
- 정확한
- 정밀하게
- Precision
- 환경 설정
- 전제 조건
- 현재
- 순서
- 방법
- 처리됨
- 처리
- 생산
- 생산하다
- 생산
- 프로젝트
- 프로모션
- 프로토 타입
- 프로토 타입
- 증명
- 제공
- 제공
- 제공
- 제공
- 품질
- 쿼리
- 문제
- 문의
- 빠른
- 빨리
- 범위
- 준비
- 영역
- 수신
- 전수
- 추천
- 감소
- 감소
- 감소
- 참조
- 세련된
- 지역적인
- 지역
- 정규병
- 규정
- 규정하는
- 규제 준수
- 관련성
- 관련된
- 의지
- 남아
- 유적
- 기억
- 제거
- 바꿔 말하다
- 대표
- 대표
- 의뢰
- 요청
- 필요
- 필수
- 요구조건 니즈
- Resonate
- 제품 자료
- 응답
- 응답
- 책임
- 책임
- 결과
- 결과
- 결과
- 리뷰
- 리뷰
- 수정
- 회전하다
- 연락해주세요
- 엄밀한
- 직위별
- 달리는
- 실행
- 현자
- 같은
- 저장
- 과학
- 과학적인
- 원활한
- 완벽하게
- 검색
- 섹션
- 안전해야합니다.
- 안전하게
- 보안
- 선택된
- 선택
- 연장자
- 전송
- 서비스
- 서비스
- 세트
- 설정
- 설치
- 변화
- 소개
- 쇼
- 체로 치다
- 상당한
- 크게
- 단순, 간단, 편리
- 간단히
- 작은
- 더 매끄럽다
- 소프트웨어
- 소프트웨어 개발
- 소프트웨어 공학
- 혼자서
- 해결책
- 솔루션
- 출처
- 소싱
- 지우면 좋을거같음 . SM
- 소싱
- 공간
- 기간
- 전문
- 전문
- 구체적인
- 지정
- 안정된
- 스택
- 기준
- 시작 중
- 최첨단
- 유지
- 단계
- 단계
- 중지
- 저장
- 저장
- 저장
- 저장
- 간소화 된
- 강점
- 끈
- 절박한
- 구조화
- 스타일
- 제출
- 이러한
- 적당한
- SUPPORT
- 지원
- 시너지
- 체계
- 맞춤형
- 받아
- 소요
- 명백한
- 태스크
- 작업
- 팀
- 팀
- 기술
- 기술
- Technology
- 성서
- 본문
- 보다
- 그
- XNUMXD덴탈의
- 풍경
- 소스
- 세계
- 그들의
- 그들
- 그때
- 그것에 의하여
- Bowman의
- 그들
- 이
- 세
- 떨리는
- 을 통하여
- 시간
- 적시에
- 따라서 오른쪽 하단에
- 타이탄
- 에
- 오늘의
- 수단
- 검색을
- 화제
- 이상의 주제
- 에 대한
- 전통적인
- Train
- 훈련 된
- 트레이닝
- 이전
- 전송
- 전송
- 변환
- 변형의
- 변압기
- 트렌드
- 진정으로
- 신뢰할 수있는
- 회전
- 지도 시간
- 자습서
- 유형
- ui
- 받다
- 밑에 있는
- 이해
- 이해
- 유일한
- 대학
- 같지 않은
- 불필요한
- 밝히다
- 최신의
- 업데이트
- 업데이트
- 업데이트
- 지지
- ...에
- 사용
- 유스 케이스
- 사용자
- 시간을 아껴주는 인터페이스
- 사용자
- 사용
- 사용
- 보통
- 이용하다
- 활용
- 여러
- 거대한
- 다양한
- 를 통해
- Video
- 비디오 게임
- 비전
- 방법..
- we
- 재산
- 웹
- 웹 응용 프로그램
- 웹 서비스
- websocket
- 했다
- 언제
- 어느
- 동안
- 누구
- 넓은
- 넓은 범위
- 의지
- 과
- 이내
- 없이
- 말
- 작업
- 워크플로우
- 워크 스테이션
- 세계
- 자신의
- 너의
- 당신 자신
- 제퍼 넷