많은 분들의 큰 관심과 요구에 힘입어 AWS와 베스핀글로벌 공동 주최 ‘성공사례로 알아보는 생성형 AI 도입 프로세스 A to Z 웨비나’ 에 대한 다시보기 영상과 발표 자료를 준비했습니다. 이번 웨비나의 핵심내용을 확인해보세요!
💡 이런 분들에게 추천해요!
AI와 머신러닝을 통해 비즈니스 혁신을 추진하려는 담당자
생성형 AI를 통한 비즈니스 활용을 고민하시는 분
LLM을 활용한 서비스의 실제 구축 사례가 궁금한 IT 담당자
AI 기술을 활용하여 새로운 비즈니스 기회를 모색하는 경영진
👉 어떤 내용이 담겨있나요?
Gen AI, AWS에서 바로 활용하기!
Amazon Bedrock 고객 사례로 알아보는 FM들로 Gen AI 애플리케이션을 구축하고 확장하는 가장 쉬운 방법
Amazon Bedrock PoC 프로젝트 사례 알아보기
비디오 숏폼 생성, Retrieval-Augmented Generation (RAG), 그리고 사내용 챗봇 등 다양한 워크로드와 실제로 구현된 구체적인 사례
Amazon Bedrock 활용 LLM 서비스 실제 도입 사레
대규모 언어 모델(LLM) 서비스 구축과 운영을 손쉽게 할 수 있는 Amazon Bedrock의 혁신적인 기능과 제조업, 관광업, 보험업, 기업 내부 직원용 등 국내 활용 사례
WEBINA Q&A
성공사례로 알아보는 생성형 AI 도입 프로세스 A to Z 웨비나의 핵심 질문과 답변을 영상과 발표자료와 함께 제공드립니다!
Q&A 미리보기
Q. Amazon Q를 사용해서 ChatOps를 구현하는 경우와 무엇이 다른가요?
현재 Kendra와 Bedrock을 사용하는 아키텍처의 경우, 특정 오류 패턴에 대한 보다 맞춤화된 솔루션을 제공할 수 있습니다. Amazon Q는 더 광범위한 지식을 제공하지만 Kendra와 bedrock 을 통한 구성보다는 덜 세부적이고 덜 전문적일 수 있습니다. 또한 자동화된 아키텍처와 달리 Amazon Q는 현재 API를 제공하지 않으므로, Q 응답의 경우 애플리케이션이나 스크립트에 통합이 불가합니다.
Q. 금융권에서 RAG을 쓸 경우에 인터넷망과 폐쇄망 이슈가 있는데 이 부분에 대해서 어떤 솔루션이 있나요?
RAG는 답변에 외부 데이터소스를 활용할 수 있다는 장점이 있지만, 폐쇄망에서는 이를 충분히 활용하기 어렵습니다. 이를 해결하기 위한 방안으로는 고객사 서버 즉 온프레미스(On-prem) 환경에 자체 데이터베이스 및 훈련과 추론을 위한 환경을 구축하고, 자체적으로 데이터를 학습하는 모델을 개발하는 방법이 있습니다. 이처럼 고객사 데이터로 고객사에 특화된 자체 모델을 구축하는 과정은 흔히 파인튜닝(fine-tuning)이라고 알려져있죠. 이러한 자체 모델을 구축하면
성공 사례로 알아보는 생성형 AI 도입 프로세스 A to Z 웨비나 영상과 발표자료, Q&A를 확인해보세요!
웨비나 영상 다시보기 및 발표 자료 다운로드
웨비나 발표자료는 신청 즉시 이메일로 발송드릴 예정이며, 영상 링크는 기재해주신 정보로 담당자 확인 후 제공드릴 예정입니다.