기업을 위한 Gen AI 구현 가이드 Top 25+

구글 인사이트

by Miyeon. Jo

AI를 배우는 가장 좋은 방법은 직접 만들어 보는 것입니다. 개방형 모델을 빠르게 배포하는 방법을 찾는 것부터 복잡하고 다중 에이전트 시스템을 구축하는 것까지, 시중에는 엄청난 양의 리소스가 넘쳐나기 때문에 어려움을 느끼기 쉽습니다.

이러한 목적을 위해 저희는 Google Cloud에 대한 25개 이상의 유용한 사용 가이드를 엄선하여 생생한 컬렉션(정보 링크)으로 구성했습니다. 이 컬렉션은 네 가지 영역으로 나뉩니다.

  1. 빠른 모델 배포: 효율적인 CI/CD 파이프라인을 구축하고, Llama 3와 같은 대규모 모델을 고성능 인프라에 배포하고, Vertex AI Studio에서 개방형 모델을 활용하세요.
  2. Gen AI 앱 및 다중 에이전트 시스템 구축: LangGraph를 사용하여 문서 요약기, 다중 턴 채팅 앱, 고급 연구 에이전트를 구축하세요.
  3. Fine tuning(미세 조정), 평가 및 RAG(검색 증강 생성): 지도 미세 조정, RAG, 인간 피드백 기반 강화 학습(RLHF)을 통해 모델을 개선하세요.
  4. 통합(Integrations): 다국어 모바일 챗봇을 구축하거나 Google Cloud 데이터베이스와 통합하여 AI를 세상과 연결하세요.

이 페이지를 북마크하고 링크 된 가이드의 최신 내용을을 자주 확인해 보세요.

 

1. 빠른 모델 배포

  1. 원하는 방식으로 배포: Gemma 3는 Google GenAI API, Vertex AI, Cloud Run, Cloud TPU, Cloud GPU 등 다양한 배포 옵션과 플랫폼 간 통합을 제공하여 사용 사례에 가장 적합한 옵션을 유연하게 선택할 수 있도록 지원합니다.
  2. 고성능 A3 VM에 Llama 3와 같은 대규모 모델을 배포합니다. 이 가이드는 AI 하이퍼컴퓨터 클러스터(GPU가 있는 A3 VM)를 프로비저닝하고 JAX를 사용하여 대규모 오픈 모델을 배포하여 최대 성능을 달성하는 Terraform 스크립트를 제공합니다. GitHub 프로비저닝 문서.
  3. AI 하이퍼컴퓨터에서 DeepSeek 모델과 Llama 4 모델에 액세스합니다.TPU 레시피는 Trillium TPU와 JetStream MaxText Engine을 사용하여 Llama-4-Scout-17B-16E 모델을 배포하는 단계를 설명합니다. AI 하이퍼컴퓨터 Github 저장소의 추론 레시피를 사용하여 Llama4 Scout 및 Maverick 모델 또는 DeepSeekV3/R1 모델을 지금 바로 배포할 수 있습니다.
  4. Vertex AI Studio에서 오픈 모델을 사용합니다. 모델 선택은 더 이상 Gemini에만 국한되지 않습니다. Claude 모델도 선택할 수 있습니다. Vertex AI Studio에서 오픈 모델을 사용하는 방법의 문서가 링크되어 있습니다.
  5. 10분 이내에 Google Cloud Run에 원격 MCP 서버를 빌드하고 배포합니다. MCP 서버 호스팅을 위한 공식 Cloud Run 문서를 직접 참고하여 이 링크의 블로그에서는 원격 MCP 서버를 직접 설정하는 간단한 과정을 보여줍니다. 블로그

2. Gen AI 앱 및 다중 에이전트 시스템 구축

  1. Gemini Pro를 사용하여 문서(텍스트) 요약기를 만듭니다. 이 Python 노트북은 Vertex AI SDK를 사용하여 Gemini Pro 모델과 상호 작용하는 방법을 보여줍니다. 이 실습 과제는 긴 문서의 간결한 요약을 생성하는 것입니다. Github 레시피.
  2. Gemini를 사용하여 멀티턴 채팅 애플리케이션을 구축합니다. 이 노트북은 Gemini API를 사용하여 대화 내역을 기억할 수 있는 상태 저장 멀티턴 채팅 서비스를 구축하는 방법을 보여줍니다. 공식 문서.
  3. LangGraph를 사용하여 멀티모달 리서치 에이전트를 구축합니다. 루프 방식으로 작동하는 진정한 AI 에이전트를 구축하기 위한 고급 레시피입니다. LangGraph를 사용하여 에이전트가 웹을 검색하고, Gemini를 사용하여 결과에서 이미지를 분석하고, 최종 답변을 합성할 수 있는 워크플로를 생성합니다. 샘플 코드. 블로그.
  4. AI가 좋은 SQL 쿼리(텍스트-SQL)를 작성하도록 합니다. 최첨단 컨텍스트 구축 및 테이블 검색 방식, LLM-as-a-Judge 기법을 활용한 텍스트-SQL 품질 평가 방법, LLM 프롬프트 및 후처리에 대한 최적의 접근법, 그리고 시스템이 사실상 인증된 정답을 제공할 수 있도록 하는 기법에 대해 알아보세요. 가이드.
  5. 독립형 ADK/MCP 에이전트를 A2A 호환 컴포넌트로 변환하고 이러한 에이전트를 관리하는 오케스트레이터를 구축합니다. 프로젝트 소스 코드. 공식 A2A Python SDK. 공식 A2A 샘플 프로젝트
  6. ADK를 사용하여 간단한 다중 에이전트 시스템(이 경우 여행 계획 시스템)을 구축합니다. 프로젝트 소스 코드를 살펴보세요.
  7. Google ADK를 사용하여 대화형 데이터 익명화 에이전트를 구축합니다. 에이전트는 테이블의 스키마와 데이터를 대화형으로 분석하여 민감한 열을 식별한 다음, 즉시 실행 가능한 SQL 스크립트를 제안 및 생성하여 익명화 및 샘플링된 복사본을 생성합니다. 프로젝트 샘플 코드를 살펴보세요.
  8. Imagen 3와 Gemini를 사용하여 강력한 브랜드 로고를 제작해 보세요. Imagen 3, Gemini, 그리고 Python 라이브러리 Pillow를 사용하여 로고로 브랜드 스타일을 구축하는 방법을 알아보세요. 샘플 코드도 제공됩니다.

3. Fine tuning(미세 조정), 평가 및 검색 RAG(증강 생성)

  1. Gemini를 활용한 Supervised Fine Tuning(지도 미세 조정)을 위한 최고의 모범 사례 가이드. 이 가이드는 개발자가 Supervised Fine Tuning 프로세스를 간소화하는 방법을 심층적으로 설명합니다. 여기에는 최적의 모델 버전 선택, 고품질 데이터세트 제작, 문제 진단 및 해결 도구를 포함한 모델 평가 모범 사례가 포함됩니다. 전체 가이드. Gen AI Github 저장소.
  2. Vertex AI RAG를 시작하기 위한 최고의 가이드. Vertex AI RAG Engine을 이해하는 데 필요한 주요 개념을 북마크하세요. 이러한 개념은 RAG(검색 증강 생성) 프로세스 순서대로 나열되어 있습니다. 시작하기 노트북.
  3. 프로덕션에 바로 적용 가능한 RAG 시스템 설계. 생성 AI 앱에서 Vertex AI와 벡터 검색의 엔드 투 엔드 역할을 이해하기 위한 포괄적인 아키텍처 가이드. 시스템 다이어그램, 설계 고려 사항 및 모범 사례가 포함되어 있습니다. 공식 아키텍처 가이드.
  4. 고급 RAG 기술: Vertex RAG Engine 검색 품질 평가 및 하이퍼파라미터 튜닝. RAG Engine을 사용하여 검색을 위한 하이퍼파라미터 튜닝을 평가하고 수행하는 방법을 알아보세요. Github 저장소.
  5. 강화 학습(RLHF)을 사용하여 모델 미세 조정. 이 튜토리얼은 Vertex AI에서 사람 피드백을 기반으로 한 강화 학습(RLHF)을 사용하여 대용량 언어 모델(LLM)을 튜닝하는 방법을 보여줍니다. 이 워크플로는 사람으로부터 수집된 피드백을 사용하여 모델의 정확도를 향상시킵니다. Colab.
  6. Vertex AI에서 비디오 입력을 미세 조정합니다. 콘텐츠 관리, 비디오 자막, 상세 이벤트 현지화 작업이 포함된 경우 이 가이드가 도움이 될 것입니다. 샘플 노트북.
  7. 개발 중에 텍스트 프롬프트와 모델을 빠르게 비교합니다. 이 “Rapid Evaluation” SDK를 사용하여 다양한 텍스트 기반 프롬프트 또는 모델의 출력을 나란히 빠르게 비교할 수 있습니다. Colab.
  8. Explainable AI를 사용하여 특성 기여도(Feature attribution)을 가져옵니다. 분류 및 회귀 모델의 경우, Vertex Explainable AI를 사용하여 모델이 특정 예측을 내린 이유를 파악합니다. 관련 문서.
  9. RAG 검색을 최적화하세요. 근본 원인 분석부터 테스트 프레임워크 구축까지, 환각을 최소화하고 AI 애플리케이션에 대한 신뢰를 구축하는 단계별 방법을 소개합니다. 블로그.

4. 통합(Integrations)

  1. 모바일용 다국어 챗봇 구축. Android에서 다국어 챗봇을 구축하기 위한 완벽한 엔드 투 엔드 가이드입니다. Gemma, Gemini API, MCP를 결합하여 강력하고 글로벌하게 사용 가능한 애플리케이션을 구축합니다. Github 저장소. 블로그.
  2. 외부 MCP 서버에 연결하는 ADK 에이전트를 개발합니다. MCP를 활용하여 위키백과 문서에 액세스하는 ADK 에이전트의 예시를 살펴보세요. 이는 외부 특수 데이터를 검색하는 일반적인 사용 사례입니다. 또한 MCP 통신을 위한 SSE(Server-Sent Events)를 대체하도록 설계된 차세대 전송 프로토콜인 Streamable HTTP도 소개합니다. 가이드.
  3. 텍스트 서비스용 Vertex AI 임베딩과 StackOverflow 데이터세트를 사용하여 텍스트 임베딩을 인코딩합니다. 벡터 검색은 완전 관리형 서비스로 운영 오버헤드를 더욱 줄여줍니다. Google Research에서 개발한 근사 최근접 이웃(ANN) 기술을 기반으로 합니다. 노트북.
  4. MCP를 Google Cloud 데이터베이스와 통합합니다. MCP 호환 AI 어시스턴트(Claude Code, Cursor, Windsurf, Cline 등)를 Google Cloud Databases와 통합하는 방법을 알아보세요. 이 블로그에서는 데이터베이스 쿼리를 처리하는 애플리케이션 코드 작성, 새 애플리케이션의 스키마 설계, 데이터 모델 변경 시 코드 리팩토링, 통합 테스트용 데이터 생성 방법 등을 안내합니다. 블로그
문의하기 베스픽 구독하기
궁금한 점이 있다면 클릭해주세요.