Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems 교육 과정
Fine-Tuning는 기업 응용 프로그램에서 대형 언어 모델이 외부 소스를 통해 관련 정보를 검색하고 생성하는 방법을 최적화하는 과정입니다.
이 강사 주도 온라인 또는 현장 교육은 질의 응답, 기업 검색, 요약과 같은 사용 사례에서 RAG 파이프라인을 조정하여 성능을 향상시키려는 중급 수준의 NLP 엔지니어와 지식 관리 팀을 대상으로 합니다.
이 교육을 마치면 참가자들은 다음과 같은 능력을 갖게 됩니다:
- RAG 시스템의 아키텍처와 워크플로우를 이해합니다.
- 도메인 특정 데이터를 위한 리트리버와 제너레이터 구성 요소를 조정합니다.
- PEFT 기법을 통해 RAG 성능을 평가하고 개선합니다.
- 최적화된 RAG 시스템을 내부 또는 생산 환경에 배포합니다.
수업 형식
- 상호작용적인 강의 및 토론.
- 다양한 연습과 실습.
- 라이브 랩 환경에서의 직접 구현.
수업 커스터마이징 옵션
- 이 강의에 대해 맞춤형 교육을 요청하려면, 커스터마이징을 위해 연락 주세요.
Course Outline
검색 증강 생성(RAG) 소개
- RAG와 기업 AI에 미치는 중요성
- RAG 시스템의 구성 요소: 검색기, 생성기, 문서 저장소
- 독립형 LLMs와 벡터 검색과의 비교
RAG 파이프라인 설정
- Haystack 또는 유사한 프레임워크를 설치 및 구성
- 문서 수집 및 사전 처리
- 벡터 데이터베이스(예: FAISS, Pinecone)에 검색기를 연결
Fine-Tuning 검색기
- 도메인 특정 데이터를 사용하여 밀집형 검색기를 학습
- 문장 변환기와 대조 학습 사용
- 상위-k 정확도로 검색기 품질 평가
Fine-Tuning 생성기
- 기본 모델 선택(예: BART, T5, FLAN-T5)
- 명령 튜닝 vs. 지도 미세 조정
- 효율적인 업데이트를 위한 LoRA 및 PEFT 방법
평가 및 최적화
- RAG 성능을 평가하는 지표(예: BLEU, EM, F1)
- 지연 시간, 검색 품질, 그리고 환각 감소
- 실험 추적 및 반복적 개선
배포 및 실세계 통합
- 내부 검색 엔진 및 챗봇에 RAG 배포
- 보안, 데이터 접근 및 관리 고려 사항
- API, 대시보드 또는 지식 포털과 통합
사례 연구 및 최적 사례
- 금융, 의료 및 법무 분야의 기업 사용 사례
- 도메인 드리프트 관리 및 지식베이스 업데이트
- 검색 증강형 LLM 시스템의 미래 방향
요약 및 다음 단계
Requirements
- 자연어 처리(NLP) 개념에 대한 이해
- 트랜스포머 기반 언어 모델에 대한 경험
- Python 및 기본 머신러닝 워크플로우에 대한 familiarity
대상
- NLP 엔지니어
- 지식 관리 팀
Open Training Courses require 5+ participants.
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems 교육 과정 - Booking
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems 교육 과정 - Enquiry
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems - Consultancy Enquiry
Consultancy Enquiry
Upcoming Courses
Related Courses
Advanced Techniques in Transfer Learning
14 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 최첨단 전이 학습 기술을 숙달하고 이를 복잡한 실제 문제에 적용하고자 하는 고급 수준의 머신 러닝 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 전이 학습의 고급 개념과 방법론을 이해합니다.
- 사전 훈련된 모델에 대한 도메인별 적응 기술을 구현합니다.
- 끊임없이 학습하여 변화하는 업무와 데이터 세트를 관리합니다.
- 여러 작업에 걸친 모델 성능을 향상시키기 위해 멀티태스크 미세 조정을 마스터하세요.
Deploying Fine-Tuned Models in Production
21 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 미세 조정된 모델을 안정적이고 효율적으로 배포하려는 고급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 미세 조정된 모델을 프로덕션에 배포하는 데 따르는 과제를 파악합니다.
- Docker 및 Kubernetes과 같은 도구를 사용하여 모델을 컨테이너화하고 배포합니다.
- 배포된 모델에 대한 모니터링과 로깅을 구현합니다.
- 실제 시나리오에서 지연 시간과 확장성을 위해 모델을 최적화합니다.
Domain-Specific Fine-Tuning for Finance
21 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 중요한 금융 업무를 위해 AI 모델을 사용자 지정하는 데 필요한 실무 기술을 습득하고자 하는 중급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 금융 애플리케이션에 대한 미세 조정의 기본을 이해합니다.
- 금융 분야의 도메인별 작업에 사전 훈련된 모델을 활용합니다.
- 사기 탐지, 위험 평가, 재무 조언 생성을 위한 기술을 적용합니다.
- GDPR 및 SOX와 같은 금융 규정을 준수합니다.
- 금융 애플리케이션에 데이터 보안과 윤리적인 AI 관행을 구현합니다.
Fine-Tuning Models and Large Language Models (LLMs)
14 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 특정 작업 및 데이터 세트에 맞게 사전 훈련된 모델을 사용자 지정하려는 중급에서 고급 수준의 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 미세조정의 원리와 응용 프로그램을 이해합니다.
- 사전 훈련된 모델을 미세 조정하기 위한 데이터 세트를 준비합니다.
- NLP 작업을 위해 대규모 언어 모델(LLM)을 세부적으로 조정합니다.
- 모델 성능을 최적화하고 일반적인 과제를 해결합니다.
Efficient Fine-Tuning with Low-Rank Adaptation (LoRA)
14 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 광범위한 계산 리소스가 필요 없이 대규모 모델에 대한 미세 조정 전략을 구현하려는 중급 개발자와 AI 실무자를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 저순위 적응(LoRA)의 원리를 이해해 보세요.
- 대규모 모델의 효율적인 미세조정을 위해 LoRA를 구현합니다.
- 리소스가 제한된 환경에 맞춰 미세 조정을 최적화합니다.
- 실용적인 응용 프로그램을 위해 LoRA에 맞춰 조정된 모델을 평가하고 배포합니다.
Fine-Tuning Multimodal Models
28 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 혁신적인 AI 솔루션을 위한 멀티모달 모델 미세 조정을 숙달하고자 하는 고급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- CLIP, Flamingo와 같은 멀티모달 모델의 아키텍처를 이해합니다.
- 다중 모달 데이터 세트를 효과적으로 준비하고 사전 처리합니다.
- 특정 작업에 맞게 멀티모달 모델을 세부적으로 조정합니다.
- 실제 응용 프로그램과 성능에 맞게 모델을 최적화합니다.
Fine-Tuning for Natural Language Processing (NLP)
21 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 사전 훈련된 언어 모델의 효과적인 미세 조정을 통해 NLP 프로젝트를 개선하고자 하는 중급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- NLP 작업을 위한 미세 조정의 기본을 이해합니다.
- GPT, BERT, T5와 같은 사전 학습된 모델을 특정 NLP 애플리케이션에 맞게 미세 조정합니다.
- 모델 성능을 개선하기 위해 하이퍼파라미터를 최적화합니다.
- 실제 시나리오에서 미세 조정된 모델을 평가하고 배포합니다.
Fine-Tuning DeepSeek LLM for Custom AI Models
21 Hours대한민국에서 강사가 진행하는 이 라이브 교육(온라인 또는 현장)은 특정 산업, 도메인 또는 비즈니스 요구 사항에 맞춰진 특수 AI 애플리케이션을 생성하기 위해 DeepSeek LLM 모델을 미세 조정하려는 고급 AI 연구자, 머신 러닝 엔지니어 및 개발자를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- DeepSeek-R1 및 DeepSeek-V3를 포함한 DeepSeek 모델의 아키텍처와 기능을 이해합니다.
- 데이터 세트를 준비하고 미세 조정을 위해 데이터를 사전 처리합니다.
- 도메인별 애플리케이션에 맞게 LLM을 미세 조정합니다.DeepSeek
- 세부적으로 조정된 모델을 효율적으로 최적화하고 배포합니다.
Fine-Tuning Large Language Models Using QLoRA
14 Hours이 온라인 또는 현장 강사 주도의 실습 교육은 중간 수준부터 고급 수준까지의 머신러닝 엔지니어, AI 개발자, 데이터 과학자들이 특정 작업 및 맞춤화를 위해 대규모 모델을 효율적으로 미세 조정하기 위해 QLoRA를 사용하는 방법을 학습하고자 하는 분들을 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 할 수 있게 됩니다:
- QLoRA와 LLM을 위한 양자화 기법의 이론을 이해합니다.
- QLoRA를 사용하여 대규모 언어 모델을 특정 분야에 맞게 미세 조정하는 방법을 구현합니다.
- 양자화를 사용하여 제한된 계산 자원에서 미세 조정을 최적화합니다.
- 미세 조정된 모델을 실제 응용 프로그램에서 효율적으로 배포하고 평가합니다.
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.)
14 Hours이 온라인 또는 현장 강사 주도 라이브 트레이닝은, LLaMA, Mistral, Qwen와 같은 오픈 웨이트 모델을 특정 비즈니스 또는 내부 애플리케이션에 맞게 미세 조정하고 배포하려는 중간 수준의 ML 실무자와 AI 개발자를 대상으로 합니다.
이 트레이닝을 통해 참가자들은 다음을 할 수 있게 됩니다:
- 오픈 소스 LLM의 생태계와 차이점을 이해합니다.
- LLaMA, Mistral, Qwen와 같은 모델의 데이터셋과 미세 조정 구성을 준비합니다.
- Hugging Face Transformers와 PEFT를 사용하여 미세 조정 파이프라인을 실행합니다.
- 안전한 환경에서 미세 조정된 모델을 평가, 저장 및 배포합니다.
Fine-Tuning with Reinforcement Learning from Human Feedback (RLHF)
14 Hours이 인스트럭터 주도형 라이브 트레이닝은 대한민국(온라인 또는 현장)에서 고급 수준의 머신러닝 엔지니어와 AI 연구자에게 제공되며, RLHF를 사용하여 대형 AI 모델을 최적의 성능, 안전성, 그리고 일치성을 위해 미세 조정하고자 하는 사람들을 대상으로 합니다.
이 트레이닝을 마치면 참가자들은 다음을 할 수 있게 됩니다:
- RLHF의 이론적 기반을 이해하고, 이를 현대 AI 개발에서 왜 필수적인지 알아봅니다.
- 인간 피드백을 기반으로 보상 모델을 구현하여 강화 학습 과정을 안내합니다.
- RLHF 기술을 사용하여 대형 언어 모델을 미세 조정하여 출력을 인간 선호도에 맞추게 합니다.
- 생산 수준 AI 시스템을 위해 RLHF 워크플로우를 확장하기 위한 최선의 관행을 적용합니다.
Fine-Tuning Vision-Language Models (VLMs)
14 HoursThis instructor-led, live training in 대한민국 (online or onsite) is aimed at advanced-level computer vision engineers and AI developers who wish to fine-tune VLMs such as CLIP and Flamingo to improve performance on industry-specific visual-text tasks.
By the end of this training, participants will be able to:
- Understand the architecture and pretraining methods of vision-language models.
- Fine-tune VLMs for classification, retrieval, captioning, or multimodal QA.
- Prepare datasets and apply PEFT strategies to reduce resource usage.
- Evaluate and deploy customized VLMs in production environments.
Optimizing Large Models for Cost-Effective Fine-Tuning
21 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 실제 상황에서 비용 효율적인 미세 조정을 위해 대규모 모델을 최적화하는 기술을 숙달하고자 하는 고급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 대규모 모델을 미세조정하는 데 따르는 과제를 이해합니다.
- 대규모 모델에 분산형 학습 기술을 적용합니다.
- 효율성을 위해 모델 양자화와 가지치기를 활용합니다.
- 미세 조정 작업을 위해 하드웨어 활용을 최적화합니다.
- 세부적으로 조정된 모델을 프로덕션 환경에 효과적으로 배포합니다.
Prompt Engineering and Few-Shot Fine-Tuning
14 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 신속한 엔지니어링과 단시간 학습의 힘을 활용해 실제 응용 프로그램에서 LLM 성과를 최적화하고자 하는 중급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 신속한 엔지니어링과 소수 학습의 원리를 이해합니다.
- 다양한 NLP 작업에 맞는 효과적인 프롬프트를 설계합니다.
- 최소한의 데이터로 LLM을 조정하기 위해 소수 샷 기술을 활용합니다.
- 실제 응용 프로그램을 위해 LLM 성능을 최적화합니다.
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs
14 Hours이 온라인 또는 현장 교육은 비용 효율적이고 효과적으로 LoRA, Adapter Tuning, 그리고 Prefix Tuning과 같은 방법을 사용하여 대규모 언어 모델을 미세 조정하고자 하는 중급 데이터 과학자 및 AI 엔지니어를 대상으로 합니다.
이 교육을 마친 후, 참가자는 다음을 할 수 있게 됩니다:
- 매개변수 효율적인 미세 조정 접근 방식을 이해합니다.
- Hugging Face PEFT를 사용하여 LoRA, Adapter Tuning, 그리고 Prefix Tuning을 구현합니다.
- PEFT 방법과 전체 미세 조정 간의 성능 및 비용 trade-offs를 비교합니다.
- 계산 및 저장 요구 사항을 줄인 상태로 미세 조정된 LLMs를 배포하고 확장합니다.