Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems 교육 과정
Fine-Tuning는 기업 응용 프로그램에서 대형 언어 모델이 외부 소스를 통해 관련 정보를 검색하고 생성하는 방법을 최적화하는 과정입니다.
이 강사 주도 온라인 또는 현장 교육은 질의 응답, 기업 검색, 요약과 같은 사용 사례에서 RAG 파이프라인을 조정하여 성능을 향상시키려는 중급 수준의 NLP 엔지니어와 지식 관리 팀을 대상으로 합니다.
이 교육을 마치면 참가자들은 다음과 같은 능력을 갖게 됩니다:
- RAG 시스템의 아키텍처와 워크플로우를 이해합니다.
- 도메인 특정 데이터를 위한 리트리버와 제너레이터 구성 요소를 조정합니다.
- PEFT 기법을 통해 RAG 성능을 평가하고 개선합니다.
- 최적화된 RAG 시스템을 내부 또는 생산 환경에 배포합니다.
수업 형식
- 상호작용적인 강의 및 토론.
- 다양한 연습과 실습.
- 라이브 랩 환경에서의 직접 구현.
수업 커스터마이징 옵션
- 이 강의에 대해 맞춤형 교육을 요청하려면, 커스터마이징을 위해 연락 주세요.
Course Outline
검색 증강 생성(RAG) 소개
- RAG와 기업 AI에 미치는 중요성
- RAG 시스템의 구성 요소: 검색기, 생성기, 문서 저장소
- 독립형 LLMs와 벡터 검색과의 비교
RAG 파이프라인 설정
- Haystack 또는 유사한 프레임워크를 설치 및 구성
- 문서 수집 및 사전 처리
- 벡터 데이터베이스(예: FAISS, Pinecone)에 검색기를 연결
Fine-Tuning 검색기
- 도메인 특정 데이터를 사용하여 밀집형 검색기를 학습
- 문장 변환기와 대조 학습 사용
- 상위-k 정확도로 검색기 품질 평가
Fine-Tuning 생성기
- 기본 모델 선택(예: BART, T5, FLAN-T5)
- 명령 튜닝 vs. 지도 미세 조정
- 효율적인 업데이트를 위한 LoRA 및 PEFT 방법
평가 및 최적화
- RAG 성능을 평가하는 지표(예: BLEU, EM, F1)
- 지연 시간, 검색 품질, 그리고 환각 감소
- 실험 추적 및 반복적 개선
배포 및 실세계 통합
- 내부 검색 엔진 및 챗봇에 RAG 배포
- 보안, 데이터 접근 및 관리 고려 사항
- API, 대시보드 또는 지식 포털과 통합
사례 연구 및 최적 사례
- 금융, 의료 및 법무 분야의 기업 사용 사례
- 도메인 드리프트 관리 및 지식베이스 업데이트
- 검색 증강형 LLM 시스템의 미래 방향
요약 및 다음 단계
Requirements
- 자연어 처리(NLP) 개념에 대한 이해
- 트랜스포머 기반 언어 모델에 대한 경험
- Python 및 기본 머신러닝 워크플로우에 대한 familiarity
대상
- NLP 엔지니어
- 지식 관리 팀
Open Training Courses require 5+ participants.
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems 교육 과정 - Booking
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems 교육 과정 - Enquiry
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems - 컨설팅 문의
컨설팅 문의
Upcoming Courses
Related Courses
전송 학습의 고급 기법
14 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 최첨단 전이 학습 기술을 숙달하고 이를 복잡한 실제 문제에 적용하고자 하는 고급 수준의 머신 러닝 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 전이 학습의 고급 개념과 방법론을 이해합니다.
- 사전 훈련된 모델에 대한 도메인별 적응 기술을 구현합니다.
- 끊임없이 학습하여 변화하는 업무와 데이터 세트를 관리합니다.
- 여러 작업에 걸친 모델 성능을 향상시키기 위해 멀티태스크 미세 조정을 마스터하세요.
Fine-Tuned 모델 프로덕션 배포
21 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 미세 조정된 모델을 안정적이고 효율적으로 배포하려는 고급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 미세 조정된 모델을 프로덕션에 배포하는 데 따르는 과제를 파악합니다.
- Docker 및 Kubernetes과 같은 도구를 사용하여 모델을 컨테이너화하고 배포합니다.
- 배포된 모델에 대한 모니터링과 로깅을 구현합니다.
- 실제 시나리오에서 지연 시간과 확장성을 위해 모델을 최적화합니다.
금융을 위한 도메인 특정 미세 조정
21 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 중요한 금융 업무를 위해 AI 모델을 사용자 지정하는 데 필요한 실무 기술을 습득하고자 하는 중급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 금융 애플리케이션에 대한 미세 조정의 기본을 이해합니다.
- 금융 분야의 도메인별 작업에 사전 훈련된 모델을 활용합니다.
- 사기 탐지, 위험 평가, 재무 조언 생성을 위한 기술을 적용합니다.
- GDPR 및 SOX와 같은 금융 규정을 준수합니다.
- 금융 애플리케이션에 데이터 보안과 윤리적인 AI 관행을 구현합니다.
모델과 대형 언어 모델(LLMs)의 미세 조정
14 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 특정 작업 및 데이터 세트에 맞게 사전 훈련된 모델을 사용자 지정하려는 중급에서 고급 수준의 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 미세조정의 원리와 응용 프로그램을 이해합니다.
- 사전 훈련된 모델을 미세 조정하기 위한 데이터 세트를 준비합니다.
- NLP 작업을 위해 대규모 언어 모델(LLM)을 세부적으로 조정합니다.
- 모델 성능을 최적화하고 일반적인 과제를 해결합니다.
효율적인 Low-Rank 적응을 통한 미세 조정 (LoRA)
14 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 광범위한 계산 리소스가 필요 없이 대규모 모델에 대한 미세 조정 전략을 구현하려는 중급 개발자와 AI 실무자를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 저순위 적응(LoRA)의 원리를 이해해 보세요.
- 대규모 모델의 효율적인 미세조정을 위해 LoRA를 구현합니다.
- 리소스가 제한된 환경에 맞춰 미세 조정을 최적화합니다.
- 실용적인 응용 프로그램을 위해 LoRA에 맞춰 조정된 모델을 평가하고 배포합니다.
멀티모달 모델 미세 조정
28 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 혁신적인 AI 솔루션을 위한 멀티모달 모델 미세 조정을 숙달하고자 하는 고급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- CLIP, Flamingo와 같은 멀티모달 모델의 아키텍처를 이해합니다.
- 다중 모달 데이터 세트를 효과적으로 준비하고 사전 처리합니다.
- 특정 작업에 맞게 멀티모달 모델을 세부적으로 조정합니다.
- 실제 응용 프로그램과 성능에 맞게 모델을 최적화합니다.
자연어 처리(NLP) 모델 최적화
21 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 사전 훈련된 언어 모델의 효과적인 미세 조정을 통해 NLP 프로젝트를 개선하고자 하는 중급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- NLP 작업을 위한 미세 조정의 기본을 이해합니다.
- GPT, BERT, T5와 같은 사전 학습된 모델을 특정 NLP 애플리케이션에 맞게 미세 조정합니다.
- 모델 성능을 개선하기 위해 하이퍼파라미터를 최적화합니다.
- 실제 시나리오에서 미세 조정된 모델을 평가하고 배포합니다.
딥시크 LLM을 활용한 맞춤형 AI 모델 개발
21 Hours이 강사는 온라인 또는 현장에서 실시간으로 진행되며, DeepSeek LLM 모델을 특정 산업, 분야, 또는 비즈니스 요구에 맞게 맞춤형 AI 애플리케이션을 생성하기 위해 DeepSeek LLM 모델을 세밀하게 조정하고자 하는 고급 AI 연구원, 머신러닝 엔지니어 및 개발자를 대상으로 합니다.
이 훈련을 마친 후 참가자는 다음을 할 수 있습니다:
- DeepSeek-R1 및 DeepSeek-V3를 포함한 DeepSeek 모델의 아키텍처와 기능을 이해합니다.
- 세밀 조정을 위한 데이터셋을 준비하고 전처리합니다.
- 도메인 특정 애플리케이션을 위해 DeepSeek LLM을 세밀 조정합니다.
- 세밀 조정된 모델을 효율적으로 최적화하고 배포합니다.
Fine-Tuning QLoRA를 사용한 대형 언어 모델
14 Hours이 온라인 또는 현장 강사 주도의 실습 교육은 중간 수준부터 고급 수준까지의 머신러닝 엔지니어, AI 개발자, 데이터 과학자들이 특정 작업 및 맞춤화를 위해 대규모 모델을 효율적으로 미세 조정하기 위해 QLoRA를 사용하는 방법을 학습하고자 하는 분들을 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 할 수 있게 됩니다:
- QLoRA와 LLM을 위한 양자화 기법의 이론을 이해합니다.
- QLoRA를 사용하여 대규모 언어 모델을 특정 분야에 맞게 미세 조정하는 방법을 구현합니다.
- 양자화를 사용하여 제한된 계산 자원에서 미세 조정을 최적화합니다.
- 미세 조정된 모델을 실제 응용 프로그램에서 효율적으로 배포하고 평가합니다.
Fine-Tuning with Reinforcement Learning from Human Feedback (RLHF)
14 Hours이 인스트럭터 주도형 라이브 트레이닝은 대한민국(온라인 또는 현장)에서 고급 수준의 머신러닝 엔지니어와 AI 연구자에게 제공되며, RLHF를 사용하여 대형 AI 모델을 최적의 성능, 안전성, 그리고 일치성을 위해 미세 조정하고자 하는 사람들을 대상으로 합니다.
이 트레이닝을 마치면 참가자들은 다음을 할 수 있게 됩니다:
- RLHF의 이론적 기반을 이해하고, 이를 현대 AI 개발에서 왜 필수적인지 알아봅니다.
- 인간 피드백을 기반으로 보상 모델을 구현하여 강화 학습 과정을 안내합니다.
- RLHF 기술을 사용하여 대형 언어 모델을 미세 조정하여 출력을 인간 선호도에 맞추게 합니다.
- 생산 수준 AI 시스템을 위해 RLHF 워크플로우를 확장하기 위한 최선의 관행을 적용합니다.
대규모 모델의 비용 효율적인 미세 조정 최적화
21 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 실제 상황에서 비용 효율적인 미세 조정을 위해 대규모 모델을 최적화하는 기술을 숙달하고자 하는 고급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 대규모 모델을 미세조정하는 데 따르는 과제를 이해합니다.
- 대규모 모델에 분산형 학습 기술을 적용합니다.
- 효율성을 위해 모델 양자화와 가지치기를 활용합니다.
- 미세 조정 작업을 위해 하드웨어 활용을 최적화합니다.
- 세부적으로 조정된 모델을 프로덕션 환경에 효과적으로 배포합니다.
프롬프트 엔지니어링과 몇 샷 파인튜닝
14 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 신속한 엔지니어링과 단시간 학습의 힘을 활용해 실제 응용 프로그램에서 LLM 성과를 최적화하고자 하는 중급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 신속한 엔지니어링과 소수 학습의 원리를 이해합니다.
- 다양한 NLP 작업에 맞는 효과적인 프롬프트를 설계합니다.
- 최소한의 데이터로 LLM을 조정하기 위해 소수 샷 기술을 활용합니다.
- 실제 응용 프로그램을 위해 LLM 성능을 최적화합니다.
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs
14 Hours이 온라인 또는 현장 교육은 비용 효율적이고 효과적으로 LoRA, Adapter Tuning, 그리고 Prefix Tuning과 같은 방법을 사용하여 대규모 언어 모델을 미세 조정하고자 하는 중급 데이터 과학자 및 AI 엔지니어를 대상으로 합니다.
이 교육을 마친 후, 참가자는 다음을 할 수 있게 됩니다:
- 매개변수 효율적인 미세 조정 접근 방식을 이해합니다.
- Hugging Face PEFT를 사용하여 LoRA, Adapter Tuning, 그리고 Prefix Tuning을 구현합니다.
- PEFT 방법과 전체 미세 조정 간의 성능 및 비용 trade-offs를 비교합니다.
- 계산 및 저장 요구 사항을 줄인 상태로 미세 조정된 LLMs를 배포하고 확장합니다.
전이 학습 소개
14 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 AI 프로젝트에서 효율성과 성과를 개선하기 위해 전이 학습 기술을 이해하고 적용하고자 하는 초급에서 중급 수준의 머신 러닝 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 전이 학습의 핵심 개념과 이점을 이해합니다.
- 인기 있는 사전 학습된 모델과 그 응용 프로그램을 살펴보세요.
- 사용자 정의 작업에 맞게 사전 훈련된 모델의 미세 조정을 수행합니다.
- 전이 학습을 적용하여 NLP 및 컴퓨터 비전에서 실제 문제를 해결합니다.
문제 해결: 마이크로러닝 모델의 미세 조정 문제
14 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 머신 러닝 모델의 미세 조정 과제를 진단하고 해결하는 기술을 다듬고자 하는 고급 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- 과대적합, 과소적합, 데이터 불균형과 같은 문제를 진단합니다.
- 모델 수렴을 개선하기 위한 전략을 구현합니다.
- 더 나은 성능을 위해 미세 조정 파이프라인을 최적화합니다.
- 실용적인 도구와 기술을 활용해 훈련 과정을 디버깅합니다.