Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Course Outline
Ollama 소개
- Ollama란 무엇이며 어떻게 작동하는가?
- AI 모델을 로컬에서 실행하는 이점
- 지원되는 LLM (Llama, DeepSeek, Mistral 등) 개요
Ollama 설치 및 설정
- 시스템 요구 사항 및 하드웨어 고려 사항
- 다양한 운영 체제에서 Ollama 설치
- 의존성 구성 및 환경 설정
로컬에서 AI 모델 실행
- Ollama에서 AI 모델 다운로드 및 로드
- 명령 줄을 통해 모델과 상호작용
- 로컬 AI 작업에 대한 기본 프롬프트 엔지니어링
성능 및 자원 사용량 최적화
- AI 실행에 대한 하드웨어 자원 관리
- 대기 시간 줄이기 및 모델 응답 시간 개선
- 다양한 모델에 대한 성능 벤치마킹
로컬 AI 배포에 대한 Use Case
- AI 기반 챗봇 및 가상 어시스턴트
- 데이터 처리 및 자동화 작업
- 개인정보 보호를 위한 AI 응용 프로그램
요약 및 다음 단계
Requirements
- AI와 머신러닝 개념에 대한 기본 이해
- 명령줄 인터페이스에 대한 익숙함
대상
- 클라우드 의존성 없이 AI 모델을 실행하는 개발자
- AI 프라이버시와 비용 효율적인 배포에 관심이 있는 Business 전문가
- 로컬 모델 배포를 탐구하는 AI 애호가
7 Hours