문의를 보내주셔서 감사합니다! 팀원이 곧 연락드리겠습니다.
Thank you for sending your booking! One of our team members will contact you shortly.
Course Outline
Ollama 소개
- Ollama란 무엇이며 어떻게 작동하는가?
- AI 모델을 로컬에서 실행하는 이점
- 지원되는 LLM (Llama, DeepSeek, Mistral 등) 개요
Ollama 설치 및 설정
- 시스템 요구 사항 및 하드웨어 고려 사항
- 다양한 운영 체제에서 Ollama 설치
- 의존성 구성 및 환경 설정
로컬에서 AI 모델 실행
- Ollama에서 AI 모델 다운로드 및 로드
- 명령 줄을 통해 모델과 상호작용
- 로컬 AI 작업에 대한 기본 프롬프트 엔지니어링
성능 및 자원 사용량 최적화
- AI 실행에 대한 하드웨어 자원 관리
- 대기 시간 줄이기 및 모델 응답 시간 개선
- 다양한 모델에 대한 성능 벤치마킹
로컬 AI 배포에 대한 Use Case
- AI 기반 챗봇 및 가상 어시스턴트
- 데이터 처리 및 자동화 작업
- 개인정보 보호를 위한 AI 응용 프로그램
요약 및 다음 단계
Requirements
- AI와 머신러닝 개념에 대한 기본 이해
- 명령줄 인터페이스에 대한 익숙함
대상
- 클라우드 의존성 없이 AI 모델을 실행하는 개발자
- AI 프라이버시와 비용 효율적인 배포에 관심이 있는 Business 전문가
- 로컬 모델 배포를 탐구하는 AI 애호가
7 Hours