문의를 보내주셔서 감사합니다! 팀원이 곧 연락드리겠습니다.
예약을 보내주셔서 감사합니다! 저희 팀 멤버 중 한 분이 곧 연락드리겠습니다.
코스 개요
Ollama 소개
- Ollama란 무엇이며 어떻게 작동하는가?
- 로컬에서 AI 모델을 실행하는 이점
- 지원되는 LLMs(Llama, DeepSeek, Mistral 등) 개요
Ollama 설치 및 설정
- 시스템 요구 사항과 하드웨어 고려사항
- 다른 운영 체제에서 Ollama 설치하기
- 의존성 구성 및 환경 설정
로컬에서 AI 모델 실행
- Ollama에서 AI 모델 다운로드 및 로드하기
- 명령 줄을 통해 모델과 상호 작용하기
- 로컬 AI 작업을 위한 기본 프롬프트 엔지니어링
성능 및 리소스 사용 최적화
- 효율적인 AI 실행을 위한 하드웨어 리소스 관리
- 지연 시간 줄이고 모델 응답 시간 개선하기
- 다양한 모델의 성능 벤치마킹하기
로컬 AI 배포 활용 사례
- AI 기반 챗봇과 가상 비서
- 데이터 처리 및 자동화 작업
- 프라이버시 중심의 AI 응용 프로그램
요약 및 다음 단계
요건
- AI 및 머신 러닝 개념에 대한 기본적인 이해
- 명령 줄 인터페이스에 익숙함
대상자
- 클라우드 의존성을 없이 AI 모델을 실행하는 개발자들
- AI 프라이버시와 비용 효율적인 배포에 관심 있는 비즈니스 전문가들
- 로컬 모델 배포를 탐색하는 AI 애호가들
7 시간