Course Outline

LLM 아키텍처 및 공격 면 개요 - LLMs가 어떻게 빌드, 배포되고 API를 통해 접근되는지 - LLM 앱 스택에서 핵심 구성 요소 (예: 프롬프트, 에이전트, 메모리, API) - 실제 사용 중 발생하는 보안 문제의 위치 및 방법 프롬프트 주입 및 탈옥 공격 - 프롬프트 주입이 무엇인지 그리고 왜 위험한지 - 직접 및 간접 프롬프트 주입 시나리오 - 안전 필터를 우회하기 위한 탈옥 기술 - 탐지 및 완화 전략 데이터 유출 및 프라이버시 위험 - 응답을 통해 우발적인 데이터 노출 - PII 유출 및 모델 메모리 오용 - 프라이버시에 민감한 프롬프트 설계 및 검색 강화 생성(RAG) LLM 출력 필터링 및 보호 - 콘텐츠 필터링 및 검증에 Guardrails AI 사용 - 출력 스키마 및 제약 조건 정의 - 안전하지 않은 출력 모니터링 및 로깅 인간-루프 및 워크플로우 접근법 - 어디와 언제 인간 감독을 도입할지 - 승인 대기열, 점수 임계값, 폴백 처리 - 신뢰 조정 및 설명 가능성의 역할 안전한 LLM 앱 Design Patterns - API 호출 및 에이전트용 최소 권한 및 샌드박싱 - 속도 제한, 제한, 악용 탐지 - LangChain 및 프롬프트 격리와 함께 강력한 체인 준수, 로깅 및 Go 관리 - LLM 출력의 감사 가능성 보장 - 추적 가능성 유지 및 프롬프트/버전 관리 - 내부 보안 정책 및 규제 요구사항에 맞춤 요약 및 다음 단계

Requirements

  • 대규모 언어 모델과 프롬프트 기반 인터페이스에 대한 이해
  • Python를 사용하여 LLM 애플리케이션 구축 경험
  • API 통합 및 클라우드 기반 배포에 대한 숙련도

대상 청중

  • AI 개발자
  • 애플리케이션 및 솔루션 아키텍트
  • LLM 도구와 함께 일하는 기술 제품 관리자
 14 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories