코스 개요

LLM 아키텍처 및 공격 표면 개요

  • LLM이 API를 통해 구축, 배포 및 접근되는 방법
  • LLM 앱 스택의 주요 구성 요소 (예: 프롬프트, 에이전트, 메모리, API)
  • 실제 사용에서 보안 문제가 발생하는 위치와 방법

프롬프트 주입 및 탈옥 공격

  • 프롬프트 주입이 무엇인지 그리고 왜 위험한지
  • 직접적 및 간접적 프롬프트 주입 시나리오
  • 안전 필터를 우회하는 탈옥 기술
  • 탐지 및 완화 전략

데이터 유출 및 개인정보 보호 위험

  • 응답을 통한 데이터 노출 사고
  • 개인 정보 유출 및 모델 메모리 오용
  • 개인정보 보호에 중점을 둔 프롬프트 설계 및 검색 증강 생성(RAG)

LLM 출력 필터링 및 보호

  • Guardrails AI를 사용하여 콘텐츠 필터링 및 검증
  • 출력 스키마 및 제약 조건 정의
  • 위험한 출력 모니터링 및 로깅

인간-루프 및 워크플로우 접근법

  • 언제, 어디서 인간 감독을 도입할 것인지
  • 승인 대기열, 점수 임계값, 대체 처리
  • 신뢰 조정 및 설명 가능성의 역할

안전한 LLM 앱 설계 패턴

  • API 호출 및 에이전트에 대한 최소 권한 및 샌드박싱
  • 율 제한, 제어, 그리고 악용 탐지
  • LangChain을 사용한 견고한 체인 구성 및 프롬프트 격리

준수, 로깅 및 가버넌스

  • LLM 출력의 감사 가능성을 보장
  • 추적 가능성과 프롬프트/버전 관리 유지
  • 내부 보안 정책 및 규제 요구 사항에 맞춤

요약 및 다음 단계

요건

  • 대규모 언어 모델과 프롬프트 기반 인터페이스에 대한 이해
  • Python를 사용하여 LLM 애플리케이션 구축 경험
  • API 통합 및 클라우드 기반 배포에 대한 숙련도

대상 청중

  • AI 개발자
  • 애플리케이션 및 솔루션 아키텍트
  • LLM 도구와 함께 일하는 기술 제품 관리자
 14 시간

참가자 수


참가자당 가격

예정된 코스

관련 카테고리