Introduction to AI Trust, Risk, and Security Management (AI TRiSM) 교육 과정
AI TRiSM은 AI 시스템의 신뢰성, 위험 관리 및 보안에 대한 요구를 해결하는 새로운 분야입니다.
이 강사가 진행하는 실시간 교육(온라인 또는 현장)은 조직에서 AI TRiSM을 이해하고 구현하려는 초급부터 중급 수준의 IT 전문가를 대상으로 합니다.
이 교육이 끝나면 참가자는 다음을 수행할 수 있습니다.
- AI 신뢰, 위험, 보안 관리의 핵심 개념과 중요성을 파악하세요.
- AI 시스템과 관련된 위험을 식별하고 완화합니다.
- AI에 대한 보안 모범 사례를 구현합니다.
- AI에 대한 규정 준수 및 윤리적 고려 사항을 이해합니다.
- 효과적인 AI 거버넌스 및 관리를 위한 전략을 개발합니다.
코스의 형식
- 대화형 강의 및 토론.
- 많은 연습과 연습.
- 라이브 랩 환경에서 직접 구현합니다.
코스 맞춤화 옵션
- 이 과정에 대한 맞춤형 교육을 요청하려면 당사에 연락하여 예약하시기 바랍니다.
Course Outline
AI TRiSM 이해
- AI TRiSM 소개
- AI에서 신뢰와 보안의 중요성
- AI 위험 및 과제 개요
신뢰할 수 있는 AI의 기초
- AI 신뢰성의 원칙
- AI 시스템의 공정성, 신뢰성, 견고성 보장
- AI 윤리 및 거버넌스
AI의 위험 Management
- AI 위험 식별 및 평가
- AI 관련 위험에 대한 완화 전략
- AI 위험 관리 프레임워크
AI의 보안 측면
- AI와 사이버보안
- AI 시스템을 공격으로부터 보호
- 안전한 AI 개발 수명주기
규정 준수 및 Data Protection
- AI 규제 환경
- 데이터 개인 정보 보호법을 준수하는 AI
- AI 시스템의 데이터 암호화 및 보안 저장
AI 모델 Go버넌스
- GoAI의 버넌스 구조
- AI 모델 모니터링 및 감사
- AI의 투명성과 설명 가능성
AI TRiSM 구현
- AI TRiSM 구현 모범 사례
- 사례 연구 및 실제 사례
- AI TRiSM을 위한 도구 및 기술
AI TRiSM의 미래
- AI TRiSM의 새로운 트렌드
- 비즈니스에서 AI의 미래를 준비하다
- AI TRiSM의 지속적인 학습 및 적응
요약 및 다음 단계
Requirements
- AI의 기본 개념과 활용에 대한 이해
- 데이터 관리 및 IT 보안 원칙에 대한 경험이 있으면 유익합니다.
청중
- IT 전문가 및 관리자
- 데이터 과학자 및 AI 개발자
- Business 지도자 및 정책 입안자
Open Training Courses require 5+ participants.
Introduction to AI Trust, Risk, and Security Management (AI TRiSM) 교육 과정 - Booking
Introduction to AI Trust, Risk, and Security Management (AI TRiSM) 교육 과정 - Enquiry
Introduction to AI Trust, Risk, and Security Management (AI TRiSM) - Consultancy Enquiry
Consultancy Enquiry
Upcoming Courses
Related Courses
AI Governance, Compliance, and Security for Enterprise Leaders
14 Hours이 강사는 지도하는 실시간 교육과정은 온라인 또는 현장에서 진행되며, 중간 수준의 기업 리더를 대상으로 하며, EU AI Act, GDPR, ISO/IEC 42001 및 미국 AI에 대한 행정 명령과 같은 새로운 글로벌 프레임워크에 부합하면서 AI 시스템을 책임감 있게 관리하고 보안 유지하는 방법을 이해하고자 하는 분들을 대상으로 합니다.
이 교육과정을 마치면 참가자들은 다음을 할 수 있게 됩니다:
- 부서 전체에서 AI를 사용하는 법적, 윤리적, 규제상의 위험을 이해합니다.
- 주요 AI 관리 프레임워크(EU AI Act, NIST AI RMF, ISO/IEC 42001)를 해석하고 적용합니다.
- 기업 AI 배포를 위한 보안, 감사 및 감독 정책을 설정합니다.
- 타사 및 내부 AI 시스템의 조달 및 사용 지침을 개발합니다.
AI Risk Management and Security in the Public Sector
7 HoursArtificial Intelligence (AI)은 정부 기관과 부처에 새로운 운영 리스크 차원, 관리 도전 과제, 사이버 보안 노출을 제공합니다.
이 강사는 공공 부문 IT 및 리스크 전문가들이 정부나 규제 맥락에서 AI 시스템을 평가, 모니터링 및 보안하는 방법을 이해하고자 하는 사람들을 대상으로 한 실시간 온라인 또는 현장 강의입니다.
이 강의를 마친 후 참가자들은 다음을 할 수 있게 됩니다:
- 편향, 예측 불가능성, 모델 드리프트와 같은 AI 시스템과 관련된 주요 리스크 개념을 해석합니다.
- NIST AI RMF 및 ISO/IEC 42001과 같은 AI 전용 관리 및 감사 프레임워크를 적용합니다.
- AI 모델과 데이터 파이프라인을 대상으로 하는 사이버 보안 위협을 인식합니다.
- AI 배포를 위한 부서 간 리스크 관리 계획과 정책 일치를 수립합니다.
강의 형식
- 공공 부문 사용 사례에 대한 대화형 강의 및 논의.
- AI 관리 프레임워크 연습과 정책 매핑.
- 시나리오 기반 위협 모델링 및 리스크 평가.
강의 맞춤화 옵션
- 이 강의를 위한 맞춤형 교육을 요청하려면 연락하여 안내를 받으십시오.
Building Secure and Responsible LLM Applications
14 Hours이 강사는 온라인 또는 현장에서 직접 지도하는 라이브 교육과정으로, 중간 수준에서 고급 수준의 AI 개발자, 아키텍트, 제품 관리자가 LLM 기반 애플리케이션과 관련된 위험, 예를 들어 프롬프트 주입, 데이터 유출, 필터링되지 않은 출력을 식별하고 완화할 수 있도록 설계되었습니다. 입력 유효성 검사, 인간 개입, 출력 보호 대책을 포함하여 보안 대책을 통합합니다.
이 교육을 마치면 참가자는 다음을 할 수 있게 됩니다:
- LLM 기반 시스템의 핵심 취약점을 이해합니다.
- LLM 앱 아키텍처에 안전한 디자인 원칙을 적용합니다.
- Guardrails AI와 LangChain와 같은 도구를 검증, 필터링, 안전성 유지에 사용합니다.
- 샌드박싱, 레드 팀링, 인간 개입 검토와 같은 기법을 생산 수준 파이프라인에 통합합니다.
Cybersecurity in AI Systems
14 Hours대한민국에서 강사가 진행하는 이 실시간 교육(온라인 또는 현장)은 특히 금융, 데이터 거버넌스, 컨설팅과 같이 규제가 엄격한 산업에서 AI 모델과 시스템의 특정 보안 취약성을 이해하고 해결하고자 하는 중급 수준의 AI 및 사이버보안 전문가를 대상으로 합니다.
이 교육을 마치면 참가자는 다음을 수행할 수 있습니다.
- AI 시스템을 표적으로 삼는 적대적 공격의 유형과 이를 방어하는 방법을 이해합니다.
- 머신 러닝 파이프라인의 보안을 위해 모델 강화 기술을 구현합니다.
- 머신 러닝 모델에서 데이터 보안과 무결성을 보장합니다.
- AI 보안과 관련된 규정 준수 요구 사항을 살펴보세요.
Introduction to AI Security and Risk Management
14 Hours이 강사는 대한민국 (온라인 또는 현장)에서 제공하는 이 강사는 AI 보안 개념, 위협 벡터 및 NIST AI RMF 및 ISO/IEC 42001과 같은 글로벌 프레임워크를 이해하고자 하는 초급 수준의 IT 보안, 위험 관리 및 준수 전문가를 대상으로 합니다.
이 교육을 마친 후, 참가자는 다음과 같은 능력을 갖추게 됩니다:
- AI 시스템이 도입하는 고유한 보안 위험을 이해합니다.
- 적대적 공격, 데이터 오염 및 모델 역전과 같은 위협 벡터를 식별합니다.
- NIST AI Risk Management 프레임워크와 같은 기본 통치 모델을 적용합니다.
- AI 사용을 신흥 표준, 준수 지침 및 윤리 원칙과 일치시킵니다.
Privacy-Preserving Machine Learning
14 HoursRed Teaming AI Systems: Offensive Security for ML Models
14 Hours이 강사는 대한민국 (온라인 또는 현장)에서 제공되는 이 강의는 AI 시스템에 대한 공격을 시뮬레이션하고, 취약점을 발견하며, 배포된 AI 모델의 견고성을 강화하고자 하는 고급 보안 전문가와 머신러닝 전문가를 대상으로 합니다.
이 교육을 마치면 참가자들은 다음을 할 수 있게 됩니다:
- 머신러닝 모델에 대한 실제 위협을 시뮬레이션합니다.
- 모델의 견고성을 테스트하기 위해 적대적 예시를 생성합니다.
- AI API 및 파이프라인의 공격 표면을 평가합니다.
- AI 배포 환경에 대한 레드 팀 전략을 설계합니다.
Securing Edge AI and Embedded Intelligence
14 Hours이 강사는 온라인 또는 현장(온사이트)에서 직접 진행되는, 중간 수준의 엔지니어와 보안 전문가를 대상으로 하는 라이브 교육과정입니다. 이들은 변경, 데이터 유출, 적대적 입력 및 물리적 공격과 같은 위협으로부터 엣지에 배포된 AI 모델을 보호하고자 합니다.
이 교육을 마치면 참가자들은 다음을 할 수 있게 됩니다:
- 엣지 AI 배포에서 보안 위험을 식별하고 평가합니다.
- 변경 저항 및 암호화 추론 기법을 적용합니다.
- 엣지에 배포된 모델을 강화하고 데이터 파이프라인을 보호합니다.
- 내장 및 제한된 시스템에 특화된 위협 완화 전략을 구현합니다.
Securing AI Models: Threats, Attacks, and Defenses
14 Hours이 강사는 온라인 또는 현장에서 직접 지도하는 라이브 교육으로, 중간 수준의 머신러닝 및 사이버 보안 전문가들이 개념적 프레임워크와 로버스트 트레이닝 및 차등 프라이버시와 같은 실습 방어 기법을 사용하여 AI 모델에 대한 새로운 위협을 이해하고 완화하는 방법을 배울 수 있도록 목표로 합니다.
이 교육을 마치면 참가자는 다음과 같은 능력을 갖게 됩니다:
- 적대적 공격, 역추적, 그리고 오염과 같은 AI 특화 위협을 식별하고 분류할 수 있습니다.
- Adversarial Robustness Toolbox (ART)와 같은 도구를 사용하여 공격을 시뮬레이션하고 모델을 테스트할 수 있습니다.
- 적대적 트레이닝, 노이즈 주입, 그리고 프라이버시 보존 기법과 같은 실용적인 방어 기법을 적용할 수 있습니다.
- 생산 환경에서 위협 인식 모델 평가 전략을 설계할 수 있습니다.