TinyML 애플리케이션의 보안과 프라이버시 교육 과정
TinyML은 저전력, 자원 제한 장치에서 머신러닝 모델을 배포하는 방법입니다. 이러한 장치들은 네트워크 에지에서 작동합니다.
이 강사 주도의 실시간 교육(온라인 또는 현장)은 고급 전문가들을 대상으로 하며, TinyML 파이프라인을 보호하고 에지 AI 애플리케이션에서 프라이버시를 보존하는 기술을 구현하는 방법을 배우게 됩니다.
이 과정을 마친 후, 참가자들은 다음과 같은 능력을 갖추게 됩니다:
- 장치 내 TinyML 추론에 특유한 보안 위험을 식별합니다.
- 에지 AI 배포에서 프라이버시를 보호하는 메커니즘을 구현합니다.
- TinyML 모델과 임베디드 시스템을 적대적 위협으로부터 강화합니다.
- 제약 조건이 있는 환경에서 안전한 데이터 처리를 위한 최선의 방법을 적용합니다.
강의 형식
- 전문가 주도 토론으로 지원되는 참여형 강의.
- 실제 위협 시나리오에 중점을 둔 실용적인 연습.
- 임베디드 보안 및 TinyML 도구를 활용한 실무 구현.
강의 맞춤화 옵션
- 조직은 이 교육을 자신들의 특정 보안 및 준수 요구사항에 맞게 맞춤화할 수 있습니다.
코스 개요
TinyML 보안 입문
- 자원 제한 ML 시스템의 보안 과제
- TinyML 배포를 위한 위협 모델
- 임베디드 AI 애플리케이션의 위험 범주
에지 AI에서의 데이터 프라이버시
- 장치 내 데이터 처리를 위한 프라이버시 고려사항
- 데이터 노출과 전송 최소화
- 분산형 데이터 처리 기술
TinyML 모델에 대한 적대적 공격
- 모델 회피 및 중독 위협
- 임베디드 센서의 입력 조작
- 제약 조건이 있는 환경에서 취약점 평가
임베디드 ML을 위한 보안 강화
- 펌웨어 및 하드웨어 보호 레이어
- 액세스 제어 및 안전 부팅 메커니즘
- 추론 파이프라인을 보호하기 위한 최선의 방법
프라이버시를 보장하는 TinyML 기술
- 프라이버시를 위해 양자화 및 모델 설계 고려사항
- 장치 내 익명화 기술
- 경량 암호화 및 안전한 계산 방법
안전한 배포 및 유지보수
- TinyML 장치의 안전한 프로비저닝
- OTA 업데이트 및 패칭 전략
- 에지에서의 모니터링 및 사건 대응
안전한 TinyML 시스템의 테스트 및 검증
- 보안 및 프라이버시 테스트 프레임워크
- 실제 세계 공격 시나리오 시뮬레이션
- 검증 및 준수 고려사항
사례 연구 및 적용 시나리오
- 에지 AI 생태계에서의 보안 실패 사례
- 탄력적인 TinyML 아키텍처 설계
- 성능과 보호 간의 균형 평가
요약 및 다음 단계
요건
- 임베디드 시스템 아키텍처에 대한 이해
- 머신러닝 워크플로우 경험
- 사이버 보안 기초 지식
대상자
- 보안 분석가
- AI 개발자
- 임베디드 엔지니어
오픈 트레이닝 코스는 5명 이상의 참가자가 필요합니다.
TinyML 애플리케이션의 보안과 프라이버시 교육 과정 - 예약
TinyML 애플리케이션의 보안과 프라이버시 교육 과정 - 문의
TinyML 애플리케이션의 보안과 프라이버시 - 컨설팅 문의
컨설팅 문의
예정된 코스
관련 코스
AI Go정책, 준수 및 기업 리더를 위한 보안
14 시간이 강사는 온라인 또는 현장에서 진행하는 실습 중심의 AI Go 관리, 준수 및 보안에 대한 중간 수준 기업 리더를 위한 교육 과정입니다. 이는 EU AI법, GDPR, ISO/IEC 42001 및 미국 AI 행정명령과 같은 글로벌 프레임워크에 따라 AI 시스템을 책임감 있게 관리하고 보호하는 방법을 이해하고자 하는 분들에게 적합합니다.
이 교육 과정을 통해 참가자는 다음을 할 수 있게 됩니다:
- AI를 다양한 부서에서 사용하는 법적, 윤리적, 규제적 위험을 이해합니다.
- 주요 AI 관리 프레임워크(EU AI법, NIST AI RMF, ISO/IEC 42001)를 해석하고 적용합니다.
- AI 배포에 대한 보안, 감사 및 감독 정책을 수립합니다.
- 타사 및 내부 AI 시스템에 대한 조달 및 사용 지침을 개발합니다.
공공 부문에서의 AI Risk Management와 보안
7 시간Artificial Intelligence (AI)는 정부 기관과 부처에 대한 운영 위험의 새로운 차원, 통치 문제, 그리고 사이버 보안 노출을 도입합니다.
이 인스트럭터 주도형 라이브 교육(온라인 또는 현장)은 AI에 대한 경험이 제한적인 공공 부문 IT 및 위험 전문가들이 정부나 규제 환경에서 AI 시스템을 평가, 모니터링 및 보안하는 방법을 이해하고자 할 때 제공됩니다.
이 교육을 마치면 참가자는 다음을 할 수 있습니다:
- AI 시스템과 관련된 편향, 예측 불가능성, 모델 드리프트와 같은 주요 위험 개념을 해석합니다.
- NIST AI RMF 및 ISO/IEC 42001과 같은 AI 특정 통치 및 감사 프레임워크를 적용합니다.
- AI 모델 및 데이터 파이프라인을 타겟으로 하는 사이버 보안 위협을 인식합니다.
- AI 배포에 대한 부서 간 위험 관리 계획 및 정책 일치를 설정합니다.
강의 형식
- 공공 부문 사용 사례에 대한 상호작용 강의 및 논의
- AI 통치 프레임워크 연습 및 정책 매핑
- 시나리오 기반 위협 모델링 및 위험 평가
강의 맞춤화 옵션
- 이 강의에 대한 맞춤형 교육을 요청하려면, 문의하여 배열하십시오.
인공지능 신뢰, 위험 및 관리 (AI TRiSM) 소개
21 시간이 강사는 온라인 또는 현장에서 초급에서 중급 수준의 IT 전문가를 대상으로 AI TRiSM을 이해하고 조직 내에서 구현하는 것을 목표로 합니다.
이 교육을 통해 참가자는 다음과 같은 능력을 갖출 것입니다.
- AI 신뢰, 위험, 보안 관리의 주요 개념과 중요성을 이해합니다.
- AI 시스템과 관련된 위험을 식별하고 완화합니다.
- AI에 대한 보안 모범 사례를 구현합니다.
- AI에 대한 규제 준수와 윤리적 고려 사항을 이해합니다.
- 효과적인 AI 통치와 관리를 위한 전략을 개발합니다.
Building Secure and Responsible LLM Applications
14 시간이 강사는 온라인 또는 현장에서 직접 지도하는 라이브 교육과정으로, 중간 수준에서 고급 수준의 AI 개발자, 아키텍트, 제품 관리자가 LLM 기반 애플리케이션과 관련된 위험, 예를 들어 프롬프트 주입, 데이터 유출, 필터링되지 않은 출력을 식별하고 완화할 수 있도록 설계되었습니다. 입력 유효성 검사, 인간 개입, 출력 보호 대책을 포함하여 보안 대책을 통합합니다.
이 교육을 마치면 참가자는 다음을 할 수 있게 됩니다:
- LLM 기반 시스템의 핵심 취약점을 이해합니다.
- LLM 앱 아키텍처에 안전한 디자인 원칙을 적용합니다.
- Guardrails AI와 LangChain와 같은 도구를 검증, 필터링, 안전성 유지에 사용합니다.
- 샌드박싱, 레드 팀링, 인간 개입 검토와 같은 기법을 생산 수준 파이프라인에 통합합니다.
AI 시스템의 사이버 보안
14 시간이 온라인 또는 현장 강사 주도의 실시간 교육은 금융, 데이터 관리, 컨설팅 등 고규제 산업에서 AI 모델과 시스템의 보안 취약점을 이해하고 해결하려는 중간 수준의 AI 및 사이버 보안 전문가를 대상으로 합니다.
이 교육을 마친 후, 참가자는 다음을 할 수 있게 됩니다.
- AI 시스템을 대상으로 하는 적대적 공격 유형과 이를 방어하기 위한 방법에 대해 이해할 수 있습니다.
- 머신러닝 파이프라인을 보안하기 위해 모델 강화 기술을 구현할 수 있습니다.
- 머신러닝 모델의 데이터 보안과 무결성을 보장할 수 있습니다.
- AI 보안과 관련된 규제 준수 요구 사항을 탐색할 수 있습니다.
AI Security 및 Risk Management 소개
14 시간이 강사는 온라인 또는 현장에서 초보자 수준의 IT 보안, 위험 및 준수 전문가를 대상으로 하여 AI 보안 기본 개념, 위협 벡터 및 NIST AI RMF 및 ISO/IEC 42001과 같은 글로벌 프레임워크를 이해하고자 합니다.
이 교육을 마친 후 참가자들은 다음을 할 수 있습니다:
- AI 시스템이 도입하는 고유한 보안 위험을 이해합니다.
- 적대적 공격, 데이터 오염, 모델 역추적과 같은 위협 벡터를 식별합니다.
- NIST AI Risk Management 프레임워크와 같은 기초 통치 모델을 적용합니다.
- AI 사용을 신흥 표준, 준수 가이드라인 및 윤리 원칙과 일치시킵니다.
TinyML를 통한 마이크로컨트롤러에서의 AI 배포
21 시간이 강사는 온라인 또는 현장에서 진행되는 실시간 교육 과정으로, 미세 컨트롤러에 TensorFlow Lite와 Edge Impulse를 사용하여 머신 러닝 모델을 배포하고자 하는 중급 임베디드 시스템 엔지니어와 AI 개발자를 대상으로 합니다.
이 교육 과정을 마친 후, 참가자들은 다음과 같은 능력을 갖게 됩니다:
- TinyML의 기본 개념과 엣지 AI 응용 프로그램에 대한 이점을 이해합니다.
- TinyML 프로젝트를 위한 개발 환경을 설정합니다.
- 저전력 미세 컨트롤러에 AI 모델을 학습, 최적화 및 배포합니다.
- TensorFlow Lite와 Edge Impulse를 사용하여 실제 TinyML 애플리케이션을 구현합니다.
- AI 모델을 전력 효율성과 메모리 제약 조건에 맞게 최적화합니다.
OWASP GenAI 보안
14 시간최신 OWASP GenAI 보안 프로젝트 지침에 근거하여 참가자는 AI 특화 위협을 식별, 평가, 완화하는 데 필요한 실습 및 실제 시나리오를 통해 학습하게 됩니다.
프라이버시 보호 기계 학습
14 시간이 강사 주도형 실시간 교육(온라인 또는 대면)은 고급 전문가들을 대상으로 하며, 실제 머신 러닝 파이프라인에서 연방 학습(federated learning), 안전한 다중 당사자 계산(secure multiparty computation), 동형 암호화(homomorphic encryption), 차별적 프라이버시(differential privacy) 등의 기술을 구현하고 평가하는 방법을 배우는 데 중점을 두고 있습니다.
이 교육이 끝나면 참가자들은 다음과 같은 능력을 갖추게 됩니다:
- ML에서 주요 프라이버시 보호 기술을 이해하고 비교할 수 있습니다.
- 오픈 소스 프레임워크를 사용하여 연방 학습 시스템을 구현할 수 있습니다.
- 안전한 데이터 공유와 모델 훈련을 위해 차별적 프라이버시를 적용할 수 있습니다.
- 암호화 및 안전한 계산 기술을 사용하여 모델의 입력과 출력을 보호할 수 있습니다.
Red Teaming AI Systems: Offensive Security for ML Models
14 시간이 강사는 온라인 또는 오프라인에서 진행되는 라이브 강의를 통해 인공지능 시스템에 대한 공격을 시뮬레이션하고 취약점을 발견하며, 배포된 AI 모델의 강도를 높이는 것을 목표로 하는 고급 보안 전문가와 ML 전문가를 대상으로 합니다.
이 강의를 마친 후, 참가자들은 다음을 할 수 있습니다:
- 머신 러닝 모델에 대한 실제 위협을 시뮬레이션합니다.
- 모델의 강도를 테스트하기 위해 적대적 예제를 생성합니다.
- AI API와 파이프라인의 공격 표면을 평가합니다.
- AI 배포 환경에 대한 레드 팀 전략을 설계합니다.
Edge AI 및 임베디드 인텔리전스 보안
14 시간이 강사는 온라인 또는 오프라인에서 진행하는 라이브 교육으로, 중간 수준의 엔지니어와 보안 전문가들을 대상으로 합니다. 이들은 에지에서 배포된 AI 모델을 변조, 데이터 유출, 적대적 입력 및 물리적 공격과 같은 위협으로부터 보호하기를 원합니다.
이 교육을 마치면 참가자들은 다음과 같은 능력을 갖게 될 것입니다:
- 에지 AI 배포에서 보안 위험을 식별하고 평가합니다.
- 변조 방지 및 암호화 추론 기술을 적용합니다.
- 에지에서 배포된 모델과 데이터 파이프라인을 강화합니다.
- 임베디드 및 제약 시스템에 특화된 위협 완화 전략을 구현합니다.
Securing AI Models: Threats, Attacks, and Defenses
14 시간이 강사 주도의 실습 교육(온라인 또는 현장)에서, 중간 수준의 머신러닝 및 사이버 보안 전문가들은 개념적 프레임워크와 강력한 학습 및 차등 개인정보 보호와 같은 실습 방어를 사용하여 AI 모델에 대한 신흥 위협을 이해하고 완화하기를 원합니다.
이 교육을 마친 후, 참가자들은 다음을 할 수 있게 됩니다:
- 적대적인 공격, 역추적, 및 오염과 같은 AI 특화 위협을 식별하고 분류합니다.
- ART(적대적 견고성 툴박스)를 사용하여 공격을 시뮬레이션하고 모델을 테스트합니다.
- 적대적인 학습, 노이즈 주입 및 개인정보 보호 기술과 같은 실용적인 방어법을 적용합니다.
- 생산 환경에서 위협 인식 모델 평가 전략을 설계합니다.
안전하고 안정적인 에이전트 AI: 거버넌스, 신원 관리, 적대적 테스트
21 시간이 강좌는 에이전트 기반 AI 시스템의 거버넌스, 신원 관리 및 적대적 테스트에 대해 다루며, 기업 환경에서 안전한 배포 패턴과 실제적인 적대적 테스트 기법에 중점을 둡니다.
이 강사 주도형 실시간 교육(온라인 또는 현장)은 생산 환경에서 에이전트 기반 AI 시스템을 설계, 보호 및 평가하길 원하는 고급 사용자를 대상으로 합니다.
이 교육이 끝나면 참가자는 다음과 같은 능력을 갖추게 됩니다:
- 안전한 에이전트 AI 배포를 위한 거버넌스 모델과 정책을 정의합니다.
- 최소 권한 접근을 위해 에이전트용 비인간 신원 및 인증 흐름을 설계합니다.
- 자율형 에이전트에 맞춘 액세스 제어, 감사 추적, 관찰성을 구현합니다.
- 오남용, 권한 상승 경로, 데이터 유출 위험을 발견하기 위해 적대적 테스트를 계획하고 실행합니다.
- 정책, 엔지니어링 제어 및 모니터링을 통해 에이전트 시스템의 일반적인 위협을 완화합니다.
강좌 형식
- 상호작용형 강의 및 위험 모델링 워크숍.
- 실습: 신원 프로비저닝, 정책 시행, 적대자 시뮬레이션.
- 적군/청군 훈련 및 강좌 종료 평가.
강좌 맞춤 옵션
- 이 강좌의 맞춤형 훈련을 요청하려면 문의해 주세요.
TinyML 소개
14 시간이 강사는 온라인 또는 현장에서 진행되는 실습 위주의 교육으로, TinyML의 기본 개념을 이해하고, 그 응용 사례를 탐구하며, 마이크로컨트롤러에 AI 모델을 배포하고자 하는 초급 엔지니어와 데이터 과학자를 대상으로 합니다.
이 교육을 마친 후, 참가자는 다음과 같은 능력을 갖게 됩니다:
- TinyML의 기본 개념과 그 중요성을 이해합니다.
- 마이크로컨트롤러와 엣지 장치에 경량 AI 모델을 배포합니다.
- 저전력 소모를 위한 머신러닝 모델을 최적화하고 미세 조정합니다.
- 제스처 인식, 이상 탐지, 오디오 처리와 같은 실세계 응용 사례에 TinyML을 적용합니다.
TinyML: 초저전력 에지 장치에서 AI 실행
21 시간이 강사는 대한민국 (온라인 또는 현장)에서 진행하는 라이브 트레이닝은 TinyML 기술을 활용한 에너지 효율적인 하드웨어에서 AI 기반 애플리케이션을 구현하고자 하는 중급 수준의 임베디드 엔지니어, IoT 개발자 및 AI 연구자를 대상으로 합니다.
이 트레이닝을 마친 후 참가자는 다음을 할 수 있습니다:
- TinyML 및 엣지 AI의 기본 개념을 이해합니다.
- 마이크로컨트롤러에 가벼운 AI 모델을 배포합니다.
- 저전력 소비를 위한 AI 추론을 최적화합니다.
- TinyML을 실제 IoT 애플리케이션과 통합합니다.