AI Inference and Deployment with CloudMatrix 교육 과정
CloudMatrix는 AI 개발 및 배포를 위한 하우웨이의 통합 플랫폼으로, 확장 가능한 생산 수준의 추론 파이프라인을 지원합니다.
이 강사는 AI 전문가들이 CloudMatrix 플랫폼과 CANN, MindSpore 통합을 사용하여 AI 모델을 배포하고 모니터링할 수 있도록 설계되었습니다.
이 교육을 마친 후 참가자는 다음을 할 수 있습니다:
- CloudMatrix를 사용하여 모델 패키징, 배포, 그리고 제공.
- Ascend 칩셋을 위한 모델 변환 및 최적화.
- 실시간 및 배치 추론 작업을 위한 파이프라인 설정.
- 배포 모니터링 및 생산 환경에서의 성능 조정.
강의 형식
- 상호작용하는 강의와 토론.
- CloudMatrix를 사용하여 실제 배포 시나리오를 적용.
- 변환, 최적화 및 확장에 중점을 둔 유도 연습.
강의 맞춤화 옵션
- AI 인프라 또는 클라우드 환경에 맞춘 맞춤형 교육을 요청하려면, 협의해 주십시오.
Course Outline
Huawei CloudMatrix 소개
- CloudMatrix 생태계 및 배포 흐름
- 지원되는 모델, 형식 및 배포 모드
- 일반적인 사용 사례 및 지원되는 칩셋
배포를 위한 모델 준비
- 학습 도구(MindSpore, TensorFlow, PyTorch)에서 모델 내보내기
- ATC(Ascend Tensor Compiler)를 사용하여 형식 변환
- 정적 및 동적 모양 모델
CloudMatrix에 배포하기
- 서비스 생성 및 모델 등록
- UI 또는 CLI를 통해 추론 서비스 배포
- 라우팅, 인증 및 접근 제어
추론 요청 제공
- 배치 및 실시간 추론 흐름
- 데이터 전처리 및 후처리 파이프라인
- 외부 애플리케이션에서 CloudMatrix 서비스를 호출
모니터링 및 성능 튜닝
- 배포 로그 및 요청 추적
- 리소스 확장 및 로드 밸런싱
- 지연 시간 조정 및 처리량 최적화
기업 도구와 통합
- CloudMatrix를 OBS 및 ModelArts와 연결
- 워크플로우 및 모델 버전 관리 사용
- 모델 배포 및 롤백을 위한 CI/CD
종단 간 추론 파이프라인
- 완전한 이미지 분류 파이프라인 배포
- 정확도 기준 및 검증
- 장애 조치 및 시스템 경고 시뮬레이션
요약 및 다음 단계
Requirements
- AI 모델 학습 워크플로우에 대한 이해
- Python-기반 ML 프레임워크 경험
- 클라우드 배포 개념에 대한 기본적인 친숙함
대상
- AI 운영 팀
- 머신러닝 엔지니어
- Huawei 인프라에서 작업하는 클라우드 배포 전문가
Open Training Courses require 5+ participants.
AI Inference and Deployment with CloudMatrix 교육 과정 - Booking
AI Inference and Deployment with CloudMatrix 교육 과정 - Enquiry
AI Inference and Deployment with CloudMatrix - Consultancy Enquiry
Consultancy Enquiry
회원 평가 (1)
단계별 훈련으로 많은 연습을 할 수 있습니다. 마치 워크숍을 하는 듯한 느낌이었고, 그 점에 대해 매우 만족합니다.
Ireneusz - Inter Cars S.A.
Course - Intelligent Applications Fundamentals
Machine Translated
Upcoming Courses
Related Courses
Developing AI Applications with Huawei Ascend and CANN
21 Hours이 강사는 중간 수준의 AI 엔지니어와 데이터 과학자를 대상으로, 화웨이의 Ascend 플랫폼과 CANN 툴킷을 사용하여 신경망 모델을 개발하고 최적화하는 방법을 학습합니다. (온라인 또는 현장)
이 교육을 마친 후 참가자는 다음을 수행할 수 있습니다:
강좌 형식
- 상호작용형 강의 및 토론.
- 샘플 애플리케이션에서 Huawei Ascend와 CANN 툴킷을 직접 사용합니다.
- 모델 구축, 학습 및 배포에 중점을 둔 가이드 연습.
강좌 맞춤화 옵션
- 인프라 또는 데이터셋을 기반으로 이 강좌에 맞춘 맞춤형 교육을 요청하려면, 맞춤형 교육을 요청하기 위해 연락해 주세요.
Deploying AI Models with CANN and Ascend AI Processors
14 HoursCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Engineering Fundamentals
14 Hours대한민국에서 진행되는 이 실시간 교육(온라인 또는 현장)은 AI 엔지니어링 원리 및 실무에 대한 기초적인 이해를 얻고자 하는 초급~중급 AI 엔지니어 및 소프트웨어 개발자를 대상으로 합니다.
이 교육이 끝나면 참가자는 다음을 수행할 수 있습니다.
- AI와 머신러닝의 핵심 개념과 기술을 이해합니다.
- TensorFlow 및 PyTorch을 사용하여 기본 기계 학습 모델을 구현합니다.
- 소프트웨어 개발의 실제 문제를 해결하기 위해 AI 기술을 적용합니다.
- AI 엔지니어링의 모범 사례를 사용하여 AI 프로젝트를 관리하고 유지합니다.
- AI 시스템 개발과 관련된 윤리적 의미와 책임을 인식합니다.
GPU Programming on Biren AI Accelerators
21 HoursBiren AI Accelerators are high-performance GPUs designed for AI and HPC workloads with support for large-scale training and inference.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level developers who wish to program and optimize applications using Biren’s proprietary GPU stack, with practical comparisons to CUDA-based environments.
By the end of this training, participants will be able to:
- Understand Biren GPU architecture and memory hierarchy.
- Set up the development environment and use Biren’s programming model.
- Translate and optimize CUDA-style code for Biren platforms.
- Apply performance tuning and debugging techniques.
Format of the Course
- Interactive lecture and discussion.
- Hands-on use of Biren SDK in sample GPU workloads.
- Guided exercises focused on porting and performance tuning.
Course Customization Options
- To request a customized training for this course based on your application stack or integration needs, please contact us to arrange.
Building Intelligent Applications with AI and ML
28 Hours대한민국(온라인 또는 현장)에서 강사가 진행하는 실시간 교육은 중급에서 고급 수준의 AI 전문가와
AI 및 ML을 사용하여 지능형 애플리케이션을 구축하려는 소프트웨어 개발자.
이 교육이 끝나면 참가자는 다음을 수행할 수 있습니다.
- AI 및 ML의 고급 개념과 기술을 이해합니다.
- 데이터를 분석하고 시각화하여 AI/ML 모델 개발에 정보를 제공합니다.
- AI/ML 모델을 효과적으로 구축, 교육 및 배포합니다.
- 실제 문제를 해결할 수 있는 지능형 애플리케이션을 만듭니다.
- 다양한 산업 분야에서 AI 애플리케이션의 윤리적 영향을 평가합니다.
Introduction to CANN for AI Framework Developers
7 HoursCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 HoursHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 HoursHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 HoursCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 HoursThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 HoursCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Migrating CUDA Applications to Chinese GPU Architectures
21 Hours중국 GPU 아키텍처인 Huawei Ascend, Biren, Cambricon MLU는 현지 AI 및 HPC 시장을 위한 CUDA 대안으로 제공됩니다.
이 강사는 온라인 또는 현장에서 진행되는 실시간 강의로, CUDA 애플리케이션을 중국 하드웨어 플랫폼에 배포하기 위해 기존 CUDA 애플리케이션을 마이그레이션하고 최적화하려는 고급 수준의 GPU 프로그래머와 인프라 전문가를 대상으로 합니다.
이 교육을 마치면 참가자들은 다음과 같은 작업을 수행할 수 있게 됩니다:
- 기존 CUDA 작업 부하가 중국 칩 대안과의 호환성을 평가합니다.
- CUDA 코드베이스를 Huawei CANN, Biren SDK, Cambricon BANGPy 환경으로 포팅합니다.
- 플랫폼 간 성능을 비교하고 최적화 지점을 식별합니다.
- 다양한 아키텍처를 지원하고 배포하는 데 있어 실질적인 도전 과제를 해결합니다.
강좌 형식
- 상호작용 강의 및 토론
- 코드 변환 및 성능 비교 실습
- 다중 GPU 적응 전략에 중점을 둔 유도 연습
강좌 맞춤화 옵션
- 플랫폼이나 CUDA 프로젝트에 맞춘 이 강좌에 대한 맞춤형 교육을 요청하려면, 연락을 취하여 조율하십시오.
Intelligent Applications Fundamentals
14 Hours대한민국에서 진행되는 이 실시간 교육(온라인 또는 현장)은 지능형 애플리케이션과 이를 다양한 산업에 적용할 수 있는 방법에 대한 기초적인 이해를 얻고자 하는 초보 수준의 IT 전문가를 대상으로 합니다.
이 교육이 끝나면 참가자는 다음을 수행할 수 있습니다.
- 인공지능의 역사, 원리, 영향을 이해한다.
- 다양한 기계 학습 알고리즘을 식별하고 적용합니다.
- AI 애플리케이션을 위해 데이터를 효과적으로 관리하고 분석합니다.
- 다양한 분야에서 AI의 실제 적용과 한계를 인식합니다.
- AI 기술의 윤리적 고려 사항과 사회적 영향에 대해 토론합니다.
Intelligent Applications Advanced
21 Hours대한민국에서 진행되는 이 실시간 교육(온라인 또는 현장)은 지능형 애플리케이션의 복잡성을 마스터하고 이를 활용하여 복잡한 문제를 해결하려는 중급~고급 수준의 데이터 과학자, 엔지니어 및 AI 실무자를 대상으로 합니다. 현실 세계의 문제.
이 교육이 끝나면 참가자는 다음을 수행할 수 있습니다.
- 딥 러닝 아키텍처를 구현하고 분석합니다.
- 분산 컴퓨팅 환경에서 대규모로 기계 학습을 적용합니다.
- 의사결정을 위한 강화학습 모델을 설계하고 실행합니다.
- 언어 이해를 위한 정교한 NLP 시스템을 개발합니다.
- 이미지 및 비디오 분석을 위해 컴퓨터 비전 기술을 활용합니다.
- AI 시스템 개발 및 배포 시 윤리적 고려 사항을 해결합니다.
Performance Optimization on Ascend, Biren, and Cambricon
21 Hours- Ascend, Biren, Cambricon 플랫폼에서 모델을 벤치마크할 수 있습니다.
- 시스템 병목 현상 및 메모리/계산 비효율성을 식별할 수 있습니다.
- 그래프 수준, 커널 수준, 그리고 연산자 수준 최적화를 적용할 수 있습니다.
- 처리량과 지연 시간을 향상시키기 위해 배포 파이프라인을 조정할 수 있습니다.
교육 형식
- 상호작용적인 강의와 토론.
- 각 플랫폼에서 프로파일링 및 최적화 도구를 직접 사용할 수 있습니다.
- 실제 튜닝 시나리오에 초점을 맞춘 안내된 연습.
교육 커스터마이징 옵션
- 성과 환경 또는 모델 유형에 따라 이 교육을 맞춤형으로 요청하려면, 커스터마이징을 조정하기 위해 문의하세요.