Apache Spark Training Courses

Apache Spark Training Courses

현지의 강사 Apache Spark 교육 과정은 Spark가 Big Data 생태계에 어떻게 적용되는지, 그리고 데이터 분석을 위해 Spark를 사용하는 방법을 손으로 직접 연습함으로써 실증적으로 보여줍니다 Apache Spark 교육은 "현장 실습"또는 "원격 실습"으로 제공됩니다 현장 실습은 고객 구내에서 현지에서 실시 할 수 있습니다 대한민국 또는 NobleProg 기업 교육 센터에서 대한민국 원격 라이브 교육은 대화 형 원격 데스크톱을 통해 수행됩니다 NobleProg 지역 교육 제공자.

Machine Translated

회원 평가

★★★★★
★★★★★

Apache Spark서브 카테고리

Apache Spark코스 개요

Title
Duration
Overview
Title
Duration
Overview
21 hours
Overview
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
7 hours
Overview
Alluxio is an open-source virtual distributed storage system that unifies disparate storage systems and enables applications to interact with data at memory speed. It is used by companies such as Intel, Baidu and Alibaba.

In this instructor-led, live training, participants will learn how to use Alluxio to bridge different computation frameworks with storage systems and efficiently manage multi-petabyte scale data as they step through the creation of an application with Alluxio.

By the end of this training, participants will be able to:

- Develop an application with Alluxio
- Connect big data systems and applications while preserving one namespace
- Efficiently extract value from big data in any storage format
- Improve workload performance
- Deploy and manage Alluxio standalone or clustered

Audience

- Data scientist
- Developer
- System administrator

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
21 hours
Overview
빅 데이터 분석은 상관 관계, 숨겨진 패턴 및 기타 유용한 통찰력을 발굴하기 위해 대량의 다양한 데이터 세트를 검사하는 프로세스를 필요로합니다.

보건 산업은 복잡한 이기종 의학 및 임상 데이터를 가지고 있습니다. 건강 데이터에 큰 데이터 분석을 적용하면 건강 관리 제공 개선에 대한 통찰력을 얻는 데 큰 잠재력이 있습니다. 그러나 이러한 데이터 세트의 엄청난 양은 임상 환경에 대한 분석 및 실제 응용에 큰 문제를 제기합니다.

이 강사 주도의 실시간 교육 (원격)에서는 참가자가 실습 랩 연습을 단계별로 수행하면서 건강에 큰 데이터 분석을 수행하는 방법을 배웁니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.

- Hadoop MapReduce 및 Spark와 같은 대규모 데이터 분석 도구 설치 및 구성
- 의료 데이터의 특성 이해
- 큰 데이터 기술을 적용하여 의료 데이터 처리
- 건강 응용 프로그램의 맥락에서 큰 데이터 시스템과 알고리즘 연구

청중

- 개발자
- 데이터 과학자

코스 형식

- 파트 강의, 파트 토론, 연습 및 무거운 실습.

노트

- 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오.
28 hours
Overview
많은 실세계 문제들이 그래프로 설명 될 수 있습니다. 예를 들어, 웹 그래프, 소셜 네트워크 그래프, 기차 네트워크 그래프 및 언어 그래프. 이 그래프는 매우 큰 경향이 있습니다. 이를 처리하려면 특수 도구 및 프로세스 집합이 필요합니다. 이러한 도구 및 프로세스는 Graph Computing (Graph Analytics)이라고도합니다.

이 강사가 진행하는 실시간 교육에서 참가자는 그래프 데이터 처리를위한 기술 제공 및 구현 방법에 대해 학습합니다. 목표는 실제 개체, 특성 및 관계를 확인한 다음 이러한 관계를 모델링하고 Graph Computing (Graph Analytics라고도 함) 방식을 사용하여 데이터를 처리하는 것입니다. 우리는 일련의 사례 연구, 실제 연습 및 실제 배포를 단계별로 수행하면서 광범위한 도구로 시작하여 폭 넓은 개요로 시작합니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.

- 그래프 데이터가 지속되고 트래버스되는 방식을 이해합니다.
- 주어진 작업 (그래프 데이터베이스에서 일괄 처리 프레임 워크에 이르기까지)에 가장 적합한 프레임 워크를 선택하십시오.
- Hadoop , Spark, GraphX 및 Pregel을 구현하여 여러 컴퓨터에서 병렬로 그래프 컴퓨팅을 수행하십시오.
- 그래프, 프로세스 및 순회와 관련하여 실제 큰 데이터 문제를 봅니다.

과정 형식

- 파트 강의, 파트 토론, 연습 및 무거운 실무 연습
21 hours
Overview
Hortonworks Data Platform (HDP) 은 오픈 소스 Apache Hadoop 지원 플랫폼으로 Apache Hadoop 에코 시스템에서 큰 데이터 솔루션을 개발하기위한 안정적인 토대를 제공합니다.

이 강사가 진행하는 실시간 교육 (현장 또는 원격)은 Hortonworks Data Platform (HDP) 소개하고 Spark + Hadoop 솔루션의 배포를 통해 참가자들을 안내합니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.

- Hortonworks를 사용하면 대규모로 Hadoop 을 안정적으로 실행할 수 있습니다.
- Spark의 민첩한 분석 워크 플로우로 Hadoop 의 보안, 거버넌스 및 운영 기능을 통합하십시오.
- Hortonworks를 사용하여 Spark 프로젝트의 각 구성 요소를 조사, 검증, 인증 및 지원하십시오.
- 구조화 된, 구조화되지 않은, 동작중인, at-rest 등 다양한 유형의 데이터를 처리합니다.

코스 형식

- 대화 형 강의 및 토론.
- 많은 연습과 연습.
- 라이브 랩 환경에서 실제 구현.

코스 사용자 정의 옵션

- 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오.
21 hours
Overview
Stream Processing 은 "동작중인 데이터"의 실시간 처리, 즉 수신되는 데이터에 대한 계산을 수행하는 것을 의미합니다. 이러한 데이터는 센서 이벤트, 웹 사이트 사용자 활동, 금융 거래, 신용 카드 스 와이프, 클릭 스트림 등과 같은 데이터 소스에서 연속 스트림으로 읽습니다. Stream Processing 프레임 워크는 많은 양의 들어오는 데이터를 읽고 거의 즉시 귀중한 통찰력을 제공합니다.

이 강사가 진행하는 실시간 교육 (현장 또는 원격)에서 참가자는 기존의 대용량 데이터 저장 시스템 및 관련 소프트웨어 응용 프로그램 및 마이크로 서비스와 서로 다른 Stream Processing 프레임 워크를 설정하고 통합하는 방법을 배우게됩니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.

- Spark Streaming 및 Kafka Streaming과 같은 다양한 Stream Processing 프레임 워크를 설치하고 구성하십시오.
- 작업에 가장 적합한 프레임 워크를 이해하고 선택하십시오.
- 연속적으로, 동시에, 그리고 레코드별로 프로세스.
- Stream Processing 솔루션을 기존 데이터베이스, 데이터웨어 하우스, 데이터 레이크 등과 통합합니다.
- 가장 적합한 스트림 처리 라이브러리를 엔터프라이즈 응용 프로그램 및 마이크로 서비스와 통합하십시오.

청중

- 개발자
- 소프트웨어 아키텍트

코스 형식

- 파트 강의, 파트 토론, 연습 및 무거운 실무 연습

노트

- 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오.
14 hours
Overview
Magellan은 대용량 데이터에서 지형 공간 분석을위한 오픈 소스 분산 실행 엔진입니다. Apache Spark 위에 구현 된 Spark SQL 확장하고 지형 공간 분석을위한 관계형 추상화를 제공합니다.

이 강사 주도의 실습 교육에서는 지형 공간 분석을 구현하기위한 개념과 접근 방식을 소개하고 Magellan on Spark를 사용하여 예측 분석 응용 프로그램을 작성하여 참가자들을 안내합니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.

- 규모의 지형 공간 데이터 세트를 효율적으로 쿼리, 구문 분석 및 결합
- 비즈니스 인텔리전스 및 예측 분석 응용 프로그램에서 지형 공간 데이터 구현
- 공간 컨텍스트를 사용하여 모바일 장치, 센서, 로그 및 웨어러블의 기능을 확장하십시오.

코스 형식

- 대화 형 강의 및 토론.
- 많은 연습과 연습.
- 라이브 랩 환경에서 실제 구현.

코스 사용자 정의 옵션

- 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오.
21 hours
Overview
Apache Spark 의 학습 곡선은 처음부터 천천히 증가하고 있으며, 첫 번째 리턴을 얻으려면 많은 노력이 필요합니다. 이 코스는 첫 번째 어려운 부분을 뛰어 넘는 것을 목표로합니다. 이 과정을 수강 한 참가자는 Apache Spark 의 기초를 이해하고, RDD와 DataFrame을 명확히 구분하고, Python 및 Scala API를 배우며, 집행자와 작업 등을 이해하게 될 것입니다. 또한 모범 사례에 따라이 과정에서는 클라우드 배치, Databricks 및 AWS. 학생들은 AWS의 최신 스파크 서비스 중 하나 인 AWS EMR과 AWS Glue의 차이점을 이해합니다.

청중:

데이터 엔지니어, DevOps , 데이터 과학자
21 hours
Overview
목표:

이 과정은 Apache Spark 를 소개합니다. 학생들은 Spark이 Big Data 생태계에 어떻게 적응하는지, 그리고 데이터 분석을 위해 Spark을 사용하는 방법을 배웁니다. 이 과정에서는 대화 형 데이터 분석, 스파크 내부, 스파크 API, 스파크 SQL , 스파크 스트리밍, 기계 학습 및 그래프 X 용 스파크 셸을 다룹니다.

청중 :

개발자 / 데이터 분석가
21 hours
Overview
Python 은 명확한 구문 및 코드 가독성으로 유명한 고수준 프로그래밍 언어입니다. Spark는 큰 데이터를 쿼리, 분석 및 변환하는 데 사용되는 데이터 처리 엔진입니다. PySpark 는 사용자가 Spark을 Python 과 인터페이스 할 수있게합니다.

강사가 진행하는이 실제 교육에서 참가자는 실습을 통해 큰 데이터를 분석하기 위해 Python 과 Spark를 함께 사용하는 방법을 배웁니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.

- Spark with Python 을 사용하여 Big Data 를 분석하는 방법을 배웁니다.
- 실제 상황을 모방 한 연습 문제를 해결하십시오.
- PySpark 사용하여 큰 데이터 분석을 위해 다양한 툴과 기술을 사용 PySpark .

과정 형식

- 파트 강의, 파트 토론, 연습 및 무거운 실무 연습
7 hours
Overview
Spark SQL 은 구조화 된 데이터와 구조화되지 않은 데이터로 작업하는 Apache Spark 의 모듈입니다. Spark SQL 은 수행되는 계산뿐 아니라 데이터의 구조에 대한 정보를 제공합니다. 이 정보는 최적화를 수행하는 데 사용될 수 있습니다. Spark SQL 두 가지 일반적인 용도는 다음과 같습니다.
- SQL 쿼리를 실행합니다.
- 기존 Hive 설치에서 데이터를 읽습니다.

이 강사가 진행하는 실습 (현장 또는 원격)에서 참가자는 Spark SQL 사용하여 다양한 유형의 데이터 세트를 분석하는 방법을 학습합니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.

- Spark SQL 설치하고 구성하십시오.
- Spark SQL 사용하여 데이터 분석을 수행하십시오.
- 서로 다른 형식의 데이터 집합을 쿼리합니다.
- 데이터 및 쿼리 결과를 시각화합니다.

코스 형식

- 대화 형 강의 및 토론.
- 많은 연습과 연습.
- 라이브 랩 환경에서 실제 구현.

코스 사용자 정의 옵션

- 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오.
35 hours
Overview
MLlib는 Spark의 기계 학습 (ML) 라이브러리입니다. 그 목표는 실용적인 기계 학습을 확장 가능하고 쉽게 만들어주는 것입니다. 분류, 회귀, 클러스터링, 협업 필터링, 차원 감소, 하위 레벨 최적화 프리미티브 및 상위 레벨 파이프 라인 API 등 일반적인 학습 알고리즘과 유틸리티로 구성됩니다.

두 개의 패키지로 나뉩니다.

-

spark.mllib는 RDD 위에 구축 된 원래 API를 포함합니다.

-

spark.ml은 ML 파이프 라인을 구성하기 위해 DataFrames 위에 구축 된 고급 API를 제공합니다.

청중

이 과정은 Apache Spark 용 내장 라이브러리를 활용하고자하는 엔지니어 및 개발자를 대상으로합니다.
주말Spark코스, 밤의Spark트레이닝, Spark부트 캠프, Spark 강사가 가르치는, 주말Apache Spark교육, 밤의Apache Spark과정, Spark코칭, Spark강사, Spark트레이너, Apache Spark교육 과정, Apache Spark클래스, Apache Spark현장, Apache Spark개인 강좌, Spark1 대 1 교육

코스 프로모션

고객 회사

is growing fast!

We are looking to expand our presence in South Korea!

As a Business Development Manager you will:

  • expand business in South Korea
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!