Apache Spark Training Courses

Apache Spark Training Courses

Apache Spark is a fast and open-source engine for big data processing. NobleProg onsite live Apache Spark training courses demonstrate through hands-on practice how Spark fits into the Big Data ecosystem, and how to use Spark for data analysis. Apache Spark training is available in various formats, including onsite live training and live instructor-led training using an interactive, remote desktop setup. Local Apache Spark training can be carried out live on customer premises or in NobleProg local training centers.

Testimonials

★★★★★
★★★★★

Apache Spark Subcategories

Apache Spark Course Outlines

CodeNameDurationOverview
sparkdevSpark for Developers21 hours목표: 이 과정은 Apache Spark를 소개합니다 학생들은 Spark이 Big Data 생태계에 어떻게 적용되는지, 그리고 데이터 분석을 위해 Spark을 사용하는 방법을 배웁니다 이 과정에서는 대화 형 데이터 분석을위한 Spark 셸, Spark 내부 구조, Spark API, Spark SQL, Spark 스트리밍 및 기계 학습 및 GraphX를 다룹니다 청중 : 개발자 / 데이터 분석가 .
spmllibApache Spark MLlib35 hoursMLlib는 Spark의 기계 학습 (ML) 라이브러리입니다 그 목표는 실용적인 기계 학습을 확장 가능하고 쉽게 만들어주는 것입니다 분류, 회귀, 클러스터링, 협업 필터링, 차원 감소, 하위 레벨 최적화 프리미티브 및 상위 레벨 파이프 라인 API 등 일반적인 학습 알고리즘 및 유틸리티로 구성됩니다 두 개의 패키지로 나뉩니다 sparkmllib는 RDD 위에 구축 된 원래 API를 포함합니다 sparkml은 ML 파이프 라인을 구성하기 위해 DataFrames 위에 구축 된 고급 API를 제공합니다 청중 이 과정은 Apache Spark 용 내장 라이브러리를 활용하고자하는 엔지니어 및 개발자를 대상으로합니다 .
aitechArtificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP21 hoursThis course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
hdpHortonworks Data Platform (HDP) for Administrators21 hoursHortonworks Data Platform은 오픈 소스 Apache Hadoop 지원 플랫폼으로 Apache Hadoop 에코 시스템에서 큰 데이터 솔루션을 개발하기위한 안정적인 토대를 제공합니다 이 강습 된 라이브 교육은 Hortonworks를 소개하고 Spark + Hadoop 솔루션의 배포를 통해 참가자들을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Hortonworks를 사용하여 대규모로 Hadoop을 안정적으로 실행할 수 있습니다 Spark의 민첩한 분석 워크 플로우로 Hadoop의 보안, 거버넌스 및 운영 기능을 통합하십시오 Hortonworks를 사용하여 Spark 프로젝트의 각 구성 요소를 조사, 검증, 인증 및 지원하십시오 구조화, 비정형, inmotion 및 atrest를 포함한 다양한 유형의 데이터 처리 청중 Hadoop 관리자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
magellanMagellan: Geospatial Analytics on Spark14 hoursMagellan은 대용량 데이터에서 지형 공간 분석을위한 오픈 소스 분산 실행 엔진입니다 Apache Spark 위에 구현 된 Spark SQL을 확장하고 지형 공간 분석을위한 관계형 추상화를 제공합니다 이 강사가 진행된 실습 교육에서는 지형 공간 분석을 구현하기위한 개념과 접근 방식을 소개하고 Magellan on Spark를 사용하여 예측 분석 응용 프로그램을 작성하여 참가자들을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 규모의 지형 공간 데이터 세트를 효율적으로 쿼리, 구문 분석 및 결합 비즈니스 인텔리전스 및 예측 분석 응용 프로그램에서 지형 공간 데이터 구현 공간 컨텍스트를 사용하여 모바일 장치, 센서, 로그 및 웨어러블의 기능 확장 청중 응용 프로그램 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
alluxioAlluxio: Unifying Disparate Storage Systems7 hoursAlexio는 이기종 스토리지 시스템을 통합하고 애플리케이션이 메모리 속도로 데이터와 상호 작용할 수 있도록하는 오픈 소스 가상 분산 스토리지 시스템입니다 Intel, Baidu 및 Alibaba와 같은 회사에서 사용합니다 교육 강사진은 Alexio를 사용하여 스토리지 시스템과 다양한 계산 프레임 워크를 연결하고 Alluxio를 사용하여 응용 프로그램을 생성 할 때 멀티 테라 바이트 규모의 데이터를 효율적으로 관리하는 방법을 학습합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Alluxio로 응용 프로그램 개발 하나의 네임 스페이스를 유지하면서 큰 데이터 시스템과 응용 프로그램을 연결하십시오 모든 스토리지 형식의 큰 데이터에서 가치를 효율적으로 추출합니다 작업 부하 성능 향상 독립 실행 형 또는 클러스터 된 Alluxio 배포 및 관리 청중 데이터 과학자 개발자 시스템 관리자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
graphcomputingIntroduction to Graph Computing28 hours많은 실제 문제가 그래프로 설명 될 수 있습니다 예를 들어, 웹 그래프, 소셜 네트워크 그래프, 열차 네트워크 그래프 및 언어 그래프 이 그래프는 매우 큰 경향이 있습니다 이를 처리하려면 특수 도구 세트와 프로세스가 필요하며 이러한 도구와 프로세스를 그래프 컴퓨팅 (Graph Analytics)이라고도합니다 교육 강좌를 통해 참가자는 그래프 데이터 처리를위한 기술 오퍼링 및 구현 방법에 대해 학습합니다 목표는 실제 세계의 물체, 특성 및 관계를 식별 한 다음 이러한 관계를 모델화하고 그래프 컴퓨팅 접근 방식을 사용하여 데이터를 처리하는 것입니다 우리는 일련의 사례 연구, 핸드 슨 연습 및 라이브 배포를 단계별로 수행하면서 광범위한 도구로 시작하여 폭 넓은 개요로 시작합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 그래프 데이터가 지속되고 트래버스되는 방식 이해 주어진 작업에 가장 적합한 프레임 워크 선택 (그래프 데이터베이스에서 일괄 처리 프레임 워크에 이르기까지) Hadoop, Spark, GraphX ​​및 Pregel을 구현하여 여러 컴퓨터에서 병렬로 그래프 컴퓨팅 수행 그래프, 프로세스 및 순회의 관점에서 실제 세계의 큰 데이터 문제를 봅니다 청중 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
sparkpythonPython and Spark for Big Data (PySpark)21 hours파이썬은 명확한 구문 및 코드 가독성으로 유명한 고 레벨 프로그래밍 언어입니다 Spark는 큰 데이터를 쿼리, 분석 및 변환하는 데 사용되는 데이터 처리 엔진입니다 PySpark는 사용자가 Spark을 Python과 인터페이스 할 수있게합니다 교습, 실제 교육을 통해 참가자는 파이썬과 스파크를 함께 사용하여 큰 데이터를 손으로 연습 할 때 분석 할 수 있습니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Spark with Python을 사용하여 Big Data를 분석하는 방법 배우기 실제 상황을 모방 한 연습 문제 PySpark를 사용하여 큰 데이터 분석을위한 다양한 도구와 기술 사용 청중 개발자 IT 전문가 데이터 과학자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
sparksqlApache Spark SQL7 hoursSpark SQL은 구조화 된 데이터와 구조화되지 않은 데이터로 작업하는 Apache Spark의 모듈입니다 Spark SQL은 수행되는 계산뿐 아니라 데이터의 구조에 대한 정보를 제공합니다 이 정보는 최적화를 수행하는 데 사용될 수 있습니다 Spark SQL의 두 가지 일반적인 용도는 다음과 같습니다 SQL 쿼리를 실행합니다 기존의 하이브 설치에서 데이터를 읽습니다 강사가 진행된이 실습 (현장 또는 원격)에서 참가자는 Spark SQL을 사용하여 다양한 유형의 데이터 세트를 분석하는 방법을 학습합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Spark SQL을 설치하고 구성하십시오 Spark SQL을 사용하여 데이터 분석을 수행하십시오 데이터 형식을 다른 형식으로 쿼리하십시오 데이터 및 쿼리 결과를 시각화합니다 청중 데이터 분석가 데이터 과학자 데이터 엔지니어 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오 .
introtostreamprocessingA Practical Introduction to Stream Processing21 hours스트림 처리는 "동작중인 데이터"의 실시간 처리, 즉 수신되는 데이터에 대한 계산을 수행하는 것을 의미합니다 이러한 데이터는 센서 이벤트, 웹 사이트 사용자 활동, 금융 거래, 신용 카드 스 와이프, 클릭 스트림 등과 같은 데이터 소스로부터의 연속 스트림으로 읽습니다 스트림 처리 프레임 워크는 많은 양의 들어오는 데이터를 읽고 거의 즉시 귀중한 통찰력을 제공합니다 강사가 진행된이 실습 (현장 또는 원격)에서 참가자는 기존의 대용량 데이터 저장 시스템 및 관련 소프트웨어 응용 프로그램 및 마이크로 서비스와 서로 다른 스트림 처리 프레임 워크를 설정하고 통합하는 방법을 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Spark Streaming 및 Kafka Streaming과 같은 다양한 Stream Processing 프레임 워크 설치 및 구성 작업에 가장 적합한 프레임 워크를 이해하고 선택하십시오 연속적으로, 동시에, 그리고 기록적인 방식으로 데이터의 프로세스 Stream Processing 솔루션을 기존 데이터베이스, 데이터웨어 하우스, 데이터 레이크 등과 통합합니다 가장 적합한 스트림 처리 라이브러리를 엔터프라이즈 애플리케이션 및 마이크로 서비스와 통합 청중 개발자 소프트웨어 아키텍트 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오 .
bigdataanahealthBig Data Analytics in Health21 hours빅 데이터 분석은 상관 관계, 숨겨진 패턴 및 기타 유용한 통찰력을 발굴하기 위해 대량의 다양한 데이터 세트를 검사하는 프로세스를 필요로합니다 보건 산업은 방대한 양의 복잡한 이기종 의료 및 임상 데이터를 보유하고 있습니다 건강 데이터에 대용량 데이터 분석을 적용하면 의료 서비스 제공 개선에 대한 통찰력을 얻을 수있는 잠재력이 커집니다 그러나 이러한 데이터 세트의 엄청난 양은 임상 환경에 대한 분석 및 실제 응용에 큰 문제를 제기합니다 강사가 진행되는이 실습 (원격)에서는 참가자가 일련의 손을 이용한 라이브 랩 연습을 통해 건강에 큰 데이터 분석을 수행하는 방법을 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Hadoop MapReduce 및 Spark와 같은 대규모 데이터 분석 도구 설치 및 구성 의료 데이터의 특성 이해 큰 데이터 기술을 적용하여 의료 데이터 처리 건강 응용 프로그램의 맥락에서 큰 데이터 시스템과 알고리즘을 연구하십시오 청중 개발자 데이터 과학자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오 .
sparkcloudApache Spark in the Cloud21 hoursApache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
Weekend Apache Spark courses, Evening Apache Spark training, Apache Spark boot camp, Apache Spark instructor-led, Weekend Apache Spark training, Evening Apache Spark courses, Apache Spark coaching, Apache Spark instructor, Apache Spark trainer, Apache Spark training courses, Apache Spark classes, Apache Spark on-site, Apache Spark private courses, Apache Spark one on one training

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Some of our clients

is growing fast!

We are looking to expand our presence in South Korea!

As a Business Development Manager you will:

  • expand business in South Korea
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!