Big Data Training Courses

Big Data Training Courses

Big Data is a term that refers to solutions destined for storing and processing large data sets. Developed by Google initially, these Big Data solutions have evolved and inspired other similar projects, many of which are available as open-source. Some examples include Apache Hadoop, Cassandra and Cloudera Impala. According to Gartner’s reports, BigData is the next big step in IT just after the Cloud Computing and will be a leading trend in the next several years. NobleProg onsite live BigData training courses start with an introduction to elemental concepts of Big Data, then progress into the programming languages and methodologies used to perform Data Analysis. Tools and infrastructure for enabling Big Data storage, Distributed Processing, and Scalability are discussed, compared and implemented in demo practice sessions. BigData training is available in various formats, including onsite live training and live instructor-led training using an interactive, remote desktop setup. Local BigData training can be carried out live on customer premises or in NobleProg local training centers.

Testimonials

★★★★★
★★★★★

Big Data Course Outlines

CodeNameDurationOverview
smtwebintSemantic Web Overview7 hours시맨틱 웹은 World Wide Web 컨소시엄 (W3C)이 주도하는 공동 작업으로 월드 와이드 웹 (World Wide Web)의 데이터에 대한 일반적인 형식을 홍보합니다 시맨틱 웹은 응용 프로그램, 엔터프라이즈 및 커뮤니티 경계에서 데이터를 공유하고 재사용 할 수있는 공통 프레임 워크를 제공합니다 .
ApacheIgniteApache Ignite: Improve Speed, Scale and Availability with In-Memory Computing14 hoursApache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Audience

- Developers

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
graphcomputingIntroduction to Graph Computing28 hours많은 실제 문제가 그래프로 설명 될 수 있습니다 예를 들어, 웹 그래프, 소셜 네트워크 그래프, 열차 네트워크 그래프 및 언어 그래프 이 그래프는 매우 큰 경향이 있습니다 이를 처리하려면 특수 도구 세트와 프로세스가 필요하며 이러한 도구와 프로세스를 그래프 컴퓨팅 (Graph Analytics)이라고도합니다 교육 강좌를 통해 참가자는 그래프 데이터 처리를위한 기술 오퍼링 및 구현 방법에 대해 학습합니다 목표는 실제 세계의 물체, 특성 및 관계를 식별 한 다음 이러한 관계를 모델화하고 그래프 컴퓨팅 접근 방식을 사용하여 데이터를 처리하는 것입니다 우리는 일련의 사례 연구, 핸드 슨 연습 및 라이브 배포를 단계별로 수행하면서 광범위한 도구로 시작하여 폭 넓은 개요로 시작합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 그래프 데이터가 지속되고 트래버스되는 방식 이해 주어진 작업에 가장 적합한 프레임 워크 선택 (그래프 데이터베이스에서 일괄 처리 프레임 워크에 이르기까지) Hadoop, Spark, GraphX ​​및 Pregel을 구현하여 여러 컴퓨터에서 병렬로 그래프 컴퓨팅 수행 그래프, 프로세스 및 순회의 관점에서 실제 세계의 큰 데이터 문제를 봅니다 청중 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
matlabpredanalyticsMatlab for Predictive Analytics21 hours예측 분석은 데이터 분석을 사용하여 미래에 대한 예측을하는 프로세스입니다 이 프로세스는 데이터 마이닝, 통계 및 기계 학습 기술과 함께 데이터를 사용하여 미래의 이벤트를 예측하기위한 예측 모델을 생성합니다 강사진과 실습을 통해 참가자들은 Matlab을 사용하여 예측 모델을 작성하고이를 대용량 샘플 데이터 세트에 적용하여 데이터를 기반으로 향후 이벤트를 예측하는 방법을 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 히스토리 및 트랜잭션 데이터의 패턴을 분석하기위한 예측 모델 생성 예측 모델링을 사용하여 위험 및 기회 파악 중요한 경향을 포착하는 수학적 모델 구축 장치 및 비즈니스 시스템의 데이터를 사용하여 낭비를 줄이거 나 시간을 절약하거나 비용을 절감하십시오 청중 개발자 엔지니어 도메인 전문가 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
nifidevApache NiFi for Developers7 hoursApache NiFi (Hortonworks DataFlow)는 시스템간에 데이터를 이동, 추적 및 자동화 할 수있는 실시간 통합 데이터 물류 및 간단한 이벤트 처리 플랫폼입니다 그것은 흐름 기반의 프로그래밍을 사용하여 작성되었으며 실시간으로 데이터 흐름을 관리하기위한 웹 기반 사용자 인터페이스를 제공합니다 강사가 진행되는이 실습에서는 참가자들이 Apache NiFi를 사용하여 여러 가지 데모 확장, 구성 요소 및 프로세서를 개발하면서 흐름 기반 프로그래밍의 기본 사항을 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 NiFi의 아키텍처 및 데이터 흐름 개념 이해 NiFi 및 thirdparty API를 사용하여 확장 기능 개발 사용자 정의 Apache Nifi 프로세서 개발 서로 다른 파일 형식 및 데이터 소스의 실시간 데이터를 수집하고 처리합니다 청중 개발자 데이터 엔지니어 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
nifiApache NiFi for Administrators21 hoursApache NiFi (Hortonworks DataFlow)는 시스템간에 데이터를 이동, 추적 및 자동화 할 수있는 실시간 통합 데이터 물류 및 간단한 이벤트 처리 플랫폼입니다 그것은 흐름 기반의 프로그래밍을 사용하여 작성되었으며 실시간으로 데이터 흐름을 관리하기위한 웹 기반 사용자 인터페이스를 제공합니다 교육 강좌가 진행되는이 교육 과정에서 참가자는 실제 실험 환경에서 Apache NiFi를 배포하고 관리하는 방법을 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Apachi NiFi 설치 및 구성 데이터베이스 및 대형 데이터 레이크를 포함하여 분산 된 분산 데이터 소스의 데이터를 소스 화, 변환 및 관리합니다 데이터 흐름 자동화 스트리밍 분석 사용 데이터 처리를위한 다양한 접근법 적용 빅 데이터를 비즈니스 통찰력으로 전환 청중 시스템 관리자 데이터 엔지니어 개발자 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
solrcloudSolrCloud14 hoursApache SolrCloud는 분산 네트워크에서 파일 검색 및 색인화를 용이하게 해주는 분산 데이터 처리 엔진입니다 강사진이 진행되는이 교육에서는 참가자가 Amazon AWS에서 SolrCloud 인스턴스를 설정하는 방법을 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 SolCloud의 기능과 기존의 마스터 슬레이브 클러스터의 기능을 비교하는 방법을 이해합니다 Solruoud 중앙 집중식 클러스터 구성 샤드와의 통신, 샤드에 문서 추가 등과 같은 프로세스 자동화 Zookeeper를 SolrCloud와 함께 사용하면 프로세스를 더욱 자동화 할 수 있습니다 인터페이스를 사용하여 오류보고 관리 SolrCloud 설치 부하 분산 지속적인 처리 및 장애 조치를 위해 SolrCloud 구성 청중 Solr 개발자 프로젝트 매니저 시스템 관리자 검색 분석가 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
datavaultData Vault: Building a Scalable Data Warehouse28 hours데이터 저장소 모델링은 여러 소스에서 비롯된 장기간의 데이터 저장소를 제공하는 데이터베이스 모델링 기술입니다 데이터 저장소는 팩트의 단일 버전 또는 "모든 데이터"를 항상 저장합니다 유연성, 확장 성, 일관성 및 적응력이 뛰어난 디자인은 3 차 정규형 (3NF) 및 스타 스키마의 최상의 측면을 포괄합니다 강사가 진행되는이 강의에서는 참가자가 데이터 저장소를 작성하는 방법을 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Data Vault 20의 아키텍처 및 설계 개념과 Big Data, NoSQL 및 AI와의 상호 작용을 이해합니다 데이터 저장 방법을 사용하여 데이터웨어 하우스의 기록 데이터를 감사, 추적 및 검사 할 수 있습니다 일관되고 반복 가능한 ETL (Extract, Transform, Load) 프로세스 개발 확장 성이 뛰어나고 반복 가능한 창고를 구축하고 배치하십시오 청중 데이터 모델러 데이터웨어 하우징 전문가 비즈니스 인텔리전스 전문가 데이터 엔지니어 데이터베이스 관리자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
datameerDatameer for Data Analysts14 hoursDatameer는 Hadoop을 기반으로하는 비즈니스 인텔리전스 및 분석 플랫폼입니다 최종 사용자는 대규모, 구조화, 반 구조화 및 비정형 데이터를 쉽고 간편하게 액세스, 탐색 및 상호 연관시킬 수 있습니다 강사진이 진행되는이 강의에서는 참가자가 일련의 큰 데이터 소스를 설정하고 분석 할 때 Hadoop의 가파른 학습 곡선을 극복하기 위해 Datameer를 사용하는 방법을 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 엔터프라이즈 데이터 레이크를 만들고, 큐레이팅하고, 대화식으로 탐색합니다 비즈니스 인텔리전스 데이터웨어 하우스, 트랜잭션 데이터베이스 및 기타 분석 저장소에 액세스합니다 스프레드 시트 사용자 인터페이스를 사용하여 엔드 포인트 데이터 처리 파이프 라인 설계 미리 작성된 함수에 액세스하여 복잡한 데이터 관계 탐색 드래그 앤 드롭 마법사를 사용하여 데이터를 시각화하고 대시 보드 만들기 표, 차트, 그래프 및지도를 사용하여 쿼리 결과 분석 청중 데이터 분석가 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
tigonTigon: Real-time Streaming for the Real World14 hoursTigon은 HDFS 및 HBase를 기반으로 지속성을 위해 실시간, 저음역, 고화질, 원시 YARN, 스트림 처리 프레임 워크 인 오픈 소스입니다 Tigon 응용 프로그램은 네트워크 침입 탐지 및 분석, 소셜 미디어 시장 분석, 위치 분석 및 사용자에게 실시간 추천과 같은 사용 사례를 다룹니다 이 강사진 라이브 교육에서는 샘플 응용 프로그램 작성을 통해 참가자를 안내하면서 실시간 및 일괄 처리 혼합에 대한 Tigon의 접근 방식을 소개합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 대용량 데이터를 처리하기위한 강력한 스트림 처리 응용 프로그램 작성 트위터 및 웹 서버 로그와 같은 스트림 소스 처리 신속한 합류, 필터링 및 스트림 집계에 Tigon 사용 청중 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
vespaVespa: Serving Large-Scale Data in Real-Time14 hoursVespa는 야후가 만든 오픈 소스의 대용량 데이터 처리 및 검색 엔진입니다 사용자 쿼리에 응답하고, 권장 사항을 작성하고, 개인화 된 컨텐트 및 광고를 실시간으로 제공하는 데 사용됩니다 이 강사진 라이브 교육은 대형 데이터를 제공하는 데 따른 어려움을 소개하고 실시간으로 대용량 데이터 세트를 통해 사용자 요청에 대한 응답을 계산할 수있는 응용 프로그램을 작성하여 참가자들을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Vespa를 사용하여 사용자가 대기하는 동안 제공 시간에 데이터를 신속하게 계산 (저장, 검색, 순위 지정, 구성) 기능 검색, 권장 사항 및 개인화와 관련된 기존 응용 프로그램에 Vespa 구현 Vespa를 Hadoop 및 Storm과 같은 기존의 대형 데이터 시스템과 통합 및 배치하십시오 청중 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
bigdatabicriminalBig Data Business Intelligence for Criminal Intelligence Analysis35 hours기술의 진보와 정보의 증가는 법 집행이 이루어지는 방식을 변화시키고 있습니다 빅 데이터의 과제는 빅 데이터의 약속만큼이나 까다 롭습니다 데이터를 효율적으로 저장하는 것이 이러한 과제 중 하나입니다 효과적으로 분석하는 것도 또 다른 일입니다 강사진과 실습을 통해 빅 데이터 기술에 접근하고 기존 프로세스 및 정책에 미치는 영향을 평가하고 범죄 활동을 식별하고 범죄를 예방하기위한 목적으로 이러한 기술을 구현하는 방법을 학습하게됩니다 전세계 법 집행 기관의 사례 연구를 통해 채택 방식, 과제 및 결과에 대한 통찰력을 얻을 수 있습니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 빅 데이터 기술과 전통적인 데이터 수집 프로세스를 결합하여 조사하는 동안 이야기를 하나로 묶습니다 데이터 분석을위한 산업용 대용량 데이터 저장 및 처리 솔루션 구현 범죄 수사에 대한 데이터 접근 방식을 가능하게하기위한 가장 적절한 도구 및 프로세스의 채택을위한 제안서 작성 청중 기술적 배경을 가진 법 집행 전문가 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
apexApache Apex: Processing Big Data-in-Motion21 hoursApache Apex는 스트림 및 일괄 처리를 통합하는 YARNative 플랫폼입니다 그것은 큰 datainmotion을 확장 성, 성능, faulttolerant, stateful, 보안, 배포, 그리고 쉽게 작동 방식으로 처리합니다 이 강사가 진행된 실시간 교육은 Apache Apex의 통합 스트림 처리 아키텍처를 소개하고 Hadoop에서 Apex를 사용하여 분산 응용 프로그램을 만드는 과정을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 원본 및 싱크 커넥터, 일반적인 데이터 변환 등과 같은 데이터 처리 파이프 라인 개념을 이해합니다 Apex 애플리케이션 제작, 확장 및 최적화 최소한의 대기 시간으로 안정적으로 실시간 데이터 스트림을 처리합니다 Apex Core 및 Apex Malhar 라이브러리를 사용하여 신속한 응용 프로그램 개발 가능 Apex API를 사용하여 기존 Java 코드 작성 및 재사용 Apex를 처리 엔진으로 다른 응용 프로그램에 통합 Apex 애플리케이션 조정, 테스트 및 확장 청중 개발자 엔터프라이즈 아키텍트 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
alluxioAlluxio: Unifying Disparate Storage Systems7 hoursAlexio는 이기종 스토리지 시스템을 통합하고 애플리케이션이 메모리 속도로 데이터와 상호 작용할 수 있도록하는 오픈 소스 가상 분산 스토리지 시스템입니다 Intel, Baidu 및 Alibaba와 같은 회사에서 사용합니다 교육 강사진은 Alexio를 사용하여 스토리지 시스템과 다양한 계산 프레임 워크를 연결하고 Alluxio를 사용하여 응용 프로그램을 생성 할 때 멀티 테라 바이트 규모의 데이터를 효율적으로 관리하는 방법을 학습합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Alluxio로 응용 프로그램 개발 하나의 네임 스페이스를 유지하면서 큰 데이터 시스템과 응용 프로그램을 연결하십시오 모든 스토리지 형식의 큰 데이터에서 가치를 효율적으로 추출합니다 작업 부하 성능 향상 독립 실행 형 또는 클러스터 된 Alluxio 배포 및 관리 청중 데이터 과학자 개발자 시스템 관리자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
flinkFlink for Scalable Stream and Batch Data Processing28 hoursApache Flink는 확장 가능한 스트림 및 배치 데이터 처리를위한 opensource 프레임 워크입니다 강사가 진행된이 실습에서는 분산 된 스트림 및 배치 데이터 처리의 기본 원리와 접근 방법을 소개하고 참가자가 실시간 데이터 스트리밍 응용 프로그램을 작성하는 과정을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 데이터 분석 애플리케이션 개발 환경 구축 Flink 기반, 오류 허용, 데이터 스트리밍 어플리케이션 패키징, 실행 및 모니터링 다양한 작업 부하 관리 Flink ML을 사용하여 고급 분석 수행 다중 노드 Flink 클러스터 설정 성능 측정 및 최적화 Flink를 다른 Big Data 시스템과 통합 플 링크 기능을 다른 대형 데이터 처리 프레임 워크와 비교하십시오 청중 개발자 건축가 데이터 엔지니어 분석 전문가 기술 관리자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
samzaSamza for Stream Processing14 hoursApache Samza는 스트림 처리를위한 오픈 소스 거의 실시간의 비동기 계산 프레임 워크입니다 메시징에는 Apache Kafka를, 내결함성, 프로세서 격리, 보안 및 리소스 관리에는 Apache Hadoop YARN을 사용합니다 이 강사가 진행된 실시간 교육에서는 메시징 시스템 및 분산 스트림 처리의 기본 원리를 소개하고 샘플 Samzabased 프로젝트 작성 및 작업 실행을 통해 참가자를 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Samza를 사용하여 메시지를 생성하고 소비하는 데 필요한 코드를 단순화하십시오 애플리케이션에서 메시지 처리를 분리합니다 Samza를 사용하여 거의 실시간 비동기 계산을 구현합니다 스트림 처리를 사용하여 메시징 시스템에서 더 높은 수준의 추상화를 제공합니다 청중 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
zeppelinZeppelin for Interactive Data Analytics14 hoursApache Zeppelin은 Hadoop 및 Spark 기반 데이터를 캡처, 탐색, 시각화 및 공유하기위한 웹 기반 노트북입니다 이 강사진 라이브 교육은 대화 형 데이터 분석의 개념을 소개하고 단일 사용자 또는 다중 사용자 환경에서 Zeppelin을 배포하고 사용하는 방법을 통해 참가자들을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Zeppelin 설치 및 구성 브라우저 기반 인터페이스로 데이터 개발, 구성, 실행 및 공유 명령 줄 또는 클러스터 세부 정보를 참조하지 않고 결과를 시각화합니다 긴 워크 플로우를 실행하고 협업합니다 Scala (Apache Spark 포함), Python (Apache Spark 포함), Spark SQL, JDBC, Markdown 및 Shell과 같은 여러 플러그인 언어 / 데이터 처리 백엔드 중 하나를 사용하십시오 Zeppelin과 Spark, Flink 및 Map Reduce 통합 Apache Shiro로 Zeppelin의 다중 사용자 인스턴스 보안 청중 데이터 엔지니어 데이터 분석가 데이터 과학자 소프트웨어 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
magellanMagellan: Geospatial Analytics on Spark14 hoursMagellan은 대용량 데이터에서 지형 공간 분석을위한 오픈 소스 분산 실행 엔진입니다 Apache Spark 위에 구현 된 Spark SQL을 확장하고 지형 공간 분석을위한 관계형 추상화를 제공합니다 이 강사가 진행된 실습 교육에서는 지형 공간 분석을 구현하기위한 개념과 접근 방식을 소개하고 Magellan on Spark를 사용하여 예측 분석 응용 프로그램을 작성하여 참가자들을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 규모의 지형 공간 데이터 세트를 효율적으로 쿼리, 구문 분석 및 결합 비즈니스 인텔리전스 및 예측 분석 응용 프로그램에서 지형 공간 데이터 구현 공간 컨텍스트를 사용하여 모바일 장치, 센서, 로그 및 웨어러블의 기능 확장 청중 응용 프로그램 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
hdpHortonworks Data Platform (HDP) for Administrators21 hoursHortonworks Data Platform은 오픈 소스 Apache Hadoop 지원 플랫폼으로 Apache Hadoop 에코 시스템에서 큰 데이터 솔루션을 개발하기위한 안정적인 토대를 제공합니다 이 강습 된 라이브 교육은 Hortonworks를 소개하고 Spark + Hadoop 솔루션의 배포를 통해 참가자들을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Hortonworks를 사용하여 대규모로 Hadoop을 안정적으로 실행할 수 있습니다 Spark의 민첩한 분석 워크 플로우로 Hadoop의 보안, 거버넌스 및 운영 기능을 통합하십시오 Hortonworks를 사용하여 Spark 프로젝트의 각 구성 요소를 조사, 검증, 인증 및 지원하십시오 구조화, 비정형, inmotion 및 atrest를 포함한 다양한 유형의 데이터 처리 청중 Hadoop 관리자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
PentahoDIPentaho Data Integration Fundamentals21 hoursPentaho Data Integration은 작업 및 데이터 변환을 정의하기위한 오픈 소스 데이터 통합 ​​도구입니다 강사진이 진행되는이 교육 과정에서 참가자는 Pentaho Data Integration의 강력한 ETL 기능과 풍부한 GUI를 사용하여 전체 데이터 수명주기를 관리하고 조직의 데이터 가치를 극대화하는 방법을 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 단계 및 홉이 포함 된 기본 데이터 변환 만들기, 미리보기 및 실행 Pentaho Enterprise Repository 구성 및 보안 서로 다른 소스의 데이터를 활용하고 analyticsready 형식으로 단일 통합 버전의 진실을 생성하십시오 추가 처리를 위해 thirdpart 응용 프로그램에 결과 제공 청중 데이터 분석가 ETL 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
TalendDITalend Open Studio for Data Integration 28 hoursTalend Open Studio for Data Integration은 비즈니스 전반의 다양한 위치에서 데이터를 결합, 변환 및 업데이트하는 데 사용되는 오픈 소스 데이터 통합 ​​제품입니다 강사가 진행되는이 실습에서 참가자는 Talend ETL 도구를 사용하여 Hadoop, Hive 및 Pig를 사용하여 데이터 변환, 데이터 추출 및 연결을 수행하는 방법을 학습합니다 이 훈련이 끝나면 참가자들은 ETL (Extract, Transform, Load) 및 전파의 기본 개념 설명 Hadoop과 연결할 ETL 메소드 및 ETL 도구 정의 비즈니스 요구 사항에 따라 큰 데이터를 효율적으로 수집, 검색, 소화, 소비, 변형 및 형성합니다 Hadoop (선택 사항), Hive (선택 사항) 및 NoSQL 데이터베이스에서 큰 레코드를 업로드하고 압축을 풉니 다 청중 비즈니스 인텔리전스 전문가 프로젝트 관리자 데이터베이스 전문가 SQL 개발자 ETL 개발자 솔루션 설계자 데이터 아키텍트 데이터웨어 하우징 전문가 시스템 관리자 및 통합 자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오 .
BDATRBig Data Analytics for Telecom Regulators16 hours규제 당국의 컴플라이언스를 충족시키기 위해 CSP (통신 서비스 제공 업체)는 Big 규정 준수를 충족시키는 데 도움이 될뿐만 아니라 동일한 범위 내에있는 데이터 분석 프로젝트를 통해 고객 만족도를 높이고 변동을 줄일 수 있습니다 사실 이후 컴플라이언스는 계약에 묶여있는 서비스 품질과 관련이 있습니다 CSP의 "경쟁력"을 향상시킬 것입니다 따라서 중요한 것은 규제 당국은 CSP를위한 빅 데이터 분석 사례를 조언 / 안내 할 수 있어야합니다 규제 당국과 CSP간에 상호 이익이된다 2 일 코스 : 8 모듈, 각 2 시간 = 16 시간 .
sparkpythonPython and Spark for Big Data (PySpark)21 hours파이썬은 명확한 구문 및 코드 가독성으로 유명한 고 레벨 프로그래밍 언어입니다 Spark는 큰 데이터를 쿼리, 분석 및 변환하는 데 사용되는 데이터 처리 엔진입니다 PySpark는 사용자가 Spark을 Python과 인터페이스 할 수있게합니다 교습, 실제 교육을 통해 참가자는 파이썬과 스파크를 함께 사용하여 큰 데이터를 손으로 연습 할 때 분석 할 수 있습니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Spark with Python을 사용하여 Big Data를 분석하는 방법 배우기 실제 상황을 모방 한 연습 문제 PySpark를 사용하여 큰 데이터 분석을위한 다양한 도구와 기술 사용 청중 개발자 IT 전문가 데이터 과학자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
ambariApache Ambari: Efficiently Manage Hadoop Clusters21 hoursApache Ambari는 Apache Hadoop 클러스터의 프로비저닝, 관리, 모니터링 및 보안을위한 오픈 소스 관리 플랫폼입니다 강사가 진행되는이 교육 과정에서 참가자는 Hadoop 클러스터를 성공적으로 관리하기 위해 Ambari에서 제공 한 관리 도구 및 사례에 대해 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Ambari를 사용하여 라이브 Big Data 클러스터 설정 다양한 사용 사례에 Ambari의 고급 기능 및 기능 적용 필요에 따라 노드 추가 및 제거 튜닝 및 조정을 통해 Hadoop 클러스터의 성능 향상 청중 개발자 시스템 관리자 DBA 하둡 테스트 전문가 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
foundrFoundation R7 hours이 과정의 목적은 참가자들이 R의 기초를 숙달하고 데이터 작업 방법을 익히는 것입니다 .
sparkcloudApache Spark in the Cloud21 hoursApache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
bigdataanahealthBig Data Analytics in Health21 hours빅 데이터 분석은 상관 관계, 숨겨진 패턴 및 기타 유용한 통찰력을 발굴하기 위해 대량의 다양한 데이터 세트를 검사하는 프로세스를 필요로합니다 보건 산업은 방대한 양의 복잡한 이기종 의료 및 임상 데이터를 보유하고 있습니다 건강 데이터에 대용량 데이터 분석을 적용하면 의료 서비스 제공 개선에 대한 통찰력을 얻을 수있는 잠재력이 커집니다 그러나 이러한 데이터 세트의 엄청난 양은 임상 환경에 대한 분석 및 실제 응용에 큰 문제를 제기합니다 강사가 진행되는이 실습 (원격)에서는 참가자가 일련의 손을 이용한 라이브 랩 연습을 통해 건강에 큰 데이터 분석을 수행하는 방법을 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Hadoop MapReduce 및 Spark와 같은 대규모 데이터 분석 도구 설치 및 구성 의료 데이터의 특성 이해 큰 데이터 기술을 적용하여 의료 데이터 처리 건강 응용 프로그램의 맥락에서 큰 데이터 시스템과 알고리즘을 연구하십시오 청중 개발자 데이터 과학자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오 .
sqoopMoving Data from MySQL to Hadoop with Sqoop14 hoursSqoop은 Hadoop과 관계형 데이터베이스 또는 메인 프레임간에 데이터를 전송하기위한 오픈 소스 소프트웨어 도구입니다 MySQL 또는 Oracle 또는 메인 프레임과 같은 관계형 데이터베이스 관리 시스템 (RDBMS)에서 Hadoop 분산 파일 시스템 (HDFS)으로 데이터를 가져 오는 데 사용할 수 있습니다 그런 다음 Hadoop MapReduce에서 데이터를 변환 한 다음 다시 RDBMS로 다시 내보낼 수 있습니다 강사진과 실습을 통해 Sqoop을 사용하여 기존의 관계형 데이터베이스에서 Hadoop 스토리지 (HDFS 또는 Hive 등)로 데이터를 가져 오는 방법을 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Sqoop 설치 및 구성 MySQL에서 HDFS 및 하이브로 데이터 가져 오기 HDFS 및 Hive에서 MySQL로 데이터 가져 오기 청중 시스템 관리자 데이터 엔지니어 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오 .
beamUnified Batch and Stream Processing with Apache Beam14 hoursApache Beam은 병렬 데이터 처리 파이프 라인을 정의하고 실행하기위한 개방형 소스 통합 프로그래밍 모델입니다 Apache Apex, Apache Flink, Apache Spark 및 Google Cloud Dataflow와 같이 Beam의 지원되는 분산 처리 백엔드 중 하나에서 실행되는 배치 및 스트리밍 파이프 라인을 모두 실행할 수있는 능력에 있습니다 Apache Beam은 다른 저장 매체와 데이터 소스간에 데이터를 이동하고, 데이터를보다 바람직한 형식으로 변환하고, 새로운 시스템으로 데이터를로드하는 것과 같은 ETL (Extract, Transform 및 Load) 태스크에 유용합니다 이 강사가 진행된 실시간 교육 (현장 또는 원격)에서 참여자는 독립적 인 병렬 처리를 위해 큰 데이터 세트를 더 작은 청크로 분해하기위한 데이터 처리 파이프 라인을 정의하는 Java 또는 Python 응용 프로그램에서 Apache Beam SDK를 구현하는 방법을 학습합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Apache Beam을 설치하고 구성하십시오 단일 프로그래밍 모델을 사용하여 Java 또는 Python 응용 프로그램에서 일괄 처리와 스트림 처리를 모두 수행 할 수 있습니다 여러 환경에서 파이프 라인을 실행하십시오 청중 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정은 앞으로 스칼라에서 사용할 수 있습니다 협의를 위해 저희에게 연락하십시오 .
pentahoPentaho Open Source BI Suite Community Edition (CE)28 hoursPentaho Open Source BI Suite Community Edition (CE)은 데이터 통합,보고, 대시 보드 및로드 기능을 제공하는 비즈니스 인텔리전스 패키지입니다 강사가 진행되는이 교육 과정에서 참가자는 Pentaho Open Source BI Suite Community Edition (CE)의 기능을 극대화하는 방법을 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Pentaho Open Source BI Suite Community Edition (CE) 설치 및 구성 Pentaho CE 도구의 기본 사항 및 기능 이해 Pentaho CE를 사용하여 보고서 작성 타사 데이터를 Pentaho CE에 통합 Pentaho CE에서 큰 데이터 및 분석 작업 청중 프로그래머 BI 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오 .
Weekend Big Data courses, Evening Big Data training, Big Data boot camp, Big Data instructor-led, Weekend Big Data training, Evening Big Data courses, Big Data coaching, Big Data instructor, Big Data trainer, Big Data training courses, Big Data classes, Big Data on-site, Big Data private courses, Big Data one on one training

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Some of our clients

is growing fast!

We are looking to expand our presence in South Korea!

As a Business Development Manager you will:

  • expand business in South Korea
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!