Big Data Training Courses

Big Data Training Courses

Big Data is a term that refers to solutions destined for storing and processing large data sets. Developed by Google initially, these Big Data solutions have evolved and inspired other similar projects, many of which are available as open-source. Some examples include Apache Hadoop, Cassandra and Cloudera Impala. According to Gartner’s reports, BigData is the next big step in IT just after the Cloud Computing and will be a leading trend in the next several years.

NobleProg onsite live BigData training courses start with an introduction to elemental concepts of Big Data, then progress into the programming languages and methodologies used to perform Data Analysis. Tools and infrastructure for enabling Big Data storage, Distributed Processing, and Scalability are discussed, compared and implemented in demo practice sessions.

BigData training is available in various formats, including onsite live training and live instructor-led training using an interactive, remote desktop setup. Local BigData training can be carried out live on customer premises or in NobleProg local training centers.

Testimonials

★★★★★
★★★★★

Big Data Course Outlines

Title
Duration
Overview
Title
Duration
Overview
21 hours
Overview
Apache Accumulo는 강력하고 확장 가능한 데이터 저장 및 검색 기능을 제공하는 정렬 된 분산 키 / 값 저장소입니다 Google의 BigTable을 기반으로하며 Apache Hadoop, Apache Zookeeper 및 Apache Thrift가 제공합니다 이 과정은 Accumulo의 기본 원리를 다루고 Apache Accumulo의 샘플 애플리케이션 개발을 통해 참가자들을 안내합니다 청중 응용 프로그램 개발자 소프트웨어 엔지니어 기술 컨설턴트 코스 형식 파트 강의, 파트 토론, 핸드 슨 개발 및 구현, 이해를위한 가끔 테스트 .
21 hours
Overview
스트림 처리는 "동작중인 데이터"의 실시간 처리, 즉 수신되는 데이터에 대한 계산을 수행하는 것을 의미합니다 이러한 데이터는 센서 이벤트, 웹 사이트 사용자 활동, 금융 거래, 신용 카드 스 와이프, 클릭 스트림 등과 같은 데이터 소스로부터의 연속 스트림으로 읽습니다 스트림 처리 프레임 워크는 많은 양의 들어오는 데이터를 읽고 거의 즉시 귀중한 통찰력을 제공합니다 강사가 진행된이 실습 (현장 또는 원격)에서 참가자는 기존의 대용량 데이터 저장 시스템 및 관련 소프트웨어 응용 프로그램 및 마이크로 서비스와 서로 다른 스트림 처리 프레임 워크를 설정하고 통합하는 방법을 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Spark Streaming 및 Kafka Streaming과 같은 다양한 Stream Processing 프레임 워크 설치 및 구성 작업에 가장 적합한 프레임 워크를 이해하고 선택하십시오 연속적으로, 동시에, 그리고 기록적인 방식으로 데이터의 프로세스 Stream Processing 솔루션을 기존 데이터베이스, 데이터웨어 하우스, 데이터 레이크 등과 통합합니다 가장 적합한 스트림 처리 라이브러리를 엔터프라이즈 애플리케이션 및 마이크로 서비스와 통합 청중 개발자 소프트웨어 아키텍트 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오 .
21 hours
Overview
예측 분석은 데이터 분석을 사용하여 미래에 대한 예측을하는 프로세스입니다 이 프로세스는 데이터 마이닝, 통계 및 기계 학습 기술과 함께 데이터를 사용하여 미래의 이벤트를 예측하기위한 예측 모델을 생성합니다 강사진과 실습을 통해 참가자들은 Matlab을 사용하여 예측 모델을 작성하고이를 대용량 샘플 데이터 세트에 적용하여 데이터를 기반으로 향후 이벤트를 예측하는 방법을 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 히스토리 및 트랜잭션 데이터의 패턴을 분석하기위한 예측 모델 생성 예측 모델링을 사용하여 위험 및 기회 파악 중요한 경향을 포착하는 수학적 모델 구축 장치 및 비즈니스 시스템의 데이터를 사용하여 낭비를 줄이거 나 시간을 절약하거나 비용을 절감하십시오 청중 개발자 엔지니어 도메인 전문가 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
21 hours
Overview
MATLAB은 MathWorks에서 개발 한 수치 연산 환경 및 프로그래밍 언어입니다 .
7 hours
Overview
강사진이 진행되는이 교육 과정에서 참가자는 실시간 스트리밍 응용 프로그램을 개발할 때 MapR Stream Architecture의 핵심 개념을 배우게됩니다 이 교육이 끝나면 참가자는 실시간 스트림 데이터 처리를위한 제작자 및 소비자 응용 프로그램을 만들 수 있습니다 청중 개발자 관리자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오 .
14 hours
Overview
Magellan은 대용량 데이터에서 지형 공간 분석을위한 오픈 소스 분산 실행 엔진입니다 Apache Spark 위에 구현 된 Spark SQL을 확장하고 지형 공간 분석을위한 관계형 추상화를 제공합니다 이 강사가 진행된 실습 교육에서는 지형 공간 분석을 구현하기위한 개념과 접근 방식을 소개하고 Magellan on Spark를 사용하여 예측 분석 응용 프로그램을 작성하여 참가자들을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 규모의 지형 공간 데이터 세트를 효율적으로 쿼리, 구문 분석 및 결합 비즈니스 인텔리전스 및 예측 분석 응용 프로그램에서 지형 공간 데이터 구현 공간 컨텍스트를 사용하여 모바일 장치, 센서, 로그 및 웨어러블의 기능 확장 청중 응용 프로그램 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
14 hours
Overview
Apache Kylin은 대용량 데이터를위한 극한의 분산 분석 엔진입니다 강사가 진행된이 실습에서 참가자는 Apache Kylin을 사용하여 실시간 데이터웨어 하우스를 설정하는 방법을 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Kylin을 사용하여 실시간 스트리밍 데이터 사용 Snowflake 스키마 지원, 풍부한 SQL 인터페이스, spark cubing 및 subecond query latency와 같은 Apache Kylin의 강력한 기능을 활용하십시오 노트 우리는 Kylin의 최신 버전을 사용합니다 (이 기사 작성 시점에서 Apache Kylin v20) 청중 빅 데이터 엔지니어 빅 데이터 분석가 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
21 hours
Overview
데이터베이스 내 지식 발견 (KDD)은 데이터 수집에서 유용한 지식을 발견하는 프로세스입니다 이 데이터 마이닝 기술에 대한 Reallife 응용 프로그램에는 마케팅, 사기 탐지, 통신 및 제조가 포함됩니다 이 과정에서는 KDD와 관련된 프로세스를 소개하고 이러한 프로세스의 구현을 연습하기위한 일련의 연습을 수행합니다 청중 데이터 분석가 또는 문제 해결을 위해 데이터를 해석하는 방법을 배우는 데 관심이있는 모든 사람 코스 형식 KDD에 대한 이론적 인 토론 후, 강사는 문제를 해결하기 위해 KDD의 적용을 요구하는 재범 사건을 발표 할 것입니다 참가자는 샘플 데이터 세트를 준비, 선택 및 정리하고 데이터에 대한 사전 지식을 사용하여 관측 결과를 기반으로 솔루션을 제안합니다 .
7 hours
Overview
Kafka Streams는 카프카 메시징 시스템으로 데이터를주고받는 마이크로 애플리케이션을 구축하기위한 클라이언트 측 라이브러리입니다 전통적으로 Apache Kafka는 메시지 생성자와 소비자 간의 데이터를 처리하기 위해 Apache Spark 또는 Apache Storm에 의존했습니다 응용 프로그램 내에서 Kafka Streams API를 호출하면 Kafka에서 직접 데이터를 처리 할 수 ​​있으므로 처리를 위해 별도의 클러스터로 데이터를 전송할 필요가 없습니다 교육 강좌를 통해 Kafka Streams를 스트림 처리를 위해 Apache Kafka와 데이터를주고받는 샘플 Java 응용 프로그램 세트에 Kafka Streams를 통합하는 방법을 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 다른 스트림 처리 프레임 워크에 비해 Kafka Streams 기능 및 이점 이해 카프카 클러스터 내에서 스트림 데이터를 직접 처리합니다 Kafka 및 Kafka 스트림과 통합되는 Java 또는 Scala 응용 프로그램 또는 마이크로 서비스 작성 입력 카프카 주제를 출력 카프카 주제로 변환하는 간결한 코드 작성 응용 프로그램 빌드, 패키지 및 배포 청중 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 코스의 맞춤식 교육을 요청하려면 Google에 문의하여 문의하십시오 .
21 hours
Overview
정의로 말하면 IoT는 전체 소비자, B2B 및 정부 산업을 오버레이하는 장치, 센서 및 컴퓨팅 성능의 통합되고 확산 된 계층이기 때문에 Internet of Things 또는 IoT 시장 가치에 대한 견적은 엄청납니다. IoT는 오늘날 19 억 개의 장치와 20 억 개의 장치로 구성된 9 억 개의 장치를 고려할 예정입니다. 그 해에는 스마트 폰, 스마트 TV, 태블릿, 웨어러블 컴퓨터 및 PC를 결합한 수와 거의 같습니다. & nbsp ; 소비재 분야에서는 주방 및 가전 제품, 주차, RFID, 조명 및 난방 제품 및 산업용 인터넷 분야의 다양한 응용 프로그램을 포함하여 많은 제품과 서비스가 IoT로 이미 넘어갔습니다. & nbsp; 그러나 IoT의 기본 기술은 인터넷이 탄생 한 이래로 M2M 통신이 존재하기 때문에 새로운 것이 아닙니다. 그러나 지난 몇 년 동안 변화 한 것은 모든 가정에서 스마트 폰과 태블릿의 압도적 인 적응에 의해 추가 된 값싼 무선 기술의 출현입니다. 모바일 장치의 폭발적인 성장으로 인해 IoT의 수요가 발생했습니다. & nbsp; IoT 비즈니스의 무한한 기회로 인해 많은 수의 중소 ​​기업가가 IoT 골드 러시의 시류로 뛰어 들었습니다. 또한 오픈 소스 전자 장치 및 IoT 플랫폼의 출현으로 인해 IoT 시스템의 개발 비용과 대규모 생산 관리가 점점 더 저렴 해졌습니다. 기존 전자 제품 소유자는 기기를 인터넷 또는 모바일 앱과 통합해야한다는 압력을 받고 있습니다. & nbsp; 이 교육은 IoT 애호가 / 기업가가 IoT 기술 및 비즈니스의 기본을 파악할 수 있도록 신흥 산업의 기술 및 비즈니스 검토를위한 것입니다. 코스 목표 & nbsp; 이 코스의 주 목적은 새로운 기술 옵션, 플랫폼 및 사례 연구를 도입하는 것입니다. 도시 자동화 (스마트 홈 및 도시), 산업용 인터넷, 의료, 정부, 모바일 휴대 전화 및 기타 분야에 적합합니다. & nbsp; & nbsp; IoT-Mechanical, 전자 / 센서 플랫폼, 무선 및 유선 프로토콜, 모바일에서 전자로의 통합, 모바일에서 엔터프라이즈로의 통합, 데이터 분석 및 종합 제어 평면의 모든 요소에 대한 기본적인 소개. & nbsp; IoT-WiFi, Zigbee / Zwave, Bluetooth, ANT + 용 M2M 무선 프로토콜 : 언제 어디서 사용할 수 있습니까? & nbsp; 모바일 / 데스크톱 / 웹 앱 등록, 데이터 수집 및 제어 & nbsp; IoT 용 & nbsp; Xively, Omega 및 NovoTech 등의 M2M 데이터 수집 플랫폼 사용 가능 IoT 보안 문제 및 보안 솔루션 IoT-Rasberry Pi, Adruino, ArmMbedLPC 등의 오픈 소스 / 상업용 전자 장치 플랫폼입니다. IoT-Ayla, iO Bridge, Libellium, Axeda, Cisco frog cloud 용 오픈 소스 / 상용 엔터프라이즈 클라우드 플랫폼 가정 자동화, 연기 경보기, 차량, 군대, 가정 건강 등과 같은 일반적인 IoT 장치의 비즈니스 및 기술 연구 대상 잠재 고객 & nbsp; 투자자 및 투자 기업가 & nbsp; 회사가 IoT 공간으로 모험하고있는 관리자 및 엔지니어 & nbsp; 비즈니스 분석가 & amp; 투자자
14 hours
Overview
이 코스는 개발자 코스 형식 강의, 손자 연습, 이해를 돕기위한 작은 시험 .
28 hours
Overview
MonetDB는 컬럼 스토어 기술 접근법을 개척 한 오픈 소스 데이터베이스입니다 강사진이 진행되는이 교육 과정에서 참가자들은 MonetDB를 사용하는 방법과 MonetDB를 최대한 활용하는 방법을 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 MonetDB 및 그 기능 이해 MonetDB를 설치하고 시작하십시오 MonetDB에서 다양한 기능과 작업을 탐색하고 수행하십시오 MonetDB 기능을 최대화하여 프로젝트 납품을 가속화하십시오 청중 개발자 기술 전문가 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
21 hours
Overview
Cloudera Impala는 Apache Hadoop 클러스터 용 오픈 소스 대규모 병렬 처리 (MPP) SQL 쿼리 엔진입니다 Impala는 사용자가 데이터 이동이나 변환없이 Hadoop Distributed File System 및 Apache Hbase에 저장된 데이터에 대해 저 지연 SQL 쿼리를 실행할 수있게합니다 청중 이 과정은 비즈니스 인텔리전스 또는 SQL 도구를 통해 Hadoop에 저장된 데이터에 대한 분석을 수행하는 애널리스트 및 데이터 과학자를 대상으로합니다 이 과정을 마친 후 대표단은 임팔라로 Hadoop 클러스터에서 의미있는 정보를 추출합니다 임팔라 SQL Dialect에서 비즈니스 인텔리전스를 용이하게하는 특정 프로그램을 작성하십시오 임팔라 문제를 해결하십시오 .
7 hours
Overview
이 강의에서는 Hive에서 데이터를 추출하는 사람들을 위해 Hive SQL 언어 (Hive : Hive HQL, SQL on Hive, HiveQL)를 사용하는 방법을 다룹니다 .
21 hours
Overview
Hortonworks Data Platform은 오픈 소스 Apache Hadoop 지원 플랫폼으로 Apache Hadoop 에코 시스템에서 큰 데이터 솔루션을 개발하기위한 안정적인 토대를 제공합니다 이 강습 된 라이브 교육은 Hortonworks를 소개하고 Spark + Hadoop 솔루션의 배포를 통해 참가자들을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Hortonworks를 사용하여 대규모로 Hadoop을 안정적으로 실행할 수 있습니다 Spark의 민첩한 분석 워크 플로우로 Hadoop의 보안, 거버넌스 및 운영 기능을 통합하십시오 Hortonworks를 사용하여 Spark 프로젝트의 각 구성 요소를 조사, 검증, 인증 및 지원하십시오 구조화, 비정형, inmotion 및 atrest를 포함한 다양한 유형의 데이터 처리 청중 Hadoop 관리자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
21 hours
Overview
이 과정에서는 Hadoop 위에 NoSQL 스토어 인 HBase를 소개합니다 이 과정은 HBase를 사용하여 응용 프로그램을 개발할 개발자와 HBase 클러스터를 관리 할 관리자를 대상으로합니다 우리는 HBase에서 HBase 아키텍처 및 데이터 모델링 및 응용 프로그램 개발을 통해 개발자를 안내 할 것입니다 또한 HBase에서 MapReduce를 사용하는 방법과 성능 최적화와 관련된 몇 가지 관리 항목에 대해서도 설명합니다 이 과정은 많은 실험을 통해 손으로 진행됩니다 소요 시간 : 3 일 대상 : 개발자 및 관리자 .
28 hours
Overview
Hadoop은 널리 사용되는 Big Data 프로세싱 프레임 워크입니다 파이썬은 명확한 구문 및 코드 가독성으로 유명한 고 레벨 프로그래밍 언어입니다 강사가되어 실습을하면서 Hadoop, MapReduce, Pig 및 Spark를 Python을 사용하여 여러 가지 예제와 사용 사례로 단계별로 작업하는 방법을 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Hadoop, MapReduce, Pig 및 Spark의 기본 개념 이해 Hadoop 분산 파일 시스템 (HDFS), MapReduce, Pig 및 Spark에서 Python 사용 Snakebite를 사용하여 Python 내에서 HDFS에 프로그래밍 방식으로 액세스합니다 mrjob을 사용하여 파이썬에서 MapReduce 작업 작성하기 파이썬으로 스파크 프로그램 작성하기 Python UDF를 사용하여 돼지의 기능을 확장하십시오 Luigi를 사용하여 MapReduce 작업 및 돼지 스크립트 관리 청중 개발자 IT 전문가 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
28 hours
Overview
청중: 이 과정은 큰 데이터 / 헛점 기술을 신비화하고 이해하기 어렵지 않다는 것을 보여주기위한 것입니다 .
14 hours
Overview
점점 더 많은 소프트웨어 및 IT 프로젝트가 로컬 처리 및 데이터 관리에서 분산 처리 및 대용량 데이터 저장으로 마이그레이션함에 따라 프로젝트 관리자는 빅 데이터 프로젝트 및 기회와 관련된 개념 및 사례를 파악하기 위해 지식과 기술을 업그레이드해야 할 필요성을 느끼고 있습니다 이 과정에서는 가장 널리 사용되는 Big Data 프로세싱 프레임 워크 인 Hadoop에 대한 프로젝트 관리자를 소개합니다 이 강습 교육에서는 참가자가 Hadoop 생태계의 핵심 구성 요소와 이러한 기술을 사용하여 대용량 문제를 해결하는 방법을 학습합니다 이 기초를 배우는 과정에서 참가자는 또한 많은 IT 프로젝트가 참여하는 데이터 과학자 및 분석가뿐만 아니라이 시스템의 개발자 및 구현 자와 의사 소통하는 능력을 향상시킬 것입니다 청중 Hadoop을 기존 개발 또는 IT 인프라에 구현하려는 프로젝트 관리자 대형 데이터 엔지니어, 데이터 과학자 및 비즈니스 분석가를 포함하는 교차 기능 팀과 의사 소통해야하는 프로젝트 관리자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
21 hours
Overview
Hadoop은 가장 널리 사용되는 Big Data 프로세싱 프레임 워크입니다 .
21 hours
Overview
Apache Hadoop은 서버 클러스터에서 Big Data를 처리하기위한 가장 보편적 인 프레임 워크 중 하나입니다 이 과정에서는 HDFS, 고급 돼지, 하이브 및 HBase의 데이터 관리에 대해 설명합니다 이러한 고급 프로그래밍 기술은 숙련 된 Hadoop 개발자에게 도움이 될 것입니다 대상 : 개발자 기간 : 3 일 형식 : 강의 (50 %) 및 핸드 랩 (50 %) .
28 hours
Overview
MemSQL은 inmemory, 분산, 구름과 onpremises에 대한 SQL 데이터베이스 관리 시스템입니다 라이브 및 히스토리 데이터로부터 즉시 통찰력을 제공하는 실시간 데이터웨어 하우스입니다 강사진이 진행되는이 교육에서는 참가자들이 개발 및 관리를위한 MemSQL의 필수 요소를 배우게됩니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 MemSQL의 주요 개념과 특징 이해 MemSQL의 설치, 설계, 유지 보수 및 운영 MemSQL에서 스키마 최적화 MemSQL에서 쿼리 개선 MemSQL의 벤치 마크 성능 MemSQL을 사용하여 실시간 데이터 애플리케이션 구축 청중 개발자 관리자 운영 엔지니어 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
21 hours
Overview
Apache NiFi (Hortonworks DataFlow)는 시스템간에 데이터를 이동, 추적 및 자동화 할 수있는 실시간 통합 데이터 물류 및 간단한 이벤트 처리 플랫폼입니다 그것은 흐름 기반의 프로그래밍을 사용하여 작성되었으며 실시간으로 데이터 흐름을 관리하기위한 웹 기반 사용자 인터페이스를 제공합니다 교육 강좌가 진행되는이 교육 과정에서 참가자는 실제 실험 환경에서 Apache NiFi를 배포하고 관리하는 방법을 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Apachi NiFi 설치 및 구성 데이터베이스 및 대형 데이터 레이크를 포함하여 분산 된 분산 데이터 소스의 데이터를 소스 화, 변환 및 관리합니다 데이터 흐름 자동화 스트리밍 분석 사용 데이터 처리를위한 다양한 접근법 적용 빅 데이터를 비즈니스 통찰력으로 전환 청중 시스템 관리자 데이터 엔지니어 개발자 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
21 hours
Overview
Apache Hadoop은 Big Data를 처리하기위한 가장 보편적 인 프레임 워크입니다 Hadoop은 풍부하고 심층적 인 분석 기능을 제공하며, 전통적 BI 분석 세계로 진출하고 있습니다 이 과정에서는 하둡 에코 시스템의 핵심 구성 요소와 그 분석에 대한 분석가를 소개합니다 청중 비즈니스 분석가 지속 삼 일 체재 강의와 실험실에 손 .
7 hours
Overview
Spark SQL은 구조화 된 데이터와 구조화되지 않은 데이터로 작업하는 Apache Spark의 모듈입니다 Spark SQL은 수행되는 계산뿐 아니라 데이터의 구조에 대한 정보를 제공합니다 이 정보는 최적화를 수행하는 데 사용될 수 있습니다 Spark SQL의 두 가지 일반적인 용도는 다음과 같습니다 SQL 쿼리를 실행합니다 기존의 하이브 설치에서 데이터를 읽습니다 강사가 진행된이 실습 (현장 또는 원격)에서 참가자는 Spark SQL을 사용하여 다양한 유형의 데이터 세트를 분석하는 방법을 학습합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Spark SQL을 설치하고 구성하십시오 Spark SQL을 사용하여 데이터 분석을 수행하십시오 데이터 형식을 다른 형식으로 쿼리하십시오 데이터 및 쿼리 결과를 시각화합니다 청중 데이터 분석가 데이터 과학자 데이터 엔지니어 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오 .
14 hours
Overview
Apache Zeppelin은 Hadoop 및 Spark 기반 데이터를 캡처, 탐색, 시각화 및 공유하기위한 웹 기반 노트북입니다 이 강사진 라이브 교육은 대화 형 데이터 분석의 개념을 소개하고 단일 사용자 또는 다중 사용자 환경에서 Zeppelin을 배포하고 사용하는 방법을 통해 참가자들을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Zeppelin 설치 및 구성 브라우저 기반 인터페이스로 데이터 개발, 구성, 실행 및 공유 명령 줄 또는 클러스터 세부 정보를 참조하지 않고 결과를 시각화합니다 긴 워크 플로우를 실행하고 협업합니다 Scala (Apache Spark 포함), Python (Apache Spark 포함), Spark SQL, JDBC, Markdown 및 Shell과 같은 여러 플러그인 언어 / 데이터 처리 백엔드 중 하나를 사용하십시오 Zeppelin과 Spark, Flink 및 Map Reduce 통합 Apache Shiro로 Zeppelin의 다중 사용자 인스턴스 보안 청중 데이터 엔지니어 데이터 분석가 데이터 과학자 소프트웨어 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
14 hours
Overview
Vespa는 야후가 만든 오픈 소스의 대용량 데이터 처리 및 검색 엔진입니다 사용자 쿼리에 응답하고, 권장 사항을 작성하고, 개인화 된 컨텐트 및 광고를 실시간으로 제공하는 데 사용됩니다 이 강사진 라이브 교육은 대형 데이터를 제공하는 데 따른 어려움을 소개하고 실시간으로 대용량 데이터 세트를 통해 사용자 요청에 대한 응답을 계산할 수있는 응용 프로그램을 작성하여 참가자들을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Vespa를 사용하여 사용자가 대기하는 동안 제공 시간에 데이터를 신속하게 계산 (저장, 검색, 순위 지정, 구성) 기능 검색, 권장 사항 및 개인화와 관련된 기존 응용 프로그램에 Vespa 구현 Vespa를 Hadoop 및 Storm과 같은 기존의 대형 데이터 시스템과 통합 및 배치하십시오 청중 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
14 hours
Overview
Tigon은 HDFS 및 HBase를 기반으로 지속성을 위해 실시간, 저음역, 고화질, 원시 YARN, 스트림 처리 프레임 워크 인 오픈 소스입니다 Tigon 응용 프로그램은 네트워크 침입 탐지 및 분석, 소셜 미디어 시장 분석, 위치 분석 및 사용자에게 실시간 추천과 같은 사용 사례를 다룹니다 이 강사진 라이브 교육에서는 샘플 응용 프로그램 작성을 통해 참가자를 안내하면서 실시간 및 일괄 처리 혼합에 대한 Tigon의 접근 방식을 소개합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 대용량 데이터를 처리하기위한 강력한 스트림 처리 응용 프로그램 작성 트위터 및 웹 서버 로그와 같은 스트림 소스 처리 신속한 합류, 필터링 및 스트림 집계에 Tigon 사용 청중 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
21 hours
Overview
Teradata는 널리 사용되는 관계형 데이터베이스 관리 시스템 중 하나입니다 주로 대규모 데이터웨어 하우징 응용 프로그램을 작성하는 데 적합합니다 Teradata는 이것을 병렬 처리의 개념으로 구현합니다 이 과정에서는 Teradata에 대한 대표자를 소개합니다 .
28 hours
Overview
Talend Open Studio for Data Integration은 비즈니스 전반의 다양한 위치에서 데이터를 결합, 변환 및 업데이트하는 데 사용되는 오픈 소스 데이터 통합 ​​제품입니다 강사가 진행되는이 실습에서 참가자는 Talend ETL 도구를 사용하여 Hadoop, Hive 및 Pig를 사용하여 데이터 변환, 데이터 추출 및 연결을 수행하는 방법을 학습합니다 이 훈련이 끝나면 참가자들은 ETL (Extract, Transform, Load) 및 전파의 기본 개념 설명 Hadoop과 연결할 ETL 메소드 및 ETL 도구 정의 비즈니스 요구 사항에 따라 큰 데이터를 효율적으로 수집, 검색, 소화, 소비, 변형 및 형성합니다 Hadoop (선택 사항), Hive (선택 사항) 및 NoSQL 데이터베이스에서 큰 레코드를 업로드하고 압축을 풉니 다 청중 비즈니스 인텔리전스 전문가 프로젝트 관리자 데이터베이스 전문가 SQL 개발자 ETL 개발자 솔루션 설계자 데이터 아키텍트 데이터웨어 하우징 전문가 시스템 관리자 및 통합 자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 노트 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오 .
Weekend Big Data courses, Evening Big Data training, Big Data boot camp, Big Data instructor-led, Weekend Big Data training, Evening Big Data courses, Big Data coaching, Big Data instructor, Big Data trainer, Big Data training courses, Big Data classes, Big Data on-site, Big Data private courses, Big Data one on one training

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Some of our clients

is growing fast!

We are looking to expand our presence in South Korea!

As a Business Development Manager you will:

  • expand business in South Korea
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!