Hadoop 교육

Hadoop 교육

Local instructor-led live Hadoop training courses in 대한민국.

Hadoop Course Outlines

코스 이름
Duration
Overview
코스 이름
Duration
Overview
21 시간
Python 데이터 과학 및 기계 학습을위한 규모, 유연하고 널리 사용되는 프로그래밍 언어입니다. Spark는 대형 데이터를 검색, 분석 및 변환하는 데 사용되는 데이터 처리 엔진이지만 Hadoop는 대형 데이터 저장 및 처리에 대한 소프트웨어 라이브러리 프레임 워크입니다. 이 강사가 이끄는 라이브 훈련 (온라인 또는 온라인)은 Spark, Hadoop 및 Python를 사용하고 통합하여, 분석하고, 대규모 및 복잡한 데이터 세트를 변환하고자하는 개발자를 대상으로합니다. 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 :
    Spark, Hadoop, 및 Python을 사용하여 대형 데이터 처리를 시작하는 데 필요한 환경을 설정합니다. Spark의 특징, 핵심 구성 요소 및 아키텍처를 이해하고 Hadoop. Spark, Hadoop 및 Python을 대형 데이터 처리에 통합하는 방법을 배우십시오. Spark 생태계 (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka 및 Flume)의 도구를 탐험하십시오. Netflix, YouTube, Amazon, Spotify 및 Google와 유사한 공동 필터링 권장 시스템을 구축합니다. Apache Mahout를 사용하여 기계 학습 알고리즘을 확장합니다.
코스의 형식
    인터랙티브 강의 및 토론 많은 연습과 연습이 있습니다. 라이브 실험실 환경에서 핸드-온 구현.
코스 Customization 옵션
    이 과정에 대한 사용자 지정 훈련을 요청하려면 저희에게 연락하여 배치하십시오.
7 시간
이 과정은 사용하는 방법에 대해 설명 Hive SQL 언어를 (일명 : Hive HQL, SQL 에 Hive , Hive QL)에서 데이터를 추출하는 사람들을위한 Hive
14 시간
Datameer는 Hadoop을 기반으로하는 비즈니스 인텔리전스 및 분석 플랫폼입니다 최종 사용자는 대규모, 구조화, 반 구조화 및 비정형 데이터를 쉽고 간편하게 액세스, 탐색 및 상호 연관시킬 수 있습니다 강사진이 진행되는이 강의에서는 참가자가 일련의 큰 데이터 소스를 설정하고 분석 할 때 Hadoop의 가파른 학습 곡선을 극복하기 위해 Datameer를 사용하는 방법을 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 엔터프라이즈 데이터 레이크를 만들고, 큐레이팅하고, 대화식으로 탐색합니다 비즈니스 인텔리전스 데이터웨어 하우스, 트랜잭션 데이터베이스 및 기타 분석 저장소에 액세스합니다 스프레드 시트 사용자 인터페이스를 사용하여 엔드 포인트 데이터 처리 파이프 라인 설계 미리 작성된 함수에 액세스하여 복잡한 데이터 관계 탐색 드래그 앤 드롭 마법사를 사용하여 데이터를 시각화하고 대시 보드 만들기 표, 차트, 그래프 및지도를 사용하여 쿼리 결과 분석 청중 데이터 분석가 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
7 시간
Alluxio 오픈소스 가상 배포 스토리지 시스템은 다양한 스토리지 시스템을 통합하고 응용 프로그램이 메모리 속도로 데이터와 상호 작용 할 수 있습니다. 그것은 Intel, Baidu 및 Alibaba와 같은 회사에 의해 사용됩니다. 이 강사가 이끄는 라이브 훈련에서 참가자들은 Alluxio를 사용하여 다양한 컴퓨팅 프레임 워크를 저장 시스템과 다중 페타바이트 스케일 데이터를 효율적으로 관리하는 방법을 배우게 될 것입니다. 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 :
    응용 프로그램을 개발하십시오 Alluxio 하나의 이름 공간을 유지하면서 대형 데이터 시스템 및 응용 프로그램을 연결합니다. 효율적으로 모든 스토리지 형식에서 큰 데이터에서 가치를 추출 작업 부하 성능 향상 배치 및 관리 Alluxio 스탠다드 또는 클러스터
관객
    데이터 과학자 개발자 시스템 관리자
코스의 형식
    부분 강의, 부분 토론, 연습 및 무거운 연습
35 시간
청중: 이 과정은 분산 시스템 환경에서 대규모 데이터 세트를 저장하고 처리하는 솔루션을 찾는 IT 전문가를 대상으로합니다. Go al : Hadoop 클러스터 관리에 대한 깊은 지식.
21 시간

이 과정은 개발자, 건축가, 데이터 과학자 또는 집중적으로 또는 정기적으로 데이터에 액세스해야하는 모든 프로필을 대상으로합니다. 이 과정의 주요 초점은 데이터 조작과 변형입니다. Hadoop 생태계의 도구 Hadoop 과정에는 데이터 변환 및 조작에 많이 사용되는 Pig 및 Hive 사용이 포함됩니다. 이 교육은 또한 성능 메트릭 및 성능 최적화를 해결합니다. 이 과정은 전적으로 손에 있으며 이론적 인 측면의 프레젠테이션으로 강조 표시됩니다.
21 시간
빅 데이터 분석은 상관 관계, 숨겨진 패턴 및 기타 유용한 통찰력을 발굴하기 위해 대량의 다양한 데이터 세트를 검사하는 프로세스를 필요로합니다. 보건 산업은 복잡한 이기종 의학 및 임상 데이터를 가지고 있습니다. 건강 데이터에 큰 데이터 분석을 적용하면 건강 관리 제공 개선에 대한 통찰력을 얻는 데 큰 잠재력이 있습니다. 그러나 이러한 데이터 세트의 엄청난 양은 임상 환경에 대한 분석 및 실제 응용에 큰 문제를 제기합니다. 이 강사 주도의 실시간 교육 (원격)에서는 참가자가 실습 랩 연습을 단계별로 수행하면서 건강에 큰 데이터 분석을 수행하는 방법을 배웁니다. 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.
  • Hadoop MapReduce 및 Spark와 같은 대규모 데이터 분석 도구 설치 및 구성
  • 의료 데이터의 특성 이해
  • 큰 데이터 기술을 적용하여 의료 데이터 처리
  • 건강 응용 프로그램의 맥락에서 큰 데이터 시스템과 알고리즘 연구
청중
  • 개발자
  • 데이터 과학자
코스 형식
  • 파트 강의, 파트 토론, 연습 및 무거운 실습.
노트
  • 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오.
21 시간
이 과정은 분산 시스템 환경에서 대규모 데이터 세트를 저장 및 처리하는 솔루션을 찾는 IT 전문가를 대상으로합니다. 코스 목표 : Hadoop 클러스터 관리에 관한 지식 얻기
21 시간
Apache Hadoop 은 서버 클러스터에서 Big Data 를 처리하는 데 가장 널리 사용되는 프레임 워크입니다. 에서 세 (선택적 사) 일 물론, 참석자가 비즈니스 혜택과 사용 사례에 대해 배우게됩니다이 Hadoop , 설치, 유지 관리, 모니터링, 문제를 해결하고 최적화하는 방법 클러스터 구축과 성장을 계획하는 방법과 생태계, Hadoop . 또한 클러스터 대량 데이터로드를 연습하고 다양한 Hadoop 배포판에 익숙해지며 Hadoop 에코 시스템 도구 설치 및 관리를 연습합니다. 이 과정은 Kerberos를 사용한 클러스터 보안에 대한 논의로 마무리됩니다. “… 재료를 잘 준비하고 철저히 덮었습니다. 실험실은 매우 도움이되고 체계적으로 구성되었습니다.”
— Andrew Nguyen, Microsoft 온라인 Advertising 수석 통합 DW 엔지니어 청중 Hadoop 관리자 체재 강의 및 실습, 대략 60 % 강의, 40 % 실험실.
21 시간
Apache Hadoop은 Big Data를 처리하기위한 가장 보편적 인 프레임 워크입니다 Hadoop은 풍부하고 심층적 인 분석 기능을 제공하며, 전통적 BI 분석 세계로 진출하고 있습니다 이 과정에서는 하둡 에코 시스템의 핵심 구성 요소와 그 분석에 대한 분석가를 소개합니다 청중 비즈니스 분석가 지속 삼 일 체재 강의와 실험실에 손 .
28 시간
Apache Hadoop 은 서버 클러스터에서 Big Data 를 처리하는 데 가장 널리 사용되는 프레임 워크입니다. 이 과정에서는 Hadoop 생태계의 다양한 구성 요소 (HDFS, MapReduce, Pig, Hive 및 HBase)에 대한 개발자를 소개합니다.
    21 시간
    Apache Hadoop 은 서버 클러스터에서 Big Data 를 처리하기위한 가장 보편적 인 프레임 워크 중 하나입니다. 이 과정은 HDFS, 고급 돼지, Hive 및 HBase의 데이터 관리에 대해 설명합니다. 이러한 고급 프로그래밍 기술은 숙련 된 Hadoop 개발자에게 도움이 될 것입니다. 대상 : 개발자 기간 : 3 일 형식 : 강의 (50 %) 및 실습 (50 %)
    21 시간
    Hadoop은 가장 널리 사용되는 Big Data 프로세싱 프레임 워크입니다 .
    14 시간
    점점 더 많은 소프트웨어 및 IT 프로젝트가 로컬 처리 및 데이터 관리에서 분산 처리 및 대용량 데이터 저장으로 마이그레이션함에 따라 프로젝트 관리자는 빅 데이터 프로젝트 및 기회와 관련된 개념 및 사례를 파악하기 위해 지식과 기술을 업그레이드해야 할 필요성을 느끼고 있습니다 이 과정에서는 가장 널리 사용되는 Big Data 프로세싱 프레임 워크 인 Hadoop에 대한 프로젝트 관리자를 소개합니다 이 강습 교육에서는 참가자가 Hadoop 생태계의 핵심 구성 요소와 이러한 기술을 사용하여 대용량 문제를 해결하는 방법을 학습합니다 이 기초를 배우는 과정에서 참가자는 또한 많은 IT 프로젝트가 참여하는 데이터 과학자 및 분석가뿐만 아니라이 시스템의 개발자 및 구현 자와 의사 소통하는 능력을 향상시킬 것입니다 청중 Hadoop을 기존 개발 또는 IT 인프라에 구현하려는 프로젝트 관리자 대형 데이터 엔지니어, 데이터 과학자 및 비즈니스 분석가를 포함하는 교차 기능 팀과 의사 소통해야하는 프로젝트 관리자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
    28 시간
    청중: 이 과정은 거대한 데이터 / 해프 기술을 신비화하고 이해하기 어렵지 않다는 것을 보여주기위한 것입니다.
    28 시간
    Hadoop 인기있는 Big Data 처리 프레임 워크입니다. Python 높은 수준의 프로그래밍 언어는 명확한 합성과 코드 읽기 가능성으로 유명합니다. 이 강사가 이끄는 라이브 훈련에서 참가자들은 여러 가지 예와 사용 사례를 통과하는 동안 Hadoop, MapReduce, Pig 및 Spark를 사용하는 방법을 배울 것입니다. 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 :
      Hadoop 뒤에있는 기본 개념을 이해하십시오, MapReduce, Pig, 및 Spark 사용 Python Hadoop 분산 파일 시스템 (HDFS), MapReduce, Pig, 및 Spark Snakebite를 사용하여 HDFS 내에서 프로그래밍 액세스할 수 있습니다 Python mrjob을 사용하여 MapReduce 작업을 작성하십시오 Python Spark 프로그램을 작성하십시오 Python UDF를 사용하여 돼지의 기능을 확장하십시오 Python 관리 MapReduce 일자리 및 Luigi를 사용하여 돼지 스크립트
    관객
      개발자 IT 전문가
    코스의 형식
      부분 강의, 부분 토론, 연습 및 무거운 연습
    35 시간
    Apache Hadoop는 많은 컴퓨터를 통해 큰 데이터 세트를 처리하기위한 인기있는 데이터 처리 프레임 워크입니다. 이 강사가 이끄는 라이브 훈련 (온라인 또는 온라인)은 조직 내에서 Hadoop 클러스터를 설정, 배치 및 관리하는 방법을 배우고자하는 시스템 관리자를 대상으로합니다. 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 :
      Apache를 설치하고 설정하십시오 Hadoop Hadoop 생태계의 네 가지 주요 구성 요소를 이해하십시오 : HDFS, MapReduce, YARN 및 Hadoop Common. Hadoop 분산 파일 시스템 (HDFS)을 사용하여 클러스터를 수백 또는 수천 개의 노드로 확장합니다.   · HDFS를 설치하여 사전 Spark 배포를 위한 스토리지 엔진으로 작동합니다. Spark를 설정하여 Amazon S3 및 NoSQL 데이터베이스 시스템과 같은 대체 저장 솔루션에 액세스할 수 있습니다 Redis, Elasticsearch, Couchbase, Aerospike 등. Apache Hadoop 클러스터의 공급, 관리, 모니터링 및 보안과 같은 관리 작업을 수행합니다.
    코스의 형식
      인터랙티브 강의 및 토론 많은 연습과 연습이 있습니다. 라이브 실험실 환경에서 핸드-온 구현.
    코스 Customization 옵션
      이 과정에 대한 사용자 지정 훈련을 요청하려면 저희에게 연락하여 배치하십시오.
    21 시간
    이 과정에서는 Hadoop 위에 SQL Store가없는 HBase를 소개합니다. 이 과정은 HBase를 사용하여 응용 프로그램을 개발할 개발자와 HBase 클러스터를 관리 할 관리자를 대상으로합니다. 우리는 HBase에서 HBase 아키텍처와 데이터 모델링 및 애플리케이션 개발을 통해 개발자를 안내 할 것입니다. 또한 HBase와 함께 MapReduce를 사용하는 방법과 성능 최적화와 관련된 몇 가지 관리 항목에 대해서도 설명합니다. 이 과정은 실습을 통해 많은 실습을 제공합니다.
    소요 시간 : 3 일 대상 : 개발자 및 관리자
    14 시간
    청중
    • 개발자
    코스의 형식
    • 강의, 실습, 작은 테스트를 통해 이해를 측정 하는
    21 시간
    Apache NiFi (Hortonworks DataFlow)는 시스템간에 데이터를 이동, 추적 및 자동화 할 수있는 실시간 통합 데이터 물류 및 간단한 이벤트 처리 플랫폼입니다. 그것은 흐름 기반 프로그래밍을 사용하여 작성되며 실시간으로 데이터 흐름을 관리하기위한 웹 기반 사용자 인터페이스를 제공합니다. 이 강사가 진행하는 실시간 교육 (현장 또는 원격)에서 참가자는 실제 실험 환경에서 Apache NiFi 를 배포 및 관리하는 방법을 학습합니다. 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.
    • Apachi NiFi를 설치하고 구성하십시오.
    • 데이터베이스 및 대형 데이터 호수를 포함하여 분산 된 분산 데이터 소스의 데이터를 제공, 변환 및 관리합니다.
    • 데이터 흐름을 자동화하십시오.
    • 스트리밍 분석 사용
    • 데이터 처리를위한 다양한 접근 방식을 적용합니다.
    • Big Data 를 비즈니스 통찰력으로 변환하십시오.
    코스 형식
    • 대화 형 강의 및 토론.
    • 많은 연습과 연습.
    • 라이브 랩 환경에서 실제 구현.
    코스 사용자 정의 옵션
    • 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오.
    7 시간
    Apache NiFi (Hortonworks DataFlow)는 시스템간에 데이터를 이동, 추적 및 자동화 할 수있는 실시간 통합 데이터 물류 및 간단한 이벤트 처리 플랫폼입니다. 그것은 흐름 기반 프로그래밍을 사용하여 작성되며 실시간으로 데이터 흐름을 관리하기위한 웹 기반 사용자 인터페이스를 제공합니다. 강사가 진행하는이 실습에서 참가자는 Apache NiFi 사용하여 여러 가지 데모 확장, 구성 요소 및 프로세서를 개발하면서 흐름 기반 프로그래밍의 기본 사항을 학습합니다. 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.
    • NiFi의 아키텍처 및 데이터 흐름 개념을 이해합니다.
    • NiFi 및 제 3 자 API를 사용하여 확장 기능을 개발하십시오.
    • 사용자 정의 자신의 아파치 Nifi 프로세서를 개발할 수 있습니다.
    • 서로 다른 파일 형식 및 데이터 소스의 실시간 데이터를 수집하고 처리합니다.
    코스 형식
    • 대화 형 강의 및 토론.
    • 많은 연습과 연습.
    • 라이브 랩 환경에서 실제 구현.
    코스 사용자 정의 옵션
    • 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오.
    14 시간
    Apache Samza는 스트림 프로세싱을위한 오픈 소스 거의 실시간의 비동기 계산 프레임 워크입니다. 메시징에는 Apache Kafka 를, 내결함성, 프로세서 격리, 보안 및 리소스 관리에는 Apache Hadoop YARN을 사용합니다. 강사가 진행하는이 실습에서는 메시징 시스템 및 분산 스트림 처리의 기본 원리를 소개하고 샘플 Samza 기반 프로젝트 작성 및 작업 실행을 통해 참가자를 안내합니다. 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.
    • Samza를 사용하면 메시지를 생성하고 소비하는 데 필요한 코드를 단순화 할 수 있습니다.
    • 응용 프로그램에서 메시지 처리 분리.
    • Samza를 사용하여 실시간에 가까운 비동기 계산을 구현하십시오.
    • 스트림 처리를 사용하여 메시징 시스템에서보다 높은 수준의 추상화를 제공합니다.
    청중
    • 개발자
    과정 형식
    • 파트 강의, 파트 토론, 연습 및 무거운 실무 연습
    14 시간
    Sqoop은 Hadoop 과 관계형 데이터베이스 또는 메인 프레임간에 데이터를 전송하기위한 오픈 소스 소프트웨어 도구입니다. My SQL 또는 Oracle 과 같은 관계형 데이터베이스 관리 시스템 (RDBMS) 또는 메인 프레임에서 HDFS ( Hadoop Distributed File System)로 데이터를 가져 오는 데 사용할 수 있습니다. 그 후에 데이터를 Hadoop MapReduce에서 변환 한 다음 다시 RDBMS로 내보낼 수 있습니다. 이 강사가 진행하는 라이브 교육에서 참가자에 대한 기존의 관계형 데이터베이스에서 데이터를 가져올 Sqoop을 사용하는 방법을 배우게됩니다 Hadoop 저장 등의 HDFS 또는 Hive 반대의 경우도 마찬가지. 이 교육이 끝나면 참가자는 다음을 수행 할 수 있습니다.
    • Sqoop 설치 및 구성
    • My SQL 에서 HDFS 및 Hive 로 데이터 가져 오기
    • HDFS 및 Hive 에서 My SQL 데이터 가져 오기
    청중
    • 시스템 관리자
    • 데이터 엔지니어
    코스의 형식
    • 강의, 강의, 연습 및 실습
    노트
    • 이 과정에 대한 맞춤형 교육을 요청하려면 저희에게 연락하여 준비하십시오.
    14 시간
    Tigon은 HDFS 및 HBase를 기반으로 지속성을 위해 실시간, 저음역, 고화질, 원시 YARN, 스트림 처리 프레임 워크 인 오픈 소스입니다 Tigon 응용 프로그램은 네트워크 침입 탐지 및 분석, 소셜 미디어 시장 분석, 위치 분석 및 사용자에게 실시간 추천과 같은 사용 사례를 다룹니다 이 강사진 라이브 교육에서는 샘플 응용 프로그램 작성을 통해 참가자를 안내하면서 실시간 및 일괄 처리 혼합에 대한 Tigon의 접근 방식을 소개합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 대용량 데이터를 처리하기위한 강력한 스트림 처리 응용 프로그램 작성 트위터 및 웹 서버 로그와 같은 스트림 소스 처리 신속한 합류, 필터링 및 스트림 집계에 Tigon 사용 청중 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
    21 시간
    Cloudera Impala는 Apache Hadoop 클러스터용 오픈 소스 MPP(대량 병렬 처리)SQL 쿼리 엔진입니다.Impala는 사용자가 데이터를 이동하거나 변환할 필요 없이 Hadoop 분산 파일 시스템 및 Apache Hbase에 저장된 데이터에 대해 지연 시간이 짧은SQL 쿼리를 실행할 수 있도록 합니다.청중이 과정은 비즈니스 인텔리전스 또는 SQL 도구를 통해 Hadoop에 저장된 데이터에 대한 분석을 수행하는 분석가 및 데이터 과학자를 대상으로 합니다.이 과정이 끝나면 대표단은 다음을 수행할 수 있습니다.
      Impala를 사용하여 Hadoop 클러스터에서 의미 있는 정보를 추출합니다. ImpalaSQL Dialect에서 비즈니스 인텔리전스를 용이하게 하는 특정 프로그램을 작성합니다. 임팔라 문제 해결.
    21 시간
    Apache Ambari 는 Apache Hadoop 클러스터의 프로비저닝, 관리, 모니터링 및 보안을위한 오픈 소스 관리 플랫폼입니다. 강사가 진행하는이 실습 교육 참가자는 Ambado가 Hadoop 클러스터를 성공적으로 관리하기 위해 제공하는 관리 도구 및 사례를 학습합니다. 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.
    • Ambari를 사용하여 라이브 Big Data 클러스터 설정
    • 다양한 사용 사례에 Ambari의 고급 기능 및 기능 적용
    • 필요에 따라 노드 추가 및 제거
    • 튜닝 및 조정을 통해 Hadoop 클러스터의 성능 향상
    청중
    • DevOps
    • 시스템 관리자
    • DBA
    • Hadoop 테스트 전문가
    과정 형식
    • 파트 강의, 파트 토론, 연습 및 무거운 실무 연습
    21 시간
    Hortonworks Data Platform (HDP) 은 오픈 소스 Apache Hadoop 지원 플랫폼으로 Apache Hadoop 에코 시스템에서 큰 데이터 솔루션을 개발하기위한 안정적인 토대를 제공합니다. 이 강사가 진행하는 실시간 교육 (현장 또는 원격)은 Hortonworks Data Platform (HDP) 소개하고 Spark + Hadoop 솔루션의 배포를 통해 참가자들을 안내합니다. 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다.
    • Hortonworks를 사용하면 대규모로 Hadoop 을 안정적으로 실행할 수 있습니다.
    • Spark의 민첩한 분석 워크 플로우로 Hadoop 의 보안, 거버넌스 및 운영 기능을 통합하십시오.
    • Hortonworks를 사용하여 Spark 프로젝트의 각 구성 요소를 조사, 검증, 인증 및 지원하십시오.
    • 구조화 된, 구조화되지 않은, 동작중인, at-rest 등 다양한 유형의 데이터를 처리합니다.
    코스 형식
    • 대화 형 강의 및 토론.
    • 많은 연습과 연습.
    • 라이브 랩 환경에서 실제 구현.
    코스 사용자 정의 옵션
    • 이 과정에 대한 맞춤 교육을 요청하려면 Google에 문의하여 준비하십시오.

    Last Updated:

    주말Apache Hadoop코스, 밤의Apache Hadoop트레이닝, Apache Hadoop부트 캠프, Apache Hadoop 강사가 가르치는, 주말Hadoop교육, 밤의Hadoop과정, Apache Hadoop코칭, Apache Hadoop강사, Apache Hadoop트레이너, Hadoop교육 과정, Hadoop클래스, Hadoop현장, Hadoop개인 강좌, Apache Hadoop1 대 1 교육

    코스 프로모션

    No course discounts for now.

    Course Discounts Newsletter

    We respect the privacy of your email address. We will not pass on or sell your address to others.
    You can always change your preferences or unsubscribe completely.

    고객 회사

    is growing fast!

    We are looking to expand our presence in South Korea!

    As a Business Development Manager you will:

    • expand business in South Korea
    • recruit local talent (sales, agents, trainers, consultants)
    • recruit local trainers and consultants

    We offer:

    • Artificial Intelligence and Big Data systems to support your local operation
    • high-tech automation
    • continuously upgraded course catalogue and content
    • good fun in international team

    If you are interested in running a high-tech, high-quality training and consulting business.

    Apply now!

    This site in other countries/regions