빅 데이터 교육 | Big Data 교육

빅 데이터 교육

현지의 강사 라이브 빅 데이터 교육 과정은 빅 데이터의 기본 개념에 대한 소개부터 시작하여 데이터 분석을 수행하는 데 사용되는 프로그래밍 언어 및 방법론으로 진행됩니다 빅 데이터 저장소, 분산 처리 및 확장 성을 구현하기위한 도구와 인프라는 데모 연습 세션에서 논의되고 비교 및 ​​구현됩니다 Big Data 교육은 "현장 실습"또는 "원격 실습"으로 제공됩니다 현장 실습은 고객 구내에서 현지에서 실시 할 수 있습니다 대한민국 또는 NobleProg 기업 교육 센터에서 대한민국 원격 라이브 교육은 대화 형 원격 데스크톱을 통해 수행됩니다 NobleProg 지역 교육 제공자.

Machine Translated

회원 평가

★★★★★
★★★★★

빅 데이터코스 개요

코스 이름
Duration
Overview
코스 이름
Duration
Overview
21 시간
Python 데이터 과학 및 기계 학습을위한 규모, 유연하고 널리 사용되는 프로그래밍 언어입니다. Spark는 대형 데이터를 검색, 분석 및 변환하는 데 사용되는 데이터 처리 엔진이지만 Hadoop는 대형 데이터 저장 및 처리에 대한 소프트웨어 라이브러리 프레임 워크입니다.

이 강사가 이끄는 라이브 훈련 (온라인 또는 온라인)은 Spark, Hadoop 및 Python를 사용하고 통합하여, 분석하고, 대규모 및 복잡한 데이터 세트를 변환하고자하는 개발자를 대상으로합니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 :

Spark, Hadoop, 및 Python을 사용하여 대형 데이터 처리를 시작하는 데 필요한 환경을 설정합니다. Spark의 특징, 핵심 구성 요소 및 아키텍처를 이해하고 Hadoop. Spark, Hadoop 및 Python을 대형 데이터 처리에 통합하는 방법을 배우십시오. Spark 생태계 (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka 및 Flume)의 도구를 탐험하십시오. Netflix, YouTube, Amazon, Spotify 및 Google와 유사한 공동 필터링 권장 시스템을 구축합니다. Apache Mahout를 사용하여 기계 학습 알고리즘을 확장합니다.

코스의 형식

인터랙티브 강의 및 토론 많은 연습과 연습이 있습니다. 라이브 실험실 환경에서 핸드-온 구현.

코스 Customization 옵션

이 과정에 대한 사용자 지정 훈련을 요청하려면 저희에게 연락하여 배치하십시오.
14 시간
Waikato Environment for Knowledge Analysis(Weka)는 오픈소스 데이터 광산 시각화 소프트웨어입니다. 그것은 데이터 준비, 분류, 분류 및 기타 데이터 광산 활동을위한 기계 학습 알고리즘의 컬렉션을 제공합니다.

이 강사가 이끄는 라이브 훈련 (온라인 또는 온라인)은 데이터 분석가와 데이터 과학자를 대상으로 데이터 광산 작업을 수행하기 위해 Weka를 사용하고자합니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 :

설치 및 설정 Weka Weka 환경과 작업 벤치를 이해하십시오. 데이터 광산 작업을 사용하여 수행 Weka.

코스의 형식

인터랙티브 강의 및 토론 많은 연습과 연습이 있습니다. 라이브 실험실 환경에서 핸드-온 구현.

코스 Customization 옵션

이 과정에 대한 사용자 지정 훈련을 요청하려면 저희에게 연락하여 배치하십시오.
14 시간
IBM SPSS Modeler는 데이터 광산 및 텍스트 분석에 사용되는 소프트웨어입니다. 그것은 예측 모델을 구축하고 데이터 분석 작업을 수행 할 수있는 데이터 광산 도구의 집합을 제공합니다.

이 강사가 이끄는 라이브 훈련 (온라인 또는 온라인)은 데이터 분석가 또는 데이터 광산 활동을 수행하기 위해 SPSS Modeler 사용하고자하는 사람들을 대상으로합니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 :

데이터 광산의 기초를 이해합니다. 모델러와 함께 데이터 품질을 가져오고 평가하는 방법을 배우십시오. 데이터 모델을 효율적으로 개발, 실행 및 평가합니다.

코스의 형식

인터랙티브 강의 및 토론 많은 연습과 연습이 있습니다. 라이브 실험실 환경에서 핸드-온 구현.

코스 Customization 옵션

이 과정에 대한 사용자 지정 훈련을 요청하려면 저희에게 연락하여 배치하십시오.
35 시간
이 강사가 이끄는 라이브 훈련을 완료하는 참가자는 Big Data 및 관련 기술, 방법론 및 도구에 대한 실용적이고 현실적인 이해를 얻을 것입니다.

참가자들은 실제 연습을 통해 이러한 지식을 실천할 수있는 기회를 갖게 될 것입니다. 그룹 상호 작용과 강사의 반응은 클래스의 중요한 구성 요소입니다.

이 과정은 [0의 기본 개념에 대한 소개로 시작되며, 그 다음에 실행하는 데 사용되는 프로그래밍 언어와 방법론으로 진행됩니다 Data Analysis. 마지막으로, 우리는 Big Data 저장, 분산 처리 및 Scala 용량을 가능하게하는 도구와 인프라에 대해 논의합니다.

코스의 형식

부분 강의, 부분 토론, 실습 및 구현, 진행을 측정하기 위해 때때로 퀴즈.
21 시간
In this instructor-led, live training in 대한민국, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises.

By the end of this training, participants will be able to:

- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
7 시간
이 과정은 사용하는 방법에 대해 설명 Hive SQL 언어를 (일명 : Hive HQL, SQL 에 Hive , Hive QL)에서 데이터를 추출하는 사람들을위한 Hive
21 시간
KDD(Knowledge Discovery in Databases)는 데이터 수집에서 유용한 지식을 발견하는 과정이다. 이 데이터 광산 기술에 대한 실제 응용 프로그램은 마케팅, 사기 탐지, 통신 및 제조를 포함합니다.

이 강사가 이끄는 라이브 코스에서 우리는 KDD에 관련된 프로세스를 소개하고 이러한 프로세스의 구현을 실천하기 위해 수많은 연습을 수행합니다.

관객

데이터 분석가 또는 문제를 해결하기 위해 데이터를 해석하는 방법에 관심이있는 사람

코스의 형식

KDD에 대한 이론적 토론 후, 강사는 문제를 해결하기 위해 KDD의 적용을 요구하는 실제 사례를 소개합니다. 참가자들은 샘플 데이터 세트를 준비, 선택 및 청소하고 데이터에 대한 이전 지식을 사용하여 관찰 결과를 바탕으로 해결책을 제안합니다.
14 시간
Apache Kylin 대형 데이터를위한 극단적이고 분산 된 분석 엔진입니다.

이 강사가 이끄는 라이브 훈련에서 참가자들은 실시간 데이터 저장소를 설치하기 위해 Apache Kylin를 사용하는 방법을 배울 것입니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 :

Kylin을 사용하여 실시간 스트리밍 데이터를 소비 사용 Apache Kylin's 강력한 기능, 풍부한 SQL 인터페이스, 스파크 큐브 및 후속 쿼리 유연성

노트

우리는 Kylin의 최신 버전을 사용합니다 (이 글에 따라, Apache Kylin v2.0)

관객

Big Data 엔지니어 [중고] 분석가

코스의 형식

부분 강의, 부분 토론, 연습 및 무거운 연습
14 시간
Datameer는 Hadoop을 기반으로하는 비즈니스 인텔리전스 및 분석 플랫폼입니다 최종 사용자는 대규모, 구조화, 반 구조화 및 비정형 데이터를 쉽고 간편하게 액세스, 탐색 및 상호 연관시킬 수 있습니다 강사진이 진행되는이 강의에서는 참가자가 일련의 큰 데이터 소스를 설정하고 분석 할 때 Hadoop의 가파른 학습 곡선을 극복하기 위해 Datameer를 사용하는 방법을 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 엔터프라이즈 데이터 레이크를 만들고, 큐레이팅하고, 대화식으로 탐색합니다 비즈니스 인텔리전스 데이터웨어 하우스, 트랜잭션 데이터베이스 및 기타 분석 저장소에 액세스합니다 스프레드 시트 사용자 인터페이스를 사용하여 엔드 포인트 데이터 처리 파이프 라인 설계 미리 작성된 함수에 액세스하여 복잡한 데이터 관계 탐색 드래그 앤 드롭 마법사를 사용하여 데이터를 시각화하고 대시 보드 만들기 표, 차트, 그래프 및지도를 사용하여 쿼리 결과 분석 청중 데이터 분석가 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
14 시간
데이터 마이닝은 머신 러닝과 같은 데이터 과학 방법으로 빅 데이터의 패턴을 식별하는 프로세스입니다. Excel 을 데이터 분석 제품군으로 사용하면 데이터 마이닝 및 분석을 수행 할 수 있습니다.

이 강사 주도의 실시간 교육 (현장 또는 원격)은 데이터 마이닝에 Excel 을 사용하려는 데이터 과학자를 대상으로합니다.

이 교육이 끝나면 참가자는 다음을 수행 할 수 있습니다.

- Excel 로 데이터를 탐색하여 데이터 마이닝 및 분석을 수행하십시오.
- 데이터 마이닝에 Microsoft 알고리즘을 사용하십시오.
- Excel 데이터 마이닝의 개념을 이해하십시오.

코스의 형식

- 대화식 강의 및 토론.
- 많은 연습과 연습.
- 라이브 랩 환경에서 실습 구현.

코스 사용자 정의 옵션

- 이 과정에 대한 맞춤형 교육을 요청하려면 저희에게 연락하여 준비하십시오.
21 시간
Dremio 오픈소스 "자신 서비스 데이터 플랫폼" 다른 유형의 데이터 소스에 대한 검색을 가속화합니다. Dremio 관계 데이터베이스, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch, 그리고 다른 데이터 출처와 통합. 그것은 SQL을 지원하고 건설 요청을위한 웹 UI를 제공합니다.

이 강사가 이끄는 라이브 훈련에서 참가자들은 데이터 분석 도구와 기본 데이터 저장소를 통합하는 레이어로 설치, 구성 및 사용하는 방법을 배울 것입니다.

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 :

설치 및 설정 Dremio 위치, 크기 또는 구조에 관계없이 여러 데이터 소스에 대한 요청을 수행합니다. Dremio BI와 데이터 출처를 통합하여 Tableau 및 Elasticsearch

관객

데이터 과학자 Business 분석가 데이터 엔지니어

코스의 형식

부분 강의, 부분 토론, 연습 및 무거운 연습

노트

이 과정에 대한 사용자 지정 훈련을 요청하려면 저희에게 연락하여 배치하십시오.
14 시간
이 과정의 목표는 참가자가 중급 수준의 데이터 추출을 위해 Oracle 데이터베이스에서 SQL 언어로 작업하는 방법을 익힐 수있게하는 것입니다.
21 시간
Apache Drill은 Hadoop, NoSQL 및 기타 Cloud 및 파일 저장 시스템을위한 스키마가 있고 분산 된 inmemory columnar SQL 쿼리 엔진입니다 Apache Drill의 강점은 단일 쿼리를 사용하여 여러 데이터 저장소의 데이터를 조인 할 수 있다는 점입니다 Apache Drill은 HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob 저장소, Google Cloud Storage, Swift, NAS 및 로컬 파일을 포함하여 수많은 NoSQL 데이터베이스 및 파일 시스템을 지원합니다 Apache Drill은 Google BigQuery라는 인프라 서비스로 사용할 수있는 Google의 Dremel 시스템의 오픈 소스 버전입니다 강사진이 진행하는이 강의에서는 참가자가 Apache Drill의 기초를 배우고 SQL의 기능과 편리 성을 활용하여 코드를 작성하지 않고 여러 데이터 소스에서 대용량 데이터를 대화식으로 쿼리합니다 참가자는 분산 SQL 실행을 위해 드릴 쿼리를 최적화하는 방법도 배웁니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Hadoop에서 구조화 된 데이터와 반 구조화 된 데이터에 대한 "셀프 서비스"탐색 수행 SQL 쿼리를 사용하여 알 수없는 데이터뿐 아니라 알려진 쿼리 Apache Drill이 쿼리를 받고 실행하는 방법 이해 Hive의 구조화 된 데이터, HBase 또는 MapRDB 테이블의 반 구조화 된 데이터 및 Parquet 및 JSON과 같은 파일에 저장된 데이터를 포함하여 다양한 유형의 데이터를 분석하는 SQL 쿼리를 작성하십시오 Apache Drill을 사용하여 복잡한 ETL 및 스키마 작업의 필요성을 피하면서 빠른 스키마 검색을 수행하십시오 Apache Drill과 Tableau, Qlikview, MicroStrategy 및 Excel과 같은 BI (Business Intelligence) 도구 통합 청중 데이터 분석가 데이터 과학자 SQL 프로그래머 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
14 시간
Apache Arrow 는 오픈 소스 인 메모리 데이터 처리 프레임 워크입니다. 분석을 위해 개별 데이터 저장소에 액세스하기 위해 다른 데이터 과학 도구와 함께 사용되는 경우가 많습니다. GPU 데이터베이스, 머신 러닝 라이브러리 및 도구, 실행 엔진 및 데이터 시각화 프레임 워크와 같은 다른 기술과 잘 통합됩니다.

이 현장 강사 주도형 라이브 교육에서 참가자는 다양한 Data Science 프레임 워크와 Apache Arrow 를 통합하여 개별 데이터 소스의 데이터에 액세스하는 방법을 배우게됩니다.

이 교육이 끝나면 참가자는 다음을 수행 할 수 있습니다.

- 분산 클러스터 환경에서 Apache Arrow 설치 및 구성
- Apache Arrow 를 사용하여 이종 데이터 소스의 데이터에 액세스
- Apache Arrow 를 사용하여 복잡한 ETL 파이프 라인 구성 및 유지 관리 필요성을 우회
- 중앙 집중식 리포지토리로 통합하지 않고도 이기종 데이터 소스에서 데이터 분석

청중

- 데이터 과학자
- 데이터 엔지니어

코스의 형식

- 강의, 강의, 연습 및 실습

노트

- 이 과정에 대한 맞춤형 교육을 요청하려면 저희에게 연락하여 준비하십시오.
35 시간
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information.

High-value government solutions will be created from a mashup of the most disruptive technologies:

- Mobile devices and applications
- Cloud services
- Social business technologies and networking
- Big Data and analytics

IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured.

But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog.

The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it.

The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge.

Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.).

Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
21 시간
청중

액세스 권한이있는 데이터를 이해하려고하거나 Twitter, Linked in 등의 인터넷에서 사용할 수있는 구조화되지 않은 데이터를 분석하려는 경우이 과정은 사용자를위한 것입니다.

대부분의 의사 결정자와 수집 할 가치가있는 데이터와 분석 할 가치가있는 데이터를 선택해야하는 사람들을 대상으로합니다.

솔루션을 구성하는 사람들을 대상으로하는 것이 아니기 때문에 사람들은 큰 그림의 이점을 누릴 수 있습니다.

배달 모드

과정 중에 대표자는 주로 오픈 소스 기술의 실례를 제시합니다.

단기 강연은 참가자의 발표와 간단한 연습으로 이어진다.

사용 된 컨텐츠 및 소프트웨어

사용 된 모든 소프트웨어는 코스가 실행될 때마다 업데이트되므로 가능한 최신 버전을 확인합니다.

여기에는 데이터 획득, 형식 지정, 처리 및 분석, 기계 학습을 통한 의사 결정 프로세스 자동화 방법을 설명하는 프로세스가 포함됩니다.
35 시간
1 일차 - 필수 Big Data 토픽 영역에 대한 개요를 제공합니다. 모듈은 일련의 섹션으로 나누어 져 있으며 각 섹션에는 실습이 수반됩니다.

2 일차 - Big Data 환경에 대한 분석 관행 및 도구와 관련된 다양한 주제를 탐구합니다. 구현 또는 프로그래밍 세부 사항에 포함되지는 않지만 참여자가 Big Data 솔루션에서 제공하는 일반적인 분석 기능 및 기능에 대한 포괄적 인 이해를 개발할 수 있도록하는 주제에 중점을두고 개념 수준의 범위를 유지합니다.

Day 3 - Big Data 솔루션 플랫폼 아키텍처와 관련된 기본적이고 필수적인 주제 영역의 개요를 제공합니다. Big Data 솔루션 플랫폼 개발에 필요한 Big Data 메커니즘과 데이터 처리 플랫폼을 구축하기위한 아키텍처 옵션을 다룹니다. Big Data 솔루션 플랫폼이 일반적으로 어떻게 사용되는지에 대한 기본적인 이해를 제공하기 위해 일반적인 시나리오도 제시됩니다.

4 일째 - Big Data 솔루션 플랫폼 아키텍처와 관련된 고급 주제를 탐구하여 3 일차에 구축됩니다. 특히 데이터 소스, 데이터 입력, 데이터 저장, 데이터 처리 및 보안을 비롯하여 Big Data 솔루션 플랫폼을 구성하는 다양한 아키텍처 계층을 소개하고 논의합니다.

5 일차 - 주제와 3 일과 4 일 주제에 대한 지식을 적용 할 수있는 대표자 능력을 시험하기 위해 고안된 여러 가지 연습 문제.
21 시간
Big Data 는 대규모 데이터 세트를 저장하고 처리하기위한 솔루션을 의미하는 용어입니다. 처음에 Go ogle에 의해 개발 된이 Big Data 솔루션은 다른 유사한 프로젝트를 진화시키고 영감을주었습니다. 그 중 많은 프로젝트가 오픈 소스로 제공됩니다. R은 금융 산업에서 널리 사용되는 프로그래밍 언어입니다.
14 시간
기존의 스토리지 기술이 저장해야하는 데이터 양을 처리하지 못하면 대체 솔루션이 필요합니다. 이 과정은 Big Data 를 저장하고 분석하기위한 대안이 무엇인지, 그리고 그들의 장점과 단점이 무엇인지 참가자들에게 안내하려고합니다.

이 과정은 대부분 솔루션 논의 및 발표에 중점을두고 있지만 실습은 필요에 따라 제공됩니다.
14 시간
과정은 데이터 과학자 스킬 세트 (Domain : Data and Technology)의 일부입니다.
35 시간
빅 데이터는 너무 방대하고 복잡한 데이터 세트로 전통적인 데이터 처리 응용 프로그램 소프트웨어가 처리하기에 부적합합니다. 큰 데이터 문제로는 데이터 캡처, 데이터 저장, 데이터 분석, 검색, 공유, 전송, 시각화, 쿼리, 업데이트 및 정보 프라이버시가 있습니다.
14 시간
Vespa는 야후가 만든 오픈 소스의 대용량 데이터 처리 및 검색 엔진입니다 사용자 쿼리에 응답하고, 권장 사항을 작성하고, 개인화 된 컨텐트 및 광고를 실시간으로 제공하는 데 사용됩니다 이 강사진 라이브 교육은 대형 데이터를 제공하는 데 따른 어려움을 소개하고 실시간으로 대용량 데이터 세트를 통해 사용자 요청에 대한 응답을 계산할 수있는 응용 프로그램을 작성하여 참가자들을 안내합니다 이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 Vespa를 사용하여 사용자가 대기하는 동안 제공 시간에 데이터를 신속하게 계산 (저장, 검색, 순위 지정, 구성) 기능 검색, 권장 사항 및 개인화와 관련된 기존 응용 프로그램에 Vespa 구현 Vespa를 Hadoop 및 Storm과 같은 기존의 대형 데이터 시스템과 통합 및 배치하십시오 청중 개발자 코스 형식 파트 강의, 파트 토론, 연습 및 무거운 핸드 슨 연습 .
14 시간
규제 당국의 컴플라이언스를 충족시키기 위해 CSP ( Communication 서비스 제공 업체)는 빅 데이터 애널리틱스를 활용하여 컴플라이언스를 충족시킬 수있을뿐만 아니라 동일한 프로젝트의 범위 내에서 고객 만족도를 높이고 해지율을 줄일 수 있습니다. 실제로 컴플라이언스는 계약서에 묶여있는 서비스 품질과 관련되어 있으므로 컴플라이언스를 충족시키기위한 모든 계획은 CSP의 "경쟁력"을 향상시킵니다. 따라서 규제 당국과 CSP간에 상호 이익이 될 수있는 CSP에 대한 Big Data 분석 사례 집합을 규제 기관이 조언 / 안내 할 수 있어야합니다.

코스는 8 개의 모듈로 이루어져 있습니다 (1 일에 4, 2 일에 4)
35 시간
기술의 발전과 증가하는 정보의 양은 법 집행이 수행되는 방식을 변화시키고 있습니다. 과제 Big Data 포즈는 거의 어려운 있습니다 Big Data 의 약속. 데이터를 효율적으로 저장하는 것은 이러한 과제 중 하나입니다. 효과적으로 분석하는 것도 또 다른 방법입니다.

이 강사 주도형 라이브 교육에서 참가자는 Big Data 기술에 접근하고 기존 프로세스 및 정책에 미치는 영향을 평가하고 범죄 활동을 식별하고 범죄를 예방할 목적으로 이러한 기술을 구현할 수있는 사고 방식을 배우게됩니다. 전 세계의 법 집행 기관의 사례 연구를 살펴보고 채택 방식, 과제 및 결과에 대한 통찰력을 얻습니다.

이 교육이 끝나면 참가자는 다음을 수행 할 수 있습니다.

- Big Data 기술과 기존 데이터 수집 프로세스를 결합하여 조사 중 스토리를 구성합니다.
- 데이터 분석을위한 산업용 빅 데이터 스토리지 및 처리 솔루션 구현
- 범죄 조사에 대한 데이터 중심 접근 방식을 가능하게하는 가장 적절한 도구 및 프로세스 채택을위한 제안서 준비

청중

- 기술적 배경이있는 법 집행 전문가

과정의 형식

- 강의, 강의, 연습 및 실습
14 시간
이 교실 기반 교육 세션은 Big Data 를 탐색합니다. 대표자는 컴퓨터 기반 사례 및 사례 연구를 수행하여 관련 대형 데이터 도구를 수행합니다.
14 시간
목표 :이 교육 과정은 Big Data 가 우리의 삶을 변화시키는 이유와 기업이 우리를 소비자로 보는 방식을 어떻게 바꾸는지를 참석자가 이해하도록 돕는 것을 목표로합니다. 실제로 기업에서 큰 데이터를 사용하는 사용자는 큰 데이터가 풍부한 정보와 통찰력을 발휘하여 더 높은 수익, 비용 절감, 위험 감소로 이어집니다. 그러나 개별 기술에 지나치게 중점을두고 큰 데이터 관리의 기둥에 초점을 맞추지 않으면 좌절감이 생길 수 있습니다.

참석자는이 과정에서 데이터 통합, 데이터 거버넌스 및 데이터 보안의 세 가지 기둥을 사용하여 대용량 데이터를 실제 비즈니스 가치로 전환하는 방법을 배웁니다. 고객 관리 사례 연구를 통해 수행 된 여러 가지 운동은 참석자가 기본 프로세스를 더 잘 이해할 수 있도록 도와줍니다.
7 시간
This instructor-led, live training in 대한민국 (online or onsite) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data.

By the end of this training, participants will:

- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.
7 시간
아파치 Sqoop 관계형 데이터베이스및 Hadoop데이터를 이동하기위한 명령줄 인터페이스입니다. Apache Flume 빅 데이터 관리를 위한 분산 소프트웨어입니다. Sqoop 및 수로를 사용하여 사용자는 시스템 간에 데이터를 전송하고 Hadoop같은 스토리지 아키텍처로 빅 데이터를 가져올 수 있습니다.

이 강사가 주도하는 라이브 교육(현장 또는 원격)은 시스템 간에 데이터를 전송하기 위해 Sqoop 및 수로를 사용하려는 소프트웨어 엔지니어를 대상으로 합니다.

이 교육이 끝나면 참가자들은 다음을 수행할 수 있습니다.

- Sqoop 및 수로로 빅 데이터를 수집합니다.
- 여러 데이터 원본에서 데이터를 수집합니다.
- 관계형 데이터베이스에서 HDFS및 Hive.
- HDFS에서 관계형 데이터베이스로 데이터를 내보냅니다.

코스 의 형식

- 대화형 강의 및 토론.
- 연습과 연습을 많이.
- 라이브 랩 환경에서 실습 구현.

코스 사용자 지정 옵션

- 이 과정에 대한 맞춤형 교육을 요청하려면 당사에 연락하여 예약하십시오.
28 시간
Talend Open Studio for Big Data는 큰 데이터를 처리하기위한 오픈 소스 ETL 도구입니다. 그것은 Big Data 출처와 목표와 상호 작용하는 개발 환경을 포함하고 코드를 쓰지 않고 작업을 수행합니다.

이 강사가 이끄는 라이브 훈련 (온라인 또는 현장)은 Big Data을 위해 [Open Studio]를 배치하고자하는 기술자를 대상으로 읽기 및 읽기 과정을 단순화하기 위해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 Big Data를 통해 [0

이 훈련이 끝나면 참가자는 다음을 할 수 있습니다 :

설치 및 설정 Talend Open Studio for Big Data. Cloudera, HortonWorks, MapR, Amazon EMR 및 Apache와 같은 Big Data 시스템에 연결합니다. 이해하고 Open Studio의 대형 데이터 구성 요소 및 커넥터를 설정합니다. 파라미터를 설정하여 MapReduce 코드를 자동으로 생성합니다. Open Studio's drag-and-drop 인터페이스를 사용하여 Hadoop 작업을 실행합니다. 프로토 타입 대형 데이터 파이프 대형 데이터 통합 프로젝트를 자동화합니다.

코스의 형식

인터랙티브 강의 및 토론 많은 연습과 연습이 있습니다. 라이브 실험실 환경에서 핸드-온 구현.

코스 Customization 옵션

이 과정에 대한 사용자 지정 훈련을 요청하려면 저희에게 연락하여 배치하십시오.
21 시간
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment

Course goal:

Getting knowledge regarding Hadoop cluster administration

Last Updated:

향후빅 데이터 코스

주말빅 데이터코스, 밤의빅 데이터트레이닝, 빅 데이터부트 캠프, 빅 데이터 강사가 가르치는, 주말빅 데이터교육, 밤의빅 데이터과정, 빅 데이터코칭, 빅 데이터강사, 빅 데이터트레이너, 빅 데이터교육 과정, 빅 데이터클래스, 빅 데이터현장, 빅 데이터개인 강좌, 빅 데이터1 대 1 교육주말Big Data코스, 밤의Big Data트레이닝, Big Data부트 캠프, Big Data 강사가 가르치는, 주말Big Data교육, 밤의Big Data과정, Big Data코칭, Big Data강사, Big Data트레이너, Big Data교육 과정, Big Data클래스, Big Data현장, Big Data개인 강좌, Big Data1 대 1 교육

코스 프로모션

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

고객 회사

is growing fast!

We are looking to expand our presence in South Korea!

As a Business Development Manager you will:

  • expand business in South Korea
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

This site in other countries/regions