스트림 처리 실무 입문 교육 과정
- Spark Streaming과 Kafka Streaming과 같은 다양한 스트림 프로세싱 프레임워크를 설치하고 구성할 수 있습니다.
- 가장 적합한 프레임워크를 이해하고 선택할 수 있습니다.
- 데이터를 연속적으로, 동시적으로, 그리고 레코드별로 처리할 수 있습니다.
- 스트림 프로세싱 솔루션을 기존의 데이터베이스, 데이터 웨어하우스, 데이터 레이크 등과 통합할 수 있습니다.
- 기업 애플리케이션과 마이크로서비스에 가장 적합한 스트림 프로세싱 라이브러리를 통합할 수 있습니다.
- 개발자
- 소프트웨어 아키텍트
- 강의, 토론, 연습 및 많은 실습
- 이 강의를 위한 맞춤형 교육을 요청하려면 연락주세요.
코스 개요
소개
- 스트림 처리 vs 배치 처리
- 분석 중심의 스트림 처리
프레임워크 및 프로그래밍 언어 개요
- Spark Streaming (Scala)
- Kafka Streaming (Java)
- Flink
- Storm
- 각 프레임워크의 기능 및 강점 비교
데이터 소스 개요
- 시간을 따라 이어진 일련의 사건으로 나타나는 실시간 데이터
- 역사적 데이터 소스
배포 옵션
- 클라우드(AWS 등)
- 온프레미스(프라이빗 클라우드 등)
시작하기
- 개발 환경 설정
- 설치 및 구성
- 데이터 분석 요구사항 평가
스트림 처리 프레임워크 운영
- 스트림 처리 프레임워크와 빅데이터 도구 통합
- 이벤트 스트림 처리(ESP) vs 복합 이벤트 처리(CEP)
- 입력 데이터 변환
- 출력 데이터 검사
- 스트림 처리 프레임워크를 기존 애플리케이션 및 마이크로서비스와 통합
문제 해결
요약 및 결론
요건
- 어떤 언어의 프로그래밍 경험
- Big Data 개념 (Hadoop 등)에 대한 이해
오픈 트레이닝 코스는 5명 이상의 참가자가 필요합니다.
스트림 처리 실무 입문 교육 과정 - 예약
스트림 처리 실무 입문 교육 과정 - 문의
스트림 처리 실무 입문 - 컨설팅 문의
컨설팅 문의
회원 평가 (1)
Sufficient hands on, trainer is knowledgable
Chris Tan
코스 - A Practical Introduction to Stream Processing
예정된 코스
관련 코스
Apache Kafka Connect
7 시간이 강사 주도의 실시간 교육(대한민국 온라인 또는 현장)은 기존 데이터베이스 및 애플리케이션과 Apache Kafka를 통합하여 처리, 분석 등을 수행하고자 하는 개발자를 대상으로 합니다.
본 교육이 끝나면 참가자는 다음과 같은 능력을 갖추게 됩니다:
- Kafka Connect를 사용하여 데이터베이스에서 Kafka 토픽으로 대량의 데이터를 수집합니다.
- 애플리케이션 서버에서 생성된 로그 데이터를 Kafka 토픽으로 수집합니다.
- 모든 수집된 데이터를 스트림 처리에 사용할 수 있도록 합니다.
- Kafka 토픽에서 데이터를 내보내 이차 시스템에서 저장 및 분석을 수행합니다.
Confluent을 사용한 Kafka 솔루션 구축
14 시간이 강사 주도의 실시간 교육(온라인 또는 현장)은 Kafka 배포 버전인 Confluent을 사용하여 애플리케이션용 실시간 데이터 처리 플랫폼을 구축하고 관리하는 방법을 배우고자 하는 엔지니어들을 대상으로 합니다.
본 교육을 마친 후 참가자들은 다음과 같은 능력을 갖추게 됩니다:
- Confluent Platform을 설치하고 구성합니다.
- Confluent의 관리 도구 및 서비스를 사용하여 Kafka를 더욱 쉽게 실행합니다.
- 입력되는 스트림 데이터를 저장하고 처리합니다.
- Kafka 클러스터를 최적화하고 관리합니다.
- 데이터 스트림을 보안합니다.
교육 형식
- 대화형 강의 및 토론.
- 많은 실습과 연습.
- 실시간 실험 환경에서 직접 구현합니다.
교육 커스터마이징 옵션
- 본 교육은 오픈 소스 버전의 Confluent: Confluent Open Source를 기반으로 합니다.
- 본 교육을 맞춤형으로 요청하려면 연락주시기 바랍니다.
Apache Kafka를 사용한 데이터 파이프라인 구축
7 시간Apache Kafka는 분산 스트리밍 플랫폼입니다. 이 플랫폼은 데이터 파이프라인 구축의 사실상 표준으로 자리잡았으며, 다양한 데이터 처리 요구사항을 해결할 수 있습니다. 메시지 큐, 분산 로그, 스트림 프로세서 등으로 활용될 수 있습니다.
우리는 먼저 일반적인 데이터 파이프라인 이론부터 시작하여 Kafka의 기본 개념에 대해 알아볼 것입니다. 또한 Kafka Streams와 Kafka Connect와 같은 중요한 구성 요소들을 살펴보게 됩니다.
분산 메시징을 위한 Apache Kafka
14 시간이 과정은 기업 아키텍트, 개발자, 시스템 관리자 및 고속 분산 메시징 시스템을 이해하고 사용하길 원하는 모든 사람들을 대상으로 합니다. 특정 요구 사항(예: 시스템 관리 측면만)이 있는 경우 이 과정은 귀하의 필요에 더 잘 맞게 조정될 수 있습니다.
카프카 관리자
21 시간대한민국에서 진행되는 이 실시간 교육(온라인 또는 현장)은 엔터프라이즈급 Kafka 클러스터를 설정, 배포, 관리 및 최적화하려는 시스템 관리자를 대상으로 합니다.
이 교육이 끝나면 참가자는 다음을 수행할 수 있습니다.
- Kafka 클러스터를 설정하고 관리합니다.
- Kafka를 온프레미스에 배포하는 것과 클라우드에 배포하는 것의 장점과 단점을 평가하세요.
- 다양한 온프레미스 및 클라우드 환경 도구를 사용하여 Kafka를 배포하고 모니터링합니다.
Apache Kafka 개발자를 위한
21 시간이 온라인 또는 현장 교육은 중간 수준의 개발자들이 Apache Kafka를 사용하여 빅 데이터 애플리케이션을 개발하고자 하는 사람들에게 맞춤형으로 제공됩니다.
이 교육을 마친 후 참가자들은 다음과 같은 능력을 갖추게 됩니다:
- Kafka로 데이터를 보내고 읽기 위해 Kafka 프로듀서와 컨슈머를 개발합니다.
- Kafka Connect를 사용하여 Kafka를 외부 시스템과 통합합니다.
- Kafka Streams와 ksqlDB를 사용하여 스트리밍 애플리케이션을 작성합니다.
- Confluent Cloud와 Kafka 클라이언트 애플리케이션을 통합하여 클라우드 기반 Kafka 배포를 합니다.
- 실습 연습과 실세계 사용 사례를 통해 실전 경험을 얻습니다.
Apache Kafka for Python Programmers
7 시간대한민국에서 진행되는 이 실시간 교육(온라인 또는 현장)은 Python을 통해 데이터 스트리밍에서 Apache Kafka 기능을 사용하려는 데이터 엔지니어, 데이터 과학자 및 프로그래머를 대상으로 합니다.
이 교육이 끝나면 참가자는 Apache Kafka을 사용하여 Python 프로그래밍을 사용하여 연속 데이터 스트림의 상태를 모니터링하고 관리할 수 있습니다.
Apache Kafka 보안
7 시간이 강사 주도의 실시간 교육(대한민국 온라인 또는 현장에서)은 Apache Kafka 애플리케이션에 네트워크 보안 조치를 구현하길 원하는 소프트웨어 테스터들을 대상으로 합니다.
이 교육을 마친 후 참가자들은 다음과 같은 능력을 갖추게 됩니다:
- 클라우드 기반 서버에 Apache Kafka를 배포합니다.
- SSL 암호화를 구현하여 공격을 방지합니다.
- ACL 인증을 추가하여 사용자 접근을 추적하고 제어합니다.
- SSL 및 SASL 인증으로 신뢰할 수 있는 클라이언트가 Kafka 클러스터에 접근할 수 있도록 합니다.
Apache Kafka 및 Spring Boot
7 시간대한민국(온라인 또는 현장)에서 진행되는 이 강사 주도 라이브 교육은 Kafka의 기본 사항을 배우고 이를 Spring Boot과 통합하려는 중급 개발자를 대상으로 합니다.
이 교육이 끝나면 참가자는 다음을 수행할 수 있습니다.
- 카프카와 그 아키텍처를 이해합니다.
- 기본적인 카프카 환경을 설치, 구성, 설정하는 방법을 알아보세요.
- Spring Boot와 Kafka를 통합합니다.
스트림 처리를 위한 Kafka Streams
7 시간Kafka Streams는 Kafka 메시징 시스템으로 데이터를 보내고 받는 애플리케이션과 마이크로서비스를 구축하기 위한 클라이언트 측 라이브러리입니다. 전통적으로 Apache Kafka는Apache Spark 또는 Apache Storm을 사용하여 메시지 생성자와 소비자 간의 데이터를 처리해 왔습니다. 애플리케이션 내에서 Kafka Streams API를 호출하면, 별도의 클러스터로 데이터를 보내지 않고 Kafka 내에서 직접 데이터를 처리할 수 있습니다.
이 강사 주도의 실시간 교육에서는 참가자들이 샘플 Java 애플리케이션을 통해 Apache Kafka와 통합된 Kafka Streams를 사용하는 방법을 배우게 됩니다.
이 교육이 끝나면 참가자들은 다음과 같은 능력을 갖추게 될 것입니다:
- Kafka Streams의 특징과 다른 스트림 처리 프레임워크보다 우월한 점을 이해하기
- Kafka 클러스터 내에서 직접 스트림 데이터를 처리하기
- Java 또는 Scala 애플리케이션이나 마이크로서비스를 Kafka 및 Kafka Streams와 통합하는 방법 작성하기
- 입력 Kafka 토픽을 출력 Kafka 토픽으로 변환하는 간결한 코드 작성하기
- 애플리케이션을 빌드, 패키징하고 배포하기
대상자
- 개발자
강의 형식
- 강의와 토론, 연습문제 및 실습을 병행하는 방식
참고사항
- 이 과정에 대한 맞춤형 교육을 요청하시려면 저희에게 문의하여 일정을 조정해 주세요.
Administration of Kafka Topic
14 시간대한민국에서 진행되는 이 실시간 교육(온라인 또는 현장)은 효율적인 데이터 스트리밍 및 처리를 위해 Kafka 주제를 효과적으로 관리하는 방법을 배우고자 하는 초급부터 중급 시스템 관리자를 대상으로 합니다.
이 교육이 끝나면 참가자는 다음을 수행할 수 있습니다.
- Kafka 주제 기본 사항 및 아키텍처를 이해합니다.
- Kafka 주제를 생성, 구성 및 관리합니다.
- 상태, 성능 및 가용성에 대해 Kafka 주제를 모니터링합니다.
- Kafka 주제에 대한 보안 조치를 구현합니다.
SMACK Stack for Data Science
14 시간이 강사 주도형 라이브 교육은 온라인 또는 현장에서 제공되며, 빅데이터 솔루션을 위한 데이터 처리 플랫폼을 구축하기 위해 SMACK 스택을 활용하고자 하는 데이터 과학자들을 대상으로 합니다.
이 교육을 마친 후 참가자들은 다음과 같은 능력을 갖출 것입니다:
- 빅데이터 처리를 위한 데이터 파이프라인 아키텍처를 구현할 수 있습니다.
- Apache Mesos와 Docker를 사용하여 클러스터 인프라를 개발할 수 있습니다.
- Spark와 Scala를 사용하여 데이터를 분석할 수 있습니다.
- Apache Cassandra를 사용하여 비구조화된 데이터를 관리할 수 있습니다.
파이썬과 스파크로 큰 데이터 분석하기 (PySpark)
21 시간이 강사가 진행하는 대한민국 실시간 교육에서 참가자는 실습을 하면서 Python와 Spark를 함께 사용하여 빅 데이터를 분석하는 방법을 배웁니다.
이 교육이 끝나면 참가자는 다음을 수행할 수 있습니다.
- Python와 함께 Spark를 사용하여 Big Data을 분석하는 방법을 알아보세요.
- 실제 사례를 모방한 연습을 해보세요.
- PySpark을 사용하여 빅데이터 분석을 위한 다양한 도구와 기술을 사용합니다.
마이크로서비스 with Spring Cloud와 Kafka
21 시간대한민국에서 진행되는 이 실시간 교육(온라인 또는 현장)은 Spring Cloud, Kafka, Docker, Kubernetes 및 Redis를 사용하여 기존 아키텍처를 동시성 마이크로서비스 기반 아키텍처로 전환하려는 개발자를 대상으로 합니다.
이 교육이 끝나면 참가자는 다음을 수행할 수 있습니다.
- 마이크로서비스 구축에 필요한 개발 환경을 설정합니다.
- Spring Cloud, Kafka, Redis, Docker 및 Kubernetes를 사용하여 동시성이 높은 마이크로서비스 생태계를 설계하고 구현합니다.
- 모놀리식 및 SOA 서비스를 마이크로서비스 기반 아키텍처로 전환합니다.
- 소프트웨어 개발, 테스트, 출시에 DevOps 접근 방식을 채택합니다.
- 프로덕션에서 마이크로서비스 간의 높은 동시성을 보장합니다.
- 마이크로서비스를 모니터링하고 복구 전략을 구현합니다.
- 성능 튜닝을 수행합니다.
- 마이크로서비스 아키텍처의 미래 동향에 대해 알아보세요.
Stratio: Rocket and Intelligence Modules with PySpark
14 시간Stratio는 빅 데이터, AI, 그리고 가버넌스를 하나의 솔루션으로 통합하는 데이터 중심의 플랫폼입니다. Rocket과 Intelligence 모듈은 기업 환경에서 빠르게 데이터를 탐색, 변환하고 고급 분석을 수행할 수 있게 합니다.
이 강사는 온라인 또는 현장에서 진행되는 실습 중심의 라이브 강의로, PySpark를 활용하여 Rocket과 Intelligence 모듈을 효과적으로 사용하는 중급 데이터 전문가를 대상으로 합니다. 이 강의는 루프 구조, 사용자 정의 함수, 그리고 고급 데이터 논리에 중점을 둡니다.
이 교육을 마치면 참가자는 다음과 같은 능력을 갖추게 됩니다:
- Rocket과 Intelligence 모듈을 사용하여 Stratio 플랫폼을 탐색하고 작업할 수 있습니다.
- 데이터 수집, 변환, 분석의 맥락에서 PySpark를 적용할 수 있습니다.
- 루프와 조건 논리를 사용하여 데이터 워크플로우와 피처 엔지니어링 작업을 제어할 수 있습니다.
- PySpark에서 재사용 가능한 데이터 작업을 위한 사용자 정의 함수(UDF)를 만들고 관리할 수 있습니다.
강의 형식
- 상호작용적인 강의와 토론.
- 많은 연습과 실습.
- 라이브-랩 환경에서의 실습 구현.
강의 커스터마이징 옵션
- 이 강의를 위한 맞춤형 교육을 요청하려면 연락 주시기 바랍니다.