Kafka로 메시지와 이벤트 처리하기 - (2) Python으로 consumer, producer 만들기
Python을 사용해서 Kafka consumer와 producer를 구현해본다. kafka-python 라이브러리를 활용하여 메시지를 발행하고 구독하는 방법을 알아본다.
개발하고 기록합니다
Python을 사용해서 Kafka consumer와 producer를 구현해본다. kafka-python 라이브러리를 활용하여 메시지를 발행하고 구독하는 방법을 알아본다.
Apache Kafka는 실시간으로 기록 스트림을 게시, 구독, 저장 및 처리할 수 있는 분산 데이터 스트리밍 플랫폼이다. Docker를 사용해서 Kafka 환경을 구축하고 기본적인 메시지 송수신을 테스트해본다.
Flink 작업을 위해서 Apache Flink 책인 "Stream Processing with Apache Flink: Fundamentals, Implementation, and Operation of Streaming Applications" 를 참고했으며 예제코드를 다운받아 작성했다.
이번 글의 내용은 Apache Flink 책인 "Stream Processing with Apache Flink: Fundamentals, Implementation, and Operation of Streaming Applications" 를 참고했으며 직접 개발환경을 세팅 해 보고 작성했다.
파이썬으로 개발하다보면 여러가지 가상환경 매니징 패키지를 마주하게 된다.
티스토리에서 나만의 블로그로 이전하는 이유와 새로운 시작에 대한 다짐을 담은 글.
데코레이터란 함수에 반복적인 기능과 역할을 할 수 있도록 만들어주는 기능이다. 함수 내부의 로직을 수정하지않고, 기능을 추가하거나
플라스크는 미니멀하게 프로젝트를 시작 할 수 있어서, 초기 진입 시에 세팅과 공부 할 것들이 비교적 적은 편이라고 생각했다.
Docker로 올린 서버는 Debug모드로 실행 한다면, Docker 내부에 들어가서 코드를 고쳐줘야 하는 번거로움이 있다.