kafka-test
├── 0_kafka-broker-basic # Set up kafka 1 node (zookeeper, broker) by Apache Kafka
├── 1_kafka-broker-connect-basic # Add kafka connect to "module 0"
├── 2_kafka-broker-connect-systemd # Run "module 1"'s kafka as systemd service
├── 3_kafka-jdbc-connector-test # Add connectors(jdbc-src, s3-sink) to "module 2"
├── 4_kafka-ksql-service # Add ksqlDB to "module 3"
├── 5_confluent-community-archive # Set up kafka 1 node by Confluent Platform Community(zip or tar)
├── 6_confluent-community-package # Set up kafka 1 node by Confluent Platform Community(deb)
├── 7_cclpkg-debezium-test # Add debezium connector to "module 6"
├── 8_legacy_kafka # Module For Old Kafka 1 node
├── LICENSE
├── README.md
├── memo/ # Tips for Kafka Operation
├── py-connect-examples # Test connectors
└── py-connect-util # Simple library to manage connectors
Kafka의 가장 작은 메시지 단위를 Record라고 부른다.
Record = Message = Event = Data = log 1 row 이라고 보면 된다.
- 메타데이터(topic, partition, timestamp(Ingestion Time) 등)
- Kafka 시스템이 Record를 분류하기 위한 정보를 자동 기록
- key
- Kafka 사용자가 Record를 분류하기 위한 정보를 기록
- value
- 핵심 Payload, 원본데이터에 가까움
-
- Python으로 Producer, Consumer 만들 때 사용가능한 라이브러리
-
- 특히 Source Connector를 위한 connect_offsets 설명 위주