2019. 3. 16. 21:10ㆍMiddleware/Kafka&RabbitMQ
Kafka - Kafka Producer(카프카 프로듀서) In Java&CLI
카프카 프로듀서란 메시지를 생산(produce)해서 카프카의 토픽으로 메시지를 보내는 역할을 하는 애플리케이션, 서버 등을 모두 프로듀서라고 부른다.
프로듀서의 주요 기능은 각각의 메시지를 토픽 파티션에 매핑하고 파티션의 리더에 요청을 보내는 것이다. 키 값을 정해 해당 키를 가진 모든 메시지를 동일한
파티션으로 전송할 수 있다. 만약 키 값을 입력하지 않으면, 파티션은 라운드 로빈(round-robin) 방식으로 파티션에 균등하게 분배된다.
이후의 모든 예제는 이전 포스팅에서 구성한 카프카 클러스터링 환경에서 진행하였습니다. 동일한 환경 구성을
구축하고 예제를 진행하시려면 이전 포스팅을 참조하시길 부탁드립니다.
▶︎▶︎▶︎카프카 클러스터링
콘솔 프로듀서로 메시지를 보내 보기
결과를 보면 Leader는 2번 클러스터 인스턴스이며, 파티션은 0번 한개 그리고 복제본이 1,2,3번의 클러스터 인스턴스에 생성되어 있고,
ISR그룹이 1,2,3 클러스터 인스턴스로 이루어져 있음을 알 수 있다. 여기서 ISR 그룹이란 복제본들이 들어있는 클러스터 인스턴스 그룹으로 볼 수 있다.
그리고 리더 선출의 후보의 전제조건이 클러스터가 ISR 그룹내에 존재하는 클러스터이여야만 리더 선출의 후보가 될 수 있다. ISR은 카프카가 도입한
하나의 개념이라고 볼 수 있다. 하나를 예제로 설명하면 현재 2번 클러스터가 리더인데, 만약 해당 리더가 다운되면 ISR그룹에서 2번 클러스터는 빠지게 되고
ISR그룹내 1,3 클러스터 중에서 카프카 컨트롤러가 리더를 선출하게 된다.
카프카 콘솔을 이용한 간단한 메시징 테스트이다.
사실 이런 예제는 클러스터 구축단계에서 다 해보았던 것이지만 이번 포스팅에서는 프로듀서의 몇몇 중요한 옵션들을 자바를 기반으로
설명할 것이다. 물론 spring cloud stream을 이용해 메시징 미들웨어에 의존적이지 않은 코드로도 작성가능 하지만 이번엔 조금더
로우레벨로 직접 자바코드를 이용해 카프카 시스템을 이용해볼 것이다.
자바를 이용한 프로듀서
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 | /** * Kafka Producer Exam * @author yun-yeoseong * */ @Slf4j public class KafkaBookProducer1 { public static Properties init() { Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092,localhost:9093,localhost:9094"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); return props; } /** * 메시지 전송의 성공/실패여부를 신경쓰지 않는다. * 카프카가 항상 살아있는 상태이고 프로듀서가 자동으로 재전송하기 때문에 대부분의 경우 성공적으로 전송되지만, * 일부 유실이 있을 수 있다. * * send() method를 이용해 ProducerRecord를 보낸다. 메시지는 버퍼에 저장되고 별도의 스레드를 통해 브로커로 전송한다.(로그만 봐도 main이 아닌 별도의 스레드가 일을 처리) * send()는 자바 퓨처(Future) 객체로 RecordMetadata를 리턴받지만 리턴값을 무시하기 때문에 메시지가 성공적으로 전송되었는지 알수 없다. * 실 서비스 환경에서는 거의 사용하지 않는다. * * 메시지를 보낸 후의 에러는 무시하지만, 전송전의 에러는 잡아서 처리할 수 있다. */ public static void sendNoConfirmResult() { long start = System.currentTimeMillis(); try(Producer<String, String> producer = new KafkaProducer<>(init())){ producer.send(new ProducerRecord<String, String>("yeoseong", "Apache Kafka is a distributed streaming platform-sendNoConfirmResult()")); }catch (Exception e) {} long end = System.currentTimeMillis(); log.info("sendNoConfirmResult - during time : "+ (end-start)); } /** * 리턴 값으로 Future를 반환하는데, get()을 호출하여 결과를 받아 메시지가 성공적으로 전송됬는지 체크한다. * 메인 스레드가 block되는 상황이 있지만, 신뢰성있는 메시지 전송을 보장한다. */ public static void sendSync() { long start = System.currentTimeMillis(); try(Producer<String, String> producer = new KafkaProducer<>(init())){ RecordMetadata meta = producer.send(new ProducerRecord<String, String>("yeoseong", "Apache Kafka is a distributed streaming platform-sendSync()")).get(); log.info("Partition: {}, Offset: {}",meta.partition(),meta.offset()); }catch (Exception e) {} long end = System.currentTimeMillis(); log.info("sendSync - during time : "+ (end-start)); } /** * 콜백방식으로 비동기 전송을 한다. 메시지 전송이 완료 혹은 실패되면, * 브로커쪽에서 콜백으로 onCompletion을 호출한다. 만약 실패하면 Exception 객체가 담긴다. * org.apache.kafka.clients.producer.Callback * * 로그를 보면 main이 아닌 별도의 카프카 스레드에서 콜백을 호출한다. */ public static void sendAsync() { long start = System.currentTimeMillis(); try(Producer<String, String> producer = new KafkaProducer<>(init())){ producer.send(new ProducerRecord<String, String>("yeoseong", "Apache Kafka is a distributed streaming platform-sendAsync()"),new KafkaCallback()); }catch (Exception e) {} long end = System.currentTimeMillis(); log.info("sendAsync() - during time : "+ (end-start)); } /** * 프로듀서에서 키값까지 같이 메시지를 보내면 키에 해당하는 파티션에만 메시지가 들어간다. * 하지만 키를 포함시키지 않는다면 라운드 로빈 방식으로 파티션마다 균등분배된다. * * evenkey&oddkey는 각각 동일한 파티션으로만 데이터를 전송하게 된다. */ public static void sendWithKey() { long start = System.currentTimeMillis(); String topicName = "yoon"; String oddKey="1"; String evenKey="2"; Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092,localhost:9093,localhost:9094"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("acks", "1"); props.put("compression.type", "gzip"); try(Producer<String, String> producer = new KafkaProducer<>(props)){ IntStream.rangeClosed(1, 10).forEach(i->{ if(i%2==1) { producer.send(new ProducerRecord<String, String>(topicName, oddKey ,i+" - Apache Kafka is a distributed streaming platform-sendWithKey() oddKey "+oddKey)); }else { producer.send(new ProducerRecord<String, String>(topicName, evenKey ,i+" - Apache Kafka is a distributed streaming platform-sendWithKey() evenKey "+evenKey)); } }); }catch (Exception e) {} long end = System.currentTimeMillis(); log.info("sendWithKey() - during time : "+ (end-start)); } public static void main(String[] args) { // sendNoConfirmResult(); // sendSync(); // sendAsync(); sendWithKey(); } } @Slf4j class KafkaCallback implements Callback{ @Override public void onCompletion(RecordMetadata metadata, Exception exception) { // TODO Auto-generated method stub if(!ObjectUtils.isEmpty(metadata)) { log.info("Partition: {}, Offset: {}",metadata.partition(),metadata.offset()); }else { log.error("KafkaCallback - Exception"); } } } | cs |
2번 키를 포함시킨 메시지는 모두 0번 파티션으로 갔고, 1번 키를 포함시킨 메시지는 모두 1번 파티션으로 메시지가 전송되었다.
물론 특정파티션이 아닌 토픽으로 컨슈머를 실행시켰다면 모든 메시지 10개가 결과에 포함되었을 것이다. 이렇게 키값을 이용하여
특정 파티션으로만 메시지를 보낼 수 있는 기능을 제공하므로 다양하게 활용 가능하다.
프로듀서 주요옵션
Producer 주요 옵션
1)bootstrap.servers localhost:9092,localhost:9093,localhost:9094
:카프카 클러스터에 클라이언트가 처음 연결을 위한 호스트와 포트정보로 구성된 리스트 정보를 나타낸다. 전체 카프카 리스트가 아닌 호스트 하나만 입력해 사용할 수 있지만
카프카 인스턴스가 죽으면 그 클라이언트는 더이상 접속 할 수 없습니다. 즉, 전체 클러스터 인스턴스 목록을 옵션으로 넣는 것이 좋습니다.
2)acks 0,1,all , —request-required-acks 0,1,all
-acks = 0
0으로 설정하면 제작자는 서버로부터의 승인을 전혀 기다리지 않습니다. 레코드가 소켓 버퍼에 즉시 추가되고 전송 된 것으로 간주됩니다. 이 경우 서버가 레코드를 수신했음을 보증 할 수 없으며 재시도 구성이 적용되지 않습니다 (클라이언트는 일반적으로 어떤 실패도 알 수 없으므로). 각 레코드에 대해 다시 주어진 오프셋은 항상 -1로 설정됩니다.
-acks = 1
만약 1로 설정하는 경우 리더는 데이터를 기록하지만, 모든 팔로워는 확인하지 않습니다. 이 경우 일부 데이터 손실이 있을수 있습니다.
-acks = all
acks=-1과 동일하며, 리더는 ISR의 팔로워로부터 데이터에 대한 ack를 기다립니다. 하나의 팔로워가 있는 한 데이터는 손실되지 않으며, 데이터 무손실에 대해 가장 강력하게 보장합니다.
3)buffer.memory
프로듀서가 카프카 서버로 데이터를 보내기 위해 잠시 대기(배치 전송이나 딜레이 등)할 수 있는 전체 메모리 바이트입니다.
4)compression.type
프로듀서가 데이터를 압축해서 보낼 수 있는데, 어떤 타입으로 압축할지를 정할 수 있다. 옵션으로 none,gzip,snappy,lz4 같은 다양한 포맷이 있다.
5)retries
일시적인 오류로 인해 전송에 실패한 데이터를 다시 보내는 횟수
6)batch.size
프로듀서는 같은 파티션으로 보내는 여러 데이터를 함께 배치로 보내려고 시도한다. 이러한 동작은 클라이언트와 서버 양쪽에 성능적인 측면에서 도움이 된다. 이 설정으로 배치 크기 바이트 단위를 조정할 수 있다. 정의된 크기보다 큰 데이터는 배치를 시도하지 않는다. 배치를 보내기전 클라이언트 장애가 발생하면 배치 내에 있던 메시지는 전달되지 않는다. 만약 고가용성이 필요한 메시지의 경우라면 배치 사이즈를 주지 않는 것도 하나의 방법이다.
7)linger.ms
배치형태의 메시지를 보내기 전에 추가적인 메시지들을 위해 기다리는 시간을 조정한다. 카프카 프로듀서는 지정된 배치 사이즈에 도달하면 이 옵션과 관계없이 즉시 메시지를 전송하고, 배치 사이즈에 도달하지 못한 상황에서 linger.ms 제한 시간에 도달했을때 메시지들을 전송한다. 0이 기본값(지연없음)이며, 0보다 큰 값을 설정하면 지연 시간은 조금 발생하지만 처리량이 좋아진다.
8)max.request.size
프로듀서가 보낼 수 있는 최대 메시지 바이트 사이즈. 기본값은 1MB이다.
나머지 Kerberos, ssl과 타임관련등의 설정들은 https://kafka.apache.org/documentation/#producerconfigs을 참고
server.propertis ->acks=all 에 따른 server.properties 설정정보 변경
만약 밑의 설정이 없다면 설정파일의 맨밑에 작성
min.insync.replicas=n
이 설정은 acks=all로 했을 경우 리더를 포함한 인스턴스 n개의 승인(데이터복제,저장)을 받으면 바로 프로듀서에게 결과를 전달한다.
최적은 acks=all, min.insync.replicas=2, replication factor=3 ->카프카문서에 명시되어있음.
메시지 전송 방법
2) 메시지 손실 가능성이 적고 적당한 속도의 전송이 필요한 경우(acks=1 으로 설정)
이 옵션은 앞선 옵션과 달리 프로듀서가 카프카로 메시지를 보낸 후 보낸 메시지에 대해 메시지를 받는 토픽의 리더가 잘 받았는지 확인(acks)한다.
응답 대기 시간 없이 계속 메시지만 보내던 방법과 달리 확인을 하는 시간이 추가되어 메시지를 보내는 속도는 약간 떨어지게 되지만
메시지의 유실 가능성이 조금 줄어든다. 하지만 메시지를 받는 리더가 장애가 발생하면 메시지 유실 가능성이 있다. 하지만 보통 프로듀서 애플리케이션으로
많이 사용하는 로그스태시(logstash), 파일비트(Filebeat) 등에서는 프로듀서의 acks 옵션을 기본 1로 하고 있다. 특별한 경우가 아니라면
속도와 안전성을 확보할 수 있는 acks=1을 사용하는 것을 추천한다. 물론 메시지 유실에 큰 영향이 없는 서비스라는 조건하이다.
3) 메시지 전송 속도는 느리지만 메시지 손실이 없어야 하는 경우(acks=all 으로 설정)
acks=all의 동작 방법은 프로듀서가 메시지를 전송하고 난후 리더가 메시지를 받았는지 확인하고 추가로 팔로워까지 메시지를 잘받았는지(복제) 확인 하는 것이다.
속도적인 측면으로 볼때, acks 옵션 중에서 가장 느리지만 메시지 손실을 허용하지 않은 경우 사용하는 방법이다. acks=all을 완벽하게 사용하고자 한다면
프로듀서의 설정 뿐 아니라 브로커의 설정도 같이 조정해야한다. 브로커의 설정에 따라 응답 확인을 기다리는 수가 달라지게 된다.
-프로듀서의 acks=all과 브로커의 min.insync.replicas=1
이것은 acks=all 설정을 하였고 replication-factor가 예를 들어 3개라고 해도, 응답을 하나의 클러스터에서만 받게 된다.
즉, acks=1과 동일한 설정이 된다.
-프로듀서의 acks=all과 브로커의 min.insync.replicas=2
프로듀서가 메시지를 보내면 2개의 클러스터에 응답을 기다리게 된다.
-프로듀서의 acks=all과 브로커의 min.insync.replicas=3
만약 리플리케이션 팩터가 3이라면 위의 설정은 모든 클러스터 인스턴스의 응답 결과를 기다린다. 여기서 하나의 클러스터가 장애가
발생한다면 프로듀서는 메시지를 보낼 수 없게 될 것이다.
위에서 설명하였지만 카프카가 공식적으로 권장하는 옵션은
acks=all, min.insync.replicas=2, replication factor=3이다.
'Middleware > Kafka&RabbitMQ' 카테고리의 다른 글
Kafka - Kafka Streams API(카프카 스트림즈) - 1 (2) | 2019.03.26 |
---|---|
Kafka - Kafka Consumer(카프카 컨슈머) Java&CLI (2) | 2019.03.24 |
Kafka - Kafka(카프카) cluster(클러스터) 구성 및 간단한 CLI사용법 (0) | 2019.03.13 |
Kafka - Kafka(카프카)의 동작 방식과 원리 (0) | 2019.03.12 |
Springboot - Rabbitmq를 이용한 비동기 메시징 서비스(리액티브 마이크로서비스) (2) | 2019.02.18 |