中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么用C語言與java實現kafka avro生產者和消費者

發布時間:2021-11-15 11:08:33 來源:億速云 閱讀:202 作者:iii 欄目:大數據

本篇內容介紹了“怎么用C語言與java實現kafka avro生產者和消費者”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

原始數據格式

請求IP 應答IP 域名 類型

3183375114 3729673322 "mx.hc.spdrb.com" A

以上數據是test文件的內容

schema定義如下

{

    "type":"record",

    "name":"data",

    "fields":

    [

         {"name":"qip","type":"long"},

        {"name":"aip","type":"long"},

        {"name":"domain","type":"string"},

         {"name":"type","type":"string"}

     ]

}

C語言生產者代碼如下

#include <stdio.h> 
#include <unistd.h>
#include <stdlib.h> 
#include <string.h> 
#include "avro.h" 
#include "producer.h"

const char PERSON_SCHEMA[] = "{"type":"record","name":"data","fields":[{"name":"qip","type":"long"},{"name":"aip","type":"long"},{"name":"domain","type":"string"},{"name":"type","type":"string"}]}";

const char *file = "avro_file.dat";

const char *brokers = "xxxxx:9092"; const char *topic = "topic1";

void print_avro_value(avro_value_t *value) { char *json; if (!avro_value_to_json(value, 1, &json)) { printf("%s\n", json); free(json); } }

if (avro_schema_from_json(PERSON_SCHEMA, sizeof(PERSON_SCHEMA),
            &test_schema, &error)) {
    fprintf(stderr, "schema error\n");
    exit(EXIT_FAILURE);
}

return test_schema;
avro_schema_t init_schema() { avro_schema_t test_schema; avro_schema_error_t error;


}

void add_data(avro_writer_t writer, avro_schema_t schema, int64_t qip, uint64_t aip, const char* domain, const char* type) 
{ 
     avro_datum_t data = avro_record(schema); 
     avro_datum_t dqip = avro_int64(qip); 
     avro_datum_t daip = avro_int64(aip); 
     avro_datum_t ddomain = avro_string(domain); 
     avro_datum_t dtype = avro_string(type);
     avro_record_set(data, "qip", dqip);
     avro_record_set(data, "aip", daip);
     avro_record_set(data, "domain", ddomain);
     avro_record_set(data, "type", dtype);

     avro_write_data(writer, NULL, f2c);

     avro_datum_decref(dqip);
     avro_datum_decref(daip);
     avro_datum_decref(ddomain);
     avro_datum_decref(dtype);
     avro_datum_decref(data);
}
int main(int argc, char* argv[]) 
{ 
    int len = 0; 
    avro_schema_t schema; 
    avro_writer_t mem_writer; 
    char buf[1024]; 
    char tmp[4][500]={{0x00}};
    FILE *fp = fopen("test","r");
    if(!fp)
    {
        printf("open test file error!\n");
        return -1;
    }
    schema = init_schema();
    mem_writer = avro_writer_memory(buf, 1024);

    while(fgets(buf, 1024,fp)!=NULL)
    {
        if(buf[strlen(buf)] == '\n') buf[strlen(buf)] = '\0';
        if(sscanf(buf, "%s%s%s%s", tmp[0],tmp[1],tmp[2],tmp[3])!=4) continue;
        add_data(mem_writer,schema,atol(tmp[0]),atol(tmp[1]),tmp[2],tmp[3]);
        printf("data len = %ld\n", avro_writer_tell(mem_writer));
        len = avro_writer_tell(mem_writer);
        kafka_putdata(buf, len,brokers,topic);//librdkafka實現的生產者代碼 未列出
        memset(tmp, 0x00, sizeof(tmp));
        memset(buf, 0x00, sizeof(buf));
        avro_writer_reset(mem_writer);
    }

    fclose(fp);
    avro_writer_free(mem_writer);
    return 0;
}

C語言實現的消費者如下

#include "consumer.h"
 #include "avro.h"
 #include <time.h> 
#include <unistd.h>


const char *brokers = "xxxx:9092"; const char *topic = "topic1"; const char *group = "avrotest"; const char PERSON_SCHEMA[] = "{"type":"record","name":"data","fields":[{"name":"qip","type":"long"},{"name":"aip","type":"long"},{"name":"domain","type":"string"},{"name":"type","type":"string"}]}";

avro_schema_t init_schema() 
{
    avro_schema_t test_schema; 
    avro_schema_error_t error;


    if (avro_schema_from_json(PERSON_SCHEMA, sizeof(PERSON_SCHEMA),
            &test_schema, &error)) {
        fprintf(stderr, "schema error\n");
        exit(EXIT_FAILURE);
    }

  return test_schema;
}
void print_data(avro_reader_t reader, avro_schema_t schema) { avro_datum_t data; if(avro_read_data(reader, schema, schema, &data) == 0) 
{ 
    int64_t qip; 
    int64_t aip; 
    char *domain; 
    char *type; 
    avro_datum_t q_datum,a_datum,d_datum,t_datum;
    avro_record_get(data, "qip", &q_datum);
    avro_int64_get(q_datum, &qip);
    avro_record_get(data, "aip", &a_datum);
    avro_int64_get(a_datum, &aip);

    avro_record_get(data, "domain", &d_datum);
    avro_string_get(d_datum, &domain);

    avro_record_get(data, "type", &t_datum);
    avro_string_get(t_datum, &type);
    printf("qip: %lld, aip: %lld,domain: %s,type:%s\n", qip,aip,domain,type);

    avro_datum_decref(data);
}

int main(int argc, char* argv[]) 
{
    rd_kafka_t *rk; 
    rd_kafka_topic_partition_list_t *topics; 
    if(initKafka(&rk, brokers, group, topic, &topics)<0){return -1;} 
    char buf[1024] = {0x00}; 
    int len = 0; 
    avro_schema_t schema; 
    avro_reader_t mem_reader; 
    schema = init_schema(); 
    mem_reader = avro_reader_memory(buf, 1024);
    while(1) 
    { 
        get_consumer_msg(rk, buf, &len); //librdkafka實現的消費者 代碼未列出 
        if(len == 0) continue; 
        printf("len=%d\n",len); 
        print_data(mem_reader,schema); 
        avro_reader_reset(mem_reader); 
        memset(buf, 0x00, sizeof(buf)); 
    } 
    return 0;
}

C編譯的Makefile如下 兩個C程序通用

TARGET=avro-test 
INCLUDE=./avrolib/include/ 
SLIB=./avrolib/lib/libavro.a 
DLIB=-lz -llzma -lrdkafka 
INC = -I. -I./avrolib/include SOURCES =$(wildcard *.c) 
OBJECTS =$(SOURCES:.c=.o) 
RM=rm -rf 
CC=gcc -g 
CFLAGS= -Wall $(INC) 
all:$(TARGET) 
$(TARGET): $(OBJECTS) 
    $(CC) -o $@ $? $(SLIB) $(DLIB) $(CFLAGS) 
:$(SOURCES) 
    $(CC) -c 
clean: 
    $(RM) $(TARGET) $(OBJECTS) *~

java消費者 gradle配置

dependencies { 
    testCompile group: 'junit', name: 'junit', version: '4.12' 
    compile group: 'org.apache.avro', name: 'avro', version: '1.9.1' 
    compile group: 'org.apache.kafka', name: 'kafka-clients', version: '0.11.0.0' 
}

avro解析 借鑒別人 言作者未知 請作者見諒

package zc;


import org.apache.avro.Schema; import org.apache.avro.generic.GenericRecord; import org.apache.avro.io.BinaryDecoder; import org.apache.avro.io.DatumReader; import org.apache.avro.specific.SpecificDatumReader;
import java.io.IOException;

public class MyRecordDecoder { 
    public static GenericRecord genericRecord; 
    datumReader; static MyRecordDecoder myRecordDecoder = new MyRecordDecoder(); 
    final String USER_SCHEMA = "{"type":"record","name":"data","fields":[{"name":"qip","type":"long"},{"name":"aip","type":"long"},{"name":"domain","type":"string"},{"name":"type","type":"string"}]}";
     public MyRecordDecoder() { 
            Schema schema = null; schema = new Schema.Parser().parse(USER_SCHEMA); 
            datumReader = new SpecificDatumReader<GenericRecord>(schema);
    }

    public GenericRecord getGenericRecord(BinaryDecoder decoder, byte[] value) throws IOException{
            return datumReader.read(null, decoder);
    }

    public static MyRecordDecoder getInstance() {
        if (myRecordDecoder==null)
            myRecordDecoder = new MyRecordDecoder();
        return myRecordDecoder;
    }
}

java消費者 package zc;

import org.apache.avro.generic.GenericRecord; 
import org.apache.avro.io.BinaryDecoder; 
import org.apache.avro.io.DecoderFactory; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer;
import java.util.Collections; import java.util.Properties;

public class KafkaMessageAvro{ public static void main(String[] args) throws Exception { 
    String inTopic = args[0]; 
    Properties props = new Properties();
    props.setProperty("bootstrap.servers", "xxxxx:9092"); 
    props.setProperty("group.id", "flink-topn-group"); 
    props.put("key.deserializer", "org.apache.kafka.common.serialization.ByteArrayDeserializer"); 
    props.put("value.deserializer", "org.apache.kafka.common.serialization.ByteArrayDeserializer");
    KafkaConsumer<String, byte[]> consumer = new KafkaConsumer<>(props); 
    consumer.subscribe(Collections.singletonList(inTopic));
   
 try {
        while (true) {
            ConsumerRecords<String, byte[]> records = consumer.poll(1000);
            for (ConsumerRecord<String, byte[]> record : records) {
                byte[] ss = record.value();
                if (ss==null) {
                    continue;
                }
                System.out.println(ss.toString());
                GenericRecord genericRecord = null;
                BinaryDecoder decoder = DecoderFactory.get().binaryDecoder(ss, null);
                while (!decoder.isEnd()) {
                    genericRecord = MyRecordDecoder.getInstance().getGenericRecord(decoder, ss);
                   System.out.println(genericRecord.get("qip").toString()+" "+genericRecord.get("aip").toString()+" "+genericRecord.get("domain").toString()+" "+genericRecord.get("type").toString());
                }

            }
        }
    } finally {
        consumer.close();
    }
}

“怎么用C語言與java實現kafka avro生產者和消費者”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

镶黄旗| 永吉县| 石景山区| 桑植县| 师宗县| 巨野县| 万盛区| 姜堰市| 崇仁县| 泰和县| 彰化县| 北流市| 阿拉尔市| 盐城市| 斗六市| 广昌县| 浮梁县| 陆川县| 大竹县| 东辽县| 繁昌县| 连南| 和静县| 左权县| 涡阳县| 都昌县| 保康县| 博兴县| 宁都县| 穆棱市| 阿鲁科尔沁旗| 芦山县| 衡阳县| 富蕴县| 宾阳县| 许昌市| 固安县| 南木林县| 如皋市| 大姚县| 龙南县|