在《java版flink使用指南——从rabbitmq中队列中接入消息流》一文中,我们从rabbitmq队列中读取了字符串型数据。如果我们希望读取的数据被自动化转换为一个对象,则需要定制序列化器。本文我们就将讲解数据源序列化器的定制方法。
新建工程
我们在intellij中新建一个工程sourceserializer。
 archetype填入:org.apache.flink:flink-quickstart-java
 版本填入与flink的版本:1.19.1
 
新增依赖
在pom.xml中新增rabbitmq连接器
		<dependency>
			<groupid>org.apache.flink</groupid>
			<artifactid>flink-connector-rabbitmq</artifactid>
			<version>3.0.1-1.17</version>
		</dependency>
新增json库依赖
		<dependency>
			<groupid>com.fasterxml.jackson.core</groupid>
			<artifactid>jackson-core</artifactid>
			<version>2.17.1</version>
		</dependency>
新增lombok库,主要是为了使用它的一些注解
        <dependency>
            <groupid>org.projectlombok</groupid>
            <artifactid>lombok</artifactid>
            <version>1.18.32</version>
            <scope>provided</scope>
        </dependency>
数据对象
我们新建一个简单的数据对象sampledata
 src/main/java/org/example/vo/sampledata.java
package org.example.vo;
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.objectmapper;
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.core.jsonprocessingexception;
import lombok.allargsconstructor;
import lombok.data;
import lombok.noargsconstructor;
@data
@noargsconstructor
@allargsconstructor
public class sampledata {
    private long id;
    private string name;
    private int age;
    private boolean married;
    private double salary;
    public string tojson() throws jsonprocessingexception {
        objectmapper mapper = new objectmapper();
        return mapper.writevalueasstring(this);
    }
    public static sampledata fromjson(string json) throws jsonprocessingexception {
        objectmapper mapper = new objectmapper();
        return mapper.readvalue(json, sampledata.class);
    }
}
这个方法包含两个方法,一个是将sampledata 转换成字符串,另一个是将字符串转成sampledata 对象。
序列化器
我们定义的数据源序列化器要实现abstractdeserializationschema接口,主要是通过deserialize方法将二进制数组转换成sampledata 对象。
src/main/java/org/example/serializer/sampledatarabbitmqsourceserializer.java
package org.example.serializer;
import org.apache.flink.api.common.serialization.abstractdeserializationschema;
import org.apache.flink.api.common.typeinfo.typeinformation;
import org.example.vo.sampledata;
import java.io.ioexception;
public class sampledatarabbitmqsourceserializer extends abstractdeserializationschema<sampledata> {
    @override
    public sampledata deserialize(byte[] message) throws ioexception {
        return sampledata.fromjson(new string(message));
    }
    @override
    public boolean isendofstream(sampledata nextelement) {
        return false;
    }
    @override
    public typeinformation<sampledata> getproducedtype() {
        return typeinformation.of(sampledata.class);
    }
}
接入数据源
我们在《java版flink使用指南——定制rabbitmq的sink序列化器》一文中,往data.to.rbtmq对了写入了大量sampledata 数据。这次我们将其作为数据源来做测试
 这次我们在创建rmqsource时传入序列化器sampledatarabbitmqsourceserializer。它会将从rabbitmq获取的数据转换成sampledata对象。
 然后我们获取所有“已婚”(filter.getmarried() == true)的数据,将其打印到日志中。
		string queuename = "data.to.rbtmq";
		string host = "172.21.112.140"; // ip of the rabbitmq server
		int port = 5672;
		string username = "admin";
		string password = "fangliang";
		string virtualhost = "/";
		int parallelism = 1;
		// create a rabbitmq source
		rmqconnectionconfig rmqconnectionconfig = new rmqconnectionconfig.builder()
				.sethost(host)
				.setport(port)
				.setusername(username)
				.setpassword(password)
				.setvirtualhost(virtualhost)
				.build();
		rmqsource<sampledata> rmqsource = new rmqsource<>(rmqconnectionconfig, queuename, true, new sampledatarabbitmqsourceserializer());
		final datastream<sampledata> stream = env.addsource(rmqsource).name(username + "'s source from " + queuename).setparallelism(parallelism);
		stream.filter(filter -> filter.getmarried() == true).print().name(username + "'s sink to stdout").setparallelism(parallelism);
测试
修改slot个数
由于我们要运行两个流式计算任务,于是需要两个slot。
vim conf/config.yaml 
将numberoftaskslots的值改成2。
打包、提交、运行
我们将本例和《java版flink使用指南——定制rabbitmq的sink序列化器》中的包都提交运行
 
 然后在日志中可以看到“已婚”的数据都在输出
 tail -f log/*

 
             我要评论
我要评论 
                                             
                                             
                                             
                                            
发表评论