一聚教程网:一个值得你收藏的教程网站

热门教程

spark-stream 访问 Redis数据库示例

时间:2022-06-29 10:48:02 编辑:袖梨 来源:一聚教程网

最近在spark-stream上写了一些流计算处理程序,程序架构如下

 


程序运行在Spark-stream上,我的目标是kafka、Redis的参数都支持在启动时指定。

 

用scala实现的

Redis服务器的地址是写死的,我的程序要挪个位置,要重新改代码编译。

当时倒腾了一些时间,现在写出来和大家分享,提高后来者的效率。

 


如上图Spark是分布式引擎,Driver中创建的Redis Pool,在Worker上又得重新创建,参考文章中是定义一个Redis连接池管理类,Redis Pool是类的静态变量,类加载时由JVM自动创建。这个和我的预期有差距。

在Driver中创建Redis管理对象,然后将该对象广播,然后在Worker上获取该广播对象,从而实现参数可变,但是Redis管理对象在每个Worker上又只实例化了一次。

Driver

Driver 指定序列化方式,Spark支持两种序列化方式,Java 和 Kryo,Kryo更高效。

资料上说Kryo方式需要注册类,但是我没有注册也能成功运行。

public static void main(String[] args) {
        if (args.length < 3) {
            System.err.println("Usage: kafka_spark_redis n" +
                    "  Kafka broker列表n" +
                    "  要消费的topic列表n" +
                    " redis 服务器地址 nn");
            System.exit(1);
        }

        /* 解析参数 */
        String brokers = args[0];
        String topics = args[1];
        String redisServer = args[2];

        // 创建stream context,两秒钟的数据算一批
        SparkConf sparkConf = new SparkConf().setAppName("kafka_spark_redis");
//        sparkConf.set("spark.serializer", "org.apache.spark.serializer.JavaSerializer");//java的序列号速度没有Kryo速度快
        sparkConf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer");
//        sparkConf.set("spark.kryo.registrator", "MyRegistrator");
        JavaStreamingContext jssc = new JavaStreamingContext(sparkConf, Durations.seconds(2));
        JavaSparkContext sc = jssc.sparkContext();

        HashSet topicsSet = new HashSet(Arrays.asList(topics.split(",")));
        HashMap kafkaParams = new HashMap();
        kafkaParams.put("metadata.broker.list", brokers);
        kafkaParams.put("group.id","kakou-test");

        //Redis连接池管理类
        RedisClient redisClient = new RedisClient(redisServer);//创建redis连接池管理类

        //广播Reids连接池管理对象
        final Broadcast broadcastRedis = sc.broadcast(redisClient);

        // 创建流处理对象
        JavaPairInputDStream messages = KafkaUtils.createDirectStream(
                jssc,
                String.class,               /* kafka key class */
                String.class,               /* kafka value class */
                StringDecoder.class,        /* key 解码类 */
                StringDecoder.class,        /* value 解码类 */
                kafkaParams,                /* kafka 参数,如设置kafka broker */
                topicsSet                   /* 待消费的topic名称 */
        );

        // 将行分拆为单词
        JavaDStream lines = messages.map(new Function, String>() {
            //@Override
            // kafka传来key-value对
            public String call(Tuple2 tuple2) {

                // 取value值
                return tuple2._2();
            }
        });
        /* 大量省略 */
        ........
    }
RedisClient

RedisClient 是自己实现的类,在类中重载write/read这两个序列化和反序列化函数,需要注意的是如果是Java Serializer 需要实现其它的接口。

在Driver广播时会触发调用write序列化函数。

public class RedisClient implements KryoSerializable {
    public static JedisPool jedisPool;
    public String host;

    public RedisClient(){
        Runtime.getRuntime().addShutdownHook(new CleanWorkThread());
    }

    public RedisClient(String host){
        this.host=host;
        Runtime.getRuntime().addShutdownHook(new CleanWorkThread());
        jedisPool = new JedisPool(new GenericObjectPoolConfig(), host);
    }

    static class CleanWorkThread extends Thread{
        @Override
        public void run() {
            System.out.println("Destroy jedis pool");
            if (null != jedisPool){
                jedisPool.destroy();
                jedisPool = null;
            }
        }
    }

    public Jedis getResource(){
        return jedisPool.getResource();
    }

    public void returnResource(Jedis jedis){
        jedisPool.returnResource(jedis);
    }

    public void write(Kryo kryo, Output output) {
        kryo.writeObject(output, host);
    }

    public void read(Kryo kryo, Input input) {
        host=kryo.readObject(input, String.class);
        this.jedisPool =new JedisPool(new GenericObjectPoolConfig(), host) ;
    }
}
Worker

foreachRDD中获取广播变量,由广播变量触发先调用RedisClient的无参反序列化函数,然后再调用反序列化函数,我们的做法是在反序列化函数中创建Redis Pool。

//标准输出,对车辆的车牌和黑名单进行匹配,对与匹配成功的,保存到redis上。
        paircar.foreachRDD(new Function2>, Time, Void>() {
            public Void call(JavaRDD> rdd, Time time) throws Exception {
                Date now=new Date();
                rdd.foreachPartition(new VoidFunction>>() {
                    public void call(Iterator> it) throws Exception {
                        String tmp1;
                        String tmp2;
                        Date now=new Date();
                        RedisClient redisClient=broadcastRedis.getValue();
                        Jedis jedis=redisClient.getResource();

                        ......

                        redisClient.returnResource(jedis);
                    }
                });
结语

Spark对分布式计算做了封装,但很多场景下还是要了解它的工作机制,很多问题和性能优化都和Spark的工作机制紧密相关。

热门栏目