代码之家  ›  专栏  ›  技术社区  ›  maxness

Spark将Kafka输入流另存为Json文件

  •  0
  • maxness  · 技术社区  · 7 年前

    我只是想知道Spark中是否有一个方法,所以我可以将JavaInputDStream保存为Json文件,或者通常保存为任何文件。 如果没有,是否有其他可能保存 Spark中作为文件的卡夫卡主题。

    非常感谢你!

    1 回复  |  直到 7 年前
        1
  •  0
  •   Caio Boratto    7 年前

    当您映射 JavaInputDStream 到a stream 您可以执行以下操作:

    stream.foreachRDD(rdd -> {
                OffsetRange[] offsetRanges = ((HasOffsetRanges) rdd.rdd()).offsetRanges();
    
                rdd.mapToPair(new PairFunction<ConsumerRecord<String, String>, String, String>() {
                    @Override
                    public Tuple2<String, String> call(ConsumerRecord<String, String> record) {
                        return new Tuple2<>(record.key(), record.value());
                    }
                }).foreachPartition(partition -> {
    
                    OffsetRange o = offsetRanges[TaskContext.get().partitionId()];
                    System.out.println(o.topic() + " " + o.partition() + " " + o.fromOffset() + " " + o.untilOffset());
    
                    if (partition.hasNext()) {
    
                        PrintWriter out = new PrintWriter("filename.txt");;
                        out.println(text);
    
                        try {
                            while (partition.hasNext()) {
    
                                Tuple2<String, String> message = partition.next();
                                out.println(message);
                            }
    
                        } catch (Exception e) {
                            e.printStackTrace(
                    }
    
                });
            });
            ssc.start();
            ssc.awaitTermination();
    

    不要忘记,如果您的Kafka主题中有多个分区,那么您将按照上述方法为每个分区编写一个文件。