代码之家  ›  专栏  ›  技术社区  ›  amol visave

spark作业失败时会发生什么?

  •  0
  • amol visave  · 技术社区  · 2 年前

    假设我正在从RDBMS读取表,并用HDFS编写它。作业成功完成48%,之后由于某些原因失败。下一步该怎么做?aa我们不能从头开始阅读,因为这会浪费时间。那么,如何只读取剩余的记录呢?

    Suppose i am reading a table from RDBMS and writing it in HDFS. Job is completed 48% successfully and after that it fails due to some reasons. What should be the next course of action here ? aa we cannot start reading from start again because it will be waste of time . so how to read only remaining records ?
    
    0 回复  |  直到 2 年前
        1
  •  0
  •   rikyeah    2 年前

    一般来说,这取决于故障的类型,以及集群的所有因素(复制因素…)。一般来说,如果你想写原子性,你应该参考事务 here 更多信息。