类 DeltaOptimizeBuilder

Object
io.delta.tables.DeltaOptimizeBuilder
所有已实现的接口:
org.apache.spark.sql.delta.util.AnalysisHelper

public class DeltaOptimizeBuilder extends Object implements org.apache.spark.sql.delta.util.AnalysisHelper
用于构建 OPTIMIZE 命令并执行的构建器类。

参数:sparkSession 用于执行的 SparkSession 参数:tableIdentifier 要执行优化的表ID 参数:options 用于读写的 Hadoop 文件系统选项。

2.0.0
  • 嵌套类摘要

    从接口 org.apache.spark.sql.delta.util.AnalysisHelper 继承的嵌套类/接口

    org.apache.spark.sql.delta.util.AnalysisHelper.FakeLogicalPlan, org.apache.spark.sql.delta.util.AnalysisHelper.FakeLogicalPlan$
  • 构造器摘要

    构造器
    构造器
    描述
     
  • 方法摘要

    修饰符及类型
    方法
    描述
    org.apache.spark.sql.Dataset<org.apache.spark.sql.Row>
    压缩选定分区中的小文件。
    org.apache.spark.sql.Dataset<org.apache.spark.sql.Row>
    executeZOrderBy(String... columns)
    使用给定列对选定分区中的数据进行 Z-Order 排序。
    org.apache.spark.sql.Dataset<org.apache.spark.sql.Row>
    executeZOrderBy(scala.collection.immutable.Seq<String> columns)
    使用给定列对选定分区中的数据进行 Z-Order 排序。
    where(String partitionFilter)
    在此优化命令构建器上应用分区过滤器,以限制在选定分区上的操作。

    从类 java.lang.Object 继承的方法

    equals, getClass, hashCode, notify, notifyAll, toString, wait, wait, wait

    从接口 org.apache.spark.sql.delta.util.AnalysisHelper 继承的方法

    improveUnsupportedOpError, resolveReferencesForExpressions, toDataset, tryResolveReferences, tryResolveReferencesForExpressions, tryResolveReferencesForExpressions
  • 构造器详细信息

    • DeltaOptimizeBuilder

      public DeltaOptimizeBuilder()
  • 方法详情

    • executeZOrderBy

      public org.apache.spark.sql.Dataset<org.apache.spark.sql.Row> executeZOrderBy(String... columns)
      使用给定列对选定分区中的数据进行 Z-Order 排序。
      参数
      columns - 零个或多个列,用于使用 Z-Order 曲线对数据进行排序
      返回
      包含 OPTIMIZE 执行指标的 DataFrame
      2.0.0
    • where

      public DeltaOptimizeBuilder where(String partitionFilter)
      在此优化命令构建器上应用分区过滤器,以限制在选定分区上的操作。
      参数
      partitionFilter - 要应用的分区过滤器
      返回
      DeltaOptimizeBuilder 应用了分区过滤器
      2.0.0
    • executeCompaction

      public org.apache.spark.sql.Dataset<org.apache.spark.sql.Row> executeCompaction()
      压缩选定分区中的小文件。
      返回
      包含 OPTIMIZE 执行指标的 DataFrame
      2.0.0
    • executeZOrderBy

      public org.apache.spark.sql.Dataset<org.apache.spark.sql.Row> executeZOrderBy(scala.collection.immutable.Seq<String> columns)
      使用给定列对选定分区中的数据进行 Z-Order 排序。
      参数
      columns - 零个或多个列,用于使用 Z-Order 曲线对数据进行排序
      返回
      包含 OPTIMIZE 执行指标的 DataFrame
      2.0.0