欢迎您访问 最编程 本站为您分享编程语言代码,编程技术文章!
您现在的位置是: 首页

Spark SQL----INSERT OVERWRITE DIRECTORY-III 参数

最编程 2024-07-17 08:41:25
...
  • directory_path
    指定目标目录。LOCAL关键字用于指定目录在本地文件系统上。在spark文件格式中,也可以使用path在OPTIONS中指定,但directory_path和path选项不能同时指定。
  • file_format
    指定用于插入的文件格式。有效选项为TEXT、CSV、JSON、JDBC、PARQUET、ORC、HIVE、LIBSVM,或org.apache.spark.sql.execution.datasources.FileFormat的自定义实现的完全限定类名。
  • OPTIONS ( key = val [ , … ] )
    指定一个或多个用于写入文件格式的选项。
  • hive_format
    指定用于插入的文件格式。row_format和hive_serde都是可选的。ROW FORMAT SERDE只能与 TEXTFILE, SEQUENCEFILE或RCFILE一起使用,而ROW FORMAT DELIMITED只能与TEXTFILE一起使用。如果两者都没有定义,spark将使用TEXTFILE。
  • row_format
    指定此插入的行格式。有效的选项是SERDE子句和DELIMITED子句。SERDE子句可用于为此插入指定自定义SerDe。或者,DELIMITED子句可以用于指定本机SerDe并声明分隔符、转义符、null字符等。
  • hive_serde
    指定此插入的文件格式。有效选项为TEXTFILE、SEQUENCEFILE、RCFILE、ORC、PARQUET和AVRO。你也可以使用INPUTFORMAT和OUTPUTFORMAT指定自己的输入和输出格式。
  • VALUES ( { value | NULL } [ , … ] ) [ , ( … ) ]
    指定要插入的值。可以插入显式指定的值或NULL。必须使用逗号分隔子句中的每个值。可以指定多个值集来插入多行。
  • query
    生成要插入的行的查询。它可以是以下格式之一:
    • SELECT语句
    • Inline Table语句
    • FROM语句