前言
在日常的工作中,表格内的工具是非常方便的x,但是当表格变得非常多的时候,就需要一些特定的处理。excel作为功能强大的数据处理软件,广泛应用于各行各业,从企业管理到数据分析,可谓无处不在。然而,面对大型且复杂的数据,excel的处理能力可能力不从心。
对此,我们可借助apache spark这一分布式计算框架,凭借其强大的计算与数据处理能力,快速有效地处理excel数据。这些数据进行一个分析,整理,筛选,排序。分析整理有用的内容。
操作
创建一个spark项目,在intellij idea中创建spark项目时,默认的目录结构如下:
project-root/
│
├── src/
│ ├── main/
│ │ ├── java/
│ │ │ └── (java source files)
│ │ └── scala/
│ │ └── (scala source files)
│ └── test/
│ ├── java/
│ │ └── (test java source files)
│ └── scala/
│ └── (test scala source files)
├── resources/
│ └── (resource files)
└── target/
└── (compiled output and build artifacts)导入包
在build.sbt中添加操作文件的包
librarydependencies ++= seq( "org.apache.spark" %% "spark-core" % sparkversion, "org.apache.spark" %% "spark-sql" % sparkversion, "org.apache.spark" %% "spark-mllib" % sparkversion, "org.apache.spark" %% "spark-streaming" % sparkversion, "com.norbitltd" %% "spoiwo_2.12" % "1.4.1", "com.crealytics" %% "spark-excel" % "0.13.7", "com.monitorjbl" %% "xlsx-streamer" % "2.1.0" )
测试数据
name | age |
mic | 1 |
andy | 3 |
steven | 1 |
首先
使用spark读取excel文件十分简便。只需在dataframe api中指定文件路径及格式,spark即可自动导入excel文件并将其转成dataframe,进而展开数据处理和分析。
代码示例
spark不但提供多样的数据处理方式,更在dataframe api中支持筛选、聚合和排序等操作。此外,内置丰富的数据处理函数和操作符使处理excel数据更为便捷。
package com.example.spark
import org.apache.spark.{sparkconf, sparkcontext}
import org.apache.spark.sql.sparksession
object sparktest {
def main(args: array[string]): unit = {
//scala版本
val sparkconf = new sparkconf()
sparkconf.setmaster("local") //本地单线程运行
sparkconf.setappname("testjob")
// val sc = new sparkcontext(sparkconf)
val spark = sparksession.builder().config(sparkconf)
.appname("excel demo")
.getorcreate()
// 读取 excel 文件
val df = spark.read
.format("com.crealytics.spark.excel")
.option("dataaddress", "'sheet2'!a1:b2") // 可选,设置选择数据区域 例如 a1:c2。
.option("useheader", "false") // 必须,是否使用表头,false的话自己命名表头(_c0),true则第一行为表头
.option("treatemptyvaluesasnulls", "true") // 可选, 是否将空的单元格设置为null ,如果不设置为null 遇见空单元格会报错 默认t: true
.option("inferschema", "true") // 可选, default: false
//.option("addcolorcolumns", "true") // 可选, default: false
//.option("timestampformat", "yyyy-mm-dd hh:mm:ss") // 可选, default: yyyy-mm-dd hh:mm:ss[.fffffffff]
//.option("excerptsize", 6) // 可选, default: 10. if set and if schema inferred, number of rows to infer schema from
//.option("workbookpassword", "pass") // 可选, default none. requires unlimited strength jce for older jvms====
//.option("maxrowsinmemory", 20) // 可选, default none. if set, uses a streaming reader which can help with big files====
.schema(schema) // 可选, default: either inferred schema, or all columns are strings
// .option("header", "true")
.load("path/to/excel/file.xlsx")
// 显示 dataframe 的内容
df.show()
// +-------+---+
// | name|age|
// +-------+---+
// | mic| 1|
// | andy| 3|
// | steven| 1|
// +-------+---+
// 将 dataframe 写入 excel 文件
df.write
.format("com.crealytics.spark.excel")
.option("dataaddress", "'sheet'!a1:b2")
.option("useheader", "true")
//.option("dateformat", "yy-mmm-d") // optional, default: yy-m-d h:mm
//.option("timestampformat", "mm-dd-yyyy hh:mm:ss") // optional, default: yyyy-mm-dd hh:mm:ss.000
.mode("append") // optional, default: overwrite.
.option("header", "true")
.save("path/to/save/excel/file.xlsx")
}
}数据处理结束后,可将结果保存在全新excel文件或其他格式文件中。借助dataframe api,无论保存在本地文件系统还是云端,均能轻松实现。保留数据亦可依照需求选择不同输出格式,如csv,xlsx等。
总结一下
虽然仅处理基础数据,但在集群环境下,spark展现出优秀的大规模数据处理能力。无论海量excel数据还是复杂的结构化数据,都在spark协助下,能轻松应对并满足各种数据处理与分析任务。
借助apache spark处理excel文件,充分发挥分布式计算潜能,可让数据处理与分析过程更为高效出色,同时也极大提升数据处理效率和准确性。希望本文能让您对spark处理excel有更深入了解,在实践中更好地应用。
引用
https://github.com/crealytics/spark-excel
最后
到此这篇关于使用apache spark处理excel文件的简易指南的文章就介绍到这了,更多相关apache spark处理excel文件内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!
发表评论