当前位置: 代码网 > it编程>数据库>大数据 > 图书《数据资产管理核心技术与应用》分享

图书《数据资产管理核心技术与应用》分享

2024年08月04日 大数据 我要评论
《数据资产管理核心技术与应用》是由清华大学出版社出版的一本图书,该图书主要特点如下: 1、依托于大数据技术,独家解密数据血缘的底层技术实现 2、详解数据资产管理的知识体系和核心技术 3、应用元数据管理和数据建模技术,充分发挥出数据资产的更大潜力和价值。 4、全书从元数据、数据血缘、数据质量、数据服务、数据监控、数据建模、数据架构等多个维度来剖析大数据资产管理的核心技术与应用。 5、全书配套了PPT课件以及作...

《数据资产管理核心技术与应用》是由清华大学出版社出版的一本图书,该图书主要特点如下:

1、依托于大数据技术,独家解密数据血缘的底层技术实现

2、详解数据资产管理的知识体系和核心技术

3、应用元数据管理和数据建模技术,充分发挥出数据资产的更大潜力和价值。

4、全书从元数据、数据血缘、数据质量、数据服务、数据监控、数据建模、数据架构等多个维度来剖析大数据资产管理的核心技术与应用。

5、全书配套了ppt课件以及作者微信答疑服务

核心章节介绍如下:全书依托于大数据技术,独家解密数据血缘的底层技术实现

通常来说,数据血缘的来源可以包括数据源自身、数据处理的任务、数据任务的编排系统等。

  • 数据源自身:比如像hive,由于其本身就是支持通过hql做数据处理的,所以其本身就可以通过数据处理的过程来分析从而获取血缘。
  • 数据处理的任务:这点很容易理解,因为不管是实时任务还是离线任务,都会涉及到数据逻辑的处理,从数据任务的底层实现技术上来说,不管是hadoop的map-reduce 任务还是spark任务还是flink任务,本质也都是在做数据的转换处理,有数据的转换,就可能会有数据血缘的变化。
  • 数据任务的编排系统:这点也很容易理解,如下图3-1-1所示,在任务编排时,可能会将很多不同的任务节点按照依赖顺序串联起来。前一个任务节点的数据输出会是下一个任务节点的数据输入,所以肯定也会产生数据的转换,就肯定也会存在血缘。

  • 重点介绍了数据血缘的底层技术实现,包括:
  1. 如何从hive中获取数据血缘
  2. 从spark 执行计划中获取数据血缘
  3. 从spark  sql语句中获取数据血缘
  4. 从flink中获取数据血缘
  5. 从数据任务的编排系统中获取数

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com