×

人工智能在数据质量管理有什么样的应用

消耗积分:3 | 格式:doc | 大小:0.02 MB | 2020-04-30

十次方

分享资料个

  说实在的,这个概念有些过于高大上,从大的方面包括、、强化学习等等,而深度学习又包括图像识别、语音识别、自然语言处理、预测分析;机器学习则包括监督学习、无监督学习、半监督学习,监督学习又细分为回归、分类、决策树等等。理论上人工智能什么都能做,什么都能迎合的上。

  关键数据质量管理实在太接地气了,以至于大家都理解为数据质量检查规则定义、数据质量检查规则脚本、检查规则执行引擎、数据质量检查规则执行情况监控,数据质量检查报告;而数据质量校验规则无非就是一致性、准确性、性、真实性、及时性、关联性、完整性的一堆校验,再大白话一些无非就是语句。

  而本人面临的还不是基于数据仓库的数据质量管理,数据仓库是一个面向主题的、集成的、相对稳定的、反映历史变化的数据集合,用于支持管理决策,数据仓库的集成性和面向主题两个特性决定了数据是有天然血缘关系的,血缘关系的存在是数据质量追溯的前提,能够抽丝剥茧一层层梳理,简而言之,目的性就是为了保障端到端的数据准确性。

  刚入职电信运营商的时候,主要负责经营分析系统的流量业务和数据业务,初步统计过经分系统有七八千张表、几千个存储过程,从接口层到存储层到中间表再到汇总层再到报表层,设计上倒也很合理,在不懂业务的情况下,为了快速上手,曾经花了3个月时间去阅读一百来张中间表的数百个存储过程,形成了几份人肉血缘关系文档,再过一年基本就可以设计数据模型了,这是个笨方法,但也是最快速的办法。

  入职新公司后,每年推陈出新一大堆新概念,但基本上落地的很少,数据中心、数字平台、数据平台、数据中台、数据湖、物联网服务器、人工智能服务器平台,云化重构,昨天阅读到一篇文章,说数据湖就是懒人数据仓库,公司非常想挖掘现有和历史的业务数据,但是还没有详细的规划如何分析。所以需要先保存数据,在考虑以后的分析,毕竟对于很多公司来说,数据就是巨大的资产。毕竟数据湖既新潮又解决不了实际问题,而且、mpp既廉价容量又大,关键是规避了数据质量和企业数据模型,我想大概就是这个原因吧。

  本人要面临的是什么呢,一大堆业务系统,一些半集中化的报表系统,ETL工具五花八门,有ETL工具,有DBLink抽取的,有ogg同步的,业务系统之间靠主数据和SOA进行数据协作,就像任何早期系统一样,初衷设计是好的,实际落地都会大打折扣,于是出现了数据质量问题,数据质量问题又分解为技术问题和数据问题,技术问题当然是追究系统建设的原因了,当然也无法追究,毕竟上线那么多年了,数据问题要追究业务部门录入人员和使用人员的责任,就涉及到数据认责,数据认责又牵涉到各方利益,所以巴拉巴拉的。

  但是工作还得做啊,尽人事听天命嘛,个人认为数据质量问题短期内解决数据同源问题,长期目标是为了解决企业数据模型问题,毕竟数据质量核查过程是了解数据的过程,了解数据的过程就是不断熟悉业务的过程,熟悉业务自然就会站在业务人员的角度去考虑企业数据模型问题。

  前面是讲了数据质量问题的目标,当然要数据质量问题不可避免要涉及到制度机制、平台工具、运营团队。

  一、基于数据管理能力成熟度和公司数据管理过程中的问题制定一系列实际可操作可落地的数据管理制度。

  二、关于数据认责,要基于业务场景开展尝试,而不是胡子眉毛一把抓

  三、建立一套综合数据质量平台,为数据质量提供自动、自助、智能化的平台支撑,数据还是要集中的,不集中什么都治不了

  四、搭建一套数据闭环管理流程,自下而上收集问题处理问题

  五、有一套数据治理组织架构,这个一般雷声大雨点小,那就从自我做起吧,一个数据运营团队和相关分工还是要的。

  搞到最后,还是少不了钱,有钱不是万能的,没钱是万万不能的,制度、平台、团队都是靠钱的。

  前面讲了一堆数据质量的事情,怎么解决ai服务器的问题呢?其实也借鉴了一些网上的部分,当然自己也反复思考,为了工作夜不能寐。

  数据质量的问题主要发生在源端、传输过程和目标端,这话说起来容易,实施起来难,几万张表上百万字段估计一辈子耗进去都脱身不出来,怎么办,靠人工智能和浪潮服务器专家的经验。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论(0)
发评论

下载排行榜

全部0条评论

快来发表一下你的评论吧 !