- 理论支撑:企业财务大数据[2022-06-16]
- 数据治理的时代演变之道[2022-06-15]
- 数据治理的经济分析[2022-06-14]
- 实施数据治理时常犯的10[2022-06-13]
- 数据质量管理办法[2022-06-10]
- 治数VS养数[2022-06-09]
- 华为是怎么做数据治理的[2022-06-09]
- 数据发现对数据治理的重[2022-06-08]
- 工业企业数据治理的八大[2022-06-07]
- 企业数据治理团队的十大[2022-06-06]
企业数据治理风险管控
1、数据管理体系架构方面
1) 风险
◇ 数据管理制度不严谨,未切合本企业实际;
◇ 没有配套的组织架构,对违章者约束力不够,无法强化执行力度;
◇ 数据管理流程层次不清晰,责任不明确;
◇ 数据管理流程过长,导致数据新增、变更周期不可控;
◇ 数据申请人、审核人权限分配不合理。
2) 规避方法
◇ 结合本企业实际制定完善的数据管理制度,并配合相关组织结构分配执行,使数据管理的执行力最大化的加强;(可借助外力学习、借鉴先进经验)
◇ 结合本企业情况,制定完善、规范的数据管理流程,实现不同情况下的数据新增、变更的及时性,可操作性。(可借助外力学习、借鉴先进经验)
2、数据建模方面
1) 风险
◇ 由于类别的唯一性,导致制定这个主数据类别结构的周期过长,影响项目进度;
◇ 由于类别参与编码导致后期主数据类别结构的调整难以实现,且主数据无法在类别间实现自由搬迁、挪移;
◇ 由于主数据类别制定的周期较长且只有一个类别结构树,经常是最后将就订之,导致后期数据新增时由于不符合操作习惯或者误解而放错位置,直接造成编码重复的可控性降低;
◇ 主数据编码属性信息模板的不规范、不标准,随意性太强或者太国标化,没结合本企业、本行业相关标准,导致使用人员无法对应添加相关属性值;
◇ 不重视元数据管理的规范和标准,难以实现数据新增、变更时的统一、规范的数据验证实现,也难以保证数据查重的准确率;
◇ 不重视非编码属性模板和业务视图的制定,导致数据传输到对应业务系统中后无法直接使用,再次维护信息增加工作繁琐程度;
◇ 忽视数据模型版本的存档工作,导致版本变更前的数据无法实现依据的追踪;
◇ 数据模型建好后,没有合适的系统工具实现落地,无法摆脱只建模不落地或者随便找一工具落地的传统思想;
◇ 数据模型建好后,没有形成标准、规范的主数据管理手册(含编码手册),无法实现数据新增、变更时的录入规范,数据验证标准等。
2) 规避方法
◇ 结合企业实际,允许主数据多类别结构树的同时存在,且允许借用原有类别结构树,以满足不同操作人员的传统习惯,减少错误的发生,同时缩短或者省去类别制定周期;
◇ 需要系统工具实现类别参与编码和不参与编码(都可模拟原有编码结构)的不同管理方式,且允许一条主数据同时存在于多个类别结构树上,允许主数据类别结构树本身的自由调整和主数据在类别结构树间的自由搬迁、挪移;
◇ 利用专业人员,结合国标、行标、企标制定出一套完全符合企业实际情况的编码信息模型、非编码信息模型以及业务视图模型,并实现系统落地和手册沉淀;(可借助外力学习、借鉴先进经验)
◇ 利用系统实现数据模型变更前后的存档工作,使所有的数据都有据可依,有法可循;
◇ 重视元数据管理,制定规范、严谨的数据验证标准,并实现系统落地和手册沉淀;(可借助外力学习、借鉴先进经验)
◇ 从根本上转变只建模不落地,或者随意落地的传统管理思想。
3、数据清洗方面
1) 风险
◇ 借用国外客户数据、供应商数据、人员数据的清洗方法(ETL自动)来实现物资数据的清洗;
◇ 借用国外先查重后完善的思路进行物资数据的清洗,因为仅凭数据信息片段的相似度很难确定是否为重复数据,尤其是复杂的物资数据方面;
◇ 忽略主数据清洗的制度、流程的建立和相关权限的划分,不重视数据清洗过程中的多人协同顺序工作,使数据清洗工作无法保质保量按时完成;
◇ 不重视对老数据的和质量分析、清洗建模工作,导致好的清洗策略难以很好的发挥作用;
◇ 错估数据清洗的工作量和繁琐程度,严重影响参与人员的工作激情。
2) 规避方法
◇ 针对不同的主数据类型,寻找并利用专业的数据清洗工具,如物资数据清洗工具,客户数据等清洗工具;
◇ 针对物资数据的清洗,一定要按照先完善信息再查重的自动+手动的数据清洗模式,千万不要轻信国外全自动的数据清洗方法;
◇ 全面分析原有数据,本着逐步清洗的原则进行间断性的质量模型的建立和调整,配合数据清洗人员的顺序协同工作,最终实现老数据的模拟(完善信息)和映射(查重)工作;
◇ 不定期的召开清洗工作总结和动员会议,时刻给所有参与清洗工作的人员以心理准备,防止工作热情的过早消退。
4、数据日常管理方面
1) 风险
◇ 数据新增、变更时的随意性录入,或者是故意错误输入;
◇ 单人收集并添加相关数据新增信息,导致难以追溯错误的来源;
◇ 借用OA系统实现数据管理的流程化审核过程,借用流程可以,但是OA系统本身没有严格的数据验证,无法有效杜绝数据的重复发生;
◇ 不同业务系统的视图信息分散管理,不能实现数据的集中管理,就无法实现集团层面的数据的‘单一视图’,也无法为企业的数据中心建立奠定很好的基础;
◇ 依然借用erp系统实现数据的查重和验证,erp系统类似OA系统本身没有严格的数据验证,无法有效杜绝数据的重复发生;
◇ 依然沿用人工查重、手工添加新增数据到各业务系统中,殊不知手工的错误率和周期更难以把握。
2) 规避方法
◇ 利用落地系统建立完善的基础参照数据库,供录入时参照或者选择,可直接设置为只能选择,不能手动直接录入,杜绝故意错误的发生;
◇ 利用专业系统,建立自身完善的数据申请、审核、验证等机制,全面杜绝重复数据的再次发生;
◇ 建立数据新增的协同完善机制,即实现多人协同、顺序、补充完善数据申请单据(如供应商信息的外部增强),使责任明确化,减少信息错误的发生率;
◇ 建立健全全企业、全业务系统的数据视图,全面集中管理管控整个企业的所有数据信息,实现集团层面的数据的‘单一视图’,为企业数据中心的建立奠定坚实的基础;
5、数据交换方面
1) 风险
◇ 通过ERP或者其他业务系统实现数据的统一采集、分发服务,因为ERP或者其他业务系统的数据视图信息通用型不强,且无法相互包含,无法实现全面集中的数据管理;
◇ 数据传输的接口的模式和机制互不相同,单独维护数据传输接口工作量巨大;
◇ 依然是部分数据信息分散在各业务系统中,无法实现全公司,全人员、权限范围内的数据全面共享,如PDM中BOM设计人员和ERP中制造BOM的维护人员之间无法实现相关信息的全面共享,导致整个产品生命周期的BOM的不断变化,直接影响生产周期,降低客户忠诚度。
2) 规避方法
◇ 建立规范、标准的数据分发机制,实现企业内数据的统一、针对性采集、分发服务;
◇ 建立企业统一的数据交换平台,标准各业务系统的分发方式、传输格式等,实现后期自由新增业务系统的数据传输;
◇ 利用系统实现全企业、全员元数据层面的数据共享,真正打通企业管理各环节数据共享的各种障碍。中翰软件专注数据治理11年http://www.jobhand.cn/。