数据资产入表元年,企业如何抓住数据资产增值的机遇?
近年来,政府将数据要素纳入了经济发展的重要指示性文件当中,希望利用数据驱动。《全国数据资源调查报告(2023年)》显示,2024年以来不少地方纷纷成立"数据集团",加快盘活数据资产。作为数字经济时代的首要生产要素,数据将有望成为政府和企业财务报表以及财政收入的重要支持。
一、数据资产定义
数据资产是指企业拥有或控制的、预期会给企业带来可持续经济利益、以数据为主要内容和服务的可辨认形态。
"企业拥有或控制的",就是企业必须拥有数据资产的完整权利,即所谓的"三权":数据资源持有权、数据加工使用权、数据产品经营权。"预期会给企业带来可持续经济利益",这些利益可以进一步细分为内部价值和外部收益,内部价值指的是企业自身生产、销售并使用数据资产所产生的价值;而外部价值则是指企业生产、销售数据资产给其他使用者所产生的收益。"以数据为主要内容和服务的可辨认形态"意味着只有当数据以产品的形式存在,并且能够被明确识别和计量时,它才能被正式确认为数据资产,数据产品不仅是数据资产化过程中的产物,也是衡量和确认数据资产价值的重要标准。
二、数据资产管理
中国信通院《数据资产管理实践白皮书6.0》:数据资产管理是指对数据资产进行规划、控制和供给的一组活动职能。数据资产管理须充分融合政策、管理、业务、技术和服务,确保数据资产保值增值。
数据资产的管理和利用是数据资产的重要环节,它决定了数据资产的价值能否得到充分的发挥和提升。通过数据资产管理,企业可以更好地理解和利用数据,将其转化为企业的战略资产,进而推动业务创新和价值提升。
数据资产管理包含数据资源化、数据资产化两个环节,将原始数据转变为数据资源、数据资产,逐步提高数据的价值密度,为数据要素化奠定基础。
数据资源化的核心在于将数据从原始状态转化为有价值的资源,是数据资产化的必要前提。涉及到从原始数据的采集、存储到后期的加工处理,包括数据模型管理、数据标准管理、数据质量管理、主数据管理、数据安全管理、元数据管理、数据开发管理等活动职能。这一切工作的目的,是将杂乱无章的原始数据转化为可识别、可管理、可利用的资源,为数据的进一步加工和应用打下坚实基础。通过数据资源化,企业可以更加深入地了解用户需求、市场趋势和业务运营情况,为决策提供有力支持。
数据资产化是将数据资源转化为可量化、可交易的资产的过程,这一过程能够充分挖掘并释放数据资源的潜在价值。其核心目标在于扩大数据资产的应用范围,明确数据资产的成本与效益,并在数据供应方与消费方之间构建一个良性反馈闭环。在此过程中,企业需对数据进行评估、定价和交易等关键操作,以实现数据的商业化和市场化。数据资产化涉及的主要活动包括数据资产的流通、运营、价值评估、建立交易规则以及监管机制的构建。
数据资产化不仅标志着数据从静态资源向动态资产的转变,也意味着数据内容和形式的全面升级。通过这一过程,数据不再仅仅是一个静态的存在,而是变成了可以衡量、交易并带来收益的有形资产。
三、数据资产管理助力数据资产入表
数据资产不同于原始数据,它代表着经济社会数字化转型中的一种新型资产类别,被认为是数字时代中极为关键的资产形式。通过有序推进数据资产化并强化其全生命周期的管理,可以更有效地激发数据资产的内在价值。
继数据资产入表会计新规正式落地之后,数据资产管理领域也再度迎来国家级重磅文件。1月11日,财政部公开发布《关于加强数据资产管理的指导意见》,肯定了数据资源可具有资产属性,是数据要素市场发展的重要里程碑。作为报表意义上的"资产",企业数据的市场价值与业务贡献将在财务报表中得以"显性化"。
数据资产入表是数据资产价值化的闭环之举,将企业数据资产以会计科目和货币化形式呈现,将推动企业数据资源向数据资产转变,形成规范的数据资产开发、运营和管理体系,提升企业数据治理能级。
这是一个巨大蓝海,而数据资产管理正是数据资产入表的前提。数据作为新型生产要素,具有其它四类生产要素不具备的价值特性,因此开展数据资产入表要夯实机制、基础。
企业要在数据资产管理上下功夫,尽快建立起有效的数据资产管理体系,打下数据资源入表的管理基础,建立数据登记确权、评估计价和资产入表的政策"闭环",激活万亿数据资产,是开启这一蓝海的金钥匙。
针对资产入表,我们提供以下支持:
想要了解完整数据资产管理内容?点此即刻获取白皮书!
《数据资产管理白皮书》下载地址:https://www.dtstack.com/resources/1073?src=szkyzg
《行业指标体系白皮书》下载地址:https://www.dtstack.com/resources/1057?src=szkyzg
《数据治理行业实践白皮书》下载地址:https://www.dtstack.com/resources/1001?src=szkyzg
想了解或咨询更多有关大数据产品、行业解决方案、客户案例的朋友,浏览袋鼠云官网:https://www.dtstack.com/?src=szkyzg

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
深度解析:基于离线开发的数据仓库转型落地案例
在当今这个数据驱动的时代,各行各业都正经历着前所未有的变革。伴随技术的飞速发展,数据仓库作为企业数据管理与分析的核心,如何更好地发挥作用,助力企业保持业务的敏捷性与成本效益,成为大家关心的焦点问题。本文将通过具体案例分析,展现基于离线开发的数据仓库转型落地中的关键步骤与实施策略。 一、业务增长迅速,原数仓架构难以为继 客户A是一家中美合资的泛金融行业公司,成立时间短但业务增长十分迅速。数仓团队规模不到10个人,勉强能支撑起业务需求,在面对越来越高要求的业务数据供给及公司内部降本增效的趋势下,团队也在不断探索新型的数仓平台模式,目前数仓架构如下图: 客户底座集群采购了CDP7.1.6、数据集成采用Sqoop,将业务库的数据同步至HDFS后,通过Hive SQL做数据开发。另有少量的Shell、Python任务,使用Oozie进行离线任务调度。 二、当前数据平台问题日渐凸显 随着业务体量的逐渐增长,当前数据平台架构的问题也逐渐凸显: 1. 运维成本高:Sqoop和Oozie都是开源工具,集成性一般,组件的升级和异常排查需要耗费较多人力成本。 ** 2. 平台上手门槛高**:除数据开发外,很...
- 下一篇
兼容Trino Connector,扩展Apache Doris数据源接入能力|Lakehouse 使用手册(四)
Apache Doris 内置支持包括 Hive、Iceberg、Hudi、Paimon、LakeSoul、JDBC 在内的多种 Catalog,并为其提供原生高性能且稳定的访问能力,以满足与数据湖的集成需求。而随着 Apache Doris 用户的增加,新的数据源连接需求也随之增加。因此,从 3.0 版本开始,Apache Doris 引入了 Trino Connector 兼容框架。 Trino/Presto 作为业界较早应用于湖仓查询、联邦分析的计算引擎,以广泛的数据源对接能力闻名。支持包括 Hive、Iceberg、Hudi、Paimon、Delta Lake、Kudu、BigQuery、Redis、Kafka 在内的数十种数据源,而这一能力主要得益于其插件化的 Connector 框架。Apache Doris 为快速提升数据接入能力与扩展性,并减少对每个数据源支持的开发工作量,选择兼容现有的 Connector 框架是一种高效且合理的解决方案。 通过兼容 Connector 插件,Apache Doris 能够支持 Trino/Presto 可对接的所有数据源,而无需改动 ...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- 设置Eclipse缩进为4个空格,增强代码规范
- CentOS关闭SELinux安全模块
- CentOS7,8上快速安装Gitea,搭建Git服务器
- Hadoop3单机部署,实现最简伪集群
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- Docker安装Oracle12C,快速搭建Oracle学习环境