如何在DataWorks V2.0 的 ODPS SQL任务中使用调度参数
在ODPS SQL 中使用调度参数
DataWorks的调度参数分为两种,一种是系统调度参数,另一种是自定义调度参数。
系统调度参数只有两个:
bizdate:获取到业务日期,展示格式为:yyyymmdd;
cyctime:获取到任务实例的定时时间,格式为:yyyymmddhh24miss;
在SQL节点中使用系统调度参数
以下是在SQL代码中的用法,并设置该任务的定时运行时间为00:23分。
请注意:当代码中使用了调度参数,在界面上直接运行的时候,需要传入一个具体的值,因为直接运行不会经过调度系统,所以参数不会转换,需要输入一个具体的值,该值仅本次运行有效。
当任务提交后,点击冒烟测试运行,选择传入的业务日期时间,点击确认。
运行结果如下:
可以看到,时间都已经被替换了,bizdate获取到了我们传入的业务日期,cyctime获取到了任务的定时时间
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
理论与实践:如何从Hadoop迁移到MaxCompute
摘要:MaxCompute大数据计算服务,能提供快速、完全托管的PB级数据仓库解决方案,能够使用户经济且高效地分析处理海量数据。而用户往往之前使用了Hadoop实现大数据计算任务,在选择了阿里云大数据计算服务之后,如何从Hadoop向MaxCompute进行迁移就成为了一个需要面对的问题了。在本文中,阿里云数据技术专家结网就为大家分享了从Hadoop迁移到MaxCompute的理论与实践。 直播视频回看, 传送门! 分享资料下载, 传送门! 更多精彩内容传送门: 大数据计算技术共享计划 — MaxCompute技术公开课第二季 以下内容根据演讲视频以及PPT整理而成。 通常而言,将Hadoop迁移到MaxCompute会分为两个主要部分:数据迁移和任务迁移。首先,对于数据迁移而言,可以通过Datax、数据集成以及DataxOnHadoo
- 下一篇
Hadoop hdfs+Spark配置
Hadoop hdfs配置(版本2.7) hadoop-env.sh export JAVA_HOME=/home/java/jdk1.8.0_45 hdfs-site.xml <name>dfs.nameservices</name> <value>guanjian</value> <name>dfs.ha.namenodes.guanjian</name> <value>nn1,nn2</value> <name>dfs.namenode.rpc-address.guanjian.nn1</name> <value>host1:8020</value> <name>dfs.namenode.rpc-address.guanjian.nn2</name> <value>host2:8020</value> <name>dfs.namenode.http-address.guanjia...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS7安装Docker,走上虚拟化容器引擎之路
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS7设置SWAP分区,小内存服务器的救世主
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS8安装Docker,最新的服务器搭配容器使用
- CentOS关闭SELinux安全模块