【MaxCompute学习】隐式转化的问题
有一次计算一个数据的百分比,想把小数结果取2位,并拼接一个百分号展示在结果报表中。用到的sql如下
select concat(round(10230/1497409,4)*100,'%') from dual;
很奇怪局部数据并没有保留2位小数,比如上面的数据返回的是67.99999999999999
我计算了下上面的结果大概得到的数据为0.0068
select concat(round(0.0066 ,4)*100,'%') from dual;--0.66% select concat(round(0.0067 ,4)*100,'%') from dual;--0.67% select concat(round(0.0068 ,4)*100,'%') from dual;--0.6799999999999999% sele

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
基于python impyla的hive客户端
打开微信扫一扫,关注微信公众号【数据与算法联盟】 转载请注明出处:http://blog.csdn.net/gamer_gyt 博主微博:http://weibo.com/234654758 Github:https://github.com/thinkgamer 写在前边的话 在hive部署的时候我们谈过hive的三种访问方式 CLI(shell 终端) HWI (Hive的web页面操作) thrift (启动hiveserver2服务,基于thrift建立hive的操作) 第三种thrift方式的,网友们进行了封装,目前有三个广负盛名的python backage pyhive impyla(小主采用该backage) pyhs2 小主本地环境介绍 CentOS6.5 /64 位 python 2.7 这里小主做的web可视化界面比较菜看两张截图吧(这个是HIW项目的一部分 github-HIW) 部署 impyla必须的依赖包括: six bit_array thriftpy(python2.x则是thrift) 为了支持Hive还需要以下两个包: sasl thrift_sa...
- 下一篇
hadoop集群同步实现
#!/usr/bin/env python #coding=utf-8 #scribe日志接收存在小集群到大集群之间, distcp 同步失败的情况,需要手动进行补入。 #1、如果查询补入的日志量少,则可以之间用脚本处理。如果量大,则使用 hadoop 提交job。 # hadoop job 提交方式: # hadoop jar /usr/local/hadoop-2.4.0/share/hadoop/tools/lib/hadoop-distcp-2.4.0.jar -m 100 hdfs://scribehadoop/scribelog/common_act/2016/08/02/13/ /file/realtime/distcpv2/scribelog/common_act/2016/08/02/13 --update # --update 参数表示如果目标地址目录存在,则更新该目录中的内容。 #手动同步脚本使用方法: python manual_check_sync.py dst_path #脚本完成大集群和小集群之间的目录大小比较,目录文件比较。 输出差异文件列表。最后...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS8安装Docker,最新的服务器搭配容器使用
- CentOS7设置SWAP分区,小内存服务器的救世主
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- 2048小游戏-低调大师作品
- CentOS7,CentOS8安装Elasticsearch6.8.6
- SpringBoot2配置默认Tomcat设置,开启更多高级功能