hbase 存储double(负数) -> phoenix查询怎么处理?

问题描述

hbase 存储double(负数) -> phoenix查询怎么处理?

phoenix表字段类型:double

使用org.apache.hadoop.hbase.util.Bytes.toBytes(-123D) 存入hbase
查询出来变成:122.99999999999999

org.apache.hadoop.hbase.util.Bytes.toBytes(123D) 存入hbase
查询出来变成:-0.03369140625

求教怎么处理才对?

解决方案

http://www.cnblogs.com/laov/p/4137136.html

时间: 2024-08-31 23:35:52

hbase 存储double(负数) -> phoenix查询怎么处理?的相关文章

HBase存储时间相关多列数据两种方案浅析

所谓"时间相关多列数据"指的是同一个Key下具有多个属性数据,并且这些数据与时间具有相关性,多数场景是该Key对应在不同时间时刻的行为数据.在实际应用中,这类数据很多,例如电子商务网站上用户最近一段时间浏览的宝贝集合.访问的URL列表等. 使用HBase存储此类数据时,有以下两种常用的方案: 多行单列 表结构设计 Row Key:用户标识ID + (Long.MAX_VALUE - timestamp) Column Family:'cf' Column Qualifier:'' Va

mysql让存储结果分页,用于复杂查询。(欢迎探讨)

mysql|分页 mysql让存储结果分页,用于复杂查询. 似乎讨论分页的人很少,难道大家都沉迷于limit m,n?在有索引的情况下,limit m,n速度足够,可是在复杂条件搜索时,where somthing order by somefield+somefieldmysql会搜遍数据库,找出"所有"符合条件的记录,然后取出m,n条记录.如果你的数据量有几十万条,用户又搜索一些很通俗的词,然后要依次读最后几页重温旧梦...mysql该很悲壮的不停操作硬盘. 所以,可以试着让mys

java-SQlite 数据库不能存储double 值为字符串

问题描述 SQlite 数据库不能存储double 值为字符串 我使用下面的代码 public boolean addArea(AreaClass area , ArrayList<AreaMarkClass> areaArray) { area.id = getNextAreaId(); Log.d("longitude", area.longitude); Log.d("latitude", area.latitude); ContentValues

数据库-mysql中用bolb存储emoji表情,单张表查询可以,多表关联查询该字段则为空

问题描述 mysql中用bolb存储emoji表情,单张表查询可以,多表关联查询该字段则为空 现在碰到一个问题,关于emoji表情的,现在mysql中我用bolb存储emoji表情,单张表查询表情可以正常的查询出来,多表关联查询的时候,存emoji表情的字段查询出来为空,求大神指点,该字段我用的是bolb数据类型,数据库,表,都是utf8mb4字符集 解决方案 将查询出来的数组调试输出下,和原始的数据比对,估计是数据编码的错误.

scanf double负数-c++ scanf多个负数输入问题

问题描述 c++ scanf多个负数输入问题 double a,b,c,d; scanf("%lf,%lf,%lf,%lf",&a,&b,&c,&d); 这里,假如输入数是-1.2,2.34,-3,-4.56 那么除了第一个数a外,后面三个都不能得到正确的值,这是为什么? 正数和整数就可以. 而要想输入多个负数,scanf中间就要用" "空格分开,不能用","逗号,假如格式化必须要使用逗号怎么办(在某种格式化输入中

表格存储新手指南:如何实现分页查询

本篇文章会介绍如何在表格存储上实现分页查询. 有别于传统关系型数据库支持的翻页查询,在NoSQL的数据模型和API上,实现分页功能会有以下的限制,需要特别注意: 不支持获取整个范围的行数,即无法计算总的页数. 不建议使用设置offset来跳页,因为offset的过滤是在客户端做,服务端不管如何,都会扫描读出那么多的数据.若offset设定过大,则可能导致本次查询时间过长. 最佳实践是只提供顺序翻页的功能,一页一页顺序往下翻. 下面是一个实现分页读接口的示例代码,提供offset过滤以及读取指定页

降低云存储成本:数据抽象和分布查询式数据访问

对于围绕云计算的所有应用来说,目前公共云服务中的应用只代表了IT总支出的一小部分.除非主流的.占企业预算大头的关键任务应用能够迁往公共云,否则这一态势将不会发生变化. 公共云应用的最大瓶颈似乎是高昂的云计算存储成本.与Web相关的云应用可能会存储数以百兆的数据,而关键任务应用则可能会存储TB级的数据,按目前的价格来看,其存储成本是大部分用户所难以承受的.但是值得庆幸的是,我们有两种策略可以来解决这一云存储成本问题:数据抽象和分布查询式数据访问. 将数据抽象方法用于商业智能和成本分析应用 商业智能

HBase - Phoenix剖析

1.概述 在<Hadoop-Drill深度剖析> 一文当中,给大家介绍了Drill的相关内容,就实时查询来说,Drill基本能够满足要求,同时还可以做一个简单业务上的聚合,如果在使用Hive做一 些简单的业务统计(不涉及多维度,比如CUBE,ROLLUP之类的函数),只是用一些基本的聚合函数或是JOIN ON之类的,Drill基本满足要求,而且响应速度可比OLTP.今天给大家剖析的是另外一种工具,由于目前Drill官方不支持对表的插入,更新操作. 所以,在操作HBase的时候,若遇到这些需求,

HBase笔记:存储结构

从HBase的架构图上可以看出,HBase中的存储包括HMaster.HRegionServer.HRegion.Store.MemStore.StoreFile.HFile.HLog等,本篇文章统一介绍他们的作用即存储结构. 以下是网络上流传的HBase存储架构图: HBase中的每张表都通过行键按照一定的范围被分割成多个子表(HRegion),默认一个HRegion超过256M就要被分割成两个,这个过程由HRegionServer管理,而HRegion的分配由HMaster管理. HMast