一、8种基本数据类型(4整,2浮,1符,1布):
整型:byte(最小的数据类型)、short(短整型)、int(整型)、long(长整型);
浮点型:float(浮点型)、double(双精度浮点型);
字符型:char(字符型);
布尔型:boolean(布尔型)。
二、整型中 byte、short、int、long 取值范围
byte:一个字节有8位,去掉符号位还有7位,正数为避免进位还要减1,因此byte的取值范围为:-2^7 ~ (2^7-1),也就是 -128~127 之间。
short:short用16位存储,去掉符号位还有15位,正数为避免进位还要减1,因此short的取值范围是:-2^15 ~ (2^15-1)。
int:整型用32位存储,去掉符号位还有31位,正数为避免进位还要减1,因此整型的取值范围是 -2^31 ~ (2^31-1)。
long:长整型用64位存储,去掉符号位还有63位,正数为避免进位还要减1,因此长整型的取值范围是 -2^63 ~ (2^63-1)。
三:浮点型数据
浮点类型是指用于表示小数的数据类型。
单精度和双精度的区别:
单精度浮点型float,用32位存储,1位为符号位, 指数8位, 尾数23位,即:float的精度是23位,能精确表达23位的数,超过就被截取。
双精度浮点型double,用64位存储,1位符号位,11位指数,52位尾数,即:double的精度是52位,能精确表达52位的数,超过就被截取。
双精度类型double比单精度类型float具有更高的精度,和更大的表示范围,常常用于科学计算等高精度场合。
浮点数与小数的区别:
1)在赋值或者存储中浮点类型的精度有限,float是23位,double是52位。
2)在计算机实际处理和运算过程中,浮点数本质上是以二进制形式存在的。
3)二进制所能表示的两个相邻的浮点值之间存在一定的间隙,浮点值越大,这个间隙也会越大。如果此时对较大的浮点数进行操作时,浮点数的精度问题就会产生,甚至出现一些“不正常”的现象。
为什么不能用浮点数来表示金额
先给出结论:金额用BigDecimal !!!
1)精度丢失问题
从上面我们可以知道,float的精度是23位,double精度是63位。在存储或运算过程中,当超出精度时,超出部分会被截掉,由此就会造成误差。
对于金额而言,舍去不能表示的部分,损失也就产生了。
32位的浮点数由3部分组成:1比特的符号位,8比特的阶码(exponent,指数),23比特的尾数(Mantissa,尾数)。这个结构会表示成一个小数点左边为1,以底数为2的科学计数法表示的二进制小数。浮点数的能表示的数据大小范围由阶码决定,但是能够表示的精度完全取决于尾数的长度。long的最大值是2的64次方减1,需要63个二进制位表示,即便是double,52位的尾数也无法完整的表示long的最大值。不能表示的部分也就只能被舍去了。对于金额,舍去不能表示的部分,损失也就产生了。
了解了浮点数表示机制后,丢失精度的现象也就不难理解了。但是,这只是浮点数不能表示金额的原因之一。还有一个深刻的原因与进制转换有关。十进制的0.1在二进制下将是一个无线循环小数。
eg:
public class MyTest { public static void main(String[] args) { float increment = 0.1f; float expected = 1; float sum = 0; for (int i = 0; i < 10; i++) { sum += increment; System.out.println(sum); } if (expected == sum) { System.out.println("equal"); } else { System.out.println("not equal "); } } }
输出结果:
0.1 0.2 0.3 0.4 0.5 0.6 0.70000005 0.8000001 0.9000001 1.0000001 not equal
2)进制转换误差
从上面我们可以知道,在计算机实际处理和运算过程中,浮点数本质上是以二进制形式存在的。
而十进制的0.1在二进制下将是一个无限循环小数,这就会导致误差的出现。
如果一个小数不是2的负整数次幂,用浮点数表示必然产生浮点误差。
换言之:A进制下的有限小数,转换到B进制下极有可能是无限小数,误差也由此产生。
金额计算不能用doube!!!! 金额计算不能用doube!!!! 金额计算不能用doube!!!! 金额计算必须用BigDecimal
浮点数不精确的根本原因在于:尾数部分的位数是固定的,一旦需要表示的数字的精度高于浮点数的精度,那么必然产生误差!
解决这个问题的方法是BigDecimal的类,这个类可以表示任意精度的数字,其原理是:用字符串存储数字,转换为数组来模拟大数,实现两个数组的数学运算并将结果返回。