和所有编程语言一样,Number也是非常常用的数据类型之一。不过在JavaScript中,Number数据类型是不区分整数值和浮点数值的。在JavaScript中所有的数字都是使用的浮点数表示的,并且采用IEEE 754标准定义的64为浮点格式表示数字,不过也因为如此,这意味着它能表示的最大值是±1.7976931348623157*10的308的方,最小值为±5*10的-324的方。为了支持各种数值类型,ECMA-262定义不同的数值字面量格式。
在JavaScript中的最基本的数字字面量就是十进制整数,十进制的整数可以直接在代码中输入:
十进制的整数也是JavaScript中最常用的数字方式,当然除了十进制表示之外,整数可还可以通过八进制或者十六进制的字面量来进行表示。当然,八进制字面量的第一位必须是数字零(0),后面是八进制的序列(0~7)。如果字面量中的数值超出了范围,那么前面的零将被忽略,八进制也就是失效了,最终的解析会被当作十进制来进行解析。例如:
不过值得注意一点的是,八进制字面量在严格模式中是无效的,会导致JavaScript直接抛出错误。
十六进制的字面量前两位需要是0x,后跟十六进制数字(0~9和A~F)。因为十六位往上进,所以A一般代表10,B代表11,以此类推,F代表15,当到16就会往上进一位了,这个就是十六进制的原理了。其中字母A~F可以大写,也可以小写。例如:
不过在真正的最终计算时,所有的以十六进制和八进制表示的数值都最终会十进制展示结果。
本文原创,未经作者允许不可转载!
更多内容,欢迎关注作者微信公众号:李游Leo老师前端讲堂!
暂无评论
违反法律法规
侵犯个人权益
有害网站环境