为什么编程语言的计算数值有最大上限?
2014-07-02 来自: 3 人回应

可能涉及计算机原理。

我的疑问是这样的:

计算机计算难道不是基于运算法则的么?
比如: for(i=1;i>0;i++){alert(i);} ,
按法则的话,只要十进制下进行加法运算,满10高位进1不就行了么,这样应该可以永无止境的啊。

但是,为什么所有的语言都有个计算上限呢?

2014-07-10 来自:塔罗

请看GMP等任意精度的整型实现,大小只受限于内存。也有语言在语言级别提供任意精度的整型,例如Haskell的Integer类型()。

大部分语言都会提供和CPU的机器字大小相等的整型(例如Haskell的Int类型),这多数是为了性能。

2014-07-05 来自:刘夏

请看GMP等任意精度的整型实现,大小只受限于内存。也有语言在语言级别提供任意精度的整型,利如Haskell的Integer类型()。

大部分语言都会提供和CPU的机器字大小相等的整型(利如Haskell的Int类型),这多数是为了性能。

2014-07-03 来自:不懂得离开

因为存储(内存)是有限的,1个比特位只能表示2个数,10个比特位只能表示1024个数。

您的回应

你还未登陆,不能回应!登陆