黑洞分寒只是让传几份超计算模型、图灵-丘奇论题相关的论文而已,怎么又惹得福地分寒那般失态,大腿都拍肿了?
先说说什么叫超计算模型。
计算机理论的基础是可计算性理论,而可计算性理论的基石是“图灵机”与“丘奇-图灵论题”。
后者是以数学家阿隆佐·丘奇和阿兰·图灵命名,就仿佛热力学第二定律一样,有多种形式大相径庭的表述方式。
比如:所有计算或算法都可以由一台图灵机来执行。
或者:以任何常规编程语言编写的计算机程序都可以翻译成一台图灵机,反之任何一台图灵机也都可以翻译成大部分编程语言的程序。
又或者:逻辑和数学中的有效或机械方法可由图灵机来表示。
大家云山雾罩,不明所以了吧?
其实主要是概念不熟。
像质能方程,一切物质都潜藏着质量乘于光速平方的能量。大家立刻能理解,是因为对物质、质量、光速、能量的概念耳熟能详。
而丘奇-图灵论题涉及的概念大家一般不那么熟悉,于是字都认识,连起来就莫名奇妙了。
事实上,如何界定有效方法、执行算法、有限步骤,这些也正是该论题重点讨论的对象。
比如第一章中曾经出现的蔡廷常数,为什么叫不可计算数?
就是因为若以数字为对象的集合,可计算数便是指图灵机通过有限的通用算法可以得到的数字,基本就是所有实数。有理数靠加减乘除,无理数靠乘方开方,超越数可以用级数……
想知道√2或者π的第一亿位是多少,写一段程序运行就是了。
但不可计算数,虽然理论上是一个常数,但理论上也证明了,永远也无法求出它来。
因为求它的过程,会影响结果。
就好像蝴蝶效应,你不想要现在的结局,回到从前试图改变,但结局又会变成什么样子,回归迭代之前是不知道的。
甚至在此之后还有更加诡异的,语言都无法定义的数字,叫做不可定义数。虽然目前还没有数学家成功构造出来……
总之,1936年的一篇论文中,阿兰·图灵引入了图灵机,来证明“判定性问题”是无法解决的;
而阿隆佐·邱奇利用递归函数和lambda可定义函数,做出了类似的论题,用来描述有效可计算性;
还是1936年,图灵根据邱奇的工作,进一步证明了图灵机实际上描述的是同一集合的函数;
再之后,更多用于描述有效计算的机制被提出来,比如寄存器机器、波斯特体系、组合可定义性以及马可夫算法等等。
这些都被证明在计算上和图灵机拥有相同的能力,能与通用图灵机互相模拟,就被称为图灵完全。
《我的世界》就被证明是图灵完全的,乐高积木据说也是,还有万智牌……
扯远了,这一切有什么意义呢?
意义就是,数学家和计算学家们渐渐弄清楚了,虽然形式、语言、系统各有不同,现代计算机本质上都和图灵机等价——现代计算机能完成的任务,图灵机也一定能完成;图灵机做不到的事情,现在计算机也做不到。
这就叫可计算性。
不过这都是上个世纪的研究了。
从1936年开始,其后几年,算是奠定了现代计算机的理论基础,此后就是工业化、微型化、规模集成、摩尔定律……只有工程上的突破,再没有理论上的创新了。
但是,真的如此吗?
科学家们好不容易开辟了一个领域,会满足于取得的成绩,就此踯躅不前?
不存在的!
事实上没有多久,科学家们就对图灵描述的可计算性不满足了。开始思考有没有比图灵机更强的,可以实现图灵机无法计算的难题的新模型。
也就是超计算模型!
量子计算机就是其中一种。
不过其计算能力本质上还是与图灵机等价,只是计算复杂度要优秀的多。可以把指数类难题降级到多项式时间内。
这就结束了吗?
当然不会!
除了量子计算机,还有阿兰·图灵本人提出的,通过喻示“黑箱”来搞定“判定性问题”的喻示机。
而之后的大部分超计算模型,也都是基于喻示机的概念——通过将其他特性引入图灵机,使其不受先前的计算能力限制。
所以阿兰·图灵伟大,被誉为“计算机科学之父”、“人工智能之父”,同样十分著名的冯·诺依曼只是“现代计算机之父”。
实在是二人的关系就仿佛提出了质能方程的爱因斯坦,与组织建造了原子弹的奥本海默。
又扯远了,类似的超计算模型还有——
Blum-Shub-Smale machine;无限精度神经网络模型;模糊图灵机;相对论效应计算机;芝诺机;Fast-growing constructs Oracle;Self-similar元胞自动机;极限递归模型;波计算机;量子引力计算机;Coupled Turing Machines;Hypertask模型;快子模型;概率图灵机;无限状态图灵机等等……
其中有一类分外吸引两位分寒的注意!