这个问题来自于对过去50年左右计算领域各种进展的评论。

其他一些与会者请我把这个问题作为一个问题向整个论坛提出。

这里的基本思想不是抨击事物的现状,而是试图理解提出基本新思想和原则的过程。

我认为我们在大多数计算领域都需要真正的新想法,我想知道最近已经完成的任何重要而有力的想法。如果我们真的找不到他们,那么我们应该问“为什么?”和“我们应该做什么?”


当前回答

来回答一个稍微不同的问题。我认为我们需要在隐私、信任和声誉方面有大的想法。我的电脑几乎能捕捉到关于我的一切,我在哪里,我说了什么,我打了什么,我看到了什么……大量的信息和同等数量的实体(人、商店、网站、服务),我可能想与他们共享其中的一些信息,即使它只是一个数据块。

我的信息需要挖掘(不是谷歌的,Facebook的或苹果的)。我的计算机需要代表我使用它,因此信任需要端到端。这样我们就可以将新的信息中间商去中介化。

其他回答

互联网本身早于1980年,但由蒂姆·伯纳斯-李提出并实现的万维网(“通过简单机制分布式超文本”)始于1989/90年。

虽然超文本的概念以前就存在(Nelson的Xanadu曾尝试实现分布式方案),但WWW是实现分布式超文本系统的一种新方法。Berners-Lee以一种强大且易于实现的方式将简单的客户机-服务器协议、标记语言和寻址方案结合在一起。

我认为大多数创新都是以一种原创的方式重新组合现有的作品。万维网的每一部分以前都以某种形式存在过,但两者的结合只有在事后才变得明显。

我确信你现在正在使用它。

除了硬件创新之外,我倾向于发现太阳底下几乎没有新的东西。大多数真正伟大的想法都可以追溯到冯·诺依曼和艾伦·图灵这样的人。

如今,许多被贴上“技术”标签的东西实际上只是某人编写的程序或库,或者是用新的隐喻、首字母缩写或品牌名称对旧思想进行翻新。

20年前:面向对象编程——更好地处理软件复杂性。

现在:云计算——为了更好地处理硬件复杂性。

未来:说明性的东西,但它还需要20年。

bt。它完全颠覆了以前看似显而易见的不可改变的规则——一个人通过互联网下载一个文件所需的时间与下载该文件的人数成正比。它还解决了以前的点对点解决方案的缺陷,特别是围绕着“吸血”,以一种有机的解决方案本身的方式。

BitTorrent优雅地将通常的缺点——许多用户试图同时下载一个文件——转变为优点,将文件在地理位置上分发,这是下载过程的自然组成部分。它优化两个对等点之间带宽使用的策略不鼓励作为副作用的“吸血”——强制节流符合所有参与者的最佳利益。

这是一种一旦被别人发明出来,即使不明显,也似乎很简单的想法。

DOS。我不是DOS的粉丝,但多亏了DOS和IBM-PC电脑才有了今天的样子(不管是好是坏)。