太叔酩唤
2019-05-22 10:11:25
发布于2016年2月13日上午8点24分
更新时间2016年2月13日上午8:24

Screengrab由大自然提供

Screengrab由大自然提供

谷歌DeepMind项目的消息上周短暂席卷了互联网,因为这家搜索巨头透露他们的AI平台AlphaGo已经 。 社交网络爆发了关于天网,黑客帝国,赛昂的帖子,以及其他一些对末世流行文化的明显提及。

首先,要记下机器人 - 霸主发烧的一个等级,然后是其他一些事实,以真正吓跑你的生活日光。

有些人可能想知道为什么这次胜利被认为是比1997年对Gary Kasparov的更大的成就。主要原因是因为比赛本身:国际象棋的开局有20种可能性,但Go的开局有361 - - 可能的结果将近20倍。

平均国际象棋比赛在完成40次移动后完成,但Go游戏的平均运行时间约为200.从纯粹的数学角度看,Go的决策制定比国际象棋要深刻得多。 (对于一个程序来分析Go中的每个潜在的移动和结果,需要相当于计算已知宇宙中每个原子的计算工作!)

然而,与Google的成就一样令人印象深刻的是,有必要在某种程度上取得胜利。

在卡斯帕罗夫国际象棋失败的时候,他已经在世界排名第一的大约12年,并将持有另外8年。 从字面上看,他是人类生产的最优秀的国际象棋选手。 与此同时,DeepMind击败的欧洲围棋冠军范辉在世界排名第633位。 (Go显然不是欧洲非常受欢迎的游戏。)

理所当然的是,DeepMind还有其他一些人无法击败 - 事实上,据大多数人估计,它可能勉强 。

加速变革

自20世纪50年代以来,计算机一直试图在国际象棋和围棋中击败人类,但直到1977年西北大学的“国际象棋”赢得了针对人类参与者的锦标赛时才首次取得重大突破。 到了1980年,Belle计划经常击败大师级的国际象棋选手,但是在软件与卡斯帕罗夫的湿软件达到平衡之前还需要17年,而在节目开始给Go专业人员提供资金之前还有19年。

人工智能将在国际象棋和围棋等所有“完美信息”战略游戏中击败我们,这是不可避免的。 技术继续以越来越像新闻中的科幻小说的速度加速 - 消费者可访问的DNA测试,无驾驶汽车,仿生肢体,20美元智能手机,物联网,能够击败危险品冠军的人工智能的兴起 - 所有这些突破都发生在过去10年。 为了从创业世界借用一个术语,人类已经发现自己处于史诗般的“曲棍球棒图”的脚下。

科学家认为,所有这些进步最终都将成为一个时刻,人类的进步将在一个最终的创造中聚集在一起,这将改变我们物种的进程。

数学家John Von Neumann(1903-1957)将这一时刻称为这是我们文明的一个转折点,我们的发明 - 机器人计算机网络 - 将变得超级智能并使我们自己的能力过时。

有远见的科学家雷·库尔威尔(Ray Kurweil)预测,这种奇点可能会在2045年发生,这是在绝大多数读这篇文章的人的生命周期内。 他特别预测,我们将在未来10到15年内进行 ,并在此后不久就开始走上不归路。

智人是谁

创建一个超级智能实体的含义是奇怪的,令人敬畏的,并且无可否认地非常可怕。 正如作家列夫·格罗斯曼所说,“在你自己的生物圈中引入优越的生命形式是达尔文的一个基本错误。”

用另一种方式说明:当智人于6万年前登场时,尼安德特人的表现并不好。

那么为什么我们不在人工智能研究上踩刹车呢? 因为“创新者要创新”,要误导流行的短语。 数字超级智能将是人类唯一最伟大的,可能是最终的发明,这种创造的后果不容小觑。

一旦在线,这个超级智能将是一个可验证的神。 它能够在我们难以理解的时间尺度上改进我们现有的所有技术 - 创新之间的时间和分钟,而不是几个月和几年 - 并且由于学习的指数性,每个新的改进都会到达比上一次更快。

例如,使用完善形式的纳米技术,它可以有能力消除饥饿,根除疾病,消除污染......如果我们设计错误,可能会消灭所有人类。

毕竟,可以说人类自己的行为是所有这些全球性问题的核心所在,所以一个矛盾的超级智能不会简单地断定如果没有我们,宇宙会变得更好吗? 如果人们可以一劳永逸地将这个问题简单地扼杀在众所周知的萌芽中,为什么要花费精力来一次又一次地清除人类的错误呢?

灭绝议程

这种想法让你夜不能寐。 当然,创作可以篡夺其祖先并继续占领地球的想法听起来就像你曾见过的每部反幻想科幻电影的情节,但有足够的真理让我们担心一些最聪明的思想家。 事实上,埃隆马斯克称人工智能是我们 ,比尔盖茨说 “为什么有些人不关心”其后果。

机器智能研究所的AI理论家Eliezer Yudkowsky :“AI不爱你,也不恨你,但你是用它可以用于其他东西的原子。”

作为回应,其他科学家提出了建立人工智能的方法,其核心目标是对 ,其理由是,一旦“定义”被正确内化,“朋友”就永远不会伤害我们。

其他人认为我们可以教人工智能 (圣雄甘地,马丁路德金,亚伯拉罕林肯等) ,从根本上将其转化为我们自己的仁慈的数字独裁者。 (为了编制这样一个“令人钦佩”的人物名单,你必须操纵的政治雷区还没有被弄清楚。)

我们必须再次问,为什么我们首先走上这样一条危险的道路? 因为辩论的另一面太好了,不容忽视。

如果我们正确地建造了人工智能,它可以代表我们的救赎 - 而不是我们的灭绝 - 作为一个物种。 乐观主义者对无所不知的人工智能的观点是乌托邦的:有了它,我们可以解决一直困扰人类的每一个问题,包括死亡本身。 不朽,多行星文明以及直接探索我们的宇宙而不是通过望远镜和图表的诱惑令人陶醉。 对于许多科学家来说,这是他们首先成为科学家的全部原因。 追求超智能人工智能是一种让所有这些梦想在我们有生之年成为可能的方式而不是很久以后:不是试图设计能够让我们达到目标的各种机器,而是设计出能够设计的单一机器所有其他人。

这就是我们文明的真正转折点。 在不到30年的时间里,我们将获得必要的技术,将我们带到星球,或结束我们在这个星球上的统治。 这将是我们的物种将集体做出的最重要的决定,幸运的是,现在还有时间确保它不是错误的。

毕竟,Erring主要是人类活动。 - Rappler.com

象形象的从Shutterstock