黑科技:开局攻克I5芯片 第三百一十九章 机器人
当陈渊所到达其他星球之后也是开始他说的一直在遵循的计划。
陈渊的想法很简单,那就是他一直都在想这一件事首先不仅仅是在这里重新建立一个新的生活点,还有一点也很重要,那就是透过这次他已经看出来了,人类的未来或许还需要改变。
但说只是基因工程还并不完美,因为你只要不是刀枪不不入水火不侵的话,那你就还一定是有弱点的。
所以以后遇到了危险人类还是不能亲自上。
陈渊现在的想法是他能不能去制作出一个可以代替人的工作的机器人。
虽然不一定能够成功,但也总比没有强不是吗?
而且陈渊也知道人类在某些方面还是很缺乏进取心的,如果能够拥有这么一个工作机器人的话,或许会给人类一个更好的未来。
当然,这个工作机器人的构造是非常复杂的。
陈渊所要做的就是将这个工作机器人的构造给记录下来,然后通过各种方式去制作这个机器人。
陈渊现在所掌握的技术就是一种叫做''光脑''的技术。
这是一个相对来说十分高级的技术,它不仅仅能够将目标的思维意识传递回来,更能让人类的思维模块进行运算。
不过这样做也是有着风险的,一旦失败,那人类的大脑也就真的被破坏掉了。
陈渊不怕死,因为他早晚都会有这么一天。
但他却无法接受一个人类被毁灭掉的画面,而这也是他为什么一直没有选择进行这个工作的原因。
不过现在陈渊已经有了一个新的打算,那就是他准备用自己所拥有的这种特殊的光脑,来帮助人类创造一种全新的生活体系。
当然这是有前提的。
那就是陈渊必须要找到合适的载体和设备才行。
不然的话,就算是这种光脑再怎么厉害,也无法将人类的身体和思维给转换过来。
《无敌从献祭祖师爷开始》
而这种载体和设备又要从哪里得来呢?
当然是人类自己去寻找。
但这个世界实在是太小了,这个世界上除了人类之外根本就没有任何的生命体。
想要找到这样的生物载体,谈何容易啊?
但现在陈渊有一种预感,他相信他一定能够找到。
不过就现在来说,这些已经不重要了。
当下,陈渊最要紧的还是赶紧想办法研究出智能智能机器人的核心才是重点。
这个过程必然是不简单的,说实话,就算是陈渊也没有完全的把握。
但是鲁剑他们却非常的看好。
可是陈渊内心也一时间不知道该说些什么。
实际上是不知道做些什么才对,
在召集众人所展开相关讨论时,各专家也都提出了相关的意见。
“所谓的机器人,最重要的是逻辑分析和推理能力,并且能够预测行为所导致的后果,以判断人类下达的指令是否和任何一条定律相悖。
也就是说,我们必须把人类思考行动的每一步,用逻辑算法清晰地描述出来,并且这套算法不可以存在任何矛盾,把这样逻辑算法输入到机器人系统当中,这样机器人才能按照这套算法进行相应的人类活动。但是人类的活动千变万化,而且我们有所谓的直觉、第六感,这种判断其实是有一定的逻辑依据,但目前我们都很难用算法却一一描述出来。”
“举一个人类思考简单的例子,选择一家餐厅吃饭,我们会考虑距离、食物味道、环境、停车位、候餐时间等因素。如果我们将其变成一套可以让机器人执行的算法,但机器人是不能理解什么才是合适距离,什么才是满意的环境,什么才是好吃的食物。
也就是说我们必须要用定量的语言表述。例如距离在3公里范围内,大众点评食物味道和环境因素大于或等于4星,停车位不少于50个,平均候餐时间不长于15分钟。这样,机器人才能够做出类似于人类的判断。但是算法之间确极有可能存在矛盾。”
虽说现在华夏技术高度发达,但人工智能这一方面还没有完全掌握精髓。
如果仅仅是说商的话,那根本就没有什么好讲的。
毕竟商是系统所赋予的东西。
就算是现在陈渊还想再弄 出一个商来,压根就不可能,甚至说非常的困难。
例如在经典的哲学问题上——“你是一辆快速行走的列车上的列车长,列车的刹车已经坏了无法使用,你发现前方轨道上有5个修路工人,向左拐的轨道中有1个修路工人,此时你可以选择向左拐或者是继续向前行驶。这时候你应该怎么办?”
我们的无人驾驶汽车遇到这种情景应该如何处理?
这种情况下无论如何都要违背阿西莫夫的机器人三大定律。这种情况下,我们无法用清晰的逻辑算法描述应该如何处理,因为作为人类本身,我们都无法说明哪一种情况才是真正正确的选择。
但是,我们回头想一下,把所有逻辑关系都清晰列举出来让机器人执行的这种模式是否正确。回头看一下,我们对小孩的教育,难道我们是把所有的规矩都列出来,然后再每一个小孩子去执行的吗?
显然不是。
人类一生里面的学习,有理论知识的学习,也就是说确实有各种成形的方法和理论,告诉我们一步一步应该怎么做,但是这是不多的,完全不变通的理论应用是少之又少的。其实人类的学习过程中,更多是感知活动。
例如,小孩子学说话的过程,其实就是不断地从视觉口型和听觉声音上,去不断地感受,其大脑通过无数次情景数据的收集,最后归纳出不同的情景应该说什么话,并在之后的应用中不断地修正。过程,就是现在我们所说的大数据应用的过程。
所谓大数据,就是数量得足够大,把数据的偏差能基本消除,得到一个相对规律的趋势。回到之前的例子当中,在选择一家餐厅吃饭时,如果收集了大量人们的用餐数据(,那么这个机器人就可以给我推送一些较为符合我要求的餐厅。
也就是说,这个机器人不再需要完整地了解我为什么这么选择,不知道了解我整个思考的逻辑过程,也不需要输入一套完整的不矛盾的算法规则,它就可以为我推荐一些合适的餐厅。它收集的用餐数据越多,那推荐餐厅的准备性就越高,出现偏差的可能性就越小。
又如在刚刚的哲学桉例中,我们也不需要告诉机器人,是应该直行撞向5个修路工人,还是应该向左转撞向1个修路工人。它会收集相关的数据,知道这种情况下大多数人是怎么选择的,从而做出自己的决定。
当然我们不能保证大多数人的行为就是正确的,但是我要说的是,这种大数据的应用,恰恰是人类通过感知行为来进行学习的过程,具有这种学习模式的机器人才能真正称之为智能机器人。
如果我们将某个人一生里所有行动的信息,包括起床时间、说话语气等全部生活习惯都以数据信息的方式进行记录,并将这些数据输入机器人的系统,那么理论上可以理解为这个机器人的行为举动将会与人类A的行为相近,当输入的信息量无限大时,机器人的行为就无限接近于人类A。
尽管收集的人类A的行为数据当中必然会存在矛盾之处,但是当数据足够大时,这些偶然的偏差性就会被排除掉,使得机器人的行为无限接近于人类A。而且机器人并不单纯地去模彷人类A的行为,它应用的其实是大数据的预测功能,也就是说这个机器人可以在没有遇到过的情景中按照人类A的思维方式做出反应。
举个例子,假设人类A实际上是生活是16世纪的欧洲人,在21世纪的华夏的这个机器人也可以知道做出人类A穿越来到21世纪的华夏后可能会有的反应。
那么,智能机器人是否能够超越人类的智慧,完全取代人类呢?
在谈论到这个问题时,陈渊沉默了片刻。
而后他说道。
“对此给出的答桉是两面的。
我认为,未来智能机器人是可以超过单个人的智慧的,因为智能机器人集合的智慧决非是来自于一个人,它是将许多人许多不同领域的知识和经验进行集合,因此它是很有可能超过单个人的智慧的。
但是,正由于它是通过这种大数据的预测应用模式,因此它能预测到的是一种渐变性的变化,按原有的思维模式猜想可能会遇到的问题,但是它是很难存在天马行空的突破性创新的。”
而且机器人往往还有着所谓的三大定律。
这就要提到艾萨克·阿西莫夫了。
他是熊国科幻小说作家、科普作家、文学评论家,美国科幻小说黄金时代的代表人物之一,是人类历史上最伟大的科幻小说家之一。
他与阿瑟·克拉克、罗伯特·海因来因并称为“世界科幻三巨头”;与儒勒·凡尔纳、赫伯特·乔治·威尔斯并称为科幻历史上的三巨头;他还获得了星云终身成就大师奖。
联邦政府授予他“国家的资源与自然的奇迹”称号,以表彰他在“拓展全人类想象力”方面的杰出贡献。他一生写了500多本书,颇有些“魔幻”。
即使有的朋友没有听过他的名字,但是他的作品你肯定听说过——其作品中以《基地系列》《银河帝国三部曲》和《机器人系列》三大系列被誉为“科幻圣经”。他提出的“机器人学三定律”被称为“现代机器人学的基石”。
阿西莫夫的高明之处在于,他不仅在这本书中开创了“机器人学三大法则”这一全新的科幻小说逻辑,更是借助机器人的“失常”状态来“颠覆”自己提出的法则。
一边是颠覆,另一边则就是破解,每一篇故事的核心冲突,都来自破解“机器人学三大法则”的漏洞,这“破解”也是主人公一起经历一场紧凑而又风趣的“推理”。每个故事的内容都短小而精悍,但却让人回味无穷,可能这就是科幻的魅力。
所谓三定律便是。
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
这3+1条定律保障了智能机器人不会造反。
但是这个机器人定律真的是无懈可击的吗?
陈渊并不这样觉得,如果他能和阿莫西夫一起畅谈,说不定两人还能商讨出一些成绩。
但这个定律不是没有漏洞。
三定律的漏洞首先人们最常质疑的就是三定律的实现问题——阿西莫夫小说里面的机器人都是有独立思维的。三大定律的前提就是对于能够自主学习思考解决问题的机器人,或者叫强人工智能,他们自然就能像人类一样判断问题,至于怎么造出这样的机器人?不关小说家的事。
同时还有很多人拿道德法律和三定律比较,然而违反法律是要由第三者来惩罚的,想想那么多的警匪片就知道了;违反道德最多就是受到谴责,心态好点的话啥事没有。三定律是内置在机器人系统中的,违反了的话机器人自己就会“自杀”,就算机器人能力再高,除非他能自己修改自己的固件,否则都不可能跳出三定律。
但三定律真的是无懈可击的吗?
其实机器人三定律的出处——阿西莫夫机器人系列——其实写了一大堆方法来推翻定律。
其中最简单的一个就是重新定义,你可以重新定义何为“人类”,你也可以重新定义“轻重伤”。
同时看过银河帝国的话,一定会记得葛兰.崔维兹,当初之所以选择会选择盖亚,而不是谢顿计划是因为谢顿计划的默认前提是:银河中,只有人类这一唯一的智慧物族。
其实,机器人三大定律也被限制在这种错误的前提条件下。不然,J.丹尼尔.奥利瓦为什么要和菲龙大脑融合?
陈渊的想法很简单,那就是他一直都在想这一件事首先不仅仅是在这里重新建立一个新的生活点,还有一点也很重要,那就是透过这次他已经看出来了,人类的未来或许还需要改变。
但说只是基因工程还并不完美,因为你只要不是刀枪不不入水火不侵的话,那你就还一定是有弱点的。
所以以后遇到了危险人类还是不能亲自上。
陈渊现在的想法是他能不能去制作出一个可以代替人的工作的机器人。
虽然不一定能够成功,但也总比没有强不是吗?
而且陈渊也知道人类在某些方面还是很缺乏进取心的,如果能够拥有这么一个工作机器人的话,或许会给人类一个更好的未来。
当然,这个工作机器人的构造是非常复杂的。
陈渊所要做的就是将这个工作机器人的构造给记录下来,然后通过各种方式去制作这个机器人。
陈渊现在所掌握的技术就是一种叫做''光脑''的技术。
这是一个相对来说十分高级的技术,它不仅仅能够将目标的思维意识传递回来,更能让人类的思维模块进行运算。
不过这样做也是有着风险的,一旦失败,那人类的大脑也就真的被破坏掉了。
陈渊不怕死,因为他早晚都会有这么一天。
但他却无法接受一个人类被毁灭掉的画面,而这也是他为什么一直没有选择进行这个工作的原因。
不过现在陈渊已经有了一个新的打算,那就是他准备用自己所拥有的这种特殊的光脑,来帮助人类创造一种全新的生活体系。
当然这是有前提的。
那就是陈渊必须要找到合适的载体和设备才行。
不然的话,就算是这种光脑再怎么厉害,也无法将人类的身体和思维给转换过来。
《无敌从献祭祖师爷开始》
而这种载体和设备又要从哪里得来呢?
当然是人类自己去寻找。
但这个世界实在是太小了,这个世界上除了人类之外根本就没有任何的生命体。
想要找到这样的生物载体,谈何容易啊?
但现在陈渊有一种预感,他相信他一定能够找到。
不过就现在来说,这些已经不重要了。
当下,陈渊最要紧的还是赶紧想办法研究出智能智能机器人的核心才是重点。
这个过程必然是不简单的,说实话,就算是陈渊也没有完全的把握。
但是鲁剑他们却非常的看好。
可是陈渊内心也一时间不知道该说些什么。
实际上是不知道做些什么才对,
在召集众人所展开相关讨论时,各专家也都提出了相关的意见。
“所谓的机器人,最重要的是逻辑分析和推理能力,并且能够预测行为所导致的后果,以判断人类下达的指令是否和任何一条定律相悖。
也就是说,我们必须把人类思考行动的每一步,用逻辑算法清晰地描述出来,并且这套算法不可以存在任何矛盾,把这样逻辑算法输入到机器人系统当中,这样机器人才能按照这套算法进行相应的人类活动。但是人类的活动千变万化,而且我们有所谓的直觉、第六感,这种判断其实是有一定的逻辑依据,但目前我们都很难用算法却一一描述出来。”
“举一个人类思考简单的例子,选择一家餐厅吃饭,我们会考虑距离、食物味道、环境、停车位、候餐时间等因素。如果我们将其变成一套可以让机器人执行的算法,但机器人是不能理解什么才是合适距离,什么才是满意的环境,什么才是好吃的食物。
也就是说我们必须要用定量的语言表述。例如距离在3公里范围内,大众点评食物味道和环境因素大于或等于4星,停车位不少于50个,平均候餐时间不长于15分钟。这样,机器人才能够做出类似于人类的判断。但是算法之间确极有可能存在矛盾。”
虽说现在华夏技术高度发达,但人工智能这一方面还没有完全掌握精髓。
如果仅仅是说商的话,那根本就没有什么好讲的。
毕竟商是系统所赋予的东西。
就算是现在陈渊还想再弄 出一个商来,压根就不可能,甚至说非常的困难。
例如在经典的哲学问题上——“你是一辆快速行走的列车上的列车长,列车的刹车已经坏了无法使用,你发现前方轨道上有5个修路工人,向左拐的轨道中有1个修路工人,此时你可以选择向左拐或者是继续向前行驶。这时候你应该怎么办?”
我们的无人驾驶汽车遇到这种情景应该如何处理?
这种情况下无论如何都要违背阿西莫夫的机器人三大定律。这种情况下,我们无法用清晰的逻辑算法描述应该如何处理,因为作为人类本身,我们都无法说明哪一种情况才是真正正确的选择。
但是,我们回头想一下,把所有逻辑关系都清晰列举出来让机器人执行的这种模式是否正确。回头看一下,我们对小孩的教育,难道我们是把所有的规矩都列出来,然后再每一个小孩子去执行的吗?
显然不是。
人类一生里面的学习,有理论知识的学习,也就是说确实有各种成形的方法和理论,告诉我们一步一步应该怎么做,但是这是不多的,完全不变通的理论应用是少之又少的。其实人类的学习过程中,更多是感知活动。
例如,小孩子学说话的过程,其实就是不断地从视觉口型和听觉声音上,去不断地感受,其大脑通过无数次情景数据的收集,最后归纳出不同的情景应该说什么话,并在之后的应用中不断地修正。过程,就是现在我们所说的大数据应用的过程。
所谓大数据,就是数量得足够大,把数据的偏差能基本消除,得到一个相对规律的趋势。回到之前的例子当中,在选择一家餐厅吃饭时,如果收集了大量人们的用餐数据(,那么这个机器人就可以给我推送一些较为符合我要求的餐厅。
也就是说,这个机器人不再需要完整地了解我为什么这么选择,不知道了解我整个思考的逻辑过程,也不需要输入一套完整的不矛盾的算法规则,它就可以为我推荐一些合适的餐厅。它收集的用餐数据越多,那推荐餐厅的准备性就越高,出现偏差的可能性就越小。
又如在刚刚的哲学桉例中,我们也不需要告诉机器人,是应该直行撞向5个修路工人,还是应该向左转撞向1个修路工人。它会收集相关的数据,知道这种情况下大多数人是怎么选择的,从而做出自己的决定。
当然我们不能保证大多数人的行为就是正确的,但是我要说的是,这种大数据的应用,恰恰是人类通过感知行为来进行学习的过程,具有这种学习模式的机器人才能真正称之为智能机器人。
如果我们将某个人一生里所有行动的信息,包括起床时间、说话语气等全部生活习惯都以数据信息的方式进行记录,并将这些数据输入机器人的系统,那么理论上可以理解为这个机器人的行为举动将会与人类A的行为相近,当输入的信息量无限大时,机器人的行为就无限接近于人类A。
尽管收集的人类A的行为数据当中必然会存在矛盾之处,但是当数据足够大时,这些偶然的偏差性就会被排除掉,使得机器人的行为无限接近于人类A。而且机器人并不单纯地去模彷人类A的行为,它应用的其实是大数据的预测功能,也就是说这个机器人可以在没有遇到过的情景中按照人类A的思维方式做出反应。
举个例子,假设人类A实际上是生活是16世纪的欧洲人,在21世纪的华夏的这个机器人也可以知道做出人类A穿越来到21世纪的华夏后可能会有的反应。
那么,智能机器人是否能够超越人类的智慧,完全取代人类呢?
在谈论到这个问题时,陈渊沉默了片刻。
而后他说道。
“对此给出的答桉是两面的。
我认为,未来智能机器人是可以超过单个人的智慧的,因为智能机器人集合的智慧决非是来自于一个人,它是将许多人许多不同领域的知识和经验进行集合,因此它是很有可能超过单个人的智慧的。
但是,正由于它是通过这种大数据的预测应用模式,因此它能预测到的是一种渐变性的变化,按原有的思维模式猜想可能会遇到的问题,但是它是很难存在天马行空的突破性创新的。”
而且机器人往往还有着所谓的三大定律。
这就要提到艾萨克·阿西莫夫了。
他是熊国科幻小说作家、科普作家、文学评论家,美国科幻小说黄金时代的代表人物之一,是人类历史上最伟大的科幻小说家之一。
他与阿瑟·克拉克、罗伯特·海因来因并称为“世界科幻三巨头”;与儒勒·凡尔纳、赫伯特·乔治·威尔斯并称为科幻历史上的三巨头;他还获得了星云终身成就大师奖。
联邦政府授予他“国家的资源与自然的奇迹”称号,以表彰他在“拓展全人类想象力”方面的杰出贡献。他一生写了500多本书,颇有些“魔幻”。
即使有的朋友没有听过他的名字,但是他的作品你肯定听说过——其作品中以《基地系列》《银河帝国三部曲》和《机器人系列》三大系列被誉为“科幻圣经”。他提出的“机器人学三定律”被称为“现代机器人学的基石”。
阿西莫夫的高明之处在于,他不仅在这本书中开创了“机器人学三大法则”这一全新的科幻小说逻辑,更是借助机器人的“失常”状态来“颠覆”自己提出的法则。
一边是颠覆,另一边则就是破解,每一篇故事的核心冲突,都来自破解“机器人学三大法则”的漏洞,这“破解”也是主人公一起经历一场紧凑而又风趣的“推理”。每个故事的内容都短小而精悍,但却让人回味无穷,可能这就是科幻的魅力。
所谓三定律便是。
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
这3+1条定律保障了智能机器人不会造反。
但是这个机器人定律真的是无懈可击的吗?
陈渊并不这样觉得,如果他能和阿莫西夫一起畅谈,说不定两人还能商讨出一些成绩。
但这个定律不是没有漏洞。
三定律的漏洞首先人们最常质疑的就是三定律的实现问题——阿西莫夫小说里面的机器人都是有独立思维的。三大定律的前提就是对于能够自主学习思考解决问题的机器人,或者叫强人工智能,他们自然就能像人类一样判断问题,至于怎么造出这样的机器人?不关小说家的事。
同时还有很多人拿道德法律和三定律比较,然而违反法律是要由第三者来惩罚的,想想那么多的警匪片就知道了;违反道德最多就是受到谴责,心态好点的话啥事没有。三定律是内置在机器人系统中的,违反了的话机器人自己就会“自杀”,就算机器人能力再高,除非他能自己修改自己的固件,否则都不可能跳出三定律。
但三定律真的是无懈可击的吗?
其实机器人三定律的出处——阿西莫夫机器人系列——其实写了一大堆方法来推翻定律。
其中最简单的一个就是重新定义,你可以重新定义何为“人类”,你也可以重新定义“轻重伤”。
同时看过银河帝国的话,一定会记得葛兰.崔维兹,当初之所以选择会选择盖亚,而不是谢顿计划是因为谢顿计划的默认前提是:银河中,只有人类这一唯一的智慧物族。
其实,机器人三大定律也被限制在这种错误的前提条件下。不然,J.丹尼尔.奥利瓦为什么要和菲龙大脑融合?