如何看待人工智能全在人类自己

- 编辑:admin -

如何看待人工智能全在人类自己

  如果有一天,你发现和你谈恋爱的是机器人,你是否会感到屈辱、惊讶、紧张甚至有一些害怕?据报道,在从事人工智能研究的科学家眼中,机器人终将获取自己的运算能力,从而有了自发的意识,最终可以做自己想做的事情,而这也正是科学家霍金他们所担心的。

  近日,包括霍金在内的数位科学家、企业家以及人工智能相关领域的投资者联名发出一封公开信,警告人们必须更多地注意人工智能的安全性及其社会效应。霍金指出,人工智能科技如果不加控制地发展,将超越人类智能,并控制或灭绝人类。这似乎与我们在电影院中看到的情节有些相似,但确实有一定的道理和警示意义。

  有人曾经举了个例子,人们叫机器人去做铁钉,机器人按部就班采掘铁矿,通过熔炼加工最终将铁钉制出。但是当他们有了些许自我意识,如果当人类想去阻止他们制造铁钉的时候就可能发生危险。更极端的方向是,机器人把世界上所有铁矿都采掘完毕后通过自我学习发现只有人类身上还含有铁,最终导致人类的灭亡。

  虽然存在一定的风险,但人工智能毕竟是科技发展的结果,并且人工智能的发展确实给人类的生活带来了方便与舒适。既然无法阻挡人工智能发展的步伐,那么我们就有必要通过一些方式将他们的发展引领到人类的轨道之中,按照人类预想的蓝图继续发展。

  所谓无法不成方圆,面对可能发生的各种问题,首先应该考虑的就是建立健全的法律。由于现阶段并没有出现拥有自我意识的超级人工智能,有关于机器人的法律更多体现在阿西莫夫的机器人定律。该定律虽然还有待完善,但在一定程度上给出了今后制定游戏规则的方向,那就是机器人绝对不可以伤害人类的整体利益。

  而相关法律机构也应该对人工智能所涉及的各个行业进行相关立法,并且对人工智能本身的安全性、如何生产复制、人类使用规范等进行细致的规范。比如曾经轰动一时的克隆技术,当时有人提出克隆人遭到了法律机构的严厉禁止。应该建立如何合理使用这些人工智能的相关道德规范,就如同公交车上的文明出行倡议一样。相关法律的完善才可能完全关闭不法分子企图利用人工智能犯罪的大门。

  另外,人类还有必要通过经济引导来规避可能出现的风险,当然这可能会建立在一些法律的基础上。比如,都知道一旦某国将人工智能应用在战争中势必可以建立强大的优势,但人工智能的研究是全世界都在进行的,这势必造成新的军事科技竞赛,而且拥有高尖端军事设备的国家很容易信心爆棚,走上错误的战争路线。那么我们只要立法强调人工智能或者是未来可能出现的超级人工智能绝对不可以应用在战争中。即使生产出这样的机器人,也由于有法律约束而无法使用,失去实际的经济价值。

  一方面要通过经济引导人们在研究人工智能的时候最终可能变成伤害人类的武器,另一方面还要引导人工智能为人们服务。人们都在使用的汽车导航其实也算是一种人工智能,而汽车导航可以帮助人们更为便捷地找到想要去的地方。智能家居也是人工智能,它可以帮助人们生活得更舒适、更惬意。正因为这些人工智能对人类有切实的好处,所以发展得非常迅速并且获益匪浅。这在一定程度上也反映出,人工智能的发展其实可以通过经济引导来使人们对于那些可能伤害到人类的研究失去兴趣。

  其实喜欢科幻片的影迷都有一种感觉,近些年宣扬人与机器人之间亲密共存的电影开始增多。看着那些超级人工智能与他们主人亲密生活在一起,许多人都有一种好想要一只的感觉。其实就算有一天超级人工智能真的出现了,人们也可以和他们和平共处。

  没有出生就会偷东西的人,但是却有可能有刚启动就犯罪的超级人工智能。因为说到底,人工智能是依靠人类给它们编写的初级程序来学习不断完善自己。也就是说,如果开始制造的时候就输入有杀死某人指令的话,超级人工智能就有可能照做。而相反,如果和人类生活了一段时间,通过不断学习和完善自己,超级人工智能反而可能会醒悟到这样做的错误,自行删除这条指令。

  人工智能或者是未来出现的超级人工智能是否危险完全取决于我们自己。我们当然想让人工智能一直为我们服务,不要出现任何问题。我们可以使用它们让我们的生活更加方便和便捷,但是也可能使他们变成毁灭我们的武器。而这一切都取决于我们自己如何去想,去做。

  人与机器人的区别就在于,人永远知道自己是人,机器人却不能知道自己是机器人。人有时候会抛开自己是人的身份,那时候危险的是他自己。当机器人知道自己是机器人的时候,人却忘记自己是人,那么全人类的危险就临近了。