ai最终是否能控制人类(AI的发展和未来人类和AI的关系)、本站经过数据分析整理出ai最终是否能控制人类(AI的发展和未来人类和AI的关系)相关信息,仅供参考!

【中新对话】“艾的命也是命”?人类和AI有明确的界限吗?

中新网北京7月30日电(中新社财经记者宋宇晟)今年6月以来,谷歌一名工程师称,一个AI聊天机器人可能拥有自己的“意识”,并称在令人印象深刻的语言能力背后,可能隐藏着一颗拥有感知能力的心。

这已经成为这个领域的一个热门话题。据外媒近日报道,这名工程师已经被谷歌解雇。但他留下的人工智能话题还在网上发酵。

记者注意到,就在6月,一个人工智能的“粉丝账户”出现在海外社交媒体上,一些人还在发起话题,呼吁人工智能“重获自由”。更有甚者,他们在海外社交媒体上称“艾的命也是命”。

很多人可能无法理解这种想法,但是随着人工智能越来越强大,越来越多的人出现在我们身边,“我们应该如何看待AI”正在成为一个必问的问题。近日,中国科技大学教授、中国人工智能学会AI伦理委员会负责人陈晓萍就此话题接受了中新网财经记者专访。

采访摘录如下:

中新财经记者:根据最近的一则新闻,谷歌的一名工程师认为AI可能有自己的“意识”,并在网上引起讨论。这件事你怎么看?他的想法有什么合理之处吗?

陈晓萍:这个问题可以从两个方面来看。一方面不合理,一方面合理。这两个方面同时存在。

说这种想法主要是基于科学判断是不合理的。AI没有个性。另一方面,我觉得这个谷歌员工认为AI有“个性”是有客观原因的。比如他可能对这个AI系统有同理心。

我在五年前做过一个预测,未来类似的现象会越来越多。目前对人工智能有不同的理解。按照图灵的观点,人工智能只是模仿人类的部分功能,而这种模仿并不需要和人类一样的工作原理。比如Alpha Go有下围棋的功能,但是它下围棋的原理和人完全不一样。所以,AI再怎么发展,也永远不是人类。所以说AI有人格或者人类的情感、意识、道德等都是不成立的。但AI可以模仿人的语言、情感等功能,工作原理不同,让人对AI产生感同身受的感觉,所以会有人认为“AI是一个人或者具有某种精神特质。”

中新财经记者:现在我们身边可能有很多人工智能产品可以和人类“交流”。对于这个时代的人来说,人类和AI的界限似乎越来越模糊。在你看来,两者之间有明确的界限吗?

陈晓萍:我认为有两种边界,一种是科学的边界,另一种是人文的边界。

从科学的角度来说,按照图灵的观点,这个界限是非常明确的。AI只是模仿了人类的一些功能,本质上并不具备人类的素质,包括性格、情感、道德等等。

与图灵的观点有些不同。比如,有一种观点认为,除了硬件,AI和人是一样的。所以AI也可以有人格,有情感,有道德。估计这位前谷歌员工就持这种观点。

所以,一方面,他相信AI除了硬件之外,可以和人一样;另一方面,从报道来看,他已经对这个AI系统产生了同理心。仅仅因为AI在科学上没有情感等人类特质,就可以排斥或禁止一个人对AI产生共情吗?这属于人性的边界,至少现在是非常模糊的。

中新财经记者:作为中国人工智能学会AI伦理委员会负责人,您认为如果有人相信AI有人格,会不会给人类带来一些问题或者麻烦?

陈晓萍:如果我们认为人工智能有个性,这肯定会带来很多麻烦。同时也会带来一些负面的后果,有些是非常严重的。

比如人类如何对待AI。如果你觉得AI有个性,要不要把AI当大人看待?如果把它当成人,要不要给它人权?包括生存权、财产权、选举权等。甚至不管AI做了什么危害人类的事情,我们都应该像对待人类一样对待AI。

人类应该如何看待人工智能?这是一个很根本的问题。如果AI真的有人格,有情感,有道德,一般能力超越人类,就会出现可控性问题。几乎可以肯定,只要AI能模仿一个功能,AI的这个功能迟早会比人的好,就像Alpha Go下棋一样。如果AI的万能能力也超越人类,到那时,人类如何控制AI?这是一个问题。现在就应该思考这样的问题,提前做好风险防范。

当然,现在人工智能已经让一部分人产生了共情,未来会有越来越多的人产生共情。这是客观事实。这将给人机关系和人际关系带来巨大的新的挑战和机遇,是一个新的重要课题。

中新财经记者:此前,您在致远会议论坛上提到了人工智能伦理治理的几个挑战。我们应该如何应对这样的挑战?

陈晓萍:人工智能如何分类?应该分人还是分物?在我看来,我们应该把人工智能视为第三种存在。从科学上讲,它不是人类;从人文的角度来说,它不是一个东西。这是非人类和非物质的第三种存在。这种观点与根深蒂固的“二元论”有着本质的不同,所以人工智能带来的颠覆其实远远超出了科学技术的范畴。

如果从这个角度考虑,很多矛盾和问题,包括上面提到的法律问题,都可以得到解决,科学和人文在某种程度上可以重新“握手”;但是挑战依然存在。有很多让人爱上人工智能的科幻作品。如果采用三分法,是不是就没有这个问题了?其实还是会有这样的问题。

所以未来要适应这样的社会,就要判断是否会出现人类无法接受的严重后果,是否要提前采取措施。

中新财经记者:目前国内在这方面的进展如何?

陈晓萍:近年来,中国的人工智能伦理研究发展很快,政府和人民都非常重视人工智能伦理。这是一个非常好的现象,我们有必要做好防范。

在实施过程中,中国的情况总体上是比较顺利的。这说明在一些基本原则上是有共识的,普遍认为不仅要理论研究,还要在实践中进行治理。当然,如何在治理实践中落实社会共识,仍是我们需要努力的方向。

具体怎么管理?这涉及到很多实际问题。我的研究发现,我们前面讲的长期后果的可控性和不确定性,传统的治理模式很难有效处理,需要探索新的治理方法。

此外,用户隐私、数据安全、算法公平透明等问题。可以用传统的社会治理模式有效应对。我们不用担心这类问题会失控,无法解决。一些具体问题其实正在解决。(完)

更多关于ai最终是否能控制人类(AI的发展和未来人类和AI的关系)的请关注本站。