网易财经3月29日讯 2015博鳌亚洲论坛今日继续在博鳌召开,在今日的早餐会上,特斯拉公司董事长马斯克在谈到人工智能时表示,对于人工智能的安全应该特别小心,能需要更多的时间发展人工智能。我们这个方向是对的,但是我们不能操之过急,不要进入到我们未知的领域。
他表示,数据智能的风险并不是说超人类,而是要得到有效的控制,应该推动人工智能的安全性,也许是好的、也许是不好的,也许会带来灾难,还有可能带来核的崩溃,所以安全是需要被重视的。
以下是发言实录:
李彦宏:昨天有关人工智能进行了简短的辩论,在这里简短谈一下这个问题,Elon,最近人工智能推动的进步带来了很多争论,在你的访谈当中你也说到了人工智能的负面,比如说火星或者是其它方面的人工智能是有负面因素的,你对此有何看法?
Elon Musk:实际上我觉得这是不正确的一个比喻,我并不认为我就是火星人,数据智能的风险并不是说超人类,并不会说就是超出人类的想象,我觉得更合适的比喻,比如说军火,释放能量是很容易的过程,控制住是很难的,关键的重点对于我们来说就是离子的安全性,我们应该推动人工智能的安全性,也许是好的、也许是不好的,也许会带来灾难,还有可能带来核的崩溃,所以安全是需要被重视的,我并不说是反对人工智能的进步,我认为我们应该特别小心,可能需要更多的时间发展人工智能。我们这个方向是对的,但是我们不能操之过急,不要进入到我们未知的领域。
李彦宏:Bill,你跟Elon有没有不同的观点呢?
Bill Gates:没有,我觉得他花了一些钱来推动人工智能的发展,这是非常好的,有一本书叫《超智能》,Elon Musk刚才说的是我们选一些数学模式,人的演变是通过一个很短的计算机,它的存储量很少,我们当时也是用一些鼠标,开始构造的时候也不知道这个机器人如何走。这个数据如果开始出现并转变为知识的时候,这是我们在软件方面没有实现的。这不光是人类的层面,是超人类的层面,这是这个数学模式所希望达到的,希望通过硅来实现,把知识植入进去,包括数学模式模型,包括因特网,可以把书和知识融入进去,通过这样的基础把人工智能建造起来。当人们说这不是一个问题的时候我就会想他们怎么会觉得这个挑战不够大呢?