加入收藏 | 设为首页 | 会员中心 | 我要投稿 开发网_开封站长网 (http://www.0378zz.com/)- 科技、AI行业应用、媒体智能、低代码、办公协同!
当前位置: 首页 > 大数据 > 正文

我们如何克服人工智能的到来

发布时间:2022-07-07 14:41:07 所属栏目:大数据 来源:互联网
导读:第一原则--可控原则。可控原则是指,我们所发明出的人工智能产品,无论是弱人工智能、强人工智能或是超人工智能,都必须是可控制,必须能够完能全被人类所控制,如果做不到这一点,我们就不能把它制造出来,这一点是至关重要的,事实上,人类的其它任何发明
  第一原则--可控原则。可控原则是指,我们所发明出的人工智能产品,无论是弱人工智能、强人工智能或是超人工智能,都必须是可控制,必须能够完能全被人类所控制,如果做不到这一点,我们就不能把它制造出来,这一点是至关重要的,事实上,人类的其它任何发明也都应该遵循这一则,比如,飞机、汽车、电灯、原子弹等各种产品都是可控的,如果汽车开出后无法控制,不能停止下来,那将是非常危险的,这样的产品不能投入使用的。
 
 
  为了避免人工智能的危害,可控原则是一个必须尊守的原则,目前的计算机软、硬件都是可控的,控制它们的方法可以是按下终止按钮或切掉电源等,将来的人工智能也要有类似的方法加以控制,以便随时发起、调整或终止其运行。
 
  第二个原则--分工原则,又叫分而治之原则。这一原则是指,对于弱人工智能、强人工智能和超人工智能,这三者一定要分开使用,避免三者合为一体。弱人工智能是指智能水平低于人脑的人工智能,如现在的机器人、无人机以及各种智能硬件等,强人工智能是指智能水平和人类相当的人工智能,也就是和人类一样聪明的人工智能,这种人工智能目前还没有出现,我估计将来也不会出现,因为人工智能事实上只会出现两个状态,要么不如人脑,要么远超人脑,因为计算机和人脑相比,人脑的特点是全面而复杂,计算机则是单纯而卓越,人脑既有认知,又有情感和欲望、动机等心理要素,非常复杂,而计算机呢?无论它的软件还是硬件都属于非生命物质。
 
 
 

(编辑:开发网_开封站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读