之前谷歌为了防止人工智能机器人对人类造成伤害,对机器人安装了“切断开关”。而现在随着谷歌的AlphaGo人工智能的发展,谷歌与其他合作公司都在思考人工智能领域的研发和使用AI的过程中可能遇到的具体问题,大家都会担心未来可能会引发的安全问题,于是乎,谷歌研究团队的Chris Olah在近期的一篇博文中阐述了开发出更智能、更安全人工智能的“五大规则”。下面珍岛深圳谷歌推广的小编就为你介绍下“五大规则”:
1、避免负面效应:AI在完成任务时,不应该被周围环境打扰。
2、避免奖励黑客:AI应妥当完成任务,而不是借助一些迂回的方法。
3、可扩展的监督:AI不需要接收不断的反馈或干扰性的输入信息。
4、安全探索:AI在学习时不应伤害自身或环境。
5、强制性到分布式的转变:AI要能够识别全新的环境,并在新环境中有效完成任务。
并且Olah在博文中指出:“这些都是具有前瞻性的、长期的研究问题——这些现在看起来可能是小问题,但对未来系统则至关重要。”
前段时间,Google DeepMind实验室正在研究AI“终结开关”,来防止AI机器发生一些人类无法控制的行为,近期,Google AI智能专家和斯坦福大学、加州大学伯克利分校和伊隆·马斯克主导的OpenAI研究人员一起合作,准备建立“解决AI安全隐患”的系统。随着人工智能技术的不断发展,对于AI 的行动准则还是有必要进行规范的,毕竟AI内部的逻辑将决定行为的性质,很多伤害性事故的发生,都是内部逻辑问题导致的冲突,所以在AI技术开发阶段初期,更应该设定好较为平和周密的逻辑准则。
公司名称* | 公司名称 | |
联系人* | 报名联系人姓名 | |
联系电话* | 手机或固话均可 | |
邮箱 | E-mail地址 | |
验证码 |
|
|