设为首页
收藏本站
开启辅助访问
切换到窄版
登录
立即注册
首页
Portal
行业资讯
人才培育
求职招聘
智慧教育
人才之家
BBS
淘帖
Collection
分享
Share
搜索
搜索
行业资讯
集成电路
化合物IC
AI芯片
分立器件
新IC材料
行业政策
人才培育
政策法规
高等教育
职业教育
行业观察
行业指导
人才政策
热门领域
物联网IOT
人工智能
AI芯片
汽车电子
可穿戴电子
区块链
芯片制造
芯片杂谈
前端设计
MEMS
封装测试
版图设计
IC新材料
本版
文章
帖子
用户
芯片人才网
»
人才之家
›
热门领域
›
人工智能AI/深度学习
›
如何确保超级人工智能为我们的利益服务 ...
返回列表
发新帖
如何确保超级人工智能为我们的利益服务
[复制链接]
2087
|
0
|
2021-1-15 08:32:42
|
显示全部楼层
|
阅读模式
对于超级人工智能的出现,我们是期待的,因为它的出现意味着不少工作可以以高效率的方式来完成。可是,作为一款号称智慧远超最聪明、最有才华的人类的AI,关于它可能带来的灾难性风险的讨论并没有停止脚步。
近期,一群科学家组成的研究团队使用理论计算来证明遏制类算法并不能控制超级人工智能,这个研究主要是为了解决牛津哲学家尼克·博斯特罗姆(NickBostrom)提出的控制问题:我们如何确保超级人工智能为我们的利益服务?
根据超级人工智能的假设问题,研究人员构设一种理论上的遏制算法,该算法可以模拟AI的行为,并在AI程序的动作存在有害行为时自动停止程序来解决该问题。
在尝试运行该试验模型时,分析人员通过分析结果,发现建立一种可以控制超级人工智能的机器算法从根本性质上来说是不可能的。
该团队成员伊亚德·拉万(IyadRahwan)表示,如果将问题分解为理论计算机科学的基本规则,就会发现,命令AI不破坏世界的遏制算法存在无意中止其自身运行的可能性。
若发生这种情况,用户其实并不知道遏制算法是否仍在分析超级人工智能可能存在的威胁,或者它是否已经顺利停止有害的AI。因此,这种状况的出现会导致遏制算法无法得到有效使用。
根据研究发现,由于计算的基本局限性,目前暂时没有一种算法可以顺利计算出超级AI是否会危害世界。
假设超级人工智能将包含一个程序,该程序包含通用图灵机在输入时可能会像世界级状况一样复杂地执行所有程序,按照这么高的标准建立围堵遏制算法,基于这个基础对该超级AI程序进行仿真,这在理论上是不可能的。
到目前为止,这种类型的超级AI仍仅限于幻想领域,不过,研究人员表示,AI技术的发展正朝着科幻小说作家所设想的超级智能系统的类型迈进。
研究团队里面的成员之一、来自马克斯·普朗克人类发展研究所的曼努埃尔·塞布里安(ManuelCebrian)表示,已经有AI机器可以实现独立执行某些重要任务,而程序员并没有完全了解它们是如何学习做到的。
因此,基于这个存在而提出一个问题,在某个时候这是否可能变得不可控制并对人类构成危险。
不管如何,发展超级人工智能的趋势并不会按下暂停键,只是,关于遏制超级人工智能的方式还是要保持跟进的,只有类似法律指引人类日常规范一般对超级人工智能形成一个制约,才可以让AI为我们服务,而不是造成灾难。
回复
使用道具
举报
返回列表
发新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
likaichuang1
371
主题
372
帖子
1355
积分
金牌会员
金牌会员, 积分 1355, 距离下一级还需 1645 积分
金牌会员, 积分 1355, 距离下一级还需 1645 积分
积分
1355
加好友
发消息
回复楼主
返回列表
智能家居及物联网
人工智能AI/深度学习
汽车电子
天线|RF射频|微波|雷达技术
可穿戴电子
区块链