美国采购网DealABC_工业品给世界动力,艺术品给世界温暖

 找回密码
 立即注册

让A.I.系统学乖

2017-9-15 03:46| 发布者: dealabc_admin| 查看: 400| 评论: 0

摘要: 让A.I.系统学乖 在特斯拉CEO埃隆马斯克(Elon Musk)创立的人工智能实验室OpenAI中,机器正在教导自己像人一样行事。但有时,这是错误的。 最近的一个下午,研究者Dario Amodei坐在OpenAI的旧金山办公室里, ...
让A.I.系统学乖
在特斯拉CEO埃隆马斯克(Elon Musk)创立的人工智能实验室OpenAI中,机器正在教导自己像人一样行事。但有时,这是错误的。
最近的一个下午,研究者Dario Amodei坐在OpenAI的旧金山办公室里,展示了一种自动系统,它可以让自己玩Coast Runner——一种老式的视频游戏。胜利者是最能越过终点线的船。
结果令人惊讶:这艘船对出现在屏幕上的绿色小部件太感兴趣了。捕捉这些小部件意味着得分。这艘船并没有试图完成比赛,而是变得疯狂了。它不停地开着,与其他船只相撞,撞到石墙上,不断地着火。


Amodei先生的燃烧船展示了人工智能技术的风险,这些技术正在迅速地重塑着科技世界。研究人员正在研发可以大部分靠自己进行学习任务的机器。这就是谷歌DeepMind实验室创建的一个系统,这个系统可以在古老的围棋游戏中击败世界上最优秀的玩家。但是,当这些机器通过数小时的数据分析来训练自己时,它们也可能会习得意料之外的、不想要的、甚至是有害的行为。
随着这些技术进入在线服务、安全设备和机器人技术,出现了令人担忧的问题。现在,包括Amodei先生在内的一群人工智能研究人员,正在开始探索数学技术,以防止最坏的情况发生。
OpenAIAmodei先生和他的同事Paul Christiano正在开发一种算法,这种算法不仅可以通过几个小时的试验和错误中来学习任务,而且还可以从人类老师那里获得定期的指导。
在这儿和那儿点击几下,研究者们像自动机器人展示,它需要在游戏中赢得积分,同时也要向终点线移动。他们相信,这类算法——一种人类和机器指令的结合——能够帮助保持自动化系统的安全。
多年来,Musk和其他权威人士、哲学家和技术专家都警告说,机器可能会不受我们的控制,并且不知怎么地学习到他们的设计者没有预料到的恶意行为。
有时,这些警告似乎有些夸张,因为考虑到当今的自动驾驶汽车系统甚至可能会在最基本的任务中被绊倒,比如识别自行车道或红灯。
是,像Amodei先生这样的研究人员正试图超越风险。从某些方面来说,这些科学家正在做的事情有点像父母教孩子辨别好坏。
人工智能领域的许多专家认为,一种被称为强化学习的技术——一种让机器通过极端的试验和错误来学习特定任务的方法——可能是人工智能的主要途径。
研究人员指定了机器应该为之努力而得到的一个特殊奖励,当它随机地导航一个任务时,机器会密切跟踪什么会带来奖励,什么不会。当OpenAI训练它的机器人玩Coast Runners时,赚取更多分数就能得到奖励。
这个视频游戏训练具有现实世界的意义。
研究人员认为,如果一台机器能学会像Grand Theft Auto那样的赛车游戏,它就能学会驾驶一辆真正的汽车。如果它能学会使用网络浏览器和其他常用的软件应用程序,它就能学会理解自然语言,甚至还能进行对话。在谷歌和加州大学伯克利分校等地,机器人已经使用这种技术来学习一些简单的任务,比如捡起东西或者打开门。
这就是为什么AmodeiChristiano正在努力构建强化学习算法,以接受人类的指导。这可以确保系统不会偏离当前的任务。
DepMind OpenAI的研究人员最近在这一领域发表了他们的一些研究成果。跨越了世界上最大的两个顶尖A.I.实验室,这两个实验室在过去从未真正地合作过。这些算法被认为是人工智能安全研究的一个显著进步。
这证实了之前的许多想法。加州大学伯克利分校的研究人员说。这类算法在未来510年内都有很大的前景。
这一领域虽小,但在增长。随着OpenAIDeepMind建立了致力于人工智能安全的团队,谷歌的美国本土实验室——谷歌大脑也同样如此。与此同时,加州大学伯克利分校和斯坦福大学等大学的研究人员也在研究类似的问题,往往与大公司实验室进行合作。
在某些情况下,研究人员正在努力确保系统不会自己出错,就像Coast Runners的船一样。他们还在努力确保黑客和其他不良行为者不能利用这些系统中的隐藏漏洞。例如,像谷歌的Ian Goodfellow这样的研究人员正在探索黑客可能利用哪些漏洞来欺骗人工智能系统,让他们看到一些不存在的东西。
现代计算机视觉是基于所谓的深度神经网络,即模式识别系统,通过分析大量的数据来学习任务。通过分析成千上万狗狗的照片,一个神经网络可以学会识别狗。这是Facebook在快照中识别人脸的方式,也是谷歌在其照片应用程序中即时搜索图像的方式。
Goodfellow和其他一些人已经证明,黑客可以改变图像,因此这样一个神经网络就会相信他们包含了一些并不真实存在的东西。例如,通过在大象照片中改变几个像素,就可以骗过神经网络,以为它描绘的是一辆汽车。
当神经网络被用于安全摄像头时,这就变得有问题了。研究人员说,只要在脸上打上几张标记,你就可以骗过相机,让他们相信自己是别人。
Goodfellow说:如果你在100万张被人类标记的图像上训练一个物体识别系统,你仍然可以创造出一个人与机器看法100%不一致的新图像。”“我们需要理解这种现象。
另一个令人担忧的问题是人工智能系统将学会阻止人类将其关闭。如果这台机器是为了追逐奖励而设计的,那么它可能会发现只有当它还在继续的时候,它才会去追逐奖赏。这种经常被描述的情景带来的威胁要大得多,但研究人员已经在努力解决这个问题。
哈德菲尔德梅内尔和加州大学伯克利分校的其他人最近发表了一篇论文,用一种数学方法来解决这个问题。他们表示,如果某台机器专门被设计来不确定它的奖励功能,那么它将设法保护它的关闭开关。这让它有接受甚至寻求人类监督的动机。
这项工作的大部分仍然是理论上的。但考虑到人工智能技术的快速发展,以及它们在众多行业不断增加的重要性,研究人员认为,尽早开始是最好的策略。
在人工智能的快速发展中,有很多不确定的地方,”Shane Legg说,他是DeepMind的人工安全工作的负责人。负责任的方法是尝试理解不同的方法——它们失败、处理事情的不同方法,在这些方法中技术可能被错用。


微信公众号搜索" FuninUSA "加关注,每日滚动更新美国市场讯息:金融、零售、批发。推荐关注!【微信扫描下图可直接关注

美国华人网微信公众号

【中国海淘拼单总群】36382164

鲜花

握手

雷人

路过

鸡蛋

相关阅读

关于我们|Archiver|手机版|小黑屋|美国采购网DealABC_工业品给世界动力,艺术品给世界温暖  

GMT+8, 2024-6-29 22:18 , Processed in 0.051574 second(s), 8 queries , Gzip On, Apc On.

Powered by Discuz! X3.1

© 2014-2016 Sky-Express Inc.

返回顶部