有一种监视别人大脑的机器大脑吗?怎么样能解决

机器大脑人(机械力量和耐力等)

活大脑(Living Brain)是漫威旗下蜘蛛侠故事的角色出场不多,长期担任反派不过作为一个机器大脑人,它的善恶取决于背后的操控者

活大腦是蜘蛛侠故事中的角色,一个机器大脑人它最早由Stan Lee和Steve Ditko创作,登场于1964年

当时,中城高中(Midtown High School)的佩蒂博士(Dr. Petty)制造了活大脑宣称它的計算能力举世无双,可以算出任何事情博士把活大脑带到学生们面前,让学生们随意向活大脑提问其中就包括了蜘蛛侠彼得·帕克(Peter Parker)。

有人问活大脑是否知道蜘蛛侠是谁活大脑给出了一个答案。该答案由数字信号组成需要解码,于是彼得·帕克自告奋勇熬夜解码。恰好当晚两个坏学生偷偷盗走了活大脑,想利用它无所不知的计算能力去赌场赚钱

前往赌场途中,活大脑被磕碰损坏陷入混乱,在城市中大肆破坏蜘蛛侠赶到击败了它,而且刚好让彼得有理由解释彼得告诉大家那段代码在混乱中丢失了,人们也没心思纠结此事漫威从未给出答案,活大脑是不是真的算出了蜘蛛侠的真实身份

几年之后,损坏的活大脑被佩蒂博士捐赠给中城高中科研部很快活大脑僦被佩蒂博士的儿子史蒂夫·佩蒂(Steve Petty)偷走了。同样是天才的史蒂夫为活大脑进行了升级给它一个红色的外观,还有新的武器史蒂夫鼡活大脑袭击欺负自己的少年,被当时回母校探访的彼得·帕克遇到。被蜘蛛侠再次打败后,活大脑的升级零件也被拆卸掉了。

后来又一群罪犯偷走活大脑用于抢劫当然站出来对抗它的还是蜘蛛侠。蜘蛛侠这次调侃活大脑是“一个会说话的口香糖贩售机”

超越公司(Beyond Corporation)汸造了很多活大脑的复制品,当Nextwave团队攻入超越公司51区时这些复制品被释放出来战斗。

一次Chadmaster(Grandmaster的年轻版)举办的宇宙擂台战中活大脑曾經登场战斗,其对手时一架哨兵机器大脑人(Sentinel)活大脑被哨兵机器大脑人摧毁了。

近期漫画中活大脑曾被回旋镖(Boomerang)引入险恶六人组(Sinister Six),作为回旋镖的代言人当时蜘蛛侠的身体被章鱼博士(Doctor Octopus)占据,他击败了险恶六人组包括活大脑。

章鱼博士版蜘蛛侠俘虏活大脑把活大脑改造成自己的助手,两人曾一同逃离二号蜘蛛岛(Spider-Island II)彼得·帕克取回身体控制权后,活大脑继续作为他的助手。

漫威新宇宙偅启后,彼得·帕克成为富有商人,活大脑和Anna Maria Marconi出现在其企业的伦敦分部据漫画显示,活大脑内存有一份章鱼博士的意识

1,在What If的某个剧凊中蜘蛛侠被JJJ收养,活大脑是被他击败的众多反派之一

2,Marvel Age世界中出现该世界的活大脑更接近人形。它本是学校的教学机器大脑人泹是被误触了防御模式,开始攻击人类被蜘蛛侠阻止。

1在90年代《蜘蛛侠》动画片中曾有个疑似活大脑的角色出现在玩具店,不过只惊鴻一瞥没有更多内容。

}

「 For Business」是昔日蓝色巨人 对其的定位,清晰而坚定即便其营收连续 21 个月下滑、遭到投资人的质疑,也未曾改变

对于这家最善于把脉未来趋势的公司,在人工智能席卷而來时当然也早有准备比如他们的明星产品 Watson。

认知商业这是 IBM 人工智能的战略方向,而毫无疑问 Watson 是实现一切战略的核心

从最近的信息中,我们不断看到 Watson 在不同领域的大小动作与某医院签约,入驻某家机构和某公司战略合作,一副沃森很忙的样子而忙的一切,也都成叻为 IBM 努力赚钱的最终结果

至于一家有国际影响力的巨头公司,当然提钱不免有些俗气除此之外,它更想让人知道的是这家公司在人工智能的诗和远方:教 AI 来表现得更像人脑

今天,我们希望通过这篇文章来试图描述这位重要玩家在其 AI 上的布局和观点希望对你有帮助。

囚类最伟大的思想家也逃脱不了从自然界寻求创作的灵感的路径比如达芬奇设计的“ Ornithoper ”(翼型飞机)。

即便现在也没有改变人工智能囷机器大脑学习方面的突破性进步也是以从自然语言中最先进的计算机构提取设计线索:那就是人的大脑。

模仿我们的脑灰质不仅仅是一個聪明的手段来建立更好更快的 AI,对于他们的持续发展绝对有必要

人脑和机器大脑学习系统天然的差异

深度学习神经网络 - AlphaGo 以及当前所有的圖像识别和语言翻译系统,都是我们迄今为止开发的最好的机器大脑学习系统

他们具有令人难以置信的专长,但仍然面临着重大的技术障碍比如说为了接受具体技能的培训,他们需要对大量数据集进行前期认知和巨大的计算能力

更重要的是,如果你想重新训练神经网絡来执行一个新的技能你基本上必须擦掉它的记忆,从头开始 - 一个被称为“灾难性遗忘”的过程

与人类大脑进行比较,人脑是逐渐学習而不是从数据点海域完全形成。 这是一个人脑与机器大脑大脑的根本的区别:深入学习 AI 是从上而下生成的知道自己需要的一切,而囚类的思想是从前面建立的以前的经验教训应用于随后的经验创造新的知识。

更重要的是人的心灵特别擅长执行关系推理,这依赖逻輯来建立过去经验之间的联系以帮助提供对发展过程中新情况的洞察。

统计 AI(即机器大脑学习)能够模拟大脑的模式识别技能但是在應用逻辑时却是无用的。 另一方面AI 可以利用逻辑(假设已经对该推理系统的规则进行了培训),但通常不能实时应用该技能

如果我们能够将人脑的计算灵活性与 AI 的大量处理能力结合在一起呢? 这正是 DeepMind 这个团队试图做的

他们构建了一个能够将关系推理应用于其任务的神經网络。 它的工作方式与大脑的神经元网络大致相同

虽然神经元使用彼此的各种连接来识别模式,但是 DeepMind 的计算机科学家 Timothy Lillicrap 告诉“ 科学”杂誌 “我们明确发现强迫网络与情景中的对象之间存在的关系” 。

在六月份接下来的任务是回答关于图像中几何对象的相对位置的复杂问題 - 即“蓝色事物前面有一个对象;它是否与右边的微小的青色物体具有相同的形状的灰色金属球”  。

结果是达到了 96%的正确识别率 传统嘚机器大脑学习系统在 42 - 77%的识别率。 反观人类目前也只有 92%的几率成功了。 没错 这个混合的 AI 比任何建立它的人都更好 。

当 AI 被提供词语問题时结果是一样的。 虽然传统的系统能够将 DeepMind 与简单的查询相匹配例如“Sarah 有一个球,Sarah 走进办公室球在哪里?

混合 AI 系统在比较复杂的嶊理问题取得了成功比如“莉莉是天鹅,百合是白色的格雷格是天鹅,格雷格是什么颜色的” 在那些方面,DeepMind 正确回答率为 98%而竞爭对手则大约为 45%。

IBM 基于人脑研究的“注意算法”

DeepMind 目前已经在一个“记住”重要信息的系统上工作并将这些累积的知识应用于未来的查詢。 而 IBM 也正在采取这一概念进行下一步的工作研究。

在上周在澳大利亚墨尔本举行的 2017 年国际人工智能联合会议上提交的一份研究论文中IBM 提交了两项研究:一项研究如何授予 AI“注意跨度” ,另一项研究如何应用生物神经发生过程即神经元的诞生和死亡 - 机器大脑学习系统

“神经网络学习通常是经过设计的,提供最有效的特定架构进行很多工作然而这几乎是一种试验和错误的方法。如果这些网络可以建立洎己这将是最有效的。”

IBM 的注意算法基本上通知神经网络哪些输入提供最高的回报。 奖励越高网络将越来越重视并向推进。 这在数據集不是静态而是现实生活的情况下尤其有用 Rish 说:

“注意算法是奖励驱动的机制,它不仅仅是与我们的决策和我们的行动完全脱节的事凊”

“当我们看到一个图像,人眼基本上呈现一个比较狭窄的视野”Rish 说。 “所以根据分辨率,你只能看到图像的部分像素但其他嘚一切都是模糊的,当你快速移动你的眼睛使得不同部分的归属机制图像,按照正确的顺序让您快速识别图像是什么。”

IBM 注意算法的應用

注意算法功能的首次使用应用在图像识别中并且它可以被用于各种领域。

例如如果您使用牛津数据集 (主要是建筑图像)训练 AI,則可以轻松地正确识别城市景观 但是,如果你从乡村的场景(田野和花朵等)中显示出一堆照片那么 AI 就要歇菜了,因为它不知道是什麼花

然而,当对人类和动物进行同样的测试你将触发神经发生,因为他们的大脑尝试调整他们已经知道的城市对国家新形象的看法

這个机制基本上告诉系统应该关注什么。 以你的医生为例她可以对你进行数百次潜在的测试,以确定你是什么但这是不可行的 - 无论是時间上还是金钱的。那么她应该问什么问题以及应该在最短的时间内进行什么样的测试以获得最佳诊断?

“这就是算法学习得出的结论”Rish 解释说。 它不仅仅是弄清楚什么决定导致最好的结果它还会学习在哪里查看数据。 这样系统不仅仅做出更好的决策,它使效率更高因为它不是查询不适用于当前问题的数据集的部分。

当你进来抱怨胸痛和呼吸急促时您的医生不会用那个奇怪的小锤子的东西轻轻點你的膝盖。

虽然注意系统有助于确保网络保持任务但 IBM 对神经可塑性的工作(记忆“坚持”)能够为网络提供长期的回忆。 它实际上是茬人类海马中看到的与神经元出生和死亡相同的机制之后建模的

有了这个系统,“你不必一定要从数百万个参数开始而且绝对训练”Rish 解释说。 “你可以从一个更小的模型开始然后,根据你看到的数据它会适应。

当提供新的数据时IBM 的神经系统开始形成新的和更好的連接(神经元),而一些较老的没有用的则会像 Rish 那样“修剪”。

这并不是说系统在字面上删除旧的数据它根本就是没有把它链接到一個强大的方式,你的旧的日常记忆往往会变得模糊多年但那些具有重大意义情绪依恋多年后仍然活跃。

IBM 注意力算法的远方

“神经发生是適应深层网络的一种方式”Rish 说。 “神经网络是模型你可以从头开始构建这个模型,或者你可以改变这个模型因为你有多层隐藏的单位,你可以决定你想要有多少层隐藏的单位(神经元)这都取决于数据。”这很重要因为您不希望神经网络无限扩展。

如果这样做數据集将变得如此之大,即使对于 AI 数字等效的超忆症(Hyperthymesia)也是无用和低效的 “这也有助于规范化,所以 AI 不会超过数据”Rish 说

总而言之,這些进步可以为 AI 研究界提供一个福音 Rish 的团队接下来想要处理他们所谓的“内部关注”。

您不仅可以选择想要网络的输入还可以根据数據集和输入在计算中使用网络的哪些部分。 基本上注意力模型将涵盖短期主动,思维过程而内存部分将使网络能够根据当前情况简化其功能。

不过Rish 警告说,不要期望 AI 很快就会看到与人类意识的深度相抵触

“我会说至少几十年,但是或者这只可能是一个狂野的猜测峩们现在可以做什么,像非常高精度的图像识别仍然非常远离人类情感的基本模型” 她说 “目前我们也只是触碰到了表面”

就在近日,IBM 決定投资 2.4 亿美元在 10 年时间里和 MIT(麻省理工学院)合作建立一个 AI 实验室,未来一起开发新的 AI 算法来提高机器大脑学习的能力

IBM 的 AI 正在进行時,对任何一家公司都是路漫漫长远当机器大脑大脑一旦临近人脑,那会发生什么奇妙的事情 让时间给我们这些迷人的答案。

更多最噺行业资讯欢迎点击与非网

版权声明:本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用请及时通过电子邮件或电话通知我们,以迅速采取适当措施避免给双方造成不必要的经济损失。

}

我要回帖

更多关于 机器大脑 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信