详解IBM、谷歌的AI布局

现在越来越多一些人工智能的机器人直接步入到我们的生活中,而在一定的未来,也有可能会在人脑中加入到智能的成分,而这些会不会影响到人类的呢?而霍金也曾说过,人工智能可能会终结人类的,而到时候人工智能是否会得到控制也不是到时候人类所可以保证到的了,一起来看看人工智能机器人对人类会造成威胁吗到底如何吧。

国外媒体报道,经过几十年发展,人工智能已经从科幻小说里的一个概念,变成了当今科技发展的主流。苹果的语音控制系统Siri、亚马逊的智能助手Alexa、IBM的沃森超级电脑、谷歌大脑等等,能够理解这个世界并且给出高效反馈的智能机器似乎就在眼前。

本文摘选自长城证券报告——互联网迎来AI
时代,海外科技巨头争先布局:人工智能深度报告(国外篇一),在未改变原意的基础上略有删减。

图片 1

强大的互联网接入和计算机运算法则让机器在理解人类语音、视频信息的方面取得了飞跃性的进步,也逐渐向真正的人工智能迈进。AI(Artificial
Intelligence),可实现自动响应的人工智能产品距离我们还远吗?如何让他们保持不断自我更新升级但是依然保持人类可控范围内?

PC互联网时代的企业核心竞争力为软件产品的快速反应能力,移动互联网时代是构建移动端的生态系统,人工智能时代则更为依赖
AI 核心技术。

人工智能威胁论是否是无稽之谈

这个问题给人们带来普遍的担心和焦虑。“我认为人工智能的发展最终会导致人类族群的灭绝,”物理学家斯蒂芬·霍金接受BBC的采访给出了这样的观点。特斯拉的创始人埃隆·马斯克把AI称为“人类最大的潜在威胁”。微软前总裁比尔·盖茨也表示过类似的担忧。

AI技术拥有两大要素:

科学家预言,未来很有可能在人脑中加入人工智能成分,以此来增强它的性能,如更高的记忆、更快的计算速度等等,甚至有可能通过基因工程技术来改变人类的DNA,并且以此来改变人类的外表和行为。人类可能会拥有可以生长、繁殖、分化、可移动、自我装配、自我测试、自我修复等的人工细胞,生物学和技术将融合在一起。

有多少担忧是必要的?问题有多紧迫?我们聚集了多位工业、科研、政策决策领域的专家,一起评估人工智能的发展风险。参加此次话题讨论的包括Skype创始人之一、人类未来发展潜在风险研究院的智库成员——Jaan
Tallinn,IBM的沃森超级电脑研究院负责电脑认知研究的专家——Guruduth S.
Banavar,帕多瓦大学计算机系教授、哈佛大学拉德克利夫高级研究所研究院和聚集最多AI研究者的国际人工智能研究协会主席——Francesca
Ross。

核心技术平台

美国作家雷蒙德科兹威尔曾提出观点:2045年,人类将会通过与计算机结合而获得永生,计算机智能将取代人脑,永久改变人类的命运。届时,人类和计算机智能将无法区分,人类也将不再是人类,而是与机器融合成为另一种物种–听起来这有点像科幻小说中的情节,但是,越来越多的人开始认真假想这种可能性。

以下是经过编辑整理的专家谈话内容。

数据循环

人工智能研究者也已经模拟过了所谓AI盒子实验:一个人扮演AI,另一个人扮演守卫,仅仅是同级别的智力,AI就已经有很大的几率能说服人类开门了。

危险究竟是什么?

只有将 AI
技术与数据结合,才可形成实用性的业务。本文主要侧重于介绍IBM、Google在基础层、技术层、应用层全面布局AI,并对其扩展应用场景等内容进行介绍。

现代人类对于科技的依赖已经越来越严重,未来人工智能是否会像鸦片一样给人短暂快感的同时还带来更长期的毒害?显然,各方数据和预测表明,这种可能性是存在的。如果真有这样的可能,我们又该如何避免其发生呢?诚如霍金说的,只有务必确保机器人是站在人类这边,即能受控于人类,我们才能相信未来他们不会威胁人类的生活和生存。

记者:人工智能会对人类造成哪些威胁?

IBM——Watson

人工智能是否真的会威胁人类

Banavar:受科幻小说、电影的影响,人工智能带来的威胁主要是人类与机器之间的矛盾冲突,这个观点其实是错误的。人工智能在某些领域能够比人类更出色地解决问题,比如大数据筛选。然而,某些人类擅长的领域里,机器的表现非常糟糕。比如常识推理、提出精彩的问题以及“跳出来”想问题。人类和机器的结合体,既我们研究的计算机认知能力的基础,是对解决各个领域的复杂问题的革命性的设想。

人工智能是IBM在2014年后的重点关注领域,IBM在AI领域布局围绕Watson
和类脑芯片展开,试图打造AI生态系统。目前IBM已撤销全球业务咨询GBS和技术服务
GTS等部门,并转型成认知解决方案和云平台公司。

科学家警告人类警惕人工智能

以人工智能为基础的系统已经在很多方面为我们的生活提供了便利:股票自动交易系统、自动飞行控制系统、工业流水作业机器人、错误检测和搜索引擎…在过去的5-10年间,计算机运算法则和先进的计算机架构让我们开发出了很多新应用。

图片 2

听好,我们的时间所剩无几!我们需要告诉Siri,不要思考太多问题,只需要听话就好。当然,偶尔来上一点段子也无伤大雅,重要的是,我们必须确保Siri的立场与我们的一致。这段话是霍金在Zeitgeist大会上有感而发的。显然,我们现在就需要确保这一点,之后便可以坐等计算机的智能超过我们自身的。然而,我们很难预测,具备智能的计算机会走向何方?

然而需要认识到,计算机运算法则已经被运用到极致。要实现更大的进步,则需要引入更多复杂的符号系统——这是个很高的要求。今天我们的神经科学和认知科学研究,对于人类智能的研究也只是掌握到皮毛。

IBM未来十年战略核心是“智慧地球”计划,IBM 每年在其投入研发投资约在 30
亿美元以上。

或许有人会质疑,机器人是人类所生产出来的,里面的编程也都是由人类写出来的,其说白了就是一个死物,那么死物怎么可能比活着的人更加聪明?

我个人的观点是,能够达到人类水平,实现一般感知、推测的人工智能机器只是个娱乐话题。

未来 IBM 的创新解决方案在智慧能源、
智慧交通、智慧医疗、智慧零售、智慧能源和智慧水资源等领域全面开花,涵盖节能减排、食品安全、环保、交通、医疗、现代服务业、软件及服务、云计算、虚拟化等热点方向。

此前,霍金就曾发出警告称人工智能可能会终结人类。霍金说:现在不是担心谁控制人工智能的时候,而应该担心人工智能是否能被完全控制住。我们的未来取决于技术不断增强的力量和我们使用技术的智慧之间的赛跑。

TALLINN:今天的人工智能不可能对人类构成威胁。如果我们要讨论人工智能的长远影响,(也就是人工智能能够比人类更好地完成策略、科学、人工智能研究的时候。)我们就要涉及到控制超级智能的问题。

2016 年Q3, 以沃森为代表的认知解决服务实现营收 128.89 亿美元
,营收增长迅速,占比高达 22. 17%,IBM在AI领域盈利开始爆发
。我们预计2016-2018年IBM认知解决服务分别实现营业收入190.39 亿元、218.95
亿元 、240.84 亿元 ,届时认知解决服务占IBM营收比例将达24.56% 、26.89%
、28.72%, 成为驱动IBM业绩增长的主要业务。

其实早在今年年初,霍金也曾与特斯拉CEO伊隆马斯克(Elon
Musk)共同发表公开信,他们认为人工智能的发展应该受到控制。两人在信中警告科学家们,应警惕人工智能将抹杀人类。

记者:什么是超级智能控制问题?

Watson引领认知商业:

去年11月份,马斯克也提出警告,最少只需5年智能机器可能就会带来极端危险。他认为,人工智能就像召唤恶魔。马斯克在麻省理工学院发表演讲时,将人工智能描述为人类最大的生存威胁。他说:我认为我们对人工智能应该保持高度警惕。如果让我猜测人类生存的最大威胁,那可能就是人工智能。
人工智能概念频出现

TALLINN:现在最先进的机器人也存在一个能够让人类实现完全控制的“关机键”。然而,“关机键”发挥作用的前提是它在机器人的工作领域之外。举个例子,一个会下棋的电脑工作领域仅限于与人对弈,它并不会觉察到它的人类对手可以拔掉它的电源终止游戏。

目前,IBM
不再将沃森作为单一系统开展业务,而将其功能分割成不同组成部分,每个部分都可被租用出去以解决特定商业问题。以IBM沃森为代表的认知技术将商业带入认知商业时代,帮助各行业挖掘商业价值,重塑产业格局。IBM在替客户提供创新解决方案,客户不断向沃森输入自己企业数据并对沃森进行训练。

机器人时代已经拉开了序幕,截止到2007年末,全球已经有410万家用服务机器人走进了人们的生活。我国还把家庭智能机器人作为国家十一五规划的扶植要点。

然而,超级智能机器,经过有意或者无意的程序设定,能够全面的了解周围世界并且对于有人可以动他们的“关机键”的后果作出预测,人类就很难再控制它。

认知商业时代中,以认知计算、大数据分析、物联网、异构计算、神经元芯片
Synapse、认知型机器系统等为代表的一批新兴前沿技术应用逐步走进新能源利用、污染防治、城市管理、生态改善、医疗、交通、食品安全追溯及社区服务等领域。

目前机器人仍在人类可控范围内,不过,在不远的将来,通过意念控制另一个人并非不可能。2013年8月28日,华盛顿大学首次实现了两个人脑之间的远程控制,一名实验者通过特殊仪器控制了另一个实验者的行动

记者:这个问题有多严重?

沃森在分析问题并确定最佳解答时, 运用了先进自然语言处理、 信息检索、
知识表达、推理和机器学习技术,来收集大量证据、生成假设、并进行分析和估。目前,沃森已开发40
种不同产品,包括常见语言识别服务等。沃森善于认知,
专为理解、推理和学习而设计,有机会战胜从前无法完成挑战,如智胜医疗挑战、智胜水资源管理挑战、智胜保险诈骗挑战、智胜时尚挑战、智胜环境挑战、智胜并购风险挑战等。

人工智能是否真的会威胁人类?

TALLINN:目前这还只是理论上的推测。但是需要谨慎的认识到,超级智能机器可能会仅仅受控于物理学定律和人们给早期智能机器人设定的程序。

Watson+医疗构建智慧保健平台:

近日百度表示,已在备受瞩目的人工智能基准测试中取得了全球最佳成绩。而其成功的秘密武器,就是超级计算机Minwa。

早期的程序是基于我们十分有限的物理学知识设计的。想象一下,如果面对一个智能机器人,我们给出的指令是“为人类创建更伟大的未来”时,我们最好能够十分确定它会做出怎样的反应。

沃森在医疗领域主要关注肿瘤和癌症的诊断,其优势在于自然语言处理,通过挖掘非结构化数据寻找深层关系。沃森医疗商业战略为:

近日也有报道称未来人工智能或许会帮助人类研发半机器人,即一种一半是人一半是机器的生物。2月《时代》周刊杂志中,封面故事也为我们描绘了人类的未来–2045年,人类将会通过与计算机结合而获得永生,计算机智能将取代人脑,永久改变人类的命运。

ROSSI:在很多具体的领域,人工智能的表现已经超越人类,其中就包括一些涉及精确判断的领域。目前,人工智能并未威胁到人类,但是人类已经受到机器判断的影响,如线上自动交易系统,健康检查系统以及很快就将普及的无人驾驶汽车和无人操控武器。

1、深度聚焦肿瘤领域,并向其他领域扩展;

人工智能不仅仅是机器人,刷脸支付、指纹识别、智能语音等生物识别技术也属于人工智能的范畴,目前,这种技术正随着云存储技术逐渐渗透我们的日常生活。

我们需要明确了解分析人工智能在具体领域内存在的潜在威胁,既让它们发挥作用,又要确保它们能够安全、友好、按照人类价值观运转。这并不是个简单的课题,因为即使是人类,在大多数时间里都无法遵照自己设定的原则行动。

2、通过大规模收购获取数据资源;

人工智能若真对人类构成威胁

给日常生活带来的影响

3、通过合作等扩展使用场景,输出生态能力。

国外媒体报道,经过几十年发展,人工智能已经从科幻小说里的一个概念,变成了当今科技发展的主流。苹果的语音控制系统Siri、亚马逊的智能助手Alexa、IBM的沃森超级电脑、谷歌大脑等等,能够理解这个世界并且给出高效反馈的智能机器似乎就在眼前。

记者:人工智在具体领域会给人类带来怎样的威胁?

汇聚了医疗保健数据、人力、能力、客户后,Watson Health
将成为潜力巨大的医疗保健大平台,沃森认知计算助力智慧医疗领域。沃森效率、精确度大幅高于人类,“认知计算+医疗”前景广阔,IBM
深刻受益行业发展红利。

强大的互联网接入和计算机运算法则让机器在理解人类语音、视频信息的方面取得了飞跃性的进步,也逐渐向真正的人工智能迈进。AI(Artificial
Intelligence),可实现自动响应的人工智能产品距离我们还远吗?如何让他们保持不断自我更新升级但是依然保持人类可控范围内?

ROSSI:比如自动交易系统,机器给出的一个错误的决策会给很多人带来经济损失。无人驾驶汽车的失误也会给人类带来生命安全的威胁。

此外,IBM
还凭借其强大的认知计算能力,应用于数字顾问、虚拟助理、云计算、科学研究等多领域,大力研发量子计算电路,开放量子计算平台,推出多款并行式类脑芯片,提升AI
算力。2015 年 11 月, IBM 开源了人工智能基础平台
SystemML,可支持描述性分析、分类、聚类、回归、矩阵分解及生存分析等算法,沃森整合了诸多
SystemML 功能。

这个问题给人们带来普遍的担心和焦虑。我认为人工智能的发展最终会导致人类族群的灭绝,物理学家斯蒂芬霍金接受BBC的采访给出了这样的观点。特斯拉的创始人埃隆马斯克把AI称为人类最大的潜在威胁。微软前总裁比尔盖茨也表示过类似的担忧。

记者:应该怎么看待这些风险?

Google——软硬件结合,开源系统构建AI生态

有多少担忧是必要的?问题有多紧迫?我们聚集了多位工业、科研、政策决策领域的专家,一起评估人工智能的发展风险。参加此次话题讨论的包括Skype创始人之一、人类未来发展潜在风险研究院的智库成员Jaan
Tallinn,IBM的沃森超级电脑研究院负责电脑认知研究的专家Guruduth S.
Banavar,帕多瓦大学计算机系教授、哈佛大学拉德克利夫高级研究所研究院和聚集最多AI研究者的国际人工智能研究协会主席Francesca
Ross。

BANAVAR:任何风险都有两面性:做这件事的风险和不做这件事的风险。我们已经有很多基于信息不完全、专业人士的不专业做出的错误决定,造成数千人死亡,上百万美金损失以及在诸如医疗等核心领域缓慢的发展状况。基于IBM沃森超级电脑在很多领域的应用经验,我认为,在具体领域上,人工智能能够有效的降低风险。

谷歌大数据检索核心技术领先于全世界,并建立了全球最大的数据库系统。广告盈利是谷歌的主要盈利模式,目前九成以上营收来自其广告系统。

以下是经过编辑整理的专家谈话内容。

然而对于全面人工智能领域,我持有谨慎的观点。我认为我们一直低估了这个问题的复杂性。我们有太多未知未知了。

2015年8月,谷歌宣布架构重组,设立母公司Alphabet,谷歌由搜索引擎公司全面转向为覆盖诸多领域的高科技企业。

危险究竟是什么?

记者:IBM采取哪些措施来降低人工智能技术风险?

图片 3

记者:人工智能会对人类造成哪些威胁?

BANAVAR:IBM的计算机认知系统,和其他现代计算机系统一样,是基于云计算结构,运算法则和大量数据构建的。为了防止违规现象出现,这些系统的运转是可以被记录、追踪和审查的。这些认知系统不是自主运转,所以他们的指令、数据、结构需要我们采取一定保护措施来防止人为的外部攻击。任何接入、更新系统的人都是可控的。

谷歌在2011年成立 AI 部门,目前已经有100
多个团队用上了机器学习技术,包括Google搜索、Google Now、Gmail 等,
并往其开源 Android 手机系统中注入大量机器学习功能 (如
用卷积神经网络开发 Android 手机语音识别系统)
。谷歌目前产品和服务依靠主要AI
技术驱动,如谷歌使用深度学习技术改善搜索引擎、识别 Android
手机指令、鉴别其Google+社交网络的图像。

Banavar:受科幻小说、电影的影响,人工智能带来的威胁主要是人类与机器之间的矛盾冲突,这个观点其实是错误的。人工智能在某些领域能够比人类更出色地解决问题,比如大数据筛选。然而,某些人类擅长的领域里,机器的表现非常糟糕。比如常识推理、提出精彩的问题以及跳出来想问题。人类和机器的结合体,既我们研究的计算机认知能力的基础,是对解决各个领域的复杂问题的革命性的设想。

我们主要通过复杂的加密和数字签名来保护数据,通过漏洞扫描和其他技术手段保护运算代码,通过隔离等手段保护计算机结构。

谷歌发展AI的途径为:

以人工智能为基础的系统已经在很多方面为我们的生活提供了便利:股票自动交易系统、自动飞行控制系统、工业流水作业机器人、错误检测和搜索引擎…
在过去的5-10年间,计算机运算法则和先进的计算机架构让我们开发出了很多新应用。

这些支持人工智能安全运行的政策是基于对风险的深度分析设计的。这些政策需要经过安全和交易委任,管理销售和公共安全提供的委员会以及美国国家标准技术研究院这些各自领域内负责设定安全标准的机构审查。

1、覆盖更多用户使用场景,
从互联网、移动互联网等传统业务延伸到智能家居、自动驾驶、机器人等领域,积累更
多数据信息;

然而需要认识到,计算机运算法则已经被运用到极致。要实现更大的进步,则需要引入更多复杂的符号系统这是个很高的要求。今天我们的神经科学和认知科学研究,对于人类智能的研究也只是掌握到皮毛。

记者:沃森超级电脑正在帮助医生解决医疗难题。它能够对自身失误造成的医疗伤害负责吗?

2、积累底层人工智能技术,研发更高级的深度学习算法,增强图形识别和语音识别能力,对信息进行更深层加工、处理。谷歌试图将AI渗透到了旗下各产品,为用户带来更多使用场景、及更智能化功能。

我个人的观点是,能够达到人类水平,实现一般感知、推测的人工智能机器只是个娱乐话题。

BANAVAR:沃森超级电脑不会给出诊断意见。它通过处理大量患者医疗数据为医生提供多种处理建议。医生会考虑沃森提出的建议并综合分析其它因素做出最终的治疗判断。

图片 4

TALLINN:今天的人工智能不可能对人类构成威胁。如果我们要讨论人工智能的长远影响,(也就是人工智能能够比人类更好地完成策略、科学、人工智能研究的时候。)我们就要涉及到控制超级智能的问题。

ROSSI:医生也在一直犯错,主要原因在于他们无法完全掌握关于某种疾病的全部信息。像沃森电脑这样的系统,能够帮助他们减少失误。

Tensorflow

记者:什么是超级智能控制问题?

TALLINN:曾经一项研究把医生和医疗自动诊断系统作比较。结论是,大多数医生输给了电脑。

图片 5

TALLINN:现在最先进的机器人也存在一个能够让人类实现完全控制的关机键。然而,关机键发挥作用的前提是它在机器人的工作领域之外。举个例子,一个会下棋的电脑工作领域仅限于与人对弈,它并不会觉察到它的人类对手可以拔掉它的电源终止游戏。

BANAVAR:我认为,沃森电脑提供更加完备的医疗建议是十分有益的。我很希望有机会让它为我做诊断。

2015年11月谷歌开源第二代深度学习系统 Tensorflow。Tensorflow
可编写并编译执行机器学习算法代码,并将机器学习算法变成符号表达的各类图表,缩短重新写代码时间。TensorFlow
可模仿人类大脑工
作的方式并识别出模式,被用于语音识别或照片识别等多领域。另外,使TensorFlow
编写的运算几乎不用更改就能在多种异质系统上运行。在开放源代码后,所有工程师都将帮助谷歌修改和完善这项技术,谷歌收到反馈以后,可推出更好地服务和产品,进而推动整个
AI 产业发展。

然而,超级智能机器,经过有意或者无意的程序设定,能够全面的了解周围世界并且对于有人可以动他们的关机键的后果作出预测,人类就很难再控制它。

对人类的影响

DeepMind

记者:这个问题有多严重?

记者:有些专家认为人工智能以及抢了一些人类的饭碗,你们同意吗?

DeepMind创立于2010年,其将机器学习和系统神经科学最先进技术结合,建立起强大的通用机器学习算法。

TALLINN:
目前这还只是理论上的推测。但是需要谨慎的认识到,超级智能机器可能会仅仅受控于物理学定律和人们给早期智能机器人设定的程序。

TALLINN:科技进步确实会让一些工作岗位消失。有一位Uber司机曾经兴奋地向我介绍他是如何把目的地输入到平板电脑上,得到行程路线的。我告诉他,几年之后,可能来是这些科技小物件把我送到目的地。司机高兴地说,到时候他就更省事了,坐在驾驶座上享受就可以了。坐在后排的我却不住摇头。我认为,无人驾驶汽车给人类带来的最大影响不是便利,而是消失的工作岗位。

2014年1月,谷歌耗资 2.63 亿美元收购 Deepmind。

早期的程序是基于我们十分有限的物理学知识设计的。想象一下,如果面对一个智能机器人,我们给出的指令是为人类创建更伟大的未来时,我们最好能够十分确定它会做出怎样的反应。

长远看来,除了工作以外,还应该设想一下,我们的社会还可以围绕什么运转。

2014年12月,谷歌通过DeepMind与牛津大学的两支AI研究队伍建立了合作关系。

ROSSI:在很多具体的领域,人工智能的表现已经超越人类,其中就包括一些涉及精确判断的领域。目前,人工智能并未威胁到人类,但是人类已经受到机器判断的影响,如线上自动交易系统,健康检查系统以及很快就将普及的无人驾驶汽车和无人操控武器。

BANAVAR:有史以来,我们一直通过打造工具来帮助我们完成我们做不到的事情。每一代工具的产生都会引发我们关于自然和工作方式的思考。生产力提高,工作被重新定义,新的职业诞生,一些职业消失。电脑认知系统拓展了人类的思维力,替代性潜力更强。

2015 年2月,Deepmind 系统学会了 49 款雅达利经典游戏。

我们需要明确了解分析人工智能在具体领域内存在的潜在威胁,既让它们发挥作用,又要确保它们能够安全、友好、按照人类价值观运转。这并不是个简单的课题,因为即使是人类,在大多数时间里都无法遵照自己设定的原则行动。

问题的关键是应该建立一个机构,快速培养专业人士,让他们能够开发电脑认知系统作为助手辅助他们各自的工作。这些技能能够加强人类的专业性,为“专家”设定一个全新的标准。

2016年3月,由 Deepmind 研发AlphaGo 以 4:1
嘉绩击败世界围棋冠军李世石,激发全世界对人 工智能的关注。

给日常生活带来的影响

记者:我们该为人工智能社会做怎样准备?

当前 AlphaGo 专注于棋赛发展,未来还将应用于医疗诊断,
或投入无人驾驶等领域,以加速 AI 商业化进程。

记者:人工智在具体领域会给人类带来怎样的威胁?

TALLINN:全面人工智能何时实现甚至是否能够实现都存在很大不确定性。(虽然作为一名物理学家,我觉得一切皆有可能!)但是不确定性并不是我们不去思考控制问题的借口。针对如何控制的问题,有针对性的研究刚刚开始,可能需要几十年才能有结果。

虚拟助理融合智能家居,推进生态建设

ROSSI:
比如自动交易系统,机器给出的一个错误的决策会给很多人带来经济损失。无人驾驶汽车的失误也会给人类带来生命安全的威胁。

ROSSI:我相信,我们完全可以把应用在具体领域的人工智能对人类的不良影响控制到最小的程度。我们需要为机器设定人类的价值标准,设定工作原则和优先级,如与人类相符的冲突解决能力。具体领域的人工智能设计工作完成好,就能够为设计出不危害人类的全面人工智能做好准备。

谷歌认为智能家居领域将是未来 AI 应用的 一个重要市场,
目前世界各国的智能家居渗透率均较低, 为此 Google 正加速以 Nest、Google
Assistant
为基础智能家居生态系统建设,通过一系列并购、开放平台的建立、软件硬件一体化来打造这个生态系统。

记者:应该怎么看待这些风险?

BANAVAR:上个世纪90年代初期,计算机走进医疗领域的时候,多国社会运动分子为维护病人权利奔走呼吁。10年之后,医疗信息保密协议诞生。同样,在具体领域的人工智能也面临一个严肃问题,哪些权利不容侵犯,侵犯之后要承担哪些责任?

谷歌2016年5月推出语音智能助手Google
Assistant,是语音识别、人工智能、自然语音理解的集大成者。

BANAVAR:
任何风险都有两面性:做这件事的风险和不做这件事的风险。我们已经有很多基于信息不完全、专业人士的不专业做出的错误决定,造成数千人死亡,上百万美金损失以及在诸如医疗等核心领域缓慢的发展状况。基于IBM沃森超级电脑在很多领域的应用经验,我认为,在具体领域上,人工智能能够有效的降低风险。

ROSSI:现在销售普通汽车要通过一系列安全测试,未来销售无人驾驶汽车,也需要有新的安全测试标准。需要仔细检测的不仅是汽车运行程序,也包括以人类伦理、道德原则为基础设计的突发情况判断程序。

Google Assistant 能完整地理解上下文语境并回答问题,将和Alexa,
Siri和Hound等智能助手竞争。 相比 Google Now 主要用于手机和 PC上,Google
Assistant则开始融入各种设备(Google Home、Allo聊天机器人) 。根据
MarketsandMarkets 预测,自然语言处理市场规模将从2016年76.3
亿美元增长至2021年的160.7 亿美元, 年增速达16.1%。

然而对于全面人工智能领域,我持有谨慎的观点。我认为我们一直低估了这个问题的复杂性。我们有太多未知未知了。

BANAVAR:驾驶员、乘客、行人在无人驾驶汽车世界各自的权利是什么?消费者可以不向投资顾问和智能助手提供全部信息吗?谁该为投资建议负责?是投资顾问、投资服务组织者、智能助手设计者还是数据监管人?未来有智能机器的人类社会需要面临、解决的问题依然很多。

2014年6月, 谷歌通过 Nest 耗资 5.55 亿美元收购了基于云端的家庭监控公司
Dropcam,10月又收购了智能家居中枢控制设备公司Revolv,Revolv 将参与 Nest
“Works with Nest” 开放计划。2016 年5月推出 Google Home (智能音箱) 。
Google Home是一个基于Google Assistant语音控制的智能音 箱。相比亚马逊
Echo 而言,Google Home 将利用谷歌庞大数据库去理解用户需求。

记者:IBM采取哪些措施来降低人工智能技术风险?

传感器结合AI算法研发无人驾驶原型车

BANAVAR:
IBM的计算机认知系统,和其他现代计算机系统一样,是基于云计算结构,运算法则和大量数据构建的。为了防止违规现象出现,这些系统的运转是可以被记录、追踪和审查的。这些认知系统不是自主运转,所以他们的指令、数据、结构需要我们采取一定保护措施来防止人为的外部攻击。任何接入、更新系统的人都是可控的。

谷歌无人驾驶汽车项目始于2009年,2011年为其收购510 Systems、Anthony‘s
Robots等公司。目前无人驾驶行驶里程达180万英里,
且成功发布了全球第一款完全能够自动驾驶的原型车“豆荚车”,并宣称到2020年谷歌自动车将正式上市。

我们主要通过复杂的加密和数字签名来保护数据,通过漏洞扫描和其他技术手段保护运算代码,通过隔离等手段保护计算机结构。

谷歌无人驾驶以技术驱动,侧重于基础技术研究及AI核心科技开发。在攻克相关深度学习及大脑技术开发等软件算法基础上,集成各种传感器。2015年12月,谷歌和福特将成立一家合资公司,基于谷歌AI
技术研发无人驾驶汽车,可节省造车技术的时间和资金。

这些支持人工智能安全运行的政策是基于对风险的深度分析设计的。这些政策需要经过安全和交易委任,
管理销售和公共安全提供的委员会、食品及药物管理局以及美国国家标准技术研究院这些各自领域内负责设定安全标准的机构审查。

联手NASA研发量子硬件,发布TPU进军芯片市场

记者:沃森超级电脑正在帮助医生解决医疗难题。它能够对自身失误造成的医疗伤害负责吗?

谷歌已建立量子人工智能实验室(QuAIL),该实验室由美国宇航局(NASA)
、大学空间研究协会共同承办。2013年,谷歌已利用D-Wave机器在 Web
搜索、语音/图像模式识别、规划和行程安排、空中交通管 理、
机器人外太空任务等应用中进行量子计算的探索,
并支持任务控制中心的操作。2014年,谷歌利用其在 D-Wave
机器上经验来开发量子硬件,通过聘任加州大学物理学教授John
MarTInis及其团队,来建立谷歌的专属量子芯片。

BANAVAR:
沃森超级电脑不会给出诊断意见。它通过处理大量患者医疗数据为医生提供多种处理建议。医生会考虑沃森提出的建议并综合分析其它因素做出最终的治疗判断。

2016年5月,谷歌发布为机器学习特别研发的
TPU(张量处理单元)芯片。TPU芯片在计算精度降低时更耐用,用更多精密且大功率机器学习模型。通过快速应用这些模型,
用户得到更正确结果。Google 宣称,TPU 将机器学习能力提高三代,TPU
将摩尔规律向前推进7年。

ROSSI:
医生也在一直犯错,主要原因在于他们无法完全掌握关于某种疾病的全部信息。像沃森电脑这样的系统,能够帮助他们减少失误。

TALLINN:
曾经一项研究把医生和医疗自动诊断系统作比较。结论是,大多数医生输给了电脑。

BANAVAR:我认为,沃森电脑提供更加完备的医疗建议是十分有益的。我很希望有机会让它为我做诊断。

对人类的影响

记者:有些专家认为人工智能以及抢了一些人类的饭碗,你们同意吗?

TALLINN:
科技进步确实会让一些工作岗位消失。有一位Uber司机曾经兴奋地向我介绍他是如何把目的地输入到平板电脑上,得到行程路线的。我告诉他,几年之后,可能来是这些科技小物件把我送到目的地。司机高兴地说,到时候他就更省事了,坐在驾驶座上享受就可以了。坐在后排的我却不住摇头。我认为,无人驾驶汽车给人类带来的最大影响不是便利,而是消失的工作岗位。

长远看来,除了工作以外,还应该设想一下,我们的社会还可以围绕什么运转。

BANAVAR:
有史以来,我们一直通过打造工具来帮助我们完成我们做不到的事情。每一代工具的产生都会引发我们关于自然和工作方式的思考。生产力提高,工作被重新定义,新的职业诞生,一些职业消失。电脑认知系统拓展了人类的思维力,替代性潜力更强。

问题的关键是应该建立一个机构,快速培养专业人士,让他们能够开发电脑认知系统作为助手辅助他们各自的工作。这些技能能够加强人类的专业性,为专家设定一个全新的标准。

记者:我们该为人工智能社会做怎样准备?

TALLINN:
全面人工智能何时实现甚至是否能够实现都存在很大不确定性。(虽然作为一名物理学家,我觉得一切皆有可能!)但是不确定性并不是我们不去思考控制问题的借口。针对如何控制的问题,有针对性的研究刚刚开始,可能需要几十年才能有结果。

ROSSI:
我相信,我们完全可以把应用在具体领域的人工智能对人类的不良影响控制到最小的程度。我们需要为机器设定人类的价值标准,设定工作原则和优先级,如与人类相符的冲突解决能力。具体领域的人工智能设计工作完成好,就能够为设计出不危害人类的全面人工智能做好准备。

BANAVAR:
上个世纪90年代初期,计算机走进医疗领域的时候,多国社会运动分子为维护病人权利奔走呼吁。10年之后,医疗信息保密协议诞生。同样,在具体领域的人工智能也面临一个严肃问题,哪些权利不容侵犯,侵犯之后要承担哪些责任?

ROSSI:现在销售普通汽车要通过一系列安全测试,未来销售无人驾驶汽车,也需要有新的安全测试标准。需要仔细检测的不仅是汽车运行程序,也包括以人类伦理、道德原则为基础设计的突发情况判断程序。

BANAVAR:
驾驶员、乘客、行人在无人驾驶汽车世界各自的权利是什么?消费者可以不向投资顾问和智能助手提供全部信息吗?谁该为投资建议负责?是投资顾问、投资服务组织者、智能助手设计者还是数据监管人?未来有智能机器的人类社会需要面临、解决的问题依然很多