人工智能非常复杂,且发展迅速。AI 在一些领域做了很多,在另一些领域做得较少,这是任何人十年前都无法预测的。今天,任何人都几乎不可能预测未来 5 到 10 年人工智能将会给大家呈现什么。但这不代表我们不可以大胆地预测下一年或者写一个十年人工智能将会带来什么。
本报告的目标是不同的: 为未来 12 个月的 AI 趋势进行了预测,并介绍其对商业、政府和社会的影响。我们对进行短期预测很自信,因为这些初期趋势早已在进行了,只不过还没有获得应用的关注而已。
我们做出了 8 个预测。这些预测不仅仅基于人工智能远见者和计算机科学家,也基于普华永道保险、咨询、税务服务的领导从困惑于如何将 AI 应用到自己公司、帮助员工适应 AI 社会的客户处所观察到的现象。
1.人工智能会在影响雇员之前先影响雇主
每个人都经常看到这样的新闻标题: 机器人和人工智能将会摧毁我们的工作。但我们没有从另一方面看。反之,我们都看到了一个更复杂的景象:随着 AI 的到来,工作市场在逐步扩大,如果准备充足,这将是正面的影响。新的工作将会补偿失去的工作。人还是会在工作,而且他们在人工智能的帮助下将会工作得更有效率。
67% 的管理层称结合人类和机器的智能,AI 将帮助人们和机器一起工作,获得更高的效率。
启示
大众对人工智能的接受将会很快实现
「人工智能会摧毁大量工作」将会是个假警报,人们会更乐意地接受工作场景和社会中出现的人工智能。我们也许更少地听到机器人在接替我们的工作,而是更多的机器使我们的工作变得简单了。这种转变将导致人工智能被接受的速度比一些机构预测的更快。
机构的重组即将开始
这将会是一个漫长的过程,但一些高瞻远瞩的机构已经在破除将数据分成独立仓库和把员工分成独立单元的做法。一些机构也已经开始大量地组织人工智能和其他数字技术的培训。这些培训不只是教授新的技能,它将教授一种新的着重于与同事和人工智能合作的思维。
2. AI 将来到我们身边
很多出版物描述的人工智能驱动的未来看起来非常神奇:从不会发生事故或发生交通拥堵的自动驾驶车队、在毫秒内就能诊断疾病的机器人医生以及优化人力和货物流动的智能基础设施等。所有的这些都会来到我们的身边,但不会在 2018 年就实现。
启示
商业问题将为 AI 打开大门
领导者并不需要完全采用 AI,但在他们寻求商业需求的最佳解决方案时,AI 将发挥越来越重要的作用。你认为商业组织是否希望有自动化记账、一般会计和预算以及其它更多合规职能?是否希望部分实现采购、物流和客户服务等过程的自动化?人工智能很可能成为解决方案的一部分,不论使用者是否察觉到了它。
需要新的投资回报率(ROI)度量方法
有时候衡量 AI 价值最好的方法就是使用与其它商业投资相同的度量标准:度量收入的增长或者其他开销的降低。但是 AI 最强大的优势通常是间接的,因此商业组织可能会希望探索其它的 ROI 度量方法。自动化全职等效人数(FTE)能够捕捉 AI 如何从平凡的工作中释放人类劳动力。其它的指标还可以展示 AI 如何能改善人类的决策制定与预测。
54% 的企业高管表示,在他们的业务中使用 AI 解决方案已经提升了生产力
3.AI 将帮助回答关于数据的重大问题
许多公司管理人没有看到他们投资大数据的收益。然而业务和技术高管认为他们可以利用这些数据做更多的事情,这其中存在着沟通隔阂。但问题是学习曲线陡峭、工具仍不成熟,且面临着相当大的结构组织方面的挑战。
与此同时,商业组织当前还是可以利用新工具和技术进步的优势,包括:
挖掘结构化不足的数据的简单方法,包括用于文本索引和分类的自然语言处理
包含更多 AI 成分的企业应用套件
新兴的 lake-as-a-service 数据平台
利用不同类型数据的公共云平台
自动化的机器学习和数据管理
启示
成功将引领成功
那些已经在一项应用中成功执行数据管理的企业将会在下一个计划中领先一步。他们将开发最佳实践以有效利用数据资源,并跨组织边界进行工作。
第三方数据提供商将蓬勃发展
商业组织准备内部数据而支持人工智能和其它创新是无可替代的,但是可以有补充:供应商越来越多地提供公开数据源,并将其组织成数据池以为 AI 的应用做准备。
更多的合成数据将到来
随着数据变得更加有价值,合成数据和其它精简或增强数据学习技术将加速进步。例如,我们可能并不需要一整支自动驾驶车队在道路上生成的数据,而只需要少数车辆加上复杂的数学运算就能满足模型的训练。
59% 的管理人员表示通过使用 AI,他们公司的大数据已得到了提升
4. 功能专家将决定 AI 人才竞争的胜利,而不是科技迷
随着 AI 技术扩散到越来越多的具体领域,数据科学家和 AI 专家通常缺乏的知识和技能将变得越来越重要。
目前在计算机科学家之间已经展开了投标战,但要使 AI 技术获得成功,目前的顶尖 AI 人才资源还不够。机构需要引入能与 AI 专家合作的领域专家。他们并非一定是程序员,但他们必须理解数据科学和数据可视化的基础,以及 AI 的工作(思维)方式。
随着 AI 走出计算机实验室并进入日常工作流程,这些领域专家甚至将比计算机科学家更重要。很多领域专家将需要适当地学习新技能。
启示
更快地提升技能意味着更快的 AI 部署
希望依靠 AI 优势发展的企业不该仅仅在最聪明的计算机科学家上投资。如果他们希望让 AI 技术更快地迭代和更高效地运行,他们应该为功能专家提供对 AI 技术的理解能力。更大型的机构应该分清轻重缓急,即确定 AI 技术更可能首先出现失败的地方,并从这里开始优化。
通过提升技能可以获得新的学习方法
机构需要提升他们大量员工的技能,即学习数据科学的基础和开发 AI 应用的思维方式。这项任务影响重大,企业必须寻找评估高潜能学习者的技能的方法,并给予他们个性化的学习路径,从而能快速地提升自我。
除了 AI 技术以外,67% 的工作将需要应用数据科学和分析技能。
5. AI 使网络网络攻击更强大,不过网络防御也更强大了
AI 在哪项工作中已经显露超越人类的能力?黑客。比如,机器学习可以轻松使得恶意攻击者追踪你在社交媒体上的行为,然后为你定制钓鱼推特或电子邮件。人类黑客无法这么快、这么好地完成这项工作。
AI 越发展,其对网络攻击的影响就越大。先进技术,如机器学习、深度学习、神经网络,使计算机找到和破译模式。它们还能找到和利用漏洞。
智能恶意软件和勒索软件随着扩展不断学习,机器智能辅助的全球网络攻击,先进的数据分析师来定制攻击,很不幸,这些可能很快就冲着你的组织而来。AI 本身,如果不好好保护,也会生成新的漏洞。比如,恶意使用者可以向算法的训练数据集中添加有偏数据。
启示
不要拿鸡蛋去碰石头,要选择合适的武器
从企业层面来看,很多公司可能会选择降低在 AI 方面的发展或利用速度,但是网络安全不能停滞不前:攻击者将使用 AI,因此防御者也必须使用 AI。如果一个公司的 IT 部门或网络安全提供商没有使用 AI,那么它必须立即思考 AI 在安全方面的长短期应用。使用案例包括分布式拒绝服务攻击(DDOS)模式识别、优先处理升级和调查日志警报,以及基于风险的认证。
网络安全可能加速企业对 AI 的接受度
谨慎看待和使用 AI 的公司为了网络安全也将使用 AI,网络防御将是很多公司使用 AI 的第一次尝试。进一步刺激公司接受 AI 的地方在于数据需求:AI 在公司内部可获取数据的规模越大,其防御网络威胁的能力越强。一些公司已经构建基于云的预置「威胁湖」,其利用了 AI 的能力。
AI 黑客可能增加公共恐惧
很多人对 AI 感到焦虑不安,更多人担心网络安全。很可能今年 AI 登上头条时,不是因为它帮助了人类,而可能是它帮助了一次大型黑客行为。更好的网络安全可以缓解这种风险。除了为 AI 能力开发特征集,网络安全性增强还要求企业增强数据和计算平台,支持高级分析师拥有优先权限进行监控、对象级变化管理、源代码 review 和扩展的网络安全控制。
27% 的公司高管称其公司今年计划在使用 AI 和机器学习进行网络安全保障方面进行投资。
6. 打开 AI 的黑箱将成为优先考虑的事
AI 自主武器会成为连环杀手吗?被命令减少空气污染的 AI 系统会决定最合乎逻辑的方式是消灭人类吗?这样的恐惧可能对惊悚片有利,但是这种危险可以管理。
这里介绍一下很多 AI 支持者不愿意提及的秘密:AI 并没有那么智能,至少目前是这样。尽管 AI 在模式和图像识别、自动化执行复杂任务、帮助人类决策方面越来越强大,但它仍然只能用于特定任务,且不具备像人那样的智能。
现实风险
如果 AI 总是可控的,那么它未必总是可理解的,很多 AI 算法超出了人类的理解。很多 AI 供应商没有揭露其程序保护知识产权的原理。在这两种情况中,AI 作出了决策,但其终端用户并不清楚它如何作出的决策。这就是「黑箱」,我们无法看到它的内部是什么。
启示
很多黑箱将被打开
我们期待企业能够面对终端用户和监管机构不断增长的对于部署可解释、透明和可证明的 AI 技术的压力。这可能需要 AI 供应商共享一些秘密,也可能需要深度学习用户和其他先进 AI 科学家开发新技术,来解释之前不可理解的 AI。
企业面临权衡
大部分 AI 可以解释,但是成本高昂。和其他任何流程一样,如果每一步都必须归档和解释,则流程变慢,成本增长。但是打开黑箱将降低某些风险,帮助建立利益相关者的信任。
企业需要 AI 可解释性决策的框架
可解释性、透明度和可证明性不是绝对的,它们依据于一个标准而存在。一个评估商业、性能、监管和信誉的框架可以帮助做出最佳决策,使每个 AI 使用案例能够按照该标准进行。使用 AI 帮助制定生死攸关的医疗决策的医疗公司和确定潜在目标的私募股权基金的需求是不同的。
7.将会重拳出击人工智能的国家
人工智能将出现巨大增长:根据我们的研究,人工智能产业规模在 2030 年将达到 15.7 万亿。人工智能这张大饼已经超过了任何公司,很多国家在研究出台新战略从而获取最大利益。
美国一开始就很强势,2016 年接连发布三份报告,其中列出了一个让美国变成人工智能强国的计划,以促进经济和国家安全。
建议包括增加联邦经费、制度调整、创建分享公共数据集和环境、对标准和标杆的定义、劳动力发展,及使用人工智能增强网络安全和军事力量。
但自 2017 年川普执政以来,(美国)政府已经放弃了这项计划,政府在消减人工智能研究经费。
但最近通过的税费改革可以使人工智能在美国蓬勃发展。降低企业税政策、海外回迁现金政策以及允许增长海外 100% 的投资非常可能鼓励人工智能和其他领域的科技发展。最近行政机构注重的放松管制政策可在很多方面帮助人工智能发展,比如在无人机和无人驾驶车领域。
启示
中国的投资将会唤醒西方
如果中国开始制造领先的 AI 应用,西方将会回应。不管是「(前苏联)人造卫星时刻」,还是逐渐认识到其在失去主导地位,西方政策制定者可能感受到了改变规则并为 AI 提供资金的压力。
将会出现更多的国家和地区策略
更多的国家将会发布影响公司的 AI 策略。不难看到欧洲已经发布一般数据保护条例(GDPR)保护个人数据,并制定了在该区域促进 AI 的政策。
协作也会到来
AI 的国家之争不会停止。但是我们确实希望联合国、世界经济论坛和其他多边组织提供更多的机会,推动不同国家在 AI 研究领域的国际合作。
8. 对负责任 AI 的压力不会仅限于科技公司
新技术经常会带来不知是否合理的新恐惧,并且影响超出阴谋论者的范围之外。据 2017 年 PwC 调查,77% 的公司 CEO 认为 AI 和自动化将进一步影响并瓦解他们的业务运作方式。如果我们询问政府官员,答案将会相似。领导者们将很快不得不面对有关 AI 的棘手问题。他们可能是社区组织,担忧不公的选民,也可能是担心可靠性的客户,或者是关心风险管理、ROI 和品牌的董事会。
在上述所有情况中,利益相关者想要知道组织和机构正负责任地使用 AI,从而完善了业务,强化了整个社会。我们相信,将负责任地使用 AI 作为准则才是压力的来源。
启示
负责任 AI 的新结构
当面临设计、构建和部署值得信任和激励的 AI 系统时,许多公司会建立团队和流程来寻找数据和模型之中的偏见,密切监控恶意行为者可能「欺骗」算法的方式。人工智能治理委员会也可能适用于许多企业。
公私合作以及政府与公民的合作
负责任地使用 AI 的最好方式之一是推进公、私部门机构之间的合作,尤其是当涉及到 AI 的社会影响之时。同样,当越来越多的政府探索如何使用 AI 来有效分配服务,公民也就逐渐参与到这个过程之中。比如,在英国,RSA(鼓励艺术、制造和商业的皇家学会)正在进行一系列有关在刑事司法和民主辩论中使用 AI 及其伦理学讨论的公民陪审团。
加强负责任创新的自律组织
由于监管机构可能着急赶上,且自我监管有其局限,自律组织(SRO)可能会带领负责任的 AI。SRO 根据特定原则把 AI 用户聚集在一起,然后监督和规范合规性,按需征收罚款,并将违规行为提交给监管机构。这是一个已在其他行业使用的模式,可能也同样适用于 AI 及其他技术