谷歌秘密实验室X诞生的许多项目,看起来都像是对公司主业之外的探索。然而内部代号为Google Brain的人工智能项目却与众不同,它不仅预示着谷歌未来的发展方向,而且正在深刻影响着该公司的许多业务。Google Brain团队的长期目标是开发更智能化的软件和系统,从不同领域改善人类的生活。显然这需要很长时间才能实现,为此我们需要退后一步,回顾下过去1年Google Brain团队取得的成果,并分享我们对2017年的展望。
1.研究出版物
我们评估自己研究质量的重要方式之一,就是在国际顶级机器学习大会上发表论文,比如国际机器学习大会(ICML)、神经信息处理系统大会(NIPS)以及国际特征学习(或称深度学习)大会(ICLR)等。在2016年,我们的团队共在这些场合发表27篇论文,覆盖一系列主题,包括程序合成、网络之间知识传输、机器学习模式的分布式培训、语言生成模式、机器人无监督学习、自动定理证明、神经网络理论理解、改进强化学习算法等等。我们还在其他会议上提交了相关研究论文,比如自然语言处理(ACL, CoNNL)、演讲(ICASSP)、视觉(CVPR)、机器人(ISER)以及计算机系统(OSDI)等。我们的团队已经向即将到来的2017年度ICLR递交了34篇论文。
2.自然语言理解
对于我们的研究来说,帮助计算机更好地理解人类语言非常关键。2014年末,Google Brain团队3名研究人员发表有关“神经网络序列到序列学习”论文,证明这种方法可被用于机器翻译。2015年,我们又证明这种方法可被用生成图像字幕、分析句子以及解决计算几何问题等。2016年,Google Brain与Google Translate团队成员密切协作,利用这些研究完全取代了Google Translate的翻译算法。这个新的系统弥合了老系统与人类翻译之间的质量差距,令两者相似度最高达到85%。几周后,我们演示了这套系统如何实现零数据翻译(Zero-Shot Translation) ,如今它已经被部署在Google Translate服务中,为用户提供更高质量的翻译服务,让人们能够跨越语言障碍更高效地沟通。
3.机器人
传统机器人控制算法都需要认真细致地手工编程,为此展现机器人新能力通常都是非常繁琐的过程。我们认为,如果机器人能够通过机器学习技术自动学习新技能,效果可能更好。2016年,我们与谷歌X实验室的研究人员合作,证明机器臂可以学习手眼协调能力,并且可分享它们的经验以便加快自学。在这项研究中,我们的机器人进行了80万次尝试抓握动作。2016年末,我们探索了机器人学习新技能的三种可能方式,分别是通过强化学习、与目标交互以及人类示范等。我们正继续围绕这个目标努力,制造能够灵活和轻松学习新任务、在真实环境中操作的机器人。为了帮助其他机器人研究,我们还公开了许多机器人研究数据。
4.医疗
我们对机器学习在医疗领域的应用潜力非常看好,它可以大大增强医生的能力。举例来说,在《美国医学会期刊》上刊发的论文中,我们证明机器学习驱动的系统可诊断糖尿病患者的视网膜病变,其准确率与经验丰富的医生不相上下。如果糖尿病视网膜病变早期症状未被发现,有4亿多人可能陷入失明危险。但是在许多国家,只有少数眼科专家才有这样的能力。而我们的技术可以帮助确保更多人能够获得准确诊断。我们正与其他医学成像项目合作,并在研究将机器学习用于其他医学预测领域中。我们相信,机器学习可以改善医疗服务的质量和效率,2017年这个领域将取得更多成就。
5.音乐与艺术生成
技术始终在帮助定义人类如何创造和分享媒体。2016年,我们开始推出名为Magenta的项目,探索艺术与机器智能的交叉点,以及利用机器学习系统加强人类创造力的潜力。我们从音乐和图像生成开始,然后扩大到文本和VR生成等领域,Magenta正为内容创作提供最先进的生成模式。我们已经帮助组织有关这些主题、为期1天的研讨会,并支持机器生成艺术展览。我们还在探索如何生成多种音乐和转变艺术风格等,我们的JAMsession岩石赢得了2016年度NIPS最佳展示奖。
6.AI安全与公正性
随着我们开发出更强大、更复杂的AI系统,并将它们部署在现实世界中的各个领域,我们希望能够确保这些系统的安全与公正。我们还希望开发出工具,以便帮助人们更好地理解AI输出内容。在AI安全领域,斯坦福大学、伯克利大学以及OpenAI等机构的研究人员正进行跨机构合作,我们还出版了《AI安全具体问题》白皮书。书中概述了我们认为AI安全领域存在的基础性研究,以及其存在的具体问题。其中一个方面是,通过知识转移技术,我们在保护训练数据的隐私和获得差异隐私担保方面取得很大进步。为了加强安全,我们开始依靠AI系统做出更复杂的决定,我们希望确保这些决定的公正性。在“监督学习机会均等”的论文中,我们证明可优化调整培训预报器以防某种形式的歧视观念出现,论文中以FICO信用评分为研究案例。为了更容易理解,我们还研发了可视化技术,帮助说明和交互探索论文中的概念。
7.TensorFlow
2015年11月份,我们开源了人工智能学习系统TensorFlow的初始版本,以便于其他机器学习社区能够从中受益。我们可以通过各种合作,以共同改进它。2016年,TensorFlow成为GitHub上最受欢迎的机器学习项目,超过570人的社区超过1万个。TensorFlow的知识库模型得益于社区贡献的增加,仅GitHub上就有5000多个TensorFlow相关知识库。此外,TensorFlow已经被著名研究机构和大公司广泛采用,包括DeepMind,或被应用到不同寻常的领域,比如寻找海象和对日本黄瓜进行分类等。
我们进行了大量性能方面的改进,增加了对分布式训练的支持,将TensorFlow整合到iOS、Raspberry Pi以及Windows中,以及广泛应用到大数据基础设施中。我们还扩展了TensorBoard,它是TensorFlow的可视化系统,配有可视化计算图和嵌入改进工具。我们还将TensorFlow与Go、Rust以及Haskell合作,发布最好的图像分类模型,并广泛而深入地回答GitHub、StackOverflow以及TensorFlow邮件列表中数以千计的问题。TensorFlow Serving简化了TensorFlow模式生成流程,可帮助开发者将机器学习模型加入产品中。此外,谷歌还推出了可用于构建和训练智能应用定制模型的云端机器学习框架Cloud Machine Learning的Alpha版,支持本地和云端环境。
2016年11月份,为庆祝TensorFlow成为开源项目1周年,在计算机学界最顶级会议之一OSDI上,我们推出基于TensorFlow的计算系统。与谷歌编译团队合作,我们正努力为TensorFlow开发名为XLA的后端编译器,其Alpha版刚刚被添加到开源版本中。
8.机器学习社区参与
我们正在努力指导人们如何利用机器学习,以及如何在这个领域展开研究。2016年1月份, Google Brain团队首席科学家和技术领头人文森特·凡豪克(Vincent Vanhoucke)与Udacity联手,提供有关深度学习的免费在线课程。我们还推出有趣的交互系统TensorFlow Playground,可以帮助人们更好地理解和可视化神经系统网络如何学习完成任务。6月份,我们迎来了首批27名Google Brain Resident,他们是从2200多名申请者中筛选出来的。在随后7个月中,他们参与了重要的原创研究,帮助完成21篇研究论文。8月份,许多Google Brain团队成员参加了Google Brain团队组织的Reddit AMA活动,就机器学习领域的相关问题回答网友提问。在过去1年中,我们还迎来了46名实习生,他们与我们的团队同甘共苦。
9.在谷歌传播机器学习知识
除了上述面向公众的活动外,我们还通过我们的产品团队在谷歌内部传播机器学习知识和意识,确保谷歌能作为整体充分利用新的机器学习研究成果。例如,我们与平台团队密切合作,为谷歌张量处理单元(TPU)设定高规格和高水平的目标,TPU是定制的机器学习加速器,在谷歌I/O开发者大会上曾被讨论过。这种定制芯片可为机器学习研究提供数量级的改进效果,并被应用在我们的大量产品中,包括RankBrain(以深度学习为基础的人工智能核心搜索算法)、最近推出的神经机器翻译系统以及对阵韩国围棋大师李世石(Lee Sedol)的AlphaGo等。
总的来说,对于Google Brain团队、我们的合作伙伴以及谷歌内外的同事们来说,2016年都是令人兴奋的一年。我们期待着机器学习研究在2017年大放异彩。(小小)