日前,谷歌母公司Alphabet表示合并旗下两个主要的人工智能研究部门——Google Brain(谷歌大脑)和DeepMind。新部门名为Google DeepMind,将由DeepMind的联合创始人兼首席执行官Demis Hassabis领导。
(资料图)
同时,Brain团队的联合创始人Jeff Dean将接任谷歌研究院(Google Research)和Google DeepMind首席科学家一职。谷歌表示,Dean将领导该公司“与AI有关的最关键和最具战略性的技术项目”,包括一系列新的强大AI项目。
谷歌在人工智能领域的领先地位
一直以来,谷歌都走在人工智能开发浪潮的前沿,引领着人工智能技术的应用。谷歌大脑是谷歌公司内部的一个重要项目,旨在推动人工智能的研究和发展。该项目始于2011年,由谷歌工程师Andrew Ng创立。
谷歌大脑项目在深度学习领域做出了很多重要贡献。他们提出了一系列先进的神经网络模型和算法,如深度置信网络(DBN)、卷积神经网络(CNN)和循环神经网络(RNN)等,这些技术的应用已经广泛地应用于图像识别、语音识别和自然语言处理等领域。
大家熟知的TensorFlow,最初就是由谷歌大脑团队开发,用于Google的研究和产品生产,于2015年11月9日开源发布。TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前TensorFlow被50个团队用于研究和生产许多谷歌的商业产品,例如语音识别、谷歌邮箱、谷歌相册和谷歌的搜索引擎。
DeepMind是一家AI初创公司,成立于2010年,由著名 AI 研究者、游戏设计师 Demis Hassabis 等人联合创立,致力于将机器学习和系统神经科学的最先进技术结合起来,建立强大的通用学习算法。最初成果主要用于模拟、游戏开发等领域。
2014年,谷歌以 6 亿美元的价格收购了 DeepMind。2016 年 3 月,DeepMind 开发的 AI 程序 AlphaGo 以 4:1 击败韩国围棋冠军李世石,成为近年来 AI 领域的里程碑事件。
在长期人工智能技术研究积累下,2017年,谷歌提出了Transformer 模型,这是一种采用自注意力机制的深度学习模型,旨在处理自然语言等顺序输入数据,可应用于翻译、文本摘要等任务,可并行处理输入数据的优势,使得它成为了自然语言处理问题的首选模型,这也促成了BERT、GPT等预训练模型的发展。
Transformer模型推出一年后,谷歌在2018年发布了BERT(Bidirectional Encoder Representations from Transformers),翻译过来是“基于变换器的双向编码器表示技术”,是一种用于自然语言处理的预训练技术。
2021年,谷歌又发布了两项更强的 AI 技术,分别是对话应用语言模型 LaMDA (Language Model for Dialogue Applications) 和多任务统一模型 MUM (Mutitask Unified Model)。LaMDA 和 MUM 和 BERT、GPT一样,都是基于 Transformer 模型。
LaMDA像是一个对话机器人,MUM是加强版的BERT,性能提高1000倍,还是个多模态学习模型,意味着它不仅可以输入文字,还能理解图片、音频甚至视频。
谷歌欲加速人工智能技术研究
可以看到,在过去十几年时间里,谷歌一直引领人工智能技术发展。然而,直到2022年11月,OpenAI推出的ChatGPT横空出世,格局由此被打破。
尤其是谷歌在搜索领域的竞争对手微软,作为OpenAI的投资方,率先使用ChatGPT升级了必应搜索引擎,及办公软件,这让谷歌感觉到了危机。
今年2月,谷歌母公司Alphabet宣布推出Bard,旨在与ChatGPT竞争。不过,由于Bard在一段宣传视频中分享了不准确的信息,而未能给谷歌带来积极影响。
此次,谷歌合并两个主要的人工智能研究部门——Google Brain(谷歌大脑)和DeepMind的举措,也正是为了能够加快公司在人工智能领域的行进步伐。
该公司首席执行官桑达尔·皮查伊(Sundar Pichai)发布博客称,此举汇集了谷歌在人工智能领域的两个领先研究小组,在过去十年中,其在人工智能领域的成就涵盖了AlphaGo、Transformers、深度强化学习和分布式系统和软件框架等。皮查伊认为,在谷歌计算资源的支持下,将所有人才整合到一个团队中,将能够显著加快公司在AI方面的进步。
小结
目前来看,虽然谷歌推出的Bard不及ChatGPT影响力大,然而可以看到,谷歌在人工智能各方面都有深厚积累,包括芯片、计算资源、软件、模型算法等等。如今,谷歌将两个主要的人工智能部门合并,集中人力,重点发力人工智能研究,未来的进展值得期待。