回到主页

智源社区AI周刊#003 (2019.12.31)

——智源社区AI周刊 发布于 2019/12/30

为了帮助中国人工智能科研、从业者们更好地了解全球人工智能领域的最新资讯,智源研究院编辑团队本周整理、编辑了第3期《智源社区AI周刊》,从学术(论文和新思想分享、最新学术会议等),行业和政策(技术产业政策、项目基金申请、技术投融资等),人物(学者的人士变动和获奖情况)、数据(数据集分享),产品(新工具和应用推荐),求职(职场研究报告等)等诸多角度,鸟瞰过去一周内在人工智能领域值得关注的新思想、新动向和新成果等,以飨大家。

在过去一周(2019/12/23~2019/12/29)左右时间,首先值得推荐的内容有以下3方面:

  • Gary Marcus 和Yoshua Bengio就符号处理和因果关系与目前AI发展方向的联系展开辩论。Gary Marcus 认为,符号处理对于因果关系至关重要;在人类等高级生物中,人们发现了很多分工不同的大脑区域,期望复制完整的体系结构是非常不现实的。Yoshua Bengio认为,我们可以在保持深度学习框架的同时加入因果推理,新的人工智能系统或许可以利用注意力机制,或者通过新的模块和训练框架来实现(例如元学习和基于智能体的方式)。(详情参见本周报“观点”栏目)
  • 吴恩达团队盘点今年AI最重要领域内的六大标志性事件和趋势:(1)自动驾驶在2019年遭遇瓶颈;(2)Deepfake假视频泛滥;(3)人脸识别落地受挫,政府插手立法遏制;(4)NLP飞跃,语言模型变得精通语言;(5)机器学习更多地依赖模拟数据;(6)符号主义和连接主义的古老争论再燃。(详情参加本周报“行业与政策”栏目)
  • 斯坦福大学开源图神经网络的通用性能评价基准数据集 OGB。图神经网络发展到现在,尚无一个公认的基准测试数据集。许多论文采用的方法往往是针对较小的、缺乏节点和边特征的数据集上进行的。因此,在这些数据集上取得的模型性能很难说是最好的,也不一定可靠,这对进一步发展造成阻碍。在 NeurlPS 2019 大会的图表示学习演讲中,Jure Leskovec 宣布开源图神经网络的通用性能评价基准数据集 OGB(Open Graph Benchmark)。通过这一数据集,可以更好地评估模型性能等方面的指标。(详情参见本周报“数据”栏目)

下面,是上一周(2019/12/23~2019/12/29)左右时间内,在AI领域值得关注的各个要点的详情介绍。

- 论文推荐 -

通过元学习发掘因果机制

A Meta-Transfer Objective for Learning to Disentangle Causal Mechanisms

本文提出利用元学习目标,最大限度地提高改变分布的迁移速度,以学习如何模块化获取知识。特别是,本文关注如何在与因果关系一致的情况下将联合分布纳入适当的条件。本文解释如果这可行,假设分布的变化是局部化的(distributions are localized)(例如由于对其中一个变量的干预而导致其中一个边缘marginal)。本文证明,在这种假定的因果机制的局部变化的情况下,正确的因果图将趋向于仅有几个具有非零梯度的参数,即需要调整的参数(修改变量的参数)。实验观察到这会导致自适应更快,并利用这一性质来定义一个元学习替代评分,它除了连续的图参数化外,还将有利于正确的因果图。最后,本文考虑到AI智能体方面(例如,机器人自主发现其环境),本文考虑了相同的目标如何能够发现因果变量本身,因为观察到的低水平变量没有因果意义。双变量实例中的实验验证了所提出的思想和理论结果。

来源:ICLR 2020 | 代码链接 | 论文下载

多任务学习,如何设计一个更好的参数共享机制?

Learning Sparse Sharing: Architectures for Mltiple Tasks

多任务学习(Multi-Task Learning)是一种联合多个任务同时学习来增强模型表示和泛化能力的一种手段,目前大都通过参数共享来实现多任务学习。因此,很多多任务学习的工作都集中在寻找更好的参数共享机制上。已有的工作提出了很多参数共享策略,其中使用的较多的有硬共享,软共享,分层共享,另外还有一些比较新颖的值得探索的共享机制,比如梯度共享,元共享等等。这里简要介绍使用较多的三种共享机制(硬共享、软共享、分层共享)来引出本文的动机。本文提出了一种新的参数共享机制,稀疏共享(sparse sharing)。给定一个基网络和多个任务的数据,稀疏共享可以为每个任务从基网络中抽取出一个对应的子网络来处理该任务,这些子网络部分重叠,本文的算法可以为强相关的任务抽取出相似的子网络(具有较高的参数重叠率),为弱相关的任务抽取出为差异较大的子网络(具有较低的参数重叠率)。得到这些子网络后,再使用多个任务的数据联合训练。

来源:AAAI 2020 | 论文下载 | 代码链接

SOGNet:用于全景分割的场景遮盖图网络

SOGNet: Scene overlap graph network for panoptic segmentation

已有的全景分割研究中,解决遮盖问题的方法包括利用启发式规则(Panoptic FPN,AUNet等)确定各个物体的遮盖顺序,和构造panoptic head(UPSNet,OANet等)对每个像素所属的物体进行预测。但这些方法通过比较objectness score或logit的大小来确定遮盖关系,结果不够准确,并且不能显式地输出物体间的遮盖关系。该工作受到场景图(scene graph)任务的启发,将物体的遮盖问题构造为场景遮盖图(scene overlap graph)。在这种图结构中,节点为各个物体,i和j物体间的关系包含三种,i覆盖j,i被j覆盖,以及没有覆盖关系。但是,与场景图相关的任务不同,全景分割任务并不具有物体间关系的监督信息,从而能够对物体遮盖关系直接进行监督训练。该工作通过关系嵌入(relational embedding)模块,显式地表达物体间的遮盖关系,并且设计了可微的去除被遮盖区域logit的模块。由于去除遮盖的效果对最终全景分割的质量有着直接的影响,该工作利用全景分割提供的像素级(pixel-level)的监督信息,间接地完成了对物体之间实例级(instance-level)的遮盖关系的推理。

来源:AAAI 2020 | 原文链接 | 代码链接

面向视觉基础进行预训练

ViLBERT: Pretraining Task-Agnostic Visiolinguistic Representations for Vision-and-Language Tasks

本文提出ViLBERT(Vision-and-Language BERT),该模型学习图像内容和自然语言的无任务偏好的联合表征。ViLBERT在BERT的基础上扩展为多模态双流模型,在各自的流中处理图像和文本输入,这两个流通过共注意力transformer层进行交互。该模型在Conceptual Captions数据集上进行预训练,再将其迁移应用到多个视觉-语言任务:视觉问答,视觉常识推理,指示表达(referring expressions)和基于字幕的图像检索。ViLBERT应用到下游任务时仅需对基础架构进行少量添加。实验结果表明本文的ViLBERT在4个下游任务中显著优于面向特定任务的最先进模型。ViLBERT代表了一种转向:从将学习视觉和语言之间的基础知识仅作为任务训练的一部分,转向将视觉基础知识作为一种可预训练和可迁移的能力。

来源:NeurIPS 2019 | 原文链接 | 代码链接

语义感知BERT

Semantics-aware BERT for Language Understanding

上下文表示是文本理解的核心模块,最新基于大规模预训练的深度语言模型有效集成了语境化特征,在大量的自然语言处理任务上获得巨大的成功,尤其是在各种机器阅读理解和自然语言推理任务。为了增强自然语言理解,本文提出通过预训练的语义角色标注模型引入显式的上下文语义标签信息,并引入一种改进的语言表示模型——语义感知 BERT (SemBERT),它能够在 BERT 为基础的骨架网络上,显性地融合上下文语义信息。SemBERT 保持了 BERT 的易用性,只需进行适应性的微调,而无需对特定任务进行大幅度的模型修改。与 BERT 相比,SemBERT 在概念上同样简单,但性能却更为强大。SemBERT 在 10 项自然语言理解任务上显著地提升了基准模型,甚至达到了最佳的水平。

来源:AAAI 2020 | 原文链接 | 代码链接

- 观点 -

Marcus和Bengio激辩:符号处理和因果关系与目前 AI 发展方向之间的关系

Gary Marcus 是Geometric Intelligence的首席执行官和创始人,Yoshua Bengio 则是最近一次计算机科学最高奖项图灵奖的获得者。两方争论的焦点在于符号处理(symbol manipulation)和因果关系与目前 AI 发展方向的联系。Gary Marcus 认为,符号处理对于因果关系至关重要。在人类等高级生物中,人们发现了很多分工不同的大脑区域。期望复制完整的体系结构是非常不现实的。Yoshua Bengio认为,我们可以在保持深度学习框架的同时加入因果推理,新的人工智能系统或许可以利用注意力机制,或者通过新的模块和训练框架来实现(例如元学习和基于智能体的方式)。本文将讲述双方的共识和分歧,帮助从业者思考AI发展方向。

来源:Facebook | 原始视频 | 中文报道

- 行业和政策 -

吴恩达团队盘点2019AI大势

本文盘点了今年AI最重要领域内的六大标志性事件和趋势:

1.自动驾驶在2019年遭遇瓶颈

2.Deepfake假视频泛滥

3.人脸识别落地受挫,政府插手立法遏制

4.NLP飞跃,语言模型变得精通语言

5.机器学习更多地依赖模拟数据

6.符号主义和连接主义的古老争论再燃

来源:deeplearning.ai | 原始报道 | 中文报道

百度研究院发布2020年10大人工智能科技趋势

近日,基于近十年来人工智能技术的发展积累及全球范围的产业应用实践经验,百度研究院正式发布了 2020 十大科技趋势预测。包括:

1.AI 技术已发展到可大规模生产的工业化阶段,2020 年将出现多家AI 工厂

2.2020 年将会是 AI 芯片大规模落地的关键年

3.深度学习技术深入渗透产业,并大规模应用

4.自动机器学习 AutoML 将大大降低机器学习的门槛

5.多模态深度语义理解进一步成熟,得到更广泛应用

6.自然语言处理技术将与知识深度融合,面向通用自然语言理解的计算平台得到广泛应用

7.物联网将在边界、维度和场景三个方向形成突破

8.智能交通将加速在园区、城市等多样化场景中落地

9.区块链技术将以更加务实的姿态融入更多场景

10.量子计算将迎来新一轮爆发,为 AI 和云计算注入新活力

来源:百度研究院 | 原始报道 | 中文报道

德勤发布中国人工智能产业白皮书

德勤发布中国人工智能产业白皮书,内容关于人工智能行业综述,人工智能商业化应用,以及中国主要人工智能产业发展区域及定位。包括以下观点:

1.中国人工智能产业发展迅速, 但整体实力仍落后于美国。

2.中国企业价值链布局侧重技术层和应用层, 对需要长周期的基础层关注度较小。

3.科技巨头生态链博弈正在展开,创业企业则积极发力垂直行业解决方案。

4.政府端是目前人工智能切入智慧政务和公共安全应用场景的主要渠道。

5.人工智能在金融领域的应用最为深入, 应用场景逐步由以交易安全为主向变革金融经营全过程扩展。

6.医疗行业人工智能应用发展快速,但急需建立标准化的人工智能产品市场准入机制并加强医疗数据库的建设。

7.以无人驾驶技术为主导的汽车行业将迎来产业链的革新。

8.人工智能在制造业领域的应用潜力被低估,优质数据资源未被充分利用。

9.人工智能加速新零售全渠道的融合,传统零售企业与创业企业结成伙伴关系。

10.政策与资本双重驱动推动人工智能产业区域间竞赛。 11.各地政府以建设产业园的方式发挥人工智能产业在推动新旧动能转换中的作用。 12.杭州未来科技城抓住人工智能产业快速发展的机会并取得显著成绩。

来源:德勤 | pdf下载

创新奇智完成近4亿人民币B轮融资

近日,AI商业化公司创新奇智宣布完成总金额近4亿人民币B轮融资。本轮融资由华兴新经济基金领投,中金甲子、赛富、宜信等机构跟投,华兴Alpha担任此轮融资独家财务顾问。创新奇智成立不足2年,已累计完成总金额近10亿人民币融资,成为高速发展的准独角兽企业。本轮融资后,创新奇智将进一步加强AI技术研发和拓展AI落地场景,围绕制造、零售和金融行业,输出更多具有实用价值的AI产品及解决方案,支持商业化落地。

来源:机器之心 | 报道链接

- 人物 -

AAAI最新公布12名资深会员:3位华人教授入选

日前,AAAI(Association for the Advancement of Artificial Intelligence)在其官方推特上宣布,12名会员当选为资深会员(AAAI Senior Member),以表彰他们在人工智能的多个领域做出了杰出的贡献!他们来自学术界与工业界,来自广阔的中国、印度、以色列、英国与美国。AAAI成立于1979年,成立时名为American Association for Artificial Intelligence(美国人工智能协会),到 2007 年才正式更名为Association for the Advancement of Artificial Intelligence(意为:人工智能进步协会),在全球有超过 4000 名会员。它是人工智能领域的主要学术组织之一,其主办的年会也是主要的人工智能学术会议之一。

来源:新智元 | 报道链接

- 数据 -

开源图神经网络的通用性能评价基准数据集 OGB

图神经网络是近来发展较快的机器学习分支领域。通过将非结构数据转换为结构化的节点和边的图,然后采用图神经网络进行学习,往往能够取得更好的效果。然而,图神经网络发展到现在,尚无一个公认的基准测试数据集。许多论文采用的方法往往是针对较小的、缺乏节点和边特征的数据集上进行的。因此,在这些数据集上取得的模型性能很难说是最好的,也不一定可靠,这对进一步发展造成阻碍。在 NeurlPS 2019 大会的图表示学习演讲中,Jure Leskovec 宣布开源图神经网络的通用性能评价基准数据集 OGB(Open Graph Benchmark)。通过这一数据集,可以更好地评估模型性能等方面的指标。

来源:斯坦福大学 | 报道链接 | 项目地址

- 代码 -

PySpark源码解析:高效Scala接口解决大规模数据分析

众所周知,Spark 框架主要是由 Scala 语言实现,同时也包含少量 Java 代码。Spark 面向用户的编程接口,也是 Scala。然而,在数据科学领域,Python 一直占据比较重要的地位,仍然有大量的数据工程师在使用各类 Python 数据处理和科学计算的库,例如 numpy、Pandas、scikit-learn 等。同时,Python 语言的入门门槛也显著低于 Scala。为此,Spark 推出了 PySpark,在 Spark 框架上提供一套 Python 的接口,方便广大数据科学家使用。本文主要从源码实现层面解析 PySpark 的实现原理。

来源:机器之心 | 博文链接 

XGBoost缺失值引发的问题及其深度分析

XGBoost模型作为机器学习中的一大“杀器”,被广泛应用于数据科学竞赛和工业领域,XGBoost官方也提供了可运行于各种平台和环境的对应代码,如适用于Spark分布式训练的XGBoost on Spark。然而,在XGBoost on Spark的官方实现中,却存在一个因XGBoost缺失值和Spark稀疏表示机制而带来的不稳定问题。本文将通过代码对该问题进行详细的探讨。

来源:AI科技大本营 | 博文链接

单机多卡的并行训练方法

本文使用 PyTorch 编写了不同加速库在 ImageNet 上的使用示例(单机多卡),主要有以下五种:

1. nn.DataParallel简单方便的 nn.DataParallel

2. torch.distributed 使用 torch.distributed 加速并行训练

3. torch.multiprocessing 使用 torch.multiprocessing 取代启动器

4. apex使用apex再加速

5. horovod horovod 的优雅实现

来源:知乎 | 链接

用BRET进行多标签文本分类

使用预训练模型的领域的研究已经导致许多NLP任务的最新结果的巨大飞跃,例如文本分类,自然语言推理和问答。一些关键的里程碑是ELMo,ULMFiT和OpenAI Transformer。这些方法都允许我们在大型数据库(例如所有维基百科文章)上预先训练无监督语言模型,然后在下游任务上微调这些预先训练的模型。也许这一领域今年最激动人心的事件是BERT的发布,这是一种基于多语言Transformer的模型,它在各种NLP任务中取得了最先进的成果。BERT是一种基于Transformer架构的双向模型,它以更快的基于注意的方法取代了RNN(LSTM和GRU)的顺序特性。该模型还预训练了两个无监督的任务,掩模语言建模和下一个句子预测。这允许我们使用预先训练的BERT模型,通过对下游特定任务(例如情绪分类,意图检测,问答等)进行微调。本文将使用Kaggle的垃圾评论分类挑战来衡量BERT在多标签文本分类中的表现。

来源:专知 | 博文链接

Python 中如何实现参数化测试?

对于普通测试来说,一个测试方法只需要运行一遍,而参数化测试对于一个测试方法,可能需要传入一系列参数,然后进行多次测试。参数化测试是一种“数据驱动测试”(Data-Driven Test),在同一个方法上测试不同的参数,以覆盖所有可能的预期分支的结果。它的测试数据可以与测试行为分离,被放入文件、数据库或者外部介质中,再由测试程序读取。本文针对参数化测试,将这几个测试框架串联起来,做一个横向的比对,加深理解。

来源:Python中文社区 | 博文链接

- 教程 -

【课程】贝叶斯深度学习: DL与Bayesian原理

来自东京RIKEN研究中心的Emtiyaz Khan给了关于以贝叶斯原理进行深度学习的教程《Deep Learning with Bayesian Principles》,共有86页ppt,以及撰写了最新的论文,讲述贝叶斯和深度学习如何结合到一起进行学习新算法,提出了一种基于贝叶斯原理的学习规则,它使我们能够连接各种各样的学习算法。利用这一规则,可以在概率图形模型、连续优化、深度学习、强化学习、在线学习和黑盒优化等领域得到广泛的学习算法。

来源:东京RIKEN研究中心 | 视频链接 | 教程链接

【书籍】GAN实战:生成对抗网络深度学习

生成式对抗网络模型(GANs)是基于深度学习的一种强大的生成模型,是一类机器学习技术,它由两个同时训练的模型组成:一个(生成器)训练生成假数据,另一个(鉴别器)训练从真实例子中辨别假数据,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。牛津大学Jakub Langr 撰写了《GANs in Action Deep learning with Generative Adversarial Networks》的著作,囊括了关于GAN的定义、训练、变体等,全面叙述关于当下AI最重要的技术之一GAN的著作,是学习生成式对抗网络非常好的学习图书。

来源:牛津大学 | 书籍网址 | 代码链接

【入门】Spark的环境部署与工作原理

Spark 是 UC Berkeley AMP Lab 开源的通用分布式并行计算框架,目前已成为 Apache 软件基金会的开源项目。Spark 支持多种编程语言,包括 Java、Python、R 和 Scala,同时 Spark 也支持 Hadoop 的底层存储系统 HDFS,但 Spark 不依赖 Hadoop。本文讲述了关于spark的基础知识,帮助读者快速了解上手spark。

来源:机器之心 | 博文链接

【入门】一文了解Text-to-SQL

Text-to-SQL系统能够将自然语言描述转化成对应的SQL查询语句,这项技术能够有效地辅助人们对海量的数据库进行查询。因此,该项研究引起了工业界和学术界的广泛关注。其中,WikiSQL、Spider等大规模标注数据集进一步指出了该技术目前面临的挑战:泛化性(跨领域)、复杂性(SQL语法)、正确性(问题和表格的对齐关系),也促进了一系列后续算法的研究与系统的开发。
 

来源:哈工大SCIR | 博文链接

【深度】CNN真的需要下采样(上采样)吗?

在常见的卷积神经网络中,采样几乎无处不在,以前是max_pooling,现在是strided卷积。以vgg网络为例,里面使用到了相当多的max_pooling。以前,我们在分类网络的最后几层使用全连接层,后来全连接层被证明参数量太大泛化性能不好,被global average pooling替代掉了,最早出现在network in network中。从此,分类网络的范式和分割网络的范式发生了变化,可是,我们不得不去想,下采样,上采样真的是必须的吗?可不可能去掉呢?本文深度讨论了该问题。

来源:知乎 | 博文链接

- 新工具 -

TensorFlow 2.1.0-rc2发布

TensorFlow 2.1将会成为支持python2的最后一个TF版本。python官方和TensorFlow官方将于2020年1月1日(也就是4天后)同时结束对python2的支持,2019不会发布新版本了。本文将介绍TensorFlow 2.1.0-rc2的变化。

来源:Github | 项目链接 | 报道链接

腾讯Angel升级:加入图算法,支持十亿节点、千亿边规模

Angel 是腾讯的首个AI开源项目,于 2016 年底推出、2017年开源。近日,快速发展的 Angel 完成了从 2.0 版本到 3.0 版本的跨越,从一个单纯的模型训练系统进化成包含从自动特征工程到模型服务的全栈机器学习平台。作为面向机器学习的第三代高性能计算平台,Angel 致力于解决稀疏数据大模型训练以及大规模图数据分析问题。本文从 Angel 3.0 的系统架构出发,从 Angel 在开源方面取得的成绩、新加入的图机器学习功能等新特性、使用情况及 Angel 的落地案例等方面,对 Angel 全方位的学习与了解。

来源:AI科技大本营 | 报道链接

微软开源自动机器学习工具NNI概览及新功能详解

2018年9月,微软亚洲研究院发布了第一版 NNI (Neural Network Intelligence) ,目前已在 GitHub 上获得 3.8K 星,成为最热门的自动机器学习(AutoML)开源项目之一。作为为研究人员和算法工程师量身定制的自动机器学习工具和框架,NNI 在过去一年中不断迭代更新,微软已发布了稳定 API 的 1.0 版本,并且不断将最前沿的算法加入其中,加强对各种分布式训练环境的支持。最新版本的 NNI 对机器学习生命周期的各个环节做了更加全面的支持,包括特征工程、神经网络架构搜索(NAS)、超参调优和模型压缩在内的步骤,你都能使用自动机器学习算法来完成。

来源:微软研究院 | 报道链接 | 中文文档 

Paddle Lite新增ARM端图像预处理库

Paddle Lite 是飞桨的端侧推理引擎,具有高性能、多硬件、轻量级的特点,它支持飞桨/TensorFlow/Caffe/ONNX等模型在ARM CPU, Mali GPU, Adreno GPU, Huawei NPU 等多种硬件上的推理部署,性能达到业内领先。目前Paddle Lite保持快速的迭代优化升级,距离正式版2.0.0发布仅一个月,Paddle Lite又一次发布了2.1.0版本,其中新增ARM端图像预处理库。

来源:PaddlePaddle | 报道链接 | 代码链接

Stylecloud:新的python词云工具

Stylecloud 是一个 Python 包,它基于流行的 word_cloud 包,并添加了一些有用的功能,从而创建出独特的词云。stylecloud 具备以下特点:

1.为词云提供(任意大小)的图标形状(通过 Font Awesome 5.11.2 获得);

2.支持高级调色板(通过 palettable 实现);

3.为上述调色板提供直接梯度;

4.支持读取文本文件,或预生成的 CSV 文件(包含单词和数字);

5.提供命令行接口。

来源:机器之心 | 报道链接 | 代码链接

- 应用 -

腾讯绝悟AI击败王者荣耀顶尖业余玩家,论文已入选AAAI-2020

围棋被攻克之后,多人在线战术竞技游戏(MOBA)已经成为测试检验前沿人工智能的动作决策和预测能力的重要平台。基于腾讯天美工作室开发的热门 MOBA 类手游《王者荣耀》,腾讯 AI Lab 正努力探索强化学习技术在复杂环境中的应用潜力。本文即是其中的一项成果,研究用深度强化学习来为智能体预测游戏动作的方法,该论文已被 AAAI-2020 接收。据介绍,此技术支持了腾讯此前推出的策略协作型 AI「绝悟」1v1 版本,该版本曾在今年 8 月上海举办的国际数码互动娱乐展览会 China Joy 首次亮相,在 2100 多场和高水平业余玩家体验测试中胜率达到 99.8%。

来源:腾讯AI lab | 论文下载 | 报道链接

密歇根州立大学提出算法“增龄”匹配长大后的长相,辅助寻找走失多年的儿童

截至 2018 年,18 岁以下青少年占美国 NCIC 报告中登记在案失踪人口的 34.8%。而失踪儿童的实际数量要远远高于官方统计数据:出于对人口贩卖者的恐惧、缺少信息、对当局缺乏信任等原因,上报的儿童失踪案件少于实际情况。人脸识别可能是找回失踪儿童任务中最有前景的生物识别技术,因为失踪儿童的父母亲属拥有其人脸照片的概率远高于其他生物模态,如指纹或虹膜信息。而自动人脸识别(Automated Face Recognition,AFR)系统已经能够达到很高的识别率,它们可在儿童年龄增长有限的情况下识别儿童。近日,密歇根州立大学的研究者提出一个“增龄”模块,将失踪儿童原始图像中的深度人脸特征“老化”(或者说“增龄”),从而帮助匹配原来的图像和数年后的图像。

来源:机器之心 | 报道链接

微软“爱写作”:AI智能作文批改

无论是中小学英语考试,还是国际标准化测试,写作能力都是考核的重点对象。因此,微软亚洲研究院研发并升级了以前的作文打分功能,将其正式命名为“微软爱写作”(Microsoft Aim Writing),最新上线的网页端“爱写作”系统在语法批改、写作助手、评估反馈各方面都进行了全方位的升级。

来源:微软 | 报道链接 | 使用链接

搜狗创“语义引擎”提高同声传译准确率

搜狗同传技术自 2016 年发布以来,已经经历了数千场会议同传的实际应用。开发者们在实践中发现,业内主流的语音同传系统无法稳定、高质量地满足多种演讲场合的需求,经常会出现演讲内容中专业词汇的识别和翻译效果不佳的情况。为了解决上述问题,搜狗在同传 3.0 版中加入“语境引擎”,希望能够通过对语言的深入理解来解决问题。“语境引擎能够实时利用摄像头识别现场屏幕上的 PPT 内容,”陈伟介绍道,“之前机器同传只能获取语音信息,通过 OCR 技术,现在搜狗同传可获取语音信息+ PPT 信息,随后语境引擎可以构建个性化知识,从而使得同传译文效果有大幅提升。”

来源:搜狗 | 报道链接

- 竞赛 -

智源-MagicSpeechNet家庭场景中文语音数据集挑战赛启动,旨在优化语音识别的机器学习模型

近期,北京智源人工智能研究院联合爱数智慧和数据评测平台 Biendata,共同发布了“智源 MagicSpeechNet 家庭场景中文语音数据集”,其中包含数百小时的真实家庭环境中的双人对话,每段对话基于多种平台进行录制,并已完全转录和标注。Biendata同步开放了“智源 — MagicSpeechNet 家庭场景语音数据集挑战赛”(2019 年 12 月 — 次年 2 月),总奖金为10 万元。比赛希望优化语音识别的机器学习模型,可以根据真实家庭场景多设备多通道的录音数据以及对应的标注文本,实现语音识别模型在家庭场景下的性能提升。比赛结果对于智能家居领域下AI语音交互产品的研发的深入普及有望带来不容忽视的影响力。

来源:北京智源人工智能研究院 | 比赛链接

- 经验 -

清华大学刘知远:自然语言理解难在哪儿?

在微博和知乎上关注自然语言处理(NLP)技术的朋友,应该都对#NLP太难了#、#自然语言理解太难了#两个话题标签不陌生,其下汇集了各种不仅难煞计算机、甚至让人也发懵的费解句子或歧义引起的笑话。然而,这些例子只是让人直觉计算机理解人类语言太难了,NLP到底难在哪里,还缺少通俗易懂的介绍。本文是刘知远老师对这个问题的认识的总结。

来源:知乎 | 报道链接

周志华教授:如何做研究与写论文?

每个人从本科到硕士,再到博士、博士后,甚至工作以后,都会遇到做研究、写论文这个差事。论文通常是对现有工作的一个总结和展示,特别对于博士和做研究的人来说,论文则显得更加重要。那么该如果做突出研究,并写出高水平的论文呢?本文整理了著名人工智能学者周志华教授《做研究与写论文》的PPT(时间比较早,但方法永远不会过时)。其详细介绍了关于为什么要做研究?如何做研究,选择研究方向、选择研究课题(Topic),学习领域知识、选期刊投稿、稿件处理过程、写高水平论文的方法与技巧等方面的知识,是一份非常优秀的做研究和写论文指南

来源:CVer | 报道链接

- 求职 -

12道题快速get到AI工程师面试重点

2020 年的三月春招要来了,现在想要 Get 一个算法工程师的实习或全职机会,已经不是一件易事了。本文作者收集了 12 个 AI 工程师职位的面试问题,帮助抓住那些刚需必备的面试题。

来源:AI科技大本营 | 报道链接

NLP面试经验:38个最常见NLP问题答案

自然语言处理(Natural Language Processing,NLP)是指帮助机器理解和分析自然语言;它是利用机器学习算法从数据中提取所需信息的一个自动化的过程。自然语言处理虽然只是人工智能的一个子领域,但它对我们日常生活与学习的影响日渐深远。为了帮助应聘者更加从容应对自然语言处理面试,本文特别整理了面试中最常见的38个问题与答案。

来源:新智元 | 报道链接

- 趣闻 -

北大博士生用文言开发深度学习网络

上周CMU大四学生设计的文言编程语言火了,GitHub项目已经超过12.7K stars。该语言符合古汉语语法的自然语言处理程序;可以编译成 JavaScript,Python,或者 Ruby;图灵完备;有在线 IDE,可即刻体验;通过几个例子快速入门。而本周,一位北大博士生似乎找到了的正确用法——开发深度学习网络,并给出了对应的pytorch脚本。

来源:机器之心 | 报道链接

以上是《智源社区AI周刊》第3期的内容,智源研究院编辑团队将本着“提供真正内行的AI资讯”的目标,不断优化和完善我们的内容服务,各位读者们如有批评意见,或者好的建议,请不吝赐教发至:editor@baai.ac.cn。谢谢大家。

特约编辑:刘布楼 常政 刘沂喆

所有文章
×

还剩一步!

确认邮件已发至你的邮箱。 请点击邮件中的确认链接,完成订阅。

好的