回到主页

智源社区AI周刊#004 (2020.01.06)

——智源社区AI周刊 发布于 2020/01/06

为了帮助中国人工智能科研、从业者们更好地了解全球人工智能领域的最新资讯,智源研究院编辑团队本周整理、编辑了第4期《智源社区AI周刊》,从学术(论文和新思想分享、最新学术会议等),行业和政策(技术产业政策、项目基金申请、技术投融资等),人物(学者的人士变动和获奖情况)、数据(数据集分享),产品(新工具和应用推荐),求职(职场研究报告等)等诸多角度,鸟瞰过去一周内在人工智能领域值得关注的新思想、新动向和新成果等,以飨大家。

在过去一周(2019/12/30~2020/01/05)左右时间,首先值得推荐的内容有以下3方面:

  • 吴恩达邀请Yann LeCun等人预测2020人工智能发展,其中不仅有周志华、Yann LeCun 等人对于新年 AI 发展趋势的预测,还有著名学者们对于整个研究社区的期许。其中包括LeCun认为自监督学习是2020年AI发展的重要方向;李开复认为医疗和教育这两个行业已经为AI的部署做好了准备。(详情参见本周报“观点”栏目)
  • 12月31日美国艺术与科学院院士、澳大利亚技术科学与工程院院士、前百度总裁张亚勤正式加盟清华大学。他已受聘为清华大学「智能科学」讲席教授,将在清华大学车辆与运载学院、计算机系和相关院系开展科研、教学和人才培养工作。张亚勤同时将负责牵头筹建「清华大学智能产业研究院(AIR)」,面向第四次工业革命,致力于以自动驾驶、人工智能+物联网和类脑智能为关键的技术突破方向,打造世界顶尖的创新研发平台。(详情参见本周报“人物”栏目)
  • 近期,阿里巴巴达摩院发布了“2020十大科技趋势”,涵盖人工智能、量子计算、云计算、芯片半导体等多个领域。其中与AI直接相关的有三条:(1)人工智能从感知智能向认知智能演进;(2)计算存储一体化将突破AI算力瓶颈;(3)保护数据隐私的AI技术将加速落地。体现了阿里巴巴对AI2020年的发展仍然充满信心。(详情参见本周报“行业与政策”栏目)

下面,是上一周(2019/12/23~2019/12/29)左右时间内,在AI领域值得关注的各个要点的详情介绍。

- 论文推荐 -

基于强化学习的因果发现算法

Causal Discovery with Reinforcement Learning

因果研究作为下一个潜在的热点,已经吸引了机器学习/深度学习领域的的广泛关注,例如 Youshua Bengio 和 Fei-Fei Li 近期都有相关的工作。因果研究中一个经典的问题是「因果发现」问题——从被动可观测的数据中发现潜在的因果图结构。在此论文中,华为诺亚方舟实验室因果研究团队将强化学习应用到打分法的因果发现算法中,通过基于自注意力机制的 encoder-decoder 神经网络模型探索数据之间的关系,结合因果结构的条件,并使用策略梯度的强化学习算法对神经网络参数进行训练,最终得到因果图结构。在学术界常用的一些数据模型中,该方法在中等规模的图上的表现优于其他方法,包括传统的因果发现算法和近期的基于梯度的算法。同时该方法非常灵活,可以和任意的打分函数结合使用。

来源:ICLR 2020 | 论文下载

分类器其实是基于能量的模型?判别式分类器设计新思路

Your Classifier is Secretly an Energy Based Model and You Should Treat it Like One

生成模型已经得到了数十年的研究,因为人们相信生成模型对很多下游任务有利,比如半监督学习、缺失数据处理和不确定性校准。然而,对深度生成模型的大多数近期研究都忽视了这些问题,而将重心放在了定性样本质量以及在留存验证集上的对数似然上。目前,在相关下游任务的最强大生成建模方法以及为每个特定问题人工设计的解决方案之间还存在较大的性能差距。一个可能的原因是大多数下游任务本质上是判别式的,而当前最佳的生成模型与当前最佳的判别架构之间的差异也还很大。因此,即使仅以分类器为目标而训练时,生成模型的表现也远逊于最佳判别模型的表现。因此,判别性能的下降就会远远超过来自模型中生成组件的好处。近期一些研究试图利用可逆架构来提升生成模型的判别表现,但这些方法的表现仍不及以生成模型为目标而联合训练的纯判别式方法。本论文提出使用基于能量的模型(EBM/energy based models)来帮助生成模型在下游的判别式问题上发挥自己的潜力。尽管 EBM 模型目前来说还难以使用,但它们相比于其它生成式模型能更自然地应用在判别式的框架中,并有助于使用现代的分类器架构。

来源:ICLR 2020 | 论文下载 

知识赋能的K-BERT模型

K-BERT: Enabling Language Representation with Knowledge Graph

随着知识细化为结构化形式,许多领域的 KG 都被构建起来,例如,医学领域的 SNOMED-CT,中国概念的 HowNet。如果 KG 可以集成到预训练语言模型中,它将为模型配备领域知识,从而提高模型在特定领域任务上的性能,同时降低大规模的预训练成本。此外,知识图谱具有很高的可解释性,因为可以手动编辑注入的知识。目前,将知识图谱与语言模型结合的研究有哪些呢?最具代表性的就是清华的 ERNIE,其首先使用 TransE 获得实体向量,然后再将实体向量嵌入到 BERT 中。清华 ERNIE 的工作很有借鉴意义,但是仍然存在一些可改进的地方,例如:1. 知识图谱中的关系信息没有被用到;2. 实体向量和词向量是使用不同的方法得到的,可能存在空间的不一致;3. 对于实体数量巨大的大规模知识图谱,实体向量表将占据很大的内存。另外,将过多的知识引入到语言表示模型中,可能会改变原来句子的含义,本文称为知识噪声问题。为了解决以上问题,本文的研究人员尝试不区分实体向量和词向量,使用统一的向量空间将知识注入语言表示模型中。

来源:AAAI 2020 | 论文下载 | 代码链接

面向科学文献的事实与条件联合抽取

Multi-Input Multi-Output Sequence Labeling for Joint Extraction of Fact and Condition Tuples from Scientific Text

条件在科学陈述中至关重要:如果没有精确指定的条件(例如,设备,环境),则科学陈述中的事实(例如,科学观察)的正确性可能无法被检验。现有的面向科学领域的信息抽取方法(Science IE)旨在从科学文本中提取事实元组,但却忽略考虑条件(元组)的抽取。在这项工作中,本文提出了一个新的序列标注框架以及一个新的标注模式,利用其从语句中同时提取事实和条件元组。该框架拥有两个核心模块:用于将多种类型的信号以序列形式输入到模型的多输入模块(Multi-Input);用于生成一个或多个元组的多输出模块(Multi-Output)。在数据集BioNLP2013上相对提高了4.2个百分点,在本文新构建的专门用于事实、条件元组提取的生物医药文本数据集(BioCFE)上提高了6.2个百分点。

来源: EMNLP 2019 | 论文下载 | 代码链接

用于少次关系学习的神经网络雪球机制

Neural Snowball for Few-Shot Relation Learning

关系抽取(Relation Extraction)是自然语言处理当中的一个重要研究课题,其探究如何从文本中抽取结构化的关系事实。例如,从句子“比尔盖茨是微软的创始人”中,我们可以抽取出(比尔盖茨,创始人,微软)这样一个关系三元组,并用于知识图谱补全等下游任务中。与关系抽取相关的工作有很多,但他们大多针对预定义的关系类型,即给定一个人为定义好的关系集合,在抽取时仅考虑集合内的关系类型。然而,我们面临着开放式的关系增长,随着新领域、新知识的出现,关系类型也在不断增多。因此,我们需要能够应对关系增长的关系抽取模型。Neural Snowball通过在已有关系上的大规模数据上训练距离度量,迁移到新的关系类型上,利用新关系的少量数据作为启动种子,从大规模的无监督数据中挖掘有用信息,挖掘越多的有用信息,我们就能得到越好的关系抽取模型。

来源:AAAI 2020 | 论文下载 | 代码链接

- 观点 -

吴恩达邀请Yann LeCun等人预测2020人工智能发展

Coursera 联合创始人、斯坦福大学副教授吴恩达创办的 deeplearning.ai 刚刚发布了最新一期文章,其中不仅有周志华、Yann LeCun 等人对于新年 AI 发展趋势的预测,还有著名学者们对于整个研究社区的期许。吴恩达教授认为保持学习和好奇心十分重要;李开复认为AI将在更多的行业落地;LeCun认为自监督学习是AI接下来发展的方向;英伟达机器学习的总监Anandkumar教授认为,在仿真环境学习中训练算法会让网络更为强大,并且能模拟各种复杂的情况,在一些情况下可以解决研究人员数据不够的问题;Chelsea Finn是斯坦福计算机科学与电气工程助理教授,她认为赋予机器人泛化能力的研究十分重要。

来源:deeplearning.ai | 原始报道 | 中文报道

- 行业和政策 -

 

阿里巴巴达摩院发布「2020十大科技趋势」

近期,达摩院发布了“2020十大科技趋势”,涵盖人工智能、量子计算、云计算、芯片半导体等多个领域。其中重点提及了人工智能走向认知智能,以下是10大趋势简述:

1.人工智能从感知智能向认知智能演进;

2.计算存储一体化突破AI算力瓶颈;

3.工业互联网的超融合;

4.机器间大规模协作成为可能;

5.模块化降低芯片设计门槛;

6.规模化生产级区块链应用将走入大众;

7.量子计算进入攻坚期;

8.新材料推动半导体器件革新;

9.保护数据隐私的AI技术将加速落地;

10.云成为IT技术创新的中心。

来源:阿里巴巴达摩院 | 报道链接

重庆师范大学获唯一AI国家自然科学基金重大项目

人工智能这个研究热点,自然吸引了国内主流科学界的注意力。在最近公布的2019年国家自然科学基金重大项目中,就有一个AI项目入选,和其他生物、化学、物理、医药、环境等相关的45个项目并列。而且,这个AI项目依托的是重庆师范大学。负责人是重庆师范大学副校长杨新民教授,经费1968万元,研究主题为《最优化问题的人工智能方法》。

来源:量子位 | 报道链接 

- 人物 -

张亚勤正式加盟清华大学,任「智能科学」讲席教授

据清华大学新闻网 12 月 31 日消息,美国艺术与科学院院士、澳大利亚技术科学与工程院院士、前百度总裁张亚勤正式加盟清华大学。他已受聘为清华大学「智能科学」讲席教授,将在清华大学车辆与运载学院、计算机系和相关院系开展科研、教学和人才培养工作。张亚勤同时将负责牵头筹建「清华大学智能产业研究院(AIR)」,面向第四次工业革命,致力于以自动驾驶、人工智能+物联网和类脑智能为关键的技术突破方向,打造世界顶尖的创新研发平台。据了解,张亚勤将于 2020 年 7 月开始在清华大学正式开启科研、教学和人才培养相关工作。清华大学于 2019 年 4 月全面实施了「讲席教授」、冠名(副)教授制度。由美国高校最先设立的讲席教授(Chair Professorship),通常是位于正教授(Full Professorship)之上的一个头衔,获此头衔的学者均是在各自领域特别杰出且成就非凡的教授。

来源:机器之心 | 报道链接

- 代码 -

BERT快速入门指南

在过去的几年中,用于处理语言的机器学习模型取得了突飞猛进的进展。这些进展已经走出了实验室,开始为一些先进的数字产品赋能。最近成为 Google 搜索背后主要力量的 BERT 就是一个很好的例子。Google 认为这一进步(或者说在搜索中应用自然语言理解技术的进步)代表着「过去五年中最大的飞跃,也是搜索历史上最大的飞跃之一」。本文是一篇简单的教程,介绍如何使用不同的 BERT 对句子进行分类。本文中的例子深入浅出,也足以展示 BERT 使用过程中所涉及的关键概念。

来源:机器之心 | 博文链接 | Notebook代码

微软官方AutoML库使用

有了 AutoML,特征工程、神经架构和超参搜索这些炼金基本功再也不用担心了。作为科技巨头,微软也在 AutoML 上开源了自己的 NNI 库,这个库在 GitHub 上非常流行,长期盘踞在每日项目 Trending 榜。根据 GitHub 项目上的介绍,NNI(Neural Network Intelligence)意图帮助用户使用自动机器学习算法、帮助进行算法加速、实现更好的超参数、神经架构和模型压缩,以及进行平台部署。大约一周前,这一开源项目更新到了 1.2 版本,并有了一个中文的官方文档。在 NNI 的整个架构中,自动模型压缩、自动特征工程都非常吸引人,本文主要展示如何三步走搜索模型超参与架构。

来源:机器之心 | 博文链接 | 项目地址

Spark NLP如何使用Annotator和Transformer

在机器学习中,常见的一种做法是运行一系列的算法来处理和学习数据。这种算法序列常被称作做Pipeline。Pipeline具体来说是一个多阶段的序列,每个阶段由一个Transformer或者Estimator组成。各个阶段按顺序执行,并将输入的DataFrame转换和传递给下一个阶段,数据如此按序的在pipeline中传递。每个阶段的transform()方法函数更新这组数据集并传递到下一阶段。因为有了pipeline,训练数据和测试数据会通过确保一致的特征处理环节。Spark NLP LightPipelines 是把 Spark ML pipelines转换成了一个单机但多线程的任务,在少量的数据上速度提升可达到10倍。本文讨论了如何将Spark Pipelines转换成Spark NLP Light Pipelines,以便在小数据上获得更快的响应。这也是Spark NLP的最酷的特征之一。我们可以享受Spark强大的数据处理和训练功能,然而在单机运行时使用Light Pipelines来获得更快的预测速度。

来源:kdnuggets | 原始报道 | 中文报道

利用OpenCV实现抖音变脸

最近一个“最强变脸术”又火爆抖音啦。视频看起来炫酷,其实本质就是图像的各种变换组合到一块的结果。这个效果最基础的技术就是人脸识别。本文在尝试了仿射变换和透视变换两种方案后,实现了该技术,最终效果完全有了立体感,而且人脸的对齐也比第一个版本好的多,跟抖音的差距也缩小了不少。

来源:AI科技大本营 | 博文链接 | 代码链接

Pandas数据处理三板斧

在日常的数据处理中,经常会对一个DataFrame进行逐行、逐列和逐元素的操作,对应这些操作,Pandas中的map、apply和applymap可以解决绝大部分这样的数据处理需求。这篇文章就以案例附带图解的方式,为大家详细介绍一下这三个方法的实现原理,相信读完本文后,不论是小白还是Pandas的进阶学习者,都会对这三个方法有更深入的理解。

来源:Python中文社区 | 博文链接

- 教程 -

 

【课程】韩家炜老师CS512 Spring 2020数据挖掘:原理与算法

韩家炜老师是数据挖掘领域的祖师爷,也是华人计算机界的代表性人物之一。最近他在UIUC美国伊利诺伊大学香槟分校新开设一门课程CS512 Spring 2020关于数据挖掘《Data Mining: Principles and Algorithms》,介绍数据挖掘的原理、算法和应用,包括算法、方法、实现和应用。课程内容包括:网络概论、信息网络挖掘、序列与图数据挖掘、先进的聚类方法、离群点分析方法、数据流挖掘、时空数据挖掘、文本数据挖掘、Web数据挖掘等。值得关注学习。

来源:美国伊利诺伊大学香槟分校 | 课程主页  

【书籍】图深度学习导论

图数据处理是一个长期存在的研究课题,近年来又被深度学习领域广泛关注。相关研究在数量和广度上飞速增长,但这也导致了知识系统化的缺失和对早期文献关注的缺失。《A Gentle Introduction to Deep Learning for Graphs》是图深度学习领域的教程导论,它倾向于对主流概念和架构的一致和渐进的介绍,而不是对最新文献的阐述。教程在介绍概念和想法时采用了自上而下的方法并保留了清晰的历史观点,为此,导论在第2节中提供了图表示学习的泛化形式,将图表示学习泛化为一种基于局部和迭代的结构化信息处理过程。同时,介绍了架构路线图,整个导论也是围绕该路线图进行开展的。导论聚焦于面向局部和迭代的信息处理过程,因为这些过程与神经网络的体系更为一致。因此,导论会淡化那些基于图谱理论的全局方法(假设有一个固定的邻接矩阵)。

来源:专知 | PDF下载 

【书籍】自然语言处理实战:使用Python理解、分析和生成文本

自然语言处理是现实世界中处理和生成自然语言文本的使用指南。在本书中,作者为我们提供了构建后端NLP系统所要的所有工具和技术,可以支持聊天机器人、垃圾邮件过滤器、论坛主持人、情感分析器、知识库生成器等您可以想象到的自然语言文本挖掘程序或其他NLP应用程序。本书提供了许多最佳实践实例并深入了解了最新的NLP算法的功能。对于特殊主题,作者也提供了足够的背景材料和引用资源。

来源:Github | PDF下载 | 代码链接

【书籍】使用TF2.0-Python实现深度学习模型

Google一直是引入突破性技术和产品的先驱。在效率和规模方面,TensorFlow也不例外,因此,编写本书只是向读者介绍TensorFlow核心团队所做的这些重要更改。本书着重于机器学习方面的TensorFlow的不同应用,并更深入地探讨了方法的最新变化。对于那些想要用TensorFlow进行机器学习的人来说,这本书是一个很好的参考点。本书分为三个部分。 第一部分:使用TensorFlow 2.0进行数据处理。 第二部分:使用TensorFlow 2.0构建机器学习和深度学习模型。它还包括使用TensorFlow 2.0的神经语言编程(NLP)。 第三部分:介绍了如何在环境中保存和部署TensorFlow 2.0模型。

来源:沃尔玛实验室 | PDF下载

- 新工具 -

TensorFlow加密机器学习框架:TF Encrypted

联邦学习需要模型所有者先将机器学习模型发送给每个数据所有者。数据所有者,即每台手机会使用本地数据运行训练算法的初始步骤,而训练算法则根据输入与预期输出结果来确定对模型的更新方式。这些模型更新会再发回模型所有者方,并进行汇总。当训练算法(例如随机梯度下降算法)达到局部最优权重时,更新汇总结束。然而,联邦学习并非完整的数据隐私解决方案,它无法确保在更新共享时不泄漏敏感信息。多次针对联邦学习的攻击表明,自客户端更新中习得隐私信息是可以做到的。为了解决敏感数据泄漏问题,我们可以利用差异性隐私及安全聚合来保护更新信息。本文介绍TensorFlow加密机器学习框架(TF Encrypted),为联邦学习加一层保护罩。

来源:medium | 原始报道 | 中文报道

谷歌ALBERT模型V2+中文版

比BERT模型参数小18倍,性能还超越了它。这就是谷歌前不久发布的轻量级BERT模型——ALBERT。不仅如此,还横扫各大“性能榜”,在SQuAD和RACE测试上创造了新的SOTA。而最近,谷歌开源了中文版本和Version 2,项目还登上了GitHub热榜第二。在这个版本中,“no dropout”、“additional training data”、“long training time”策略将应用到所有的模型。从性能的比较来说,对于ALBERT-base、ALBERT-large和ALBERT-xlarge,v2版要比v1版好得多。说明采用上述三个策略的重要性。平均来看,ALBERT-xxlarge比v1略差一些,原因有以下2点:额外训练了1.5M步(两个模型的唯一区别就是训练1.5M和3M步);对于v1,在BERT、Roberta和XLnet给出的参数集中做了一点超参数搜索;对于v2,只是采用除RACE之外的V1参数,其中使用的学习率为1e-5和0 ALBERT DR。总的来说,Albert是BERT的轻量版, 使用减少参数的技术,允许大规模的配置,克服以前的内存限制。

来源:量子位 | 中文报道 | 报道链接

数据可视化工具plotly_express

plotly本身也是一个非常强大的工具,奈何它的原生API过于繁琐,绘图的设置项太多,导致很多开发或者是分析人员望而却步,正是由于这种情况的客观存在,开发者对其原生的API进行了更加高级的封装,开发了新的模块,也就是现在的plotly_express,Plotly Express是一个简洁,一致的高级API,可用于快速数据浏览和图形生成。plotly_express极大地简化了数据可视化的工作量,解放了分析人员的工作。

来源:Python中文社区 | 博文链接 

- 应用 -

亚马逊测试“人手支付”技术

使用生物信息进行身份验证是这几年来已逐渐成熟的技术应用了。但是,其中一些技术,如我们所熟知的人脸识别,由于对个人隐私可能造成的影响而受到质疑。电商巨头亚马逊在这一领域进行了投入,希望能够推广一种对隐私「侵害更小」的技术。而人手,似乎是不错的选择。在身份验证中,如果一个人要证明自己是自己这个人,他必须提供自己独一无二的信息。像人类的指纹、虹膜一样,人类的手部信息也是独特的。这些信息包括:手掌纹(类似指纹)以及内部的血管排列情况。亚马逊就看重了这一点,在他们的技术中,被识别者不需要像指纹识别那样把手按在某个面板上。在需要验证的时候,系统会使用红外线拍摄两张手部照片,一张是手掌表面的照片,另一张则是更深的照片,用于捕捉血管等手掌内部的信息。然后,系统使用计算机视觉和深度(depth)几何技术,包括神经网络等,进行信息的处理。

来源:机器之心 | 报道链接 

韩国将在首尔市场安装内置人工智能软件的摄像头

韩国政府声称,今年年内将在首尔市场安装内置人工智能(AI)软件的摄像头,用来检测潜在犯罪。韩国首尔电子与电信研究所(ERTI)是一家国家级研究机构,该研究所表示,他们将在7月前在首尔市The Seocho District区内安装3000台AI摄像头。这些摄像头将使用AI系统处理路人的位置、时间和行为模式,例如自动测量路人是否正常行走,或者跟踪某人,还能检测路人是否戴帽子、面具、眼睛以及随身携带的东西,比如有很大可能被用来犯罪的袋子或其他危险物品。AI系统会利用这些数据来预测犯罪发生的概率。如果概率超过一定值,摄影头会提醒地区附近的警署派人前往。The Seocho District区与ETRI计划分析20000份法庭判决文件和犯罪录像,推断犯罪模式供AI软件学习,摄像头将能够比较目前正在拍摄的内容是否与过去案件的犯罪模式相符。官方表示,该摄像头计划最终将扩展到首尔其他地区及其他城市。同时,ETRI还在开发个人识别软件,以供携带电子脚铐的性犯罪者使用。

来源:雷锋心 | 报道链接

华为首个智能无人店开业

华为首个授权智能无人售货店在武汉光谷新发展国际中心正式启用。该写字楼分为 A、B 座,也是武汉互联网公司聚集地之一。无人售货店整体建筑结构为圆柱形,外立面采用了全通透的 360°环绕防弹超白玻璃,店面面积仅 28.26 平方米。夜间望去,亮灯的店铺设计犹如一只失落在地球的小型飞船。整体来看,华为智能无人售货店通过与第三方机器人公司库柏特合作,充分利用了工业机器人技术,实现了从“仓储——展示——销售——盘点——库存反馈——SKU 优化”等整个链条的智能化与无人化管理。这是无人零售中对“人——货——场”关系的进一步重构。
 

来源:机器之心 | 报道链接 

- 竞赛 -

IMDB 影评剧透检测竞赛

文字作为载体和线索,在很多情况下,能够提供比图像更多的信息。因此,作为计算机视觉中一个重要的研究课题,文字检测和识别也随深度学习的兴起和发展,一起进入了全新的时代。从技术的角度而言,文字检测通常是通过算法计算判断在单词或者文字行层面是否含有文字实例(如果有,则标出位置)的过程;而文字识别则更进一步,它会在文字检测基础之上,再将文字区域转化为计算机可读取和编辑的符号。本次大赛「IMDB 影评剧透检测」的目标为:正确识别测试集影评是否为包含剧透信息。因此,不必要考虑文字不工整、图像清晰度差等更复杂的问题。

来源:AI研习社 | 比赛链接

- 经验 -

Andreas Madsen:如何单枪匹马地在Spotlight上发表顶会论文

这是一段「激励人心」的故事:一位名叫 Andreas Madsen 的小哥自北欧名校丹麦科技大学本科+硕士毕业之后(成绩是 top3%),却发现自己找不到一个研究工程师的工作。而在最近无业的这段时间里,他写的论文中了 ICLR 2020,还是 Spotlight。在这篇文章中,他会给你一些建议。

来源:medium | 中文报道 | 原始报道

如何学会读论文:三轮阅读法

学者们出于各种原因阅读论文,比如为了准备一场学术会议或者一堂课,为了紧跟自己所在领域的研究进展,或者为了了解新领域而进行的文献综述。一般而言,一名学者每年会花数百小时来阅读论文。高效阅读论文是一项极其重要但却很少被人传授的技能。因此,初学者不得不在自己的摸索中学习这项技能。结果是他们在此过程中浪费了很多精力,并且常常陷入深深的挫败感之中。多年以来,本文作者一直用一种简单的“三轮”方法来防止自己沉浸在一篇论文的细节中,然后才能掌控全局。本文对这种“三轮阅读法”进行了说明,并介绍了该方法在文献综述中的应用。

来源:滑铁卢大学 | 博文链接

- 求职 -

机器学习就业:毕业生和企业,究竟谁更挑剔?

机器学习和AI专业现在越来越火,不少人宁可中途转行,甚至改行也要学AI,为的是更好的就业机会。越来越多的大学也在招收更多的机器学习相关的学生。在欣喜之余,很多人也产生了对这个专业可能出现泡沫的忧虑。近日Reddit上出现了这么一个帖子,“听说不错的机器学习毕业生要找工作也不容易了,真的吗?”看样子像是一个学生对自己未来前景的担忧。总体看来,回帖内容大体突出一个意思:不用担心,工作还是好找的,至于是不是“好工作”,主要取决于你自己的期望值。

来源:Reddit | 原始报道 | 中文报道

12个热门的深度学习面试问题

这12个问题是在面试人工智能工程师职位时经常问的问题。事实上,并不是所有的面试都需要使用所有这些问题,因为这取决于应聘者以前的经验和项目。通过大量的面试,特别是与学生的面试,本文收集了 12 个在深度学习中最热门的面试问题,今天将在这篇文章中与大家分享。

来源:CVer | 博文链接

以上是《智源社区AI周刊》第3期的内容,智源研究院编辑团队将本着“提供真正内行的AI资讯”的目标,不断优化和完善我们的内容服务,各位读者们如有批评意见,或者好的建议,请不吝赐教发至:editor@baai.ac.cn。谢谢大家。

特约编辑:刘布楼 常政 刘沂喆

所有文章
×

还剩一步!

确认邮件已发至你的邮箱。 请点击邮件中的确认链接,完成订阅。

好的