10月最热的10篇AI相关文章

电子说

1.2w人已加入

描述

10月最热的10篇AI相关文章,介绍谷歌、OpenAI、MIT等的最新研究,以及AI道德判断、算法偏见等受关注话题。

1. 谷歌如何利用强化学习来提出正确的问题

当搜索引擎找不到你想要的答案时,你会怎么做?你会试着重新组织提问吧。

谷歌正试图通过新的Active Question Answering(Active QA)智能体来模仿这一点,这是一个使用强化学习来训练AI进行问答的系统。当你提出一个问题时,它会产生很多有相似含义的问题。它会搜索所有问题的答案,然后选择最好的答案返回给你。

这有助于聊天机器人取得进步。与其让你在它们不明白的时候重新组织措辞提问,不如让它们自己去做!

而且,它是开源的。

阅读:

What’s New in Deep Learning Research: How Google Uses Reinforcement Learning to Ask All the Right Questions— from Jesus Rodriguez

https://towardsdatascience.com/whats-new-in-deep-learning-research-how-google-uses-reinforcement-learning-to-ask-all-the-right-69c172f113c4

2. OpenAI新方法教AI如何学习

通常,当我们训练AI去执行某项任务时,我们需要用某种方法来告诉它做得有多好,或者至少向它展示一些任务做得很好的例子。

但是,对于难以评估性能的、高度复杂的任务,该怎么做呢?有时候,即使是人类也无法向AI展示如何做某事——比如管理整个城市的交通系统。

OpenAI提出一种新方法使AI能够将任务分解为更小的子任务,称为“迭代扩增”(Iterated Amplification)。然后,它会要求人类对这些子任务提供demo。基于此,它可以独立解决大任务。

这项技术还处于非常早期的阶段,但由于它来自OpenAI,接下来几个月应该会有更新,保持关注。

阅读:

Learning Complex Goals with Iterated Amplification — from OpenAI

https://blog.openai.com/amplifying-ai-training/

3、MIT道德机器

自动驾驶汽车相关的一个主要问题是,它们最终将不得不做出连人类都无法做决定的道德选择。

如果不避让就会撞上一群人,避让就会撞上另一个人,它应该避开人群吗?它应该保护乘客,还是保护行人?它应该保护年轻人还是老年人?尽管这些情况极为罕见,但很显然,这些情况确实有可能发生。

MIT媒体实验室的这篇文章分析了道德机器(Moral Machine)的结果,他们做了一个实验,调查了数百万人针对这些情况的决策。

答案因国家而异。例如,西方国家的人比东方国家的人更倾向于选择保护年轻人。

现在就考虑这些问题是很有必要的,因为在某些时候,汽车制造商和程序员将不得不做这样的决策:一旦自动驾驶汽车面临两个都很糟糕的结果,它无法拒绝选择。

阅读:

Should a self-driving car kill the baby or the grandma? Depends on where you’re from— from MIT Media Lab 

Nature大型调查:当AI遭遇电车难题,它将拯救谁?

https://www.technologyreview.com/s/612341/a-global-ethics-study-aims-to-help-ai-solve-the-self-driving-trolley-problem/

4. 带答案的图表

制作有助于理解数据集的图表是很困难的。当存在很多变量和数据点时,任何可视化的尝试都可能令人感到混乱、不完整和误导性。

这篇文章提出一个解决办法:当你做图表时,问自己一个你想要它回答的问题。

通过确保你的图表有一个清晰的焦点,可以避免图形过于笼统——从而导致无用。

在这篇文章中,作者将引导你完成探索一个数据集的过程,每次一个问题。其中有些图表能让你感觉自己非常了解这些数据。

阅读:

Ask the Question, Visualize the Answer — from FlowingData

https://flowingdata.com/2018/10/17/ask-the-question-visualize-the-answer/

5. 从好奇到拖延

在强化学习中,AI学会与环境进行交互,并在表现良好时获得奖励。利用这些奖励,它能学习如何执行任务,例如玩游戏或在迷宫中寻找物品。

但有时候奖励很难获取,在得到下一个奖励之前,AI不知道它是否做得很好。对这种情况的解决方案之一是引入好奇心(curiosity),有好奇心的情况下,AI会因为发现新事物而奖励自己。

这通常会产生奇妙的效果,但谷歌AI的研究人员这次尝试了不同的方法:他们在迷宫中放置了一个具有好奇心的AI,并放了一台电视机和遥控器。

猜猜发生了什么:AI一直呆在电视机前,不停切换频道!它学会了拖延。

这其实很有道理:对于AI来说,新频道是一种“新东西”,因此不断切换频道对它的好奇心是非常有益的。

也许有时候让AI过于人性化不是一个好主意:)

阅读:

Curiosity and Procrastination in Reinforcement Learning— from Google’s AI blog

ai.googleblog.com/2018/10/curiosity-and-procrastination-in.html

6. 如何画猫?

Quick, Draw!是Google开发的一个AI小游戏,它要求你随便画一些东西,然后AI会识别你画的东西。这个小游戏产生了一个巨大的数据集,来自世界各地的人们绘制了超过5000万张画。

这篇文章探讨了可视化这个有趣的数据集的一种聪明的方法。你知道美国人画的冰淇淋甜筒是一勺的,而意大利人画的是三勺吗?你能想到人们画瑜伽姿势会画出多少种方式吗?

使用像t-sne和autoencoders这样的方法,我们可以把这些杂乱无章的图像转换成地图。有了它,我们可以探索更多这样的模式。

阅读:

Machine Learning for Visualization—from Ian Johnson

https://medium.com/@enjalot/machine-learning-for-visualization-927a9dff1cab

7. 亚马逊的性别歧视人工智能

亚马逊最近试图使用机器学习,通过分析求职者的简历来选择参加面试的候选人。事情进行得并不顺利。

简单的说,该算法分析了过去的招聘数据——男性的比例普遍过高——得出的结论是,女性真的不太可能被聘用,因此它将女性的简历放在不利的地位。

这是各种各样推荐系统的常见缺陷,但最近的新闻表明,即使是拥有大量资源的大公司也会上当。

好消息是,这种情况已经结束了,所以你大可以提交申请,不用担心性别歧视。但这是一个很好的提醒,提醒我们机器学习系统经常受到数据的影响。

据路透社报道,亚马逊弃用了对女性有偏见的AI招聘工具。

阅读: 

Amazon scraps secret AI recruiting tool that showed bias against women— from Reuters

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

8. 不确定性问题

有时候,仅仅知道你平均来看击中了中心是不够的,你需要知道每一次射击的结果离中心有多近。评估置信度对于好的预测是至关重要的。

今年1月,数据分析师Erik Bernhardsson决定为他所做的每一个预测提供不确定性估计。

实验结束后,他发表了这份指南,提供了简单的方法和代码来估计不确定性。如果你想学习如何在不需深入复杂数学的情况下做到这一点,看这篇文章就好了!

阅读:

The hacker’s guide to uncertainty estimates — from Erik Bernhardsson

https://erikbern.com/2018/10/08/the-hackers-guide-to-uncertainty-estimates.html

9. 定制合成人脸

你可能已经听说过生成对抗网络(GAN)被用于生成人脸,或改变人脸的特征,例如使其看起来更年老。

在这篇文章中,作者更进了一步。除了生成人脸之外,他的系统还可以学习连续修改任何一种面部特征。

这很厉害。大多数现有模型只学习执行一次转换(利用从年轻变成年老,从女人变成男人):转换的类型和范围都是固定的。任何改变都需要对模型和新数据集全面地进行重新训练。

在这个研究中,一旦系统被训练好,你可以很方便地添加新的可修改特性。另外,你可以做任何程度的改变——无论你想让脸看起来更年轻一点还是更年老一点,都可以做到。

感兴趣吗?请看这个令人印象深刻的演示:

阅读:

Generating custom photo-realistic faces using AI — from Shaobo GUAN

https://blog.insightdatascience.com/generating-custom-photo-realistic-faces-using-ai

10. 发现假视频

“我们正在进入一个时代,在这个时代里,我们的敌人可以制造让任何人在任何时候说任何话的视频,并且让它看起来像真实的。”美国前总统奥巴马(Barack Obama)从未说过这话。这是一个假视频演示的。

这只是deepfake(人工智能生成的假视频)的一个例子。这些假视频难以置信地令人信服,虽然有些很有趣,但它们也可以被用来实施欺骗和传播虚假信息。

在这篇文章中,研究人员解释了他们发现的检测deepfakes假视频的方法。从检查人物眨眼的方式到检查压缩率,仍有一些信息会暴露deepfakes。

但这场斗争是永无止境的。一旦发现了假视频的缺陷,deepfake的制造者就会采取行动进行纠正。为了领先一步,必须持续研究。

阅读:

These new tricks can outsmart deepfake videos — for now — from Wired

https://www.wired.com/story/these-new-tricks-can-outsmart-deepfake-videosfor-now/

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分