乐智网

AI学会如何愚弄语音,对于语音助理来说是个坏消息

2018-01-11 15:25 来源:The Next Web

加州大学伯克利分校的计算机科学家开发了一种针对文本到语音系统的基于AI攻击。用他们的方法,不管音频文件听起来的意义如何,文本输出都将是攻击者想要的东西。

这个方法听起来很酷,但却也是AI恐怖使用类别的另一个入口。

乐智网、人工智能、语音识别、

加州大学伯克利分校的Nicholas Carlini和David Wagner教授团队能够欺骗Mozilla广受欢迎的DeepSpeech开源文本到语音转换系统,从本质上来说,这个系统已经变成了现实。

在上周发表的一篇白皮书中,研究人员指出:

鉴于任何音频波形,我们可以产生另一个类比度高达99.9%的类似音频,但转录为我们选择的任何短语(以每秒高达50个字符的速度),不管所需的转录,或者说起始源词组。我们的成功率达到100%。通过以任意波形而不是语音(比如音乐)开始,我们可以将语音嵌入到不应该被识别为语音的音频中;并选择沉默作为目标,我们可以隐藏语音到文本系统的音频。

这意味着他们可以采取任何音频文件,并说服一个文本到语音转换器。就像一个谷歌助理,Siri或Alexa用来找出你在说什么。在这个充满智能扬声器和语音助手的世界里,这是相当重要的。

Carlini通过电子邮件告诉TNW:在之前与其他研究人员合作的过程中,我们构建了我们所谓的“隐藏语音命令”来攻击手机上的语音识别系统。这些攻击的目的是为了让你和我听起来像随机噪声,但要识别为智能手机的特定短语(例如,“好的谷歌,浏览到邪恶的网站”)。

当然,在听到扭曲的音频时,任何人都会认识到某些事情是不正确的。这就是为什么研究人员需要加强研究。

Carlini继续说:“所以,在这篇文章中,我想把攻击延伸到更隐蔽的地方。我希望能够使任何随机的音频短语转录到完全不同的东西。这样,我可以拍摄任何我想要的视频,添加少量对抗噪音,重新上传,并导致语音文本系统转录完全不同的内容。观看它的人不会听到任何异常。”

Carlini还指出,攻击是有限的,它只适用于DeepSpeech,这显然不是什么Siri,Alexa或谷歌助理用于转录。

但是这项工作证明这是可能的。实际上,Carlini告诉我们,他有信心地说,通过做更多的工作,有人能够让我们的音频对抗的例子在空中工作。

这些研究人员已经开始进行一连串可能导致AI成为虚拟助手的严重漏洞。

想象一下,网络攻击使语音控制无法大规模运行,或者将处理器密集型命令与语音系统(如电话,电视,计算机和汽车等)绑定在一起,这些命令可能会嵌入到像贾斯汀·比伯上午歌曲中。

届时,我们该如何教Alexa遮住她的耳朵?

版权与免费声明
①本网凡注明来源“乐智网”的所有作品,版权均属于乐智网。转载方务必在文中注明来源,并附带链接 http://www.lezhiot.com/。若转载方没有严格执行上述约定,乐智网将视为侵权,并追究相关法律责任。 ②本网转载其他网站作品的过程中会注明来源,目的在于为读者传递更多信息,并不代表乐智网赞同其观点或证实相关内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并主动承担版权等法律责任。
乐智网二维码

扫一扫关注我们