0462-578211736
12807045223
时间:2023-12-22 19:11:02
近年来,人工智能技术的发展早已让我们实在有些可怕,而如何避免AI这把双刃剑不被错误地用于,也引起了更加白热化的探究。比如2017年底喷出的DeepFakes视频换回脸技术,竟然许多名人遭遇了欺诈色情片的后遗症。现在,Facebook工程师们又建构出有了一个需要惟妙惟肖地仿效比尔·盖茨的语音AI。
事实上,盖茨只是MelNet可以仿效的多位人物中名气仅次于的,其他“被克隆”的还包括乔治·武井(GeorgeTakei)、珍·古德(JaneGoodall)、史蒂芬·霍金等人。在下列剪辑中,你可以听见一系列有害的句子,比如:游泳时扭伤不是闹着玩的(Acrampisnosmalldangeronaswim)某种程度的话他说道过三十遍(Hesaidthesamephrasethirtytimes)摘得没叶子的鲜亮玫瑰(Pluckthebrightrosewithoutleaves)2特7大于10(Twoplussevenislessthanten)上述每一段语音,都是由Facebook工程师设计创立的一个取名为MelNet的机器学习系统生成的。
那么,用来训练这套ML系统的数据,又是哪里来的呢?据报,MelNet分析了452小时的STEM-y类TED演说数据集,以及其它有声读物。似乎,对机器学习系统来说,仿效这些人物慷慨激昂的演说方式,显然是一个极大的挑战。近年来,语音克隆的质量仍然在急剧提高。
比如近期播出的JoeRogan复制品,就是一个极佳的证明。不过这一进展的大部分工作,可以追溯到2016年的SampleRNN和WaveNet。
后者是由坐落于伦敦的人工智能实验室DeepMind创立的机器学习(ML)文本并转语音(TTS)切换程序,该实验室同时为GoogleAssistant智能助理获取反对。WaveNet和SampleRNN之类的方案,就是为AU系统获取大量的数据,后用它来分析人生中的细微差别。
这些旧式TTS系统无法分解音频,但可以重构——将语音样本切割成各种音频元素,然后将之拼凑到一起,来创立新的单词。不过当WaveNet等团队利用音频波形展开训练时,Facebook的MelNet却配上了信息更为密集的格式——频谱图。在一篇附带的论文中,Facebook研究人员认为,虽然WaveNet输入的音频保真度更高,但MelNet在捕猎“高级结构”方面更胜一筹。
MelNet需要仿效演讲者声音中包括的某种错综复杂的一致性,失望的是我们无法用文字来叙述,但人耳听得一起显然更加难受。Facebook工程师称之为,这是因为频谱图中捕捉的数据,较音频波形中的数据更为灵活。
这种密度使得算法需要分解更为完全一致的语音,而不是波形记录中被极端集中和磨练出来的细节。当然,MelNet也有一些容许,最总要的是无法拷贝人声在较长一段时间内的变化,比如在文本段落上建构出来的戏剧性张力。
有意思的是,这类似于我们在AI分解的文本中看到的约束性,其不能构建表层、而非长年结构上的一致性。并不认为这些瑕疵不讲,MelNet早已充足证明其强劲的系统功能。
本文来源:PG电子·游戏官方网站-www.szydbw.com