当前位置: 主页 > IT互联网 >

CanSecWest2021看点:AI、云原生、物联网大热,腾讯朱雀实验室登台

时间:2021-04-19来源:互联网 作者:编辑 点击:
北京时间4月16日,全球顶尖信息安全峰会CanSecWest 2021正在召开中。腾讯朱雀实验室受邀参加,并进行了题为《The Risk of AI Abuse: Be Careful with Your VoiceAI被滥用的风险:小心您的声音安全》

北京时间4月16日,全球顶尖信息安全峰会CanSecWest 2021正在召开中。腾讯朱雀实验室受邀参加,并进行了题为《The Risk of AI Abuse: Be Careful with Your VoiceAI被滥用的风险:小心您的声音安全》的分享。这也是连续第四年腾讯安全平台部旗下前沿安全研究团队的相关成果入选CanSecWest议题。

腾讯朱雀实验室的最新研究成果表明,VoIP电话劫持与AI语音模拟技术的结合将带来极大潜在风险,在分享中,实验室创造性地展示了用AI进行声音克隆并劫持电话的攻击场景。区别于此前脚本类的电信诈骗,这一新技术可实现从电话号码到声音音色的全链路伪造,攻击者可以利用漏洞劫持VoIP电话,实现虚假电话的拨打,并基于深度伪造AI变声技术生成特定人物的声音进行诈骗。

这里所说的VoIP是一种语音通话技术,经由IP来进行语音通话和参与多媒体会议,由于其使用便捷、成本低廉的特性,VoIP在全球范围内被广泛应用于办公电话场景中。而VoIP电话劫持是由于早期版本的VoIP存在被网络嗅探,并实施中间人攻击的风险,攻击者可利用漏洞篡改来电方的人名及电话号码,使得接听方的电话显示为预设的任意内容。

腾讯朱雀实验室研究显示,通过深度学习技术可实现语音模拟,根据源人物的说话内容合成具有目标人物音色特征的音频,输出伪造特定人物的声音。其实这项技术并不新鲜,在许多场景中已经应用,比如地图软件中的定制语音播报,就可以通过少量自己的声音来定制与自己音色极为接近的播放声音。

因此,在VoIP电话劫持中,利用少量被攻击者的声音,可以合成与被攻击者音色相似的任意内容的语音片段,再将虚假语音注入到电话中,就能达到以假乱真的效果,实现完整的电话欺骗链路。攻击者可以轻松拨打虚假电话,冒充被攻击者身份与目标人员对话。

针对这一潜在风险,腾讯朱雀实验室研究员提出了建议——基于“用AI对抗AI”的思路,使用AI技术提取真实语音和虚假语音的特征,再根据特征差异来分辨真实语音和生成语音。同时,企业和个人尽量使用新版本的VoIP协议电话,如SIP、SRTP等,以减少电话被劫持的风险。

实际上,目前涉及语音的攻击手段也愈加多样化。腾讯研究员介绍,通过向语音中添加微小扰动,或修改部分频谱信息,就可以欺骗语音识别系统。此外,通过将唤醒命令隐藏在不易察觉的音乐中,就可能唤醒智能设备进行对应操作。

腾讯云副总裁、腾讯安全平台部负责人杨勇表示,AI技术与传统安全攻击技术的结合,衍生了新的应用场景和与之对应的滥用风险,AI的数据、算法、模型、基础组件等核心要素更加需要安全的加持。腾讯朱雀实验室就一直致力于实战级APT攻击和AI安全研究,持续深耕现实网络安全,为AI技术的正向用、放心用保驾护航。

作为全球顶尖信息安全峰会,CanSecWest一直以其权威性、热点性、前沿性而备受行业关注。本届CanSecWest2021将持续到4月30日,除了腾讯朱雀实验室,来自百度、Adobe、Macfee、IOActive、加利福尼亚大学河滨分校等全世界的顶尖安全专家也悉数到场,并将围绕AI、云原生、物联网、可信计算等安全前沿技术领域展开探讨。

顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
文章导航
推荐内容