微软的研究人员透露了一种新的人工工具,可以创造非常逼真的人类化身,但没有提供向公众开放的时间表,理由是担心会助长深度虚假内容。
这款名为VASA-1的人工智能模型代表了“视觉情感技能”,只需使用一张图像和一段语音剪辑,就能制作出一个人说话的动画视频,并伴有同步的嘴唇运动。
虚假信息研究人员担心,在关键的选举年,人工智能应用程序被滥用,制造“深度虚假”的图片、视频和音频剪辑。
微软亚洲研究院(Microsoft Research Asia)本周发布的VASA-1报告的作者写道:“我们反对任何制造误导或有害真人内容的行为。”
他们表示:“我们致力于负责任地发展人工智能,目标是促进人类福祉。”
“我们没有计划发布在线演示、API、产品、其他实施细节或任何相关产品,直到我们确定这项技术将按照适当的法规被负责任地使用。”
微软研究人员表示,这项技术可以捕捉到广泛的面部细微差别和自然的头部动作。
研究人员在帖子中说:“它为与模仿人类对话行为的逼真化身进行实时互动铺平了道路。”
据微软称,VASA可以处理艺术照片、歌曲和非英语演讲。
研究人员吹捧了这项技术的潜在好处,比如为学生提供虚拟教师,或者为有需要的人提供治疗支持。
他们表示:“我们无意创建用于误导或欺骗的内容。”
据该帖子称,VASA视频仍然有“人工制品”,表明它们是人工智能生成的。
ProPublica的技术主管本·沃德穆勒(Ben Werdmuller)表示,他“很高兴听到有人第一次在Zoom会议上使用它来代表他们。”
“比如,事情进展如何?”有人注意到吗?”他在社交网站Threads上说。
chatgpt制造商OpenAI在3月份发布了一款名为“语音引擎”的语音克隆工具,该工具可以根据15秒的音频样本复制某人的语音。
但该公司表示,“由于人工合成语音被滥用的可能性,它正在采取谨慎和明智的方式进行更广泛的发布。”
今年早些时候,一名为一名希望渺茫的民主党总统候选人工作的顾问承认,他是向新罕布什尔州选民发送模仿乔·拜登(Joe Biden)的自动电话的幕后主使,称他试图强调人工智能的危险。
这一电话的声音听起来像是拜登敦促人们不要在该州1月份的初选中投票的声音,这引起了专家们的警觉,他们担心在2024年的白宫竞选中会出现大量人工智能驱动的深度虚假信息。
©2024法新社
引用微软发布了栩栩如生的人工智能技术,但没有给出发布日期(2024年4月20日) 作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司 内容仅供参考之用。