首页 > 资讯 > 国际 > 正文
2024-05-01 09:54

微软发布了栩栩如生的人工智能化身技术,但没有给出发布日期

Microsoft researchers say an AI model they have developed lets avatars engage in realistic seeming co<em></em>nversations complete with nuanced facial ex<em></em>pressions

微软的研究人员透露了一种新的人工工具,可以创造非常逼真的人类化身,但没有提供向公众开放的时间表,理由是担心会助长深度虚假内容。

这款名为VASA-1的人工智能模型代表了“视觉情感技能”,只需使用一张图像和一段语音剪辑,就能制作出一个人说话的动画视频,并伴有同步的嘴唇运动。

虚假信息研究人员担心,在关键的选举年,人工智能应用程序被滥用,制造“深度虚假”的图片、视频和音频剪辑。

微软亚洲研究院(Microsoft Research Asia)本周发布的VASA-1报告的作者写道:“我们反对任何制造误导或有害真人内容的行为。”

他们表示:“我们致力于负责任地发展人工智能,目标是促进人类福祉。”

“我们没有计划发布在线演示、API、产品、其他实施细节或任何相关产品,直到我们确定这项技术将按照适当的法规被负责任地使用。”

微软研究人员表示,这项技术可以捕捉到广泛的面部细微差别和自然的头部动作。

研究人员在帖子中说:“它为与模仿人类对话行为的逼真化身进行实时互动铺平了道路。”

据微软称,VASA可以处理艺术照片、歌曲和非英语演讲。

研究人员吹捧了这项技术的潜在好处,比如为学生提供虚拟教师,或者为有需要的人提供治疗支持。

他们表示:“我们无意创建用于误导或欺骗的内容。”

据该帖子称,VASA视频仍然有“人工制品”,表明它们是人工智能生成的。

ProPublica的技术主管本·沃德穆勒(Ben Werdmuller)表示,他“很高兴听到有人第一次在Zoom会议上使用它来代表他们。”

“比如,事情进展如何?”有人注意到吗?”他在社交网站Threads上说。

chatgpt制造商OpenAI在3月份发布了一款名为“语音引擎”的语音克隆工具,该工具可以根据15秒的音频样本复制某人的语音。

但该公司表示,“由于人工合成语音被滥用的可能性,它正在采取谨慎和明智的方式进行更广泛的发布。”

今年早些时候,一名为一名希望渺茫的民主党总统候选人工作的顾问承认,他是向新罕布什尔州选民发送模仿乔·拜登(Joe Biden)的自动电话的幕后主使,称他试图强调人工智能的危险。

这一电话的声音听起来像是拜登敦促人们不要在该州1月份的初选中投票的声音,这引起了专家们的警觉,他们担心在2024年的白宫竞选中会出现大量人工智能驱动的深度虚假信息。

©2024法新社

引用微软发布了栩栩如生的人工智能技术,但没有给出发布日期(2024年4月20日) 作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司 内容仅供参考之用。