当前位置:首页 > 精选百科 > 正文

OpenAI的最新公告是迄今为止最危险的人工智能创新

发布时间:2024-04-02 11:27:50 编辑:沈儿梅 来源:

导读 当SamAltman被问及ChatGPT的GPT-5升级时,首席执行官表示OpenAI在此之前还有其他产品要发布。文本转视频Sora服务可能就是其中之一,OpenAI...

当SamAltman被问及ChatGPT的GPT-5升级时,首席执行官表示OpenAI在此之前还有其他产品要发布。文本转视频Sora服务可能就是其中之一,OpenAI将在今年公开发布该产品。

当Altman解决这些GPT-5问题时,我们已经了解了Sora。我们不熟悉的是OpenAI宣布的新语音引擎AI工具。这是一个AI程序,可让您使用仅15秒长的样本克隆声音。

这是一项令人难以置信的成就,而且似乎具有无限的效用。例如,失去声音的人可能会用它来用正常的声音与他人交谈。电影制片厂可以依靠语音引擎使用演员的真实声音来配音电影和电视节目。

虽然这一切听起来不错,但语音引擎一旦公开发布也可能会造成很大的危害,而且我认为OpenAI无法防止滥用。

OpenAI在一篇博文中详细介绍了语音引擎,解释说它于2022年末首次开发。该AI模型为文本转语音API和两个基于ChatGPT语音的功能提供支持:ChatGPT语音和朗读。现在,相同的技术可以让您使用非常短的音频样本来克隆您的声音。

但是,正如您可能已经猜到的那样,这为明显的滥用行为打开了大门。有些人可能会克隆政客和名人的声音来操纵舆论。我想到的另一个想法是有人使用录音来克隆你的声音,然后对同事或家庭成员进行社会工程攻击。一些银行甚至在客户致电时使用语音进行身份验证。

我可能不是唯一一个考虑语音引擎危险性的人。事实上,OpenAI从一开始就提到了用户安全:

由于合成语音滥用的可能性,我们正在采取谨慎和知情的方式来进行更广泛的发布。我们希望就合成声音的负责任部署以及社会如何适应这些新功能展开对话。根据这些对话和小规模测试的结果,我们将就是否以及如何大规模部署这项技术做出更明智的决定。

随后在博文中,OpenAI解释了其安全构建语音引擎的方式。该公司表示,所有测试人员均同意使用政策,禁止未经同意或未经合法权利冒充他人。生成声音还需要获得原发言者的同意。此外,测试人员将透露生成的声音是由人工智能制作的,并且音频片段可能包含水印。

祝你好运,执行其中任何一项。

OpenAI还指出,它正在与“来自政府、媒体、娱乐、教育、民间社会等领域的美国和国际合作伙伴进行合作,以确保我们在开发过程中吸收他们的反馈。”

展望未来,OpenAI还提出了任何使用基于语音的身份验证的公司都应该考虑的安全建议。该公司鼓励“逐步淘汰基于语音的身份验证作为访问银行账户和其他敏感信息的安全措施。”


免责声明:本文由用户上传,如有侵权请联系删除!

上一篇:午马有多厉害(盘点A计划逝去的五大黄金配角

下一篇:最后一页