OpenAI 发布重磅产品Sora根据文本生成超现实视频
OpenAI推出了一款新工具,可以根据文本输入制作超逼真的人工智能生成视频,引发了人们对此类人工智能系统在选举前被滥用来操纵选民的担忧。
ChatGPT公司在周四(2月15日)的博客文章中表示,这款名为 Sora 的人工智能工具可用于创建长达 60 秒的视频,其中包含“高度详细的场景、复杂的摄像机运动以及充满活力的情感的多个角色” 。
OpenAI 分享了多个使用 AI 工具制作的示例视频,看起来超现实。
一个示例视频显示,两个人(看似情侣)背对着“摄像机”行走在白雪皑皑的东京街道上。
这段非常逼真的视频是由人工智能工具根据详细的文字提示生成的:“美丽的、白雪皑皑的东京城市很繁华。镜头穿过熙熙攘攘的城市街道,跟随几个人享受美丽的雪天并在附近的摊位购物。美丽的樱花花瓣随着雪花在风中飞舞。”
OpenAI 负责人萨姆·奥特曼(Sam Altman)分享的另一段使用该工具制作的视频显示了超现实的长毛猛犸象正在雪地中行走,远处还有白雪皑皑的山脉。
ChatGPT 公司表示,Sora 的模型能够理解物体“在物理世界中如何存在”,并且“准确地解释道具并生成引人注目的角色来表达充满活力的情感”。
该人工智能工具的发布引发了许多社交媒体用户的担忧,尤其是对 Sora 可能在美国大选年公开发布的担忧。
专家们已经对此类人工智能技术的滥用提出了许多担忧,包括在选举前传播政治错误信息的深度伪造视频和聊天机器人。
“我最担心的是这些内容如何被用来欺骗、操纵、网络钓鱼和迷惑公众,”美国政府网络安全和基础设施安全局 (CISA) 技术咨询委员会成员、道德黑客 雷切尔·托巴克(Rachel Tobac)在 X 上表示。
尽管 OpenAI 承认该工具的广泛使用存在风险,并表示“在 OpenAI 的产品中使用 Sora 之前正在采取一些重要的安全措施,但托巴克女士表示她“仍然感到担忧”。
她列举了该工具可能如何被滥用的例子,称对手可能会使用人工智能工具制作一段视频,捏造出不存在的事实。
她表示,在选举的背景下,这样的工具可能会被滥用,以显示“恶劣天气下难以想象的长队”,以说服人们不值得出去投票。
OpenAI 表示,其团队正在实施规则,限制 Sora 的潜在有害使用,例如展示极端暴力、名人肖像或仇恨图像。
ChatGPT 创建者表示:“我们正在与红队成员合作,他们是错误信息、仇恨内容和偏见等领域的领域专家,他们正在对抗性地测试该模型。”
但托巴克女士担心对手可能会找到规避规则的方法。
“以我上面的例子为例,提示这个人工智能工具播放‘一段人们在暴雨中在建筑物外等待的视频’并不违反这些政策——危险在于它的使用方式,”她解释道。
“如果对手在选举日利用人工智能生成的、人们在倾盆大雨中排长队的视频在社交媒体上发布,那么现在它可以用来说服某些人呆在家里,避免投票和排队/天气,”托巴克表示。
她呼吁 OpenAI 讨论如何与社交媒体渠道合作,自动识别和标记在平台上共享的人工智能生成的视频,并制定标记此类内容的指南。