Sora一石激起千层浪,生成新模型引爆全网也带来风险

摘要: 位于旧金山的美国人工智能公司“开放人工智能研究中心”(OpenAI)最近推出了Sora,这是一种生成式人工智能模型,可以通过文本指令创建视频。 这一突破巩固了其在人工智能领域的领先...

位于旧金山的美国人工智能公司“开放人工智能研究中心”(OpenAI)最近推出了Sora,这是一种生成式人工智能模型,可以通过文本指令创建视频。 这一突破巩固了其在人工智能领域的领先地位,引爆全球科技。 圈,但也加剧了人们对“深度伪造”等风险的担忧。

“惊鸿一瞥”或将颠覆行业

这是OpenAI首次涉足人工智能视频生成领域。 据该公司介绍,Sora采用Transformer架构,根据文本指令创建逼真且富有想象力的场景,并生成多种风格、不同格式、最长一分钟的高清视频。 该模型还能够从静态图像生成视频,或扩展现有视频或填充丢失的帧。

有分析认为,Sora再次凸显了人工智能技术进步对现实生活和传统行业的深刻影响。 人工智能在视频生成领域的巨大发展前景将为塑造影视行业新业态打开大门,并可能颠覆现有影视行业。 好莱坞去年遭遇了63年来首次全行业作家和演员罢工,因为该行业的一些工作可能会被人工智能取代。 索拉的出现让这种威胁变得更加迫在眉睫和真实。 推出后第二天,专门从事图像处理和视频制作软件的Adobe股价就下跌了7%以上。

尽管并不是第一家涉足文本转视频领域的公司,但Sora的推出让OpenAI在这一赛道上占据了领先地位,巩固了其在生成人工智能领域的领先地位。 第三方信息分析公司 Gartner 分析师钱德拉塞卡兰 (Chandrasekaran) 表示:“这个领域没有一家公司比 OpenAI 更雄心勃勃,而且这种雄心似乎有增无减。”

OpenAI 表示,Sora 对语言有深入的理解,不仅了解用户文本提示,还了解所说的事物在物理世界中如何存在。 “我们正在教授人工智能来理解和模拟运动中的物理世界,目的是训练模型来帮助人们解决需要与现实世界交互的问题。”

对“深度造假”的担忧与日俱增

Sora的发布可以说是一石激起千层浪,但这次的推出更像是预览版,大众很难完全了解这个模式的优缺点。 OpenAI 表示,目前仅向包括设计师和电影制作人在内的特定人群提供 Sora 的访问权限,以获得有关改进模型的反馈。 该公司不仅没有公布用于训练 Sora 模型的数据等基本细节,也没有设定向公众发布的日期。

Sora一石激起千层浪 视频生成新模型引爆全网 也带来风险_Sora一石激起千层浪 视频生成新模型引爆全网 也带来风险_

OpenAI承认,目前Sora生成的视频可能包含不合逻辑的图像,混淆左右等空间细节,难以准确模拟复杂场景的物理原理和因果关系示例。 例如,一个人咬了一口饼干,但饼干上没有咬痕。

不过,随着计算能力的提高和模型的改进,人们可能会在短期内获得更完整、更先进的视频生成功能。

不少业内人士担心Sora会对“deepfake”技术做出贡献。 加州大学伯克利分校信息学院副院长法里德表示:“当新闻、图像、音频、视频——任何东西都可以造假时,那么在那个世界里,就没有什么是真实的了。”

针对欺诈担忧,OpenAI 表示,当其实际向公众推出其产品时,将确保生成的视频包含源元数据,并推出检测视频真实性的工具。 OpenAI还承诺,在产品中使用Sora之前将采取安全措施,包括由“错误信息、仇恨内容和偏见等领域的专家”对该模型进行对抗性测试,以评估危害或风险; 验证并拒绝包含极端暴力、色情内容等内容。文字输入提示内容、仇恨图片、他人IP等。

即便如此,OpenAI 承认,尽管进行了广泛的研究和测试,“我们无法预测人们将使用我们的技术的所有有益方式以及他们将滥用我们的技术的所有方式。”

人工智能快速崛起中的监管问题

随着科技领域颠覆性创新不断涌现,如何在拥抱技术进步和保障社会保障之间取得平衡,越来越受到社会各界的关注。

OpenAI 表示,它将与世界各地的政策制定者、教育工作者和艺术家合作,了解他们的担忧,确定 Sora 的积极用例,并相信从现实世界的使用中学习是创建和发布日益安全的人工智能的关键。 智能系统的关键部件。

业内人士指出,由于当前的治理框架和控制措施尚未跟上,仅靠企业可能无法提供社会所需的人工智能安全和信任。

浮窗式百度分享代码,请勿使用文字或图标

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏