2月20日消息,360创始人、董事长周鸿祎在今日上午发布视频分享自己对Open AI最新的文生视频大模型Sora的见解,他写道:“Sora工作原理像人做梦,未来AGI比的就是算力和对世界的理解。”
在视频中,他讲到:“用传统计算机、图形学、影视工业特效的方法来重现一些画面的时候,我们喜欢的是3D件模型、建立光照、搞粒子模型、然后一帧一帧地渲染。这种方法实际上是效率非常低、耗费非常贵的。是用一种最笨的方法模拟出了这个世界。但Sora的方法非常像人类的做梦——我们会梦到各种奇奇怪怪的东西,做梦所产生的依据是我们在正常生活中眼睛看到的东西,这种积累的经验,是不需要3D建模然后一帧一帧渲染的。”他还把近期人们关注的Sora在视频中出现的Bug等比做人在做梦时同样会产生的幻觉等违背现实规律的情况。
来源:微博@周鸿祎
实际上,周鸿祎早在Sora发表当天就提出了自己的看法。2月16日,周鸿祎在微博上写道,Sora的诞生意味着AGI(通用人工智能)实现可能从10年缩短至一两年。周鸿祎认为,科技竞争最终比拼的是让人才密度和深厚积累,“很多人说Sora的效果吊打Pika和Runway。这很正常,和创业者团队比,OpenAl这种有核心技术的公司实力还是非常强劲的。有人认为有了AI以后创业公司只需要做个体户就行,实际今天再次证明这种想法是非常可笑的。”
此外,AI不一定那么快颠覆所有行业,但它能激发更多人的创作力。周鸿祎表示,很多人担心Sora对影视工业的打击,在他看来,机器能生产一个好视频,但视频的主题、脚本和分镜头策划、台词的配合,都需要人的创意,至少需要人给提示词。一个视频或者电影是由无数个60秒组成的。今天Sora可能给广告业、电影预告片、短视频行业带来巨大的颠覆,但它不一定那么快击败TikTok,更可能成为TikTok的创作工具。
来源:微博@周鸿祎
2月16日,OpenAI宣布推出全新的生成式人工智能模型“Sora”。据了解,通过文本指令,Sora可以直接输出长达60秒的视频,并且包含高度细致的背景、复杂的多角度镜头,以及富有情感的多个角色。
据介绍,Sora是基于过去对DALL·E和GPT的研究基础构建,利用DALL·E3的重述提示词技术,为视觉模型训练数据生成高描述性的标注,因此模型能更好的遵循文本指令。Sora能够生成具有多个角色、特定类型的运动以及主题和背景的准确细节的复杂场景。不仅了解用户在提示中要求的内容,还了解这些东西在物理世界中的存在方式。同时,该模型对语言有深刻的理解,使其能够准确地解释提示并生成表达生动情感的引人注目的角色。
未经允许不得转载:CYQY-生活与科技 » 360周鸿祎称Sora工作原理像人做梦