... 2023-02-15 21:50 .. 随着电影工业水平的提升和电影叙事方式的演变,呈现出一种动态变化,成为决定电影时长这一变量的动态参数。
考察这些参数当下的特征,能够清晰地看到电影时长增加的深层原因。
首先是电影内容层面。
电影文本的类型、叙事样态,最直接地决定了电影的时长。
一般而言,史诗片、传记片、战争片体量较大,而爱情片、喜剧片、黑色电影等体量较小。
考察电影工业最成熟的好莱坞历年最卖座的商业大片,类型与时长的关系一目了然。
电影叙事形态的转向也影响了电影时长,多线叙事、多重反转、复杂叙事融合奇观场面,这些叙事形态打破了古典的三幕结构,也大大增加了文本的容量与密度。
类型升级也会影响时长,类型融合增加了文本的复杂性,比如原本篇幅较短的喜剧,在与其他类型如动作片、推理片等进行类型糅杂之后,电影时长自然会增加。
其次是电影的制作规模。
制作费用高的电影,往往包含了大场面与多明星,必然倾向更长的篇幅。
多明星阵容 .. UfqiNews ↓
2
迈向通用人工智能AGI之路:大型语言模型LLM技术精要-11
取经之路:复刻ChatGPT时要注意些什么
如果希望能复刻类似ChatGPT这种效果令人惊艳的LLM模型,综合目前的各种研究结论,在做技术选型时需要重点权衡如下问题:
首先,在预训练模式上,我们有三种选择:GPT这种自回归语言模型,Bert这种双向语言模型,以及T5这种混合模式(Encoder-Decoder架构,在Encoder采取双向语言模型,Decoder采取自回归语言模型,所以是一种混合结构,但其本质仍属于Bert模式).
我们应选择GPT这种自回归语言模型,其原因在本文范式转换部分有做分析.
目前看,国内LLM在做这方面技术选型的时候,貌似很多都走了Bert双向语言模型或T5混合语言模型的技术路线,很可能方向走偏了.
第二,强大的推理能力是让用户认可LLM的重要心理基础,而如果希望LLM能够具备强大的推理能力,根据目前经验,最好在做预训练的时候,要引入大量代码和文本一起进行LLM训练.
至于其中的道理,在本文前面相关部分有对应分析.
第三,如果希望模型参数规模不要那么巨大,但又希望效果仍然足够好,此时有两个技术选项可做配置:要么增强高质量数据收集、挖掘、清理等方面的工作,意思是我模型参数可以是ChatGPT/GPT 4的一半,但是要想达到类似的效果,那么高质量训练数据的数量就需要是ChatGPT/GPT 4模型的一倍(Chinchilla的路子);另外一个可以有效减小模型规模的路线是采取文本检索(Retrieval based)模型+LLM的路线,这样也可以在效果相当的前提下,极大减少LLM模型的参数规模.
这两个技术选型不互斥,反而是互补的,也即是说,可以同时采取这两个技术,在模型规模相对比较小的前提下,达到超级大模型类似的效果.
... 迈向通用人工智能AGI之路:大型语言模型LLM技术精要-11 ⟶
...前作在内地备受欢迎的动画电影《蜘蛛侠:纵横宇宙》、DC超英电影《闪电侠》、皮克斯新作动画电影《疯狂元素城》也有一定票房潜力.
第三梯队的影片市场预期又下调了一些.
像在端午档的《我爱你!》《别叫我“赌神”》这两部影片,以及再晚一些的《学爸》《最后的真相》《暗杀风暴》等等新片,战局都不算明朗.
相较前两梯队项目,第三梯队的影片卖点、体量可能占不到太多优势.
不过,尽管这类项目很难杀出重围成为大爆款,但仍然是每个暑期档都必不可少的组成.
而现阶段最牵动人心的,其实不是这些已定档项目的情况,而是剩余几部临近定档却迟迟没有官宣的大片预备役.
在此之中,被行业内外翘首以盼多年的《封神第一部》,自从传出进入暑期档的消息后就成为档期“谜语人”的热门探讨对象,眼看着已经“被定档”了数次,却仍然没有官宣的势头.
引进片中的《碟中谍7》《夺宝奇兵5》《奥本海默》三巨头,亦是北美市场和中国市场.. 05-25 13:00 ↓ 27 ..UfqiNews
本页Url
🤖 智能推荐