... 2024-04-20 14:30 .. 也使其处于大模型赛道融资纪录中的第一梯队,还让其成功晋升独角兽之列。
进入2024年,国内AI大模型赛道投融资再出“王炸”。
今年2月,才创办了几个月的AI创业公司“月之暗面”完成了新一轮超10亿美元融资,投资方包括红杉中国、小红书、美团、阿里、老股东跟投。
其在2023年就已经获得了超2亿美元融资。
至此,月之暗面估值已约25亿美元,为国内大模型领域的头部企业之一。
值得注意的是,月之暗面的大模型产品Kimi一推出便流量剧增,还出现Kimi概念股一度暴涨的现象。
今年月之暗面的这次融资,也是自ChatGPT掀起全球浪潮以来,国内AI大模型公司迄今获得的单轮最大金额融资。
此后的每个月几乎都有AI大模型企业宣布完成融资。
3月,智谱AI完成新一轮融资,北京市人工智能产业投资基金参与投资。
据悉,智谱AI估值已经超过了100亿元人民币,是目前国内估值最快超过百亿人民币的创业公司 .. UfqiNews ↓ 0
... 10-11 07:39 , 209 , 190 ..
VC 维 由此可见,随着数据n的增长,对数据分类的能力反映了模型的性能.
在之前,我们用Shattering Coefficient 即N(F,n)度量模型对数据的分类能力.
实际上, 还有另一个更加著名的度量标准,VC维.
此概念由Vladimir Vapnik与Alexey Chervonenkis提出.
定义:对于一个假设空间F,如果存在n个数据样本能够被假设空间F中的函数按所有可能的2n种形式(每个数据的标签为0或1)分开 ,则称假设空间F能够把n个数据样本打散(shatter).
假设空间F的VC维就是能打散的最大数据样本数目m.
若对任意数目的数据样本都有函数能将它们shatter,则假设空间F的VC维为无穷大.
通过定义,我们可以再一次看看之前在直线上的分类模型对应的VC维,如下图所示:" ... 理解计算:从根号2到AlphaGo -15: 第6季 多维的浪漫:统计学习理论与支持向量机-3 ⟶
VC 维 由此可见,随着数据n的增长,对数据分类的能力反映了模型的性能.
在之前,我们用Shattering Coefficient 即N(F,n)度量模型对数据的分类能力.
实际上, 还有另一个更加著名的度量标准,VC维.
此概念由Vladimir Vapnik与Alexey Chervonenkis提出.
定义:对于一个假设空间F,如果存在n个数据样本能够被假设空间F中的函数按所有可能的2n种形式(每个数据的标签为0或1)分开 ,则称假设空间F能够把n个数据样本打散(shatter).
假设空间F的VC维就是能打散的最大数据样本数目m.
若对任意数目的数据样本都有函数能将它们shatter,则假设空间F的VC维为无穷大.
通过定义,我们可以再一次看看之前在直线上的分类模型对应的VC维,如下图所示:" ... 理解计算:从根号2到AlphaGo -15: 第6季 多维的浪漫:统计学习理论与支持向量机-3 ⟶
... 10-11 07:17 , 208 , 180 ..
最优分类器与理想的统计学习在对于任意的数据集(X,Y)损失函数L以及联合概率分布p(x,y),那么是否存在一个能将期望风险降到最低的最优分类器?实际上,这个分类器是存在的,即贝叶斯分类器fb.
它是各种分类器中分类错误概率最小或者在预先给定代价L的情况下平均风险最小的分类器, 它的设计方法是按照贝叶斯决策理论进行设计的一种最优分类器.
我在本季中不展开讲解贝叶斯理论,大家只需要知道设计贝叶斯分类器的关键是要知道样本 x的各种后验概率密度函数,这些要求决定了在实际情况下贝叶斯分类器的实际使用范围很有限,因为后验概率密度函数几乎与联合概率密度函数一样复杂且未知.
在前面的例子中我们给定了一个分类器,并了解了这个分类器对应的经验风险和期望(真实)风险.
统计学习理论的目标就是在有限n个数据样本的情况下,学习某个分类器fn,同时需要证明fn的性能与与贝叶斯最优分类器fb性能的之间 ... 理解计算:从根号2到AlphaGo -14: 第6季 多维的浪漫:统计学习理论与支持向量机-2 ⟶
最优分类器与理想的统计学习在对于任意的数据集(X,Y)损失函数L以及联合概率分布p(x,y),那么是否存在一个能将期望风险降到最低的最优分类器?实际上,这个分类器是存在的,即贝叶斯分类器fb.
它是各种分类器中分类错误概率最小或者在预先给定代价L的情况下平均风险最小的分类器, 它的设计方法是按照贝叶斯决策理论进行设计的一种最优分类器.
我在本季中不展开讲解贝叶斯理论,大家只需要知道设计贝叶斯分类器的关键是要知道样本 x的各种后验概率密度函数,这些要求决定了在实际情况下贝叶斯分类器的实际使用范围很有限,因为后验概率密度函数几乎与联合概率密度函数一样复杂且未知.
在前面的例子中我们给定了一个分类器,并了解了这个分类器对应的经验风险和期望(真实)风险.
统计学习理论的目标就是在有限n个数据样本的情况下,学习某个分类器fn,同时需要证明fn的性能与与贝叶斯最优分类器fb性能的之间 ... 理解计算:从根号2到AlphaGo -14: 第6季 多维的浪漫:统计学习理论与支持向量机-2 ⟶
本页Url
🤖 智能推荐