... 2023-10-29 02:20 .. 同为一线城市的广州也有所动作。
9月20日,广州发布的《关于优化我市房地产市场平稳健康发展政策的通知》提到调整住房限购政策实施区域范围,非户籍人口首套房购置纳税社保年限从5年收缩至2年,同时解除黄埔、番禺、花都、白云区部分地区的限购。
克而瑞统计显示,四个一线城市中,广州楼市的库存压力最大,新房的广义库存量(已经竣工待售的现房和还未竣工待售的期房)达到45个月以上,而且库存主要还是集中在增城、从化和花都、白云非限购郊区,同时南沙新区的压力也比较大。
从政策效果来看,新政对市场活跃度的提升起到了一定带动作用。
据中指数据监测,广州9月20日限购政策调整后,新房的周度(9月18日至10月15日四周)平均成交面积为18.4万平米,周度平均供应面积为17.9万平米。
供求方面均较新政前有明显上升。
专家:北京深圳跟进预期增强在上海、广州的动作之后,业内分析普遍认为,未来北京、深 .. UfqiNews ↓
1
... 02-10 06:35 , 7459 , 169 ..
[编按: 转载于 网易网/蒲公英互联, 2023-02-10. ]
ChatGPT 编年史
我们如何错过GPT盛宴
GPT大语言模型能实现AGI吗?
----
ChatGPT编年史----
我们来梳理一个时间轴.
ChatGPT是对话式UI + GPT–3.5系列模型,我们以最具代表性的论文、模型、API为主线,梳理到今天.
2020之前
- 2017年6月,Google发布Transformer论文.
- 2017年6月,7月,OpenAI发布人类喜好的强化学习算法、PPO算法,都是ChatGPT用到的算法.
- 2018年6月,OpenAI发布GPT-1.
- 2018年11月,Google发布BERT,此后NLP领域主要基于这个框架研究下游任务.
- 2019年2月,OpenAI发布GPT-2,OpenAI获得了自信,此后专注于GPT.
2020年
- 年初,Covid-19爆发.
中国闭关.
- 1月,OpenAI发布语言模型的Scaling Law(概念:模型能力跟参数规模、数据规模强相关),OpenAI获得了在数据和参数规模上Scaling-up的信心.
- 5月,GPT-3论文发布.
- 6月,GPT-3 API发布.
- 9月,ChatGPT的关键原型算法相关论文发布.
- 12月,欧洲机构发布用于GPT-3复现的开源数据集.
2021年
- 7月,OpenAI发布Copilot原型算法.
- 8月,Codex API发布.
- 11月,GPT-3 API Public Release,不对中国开 ... 中国如何缺席类ChatGPT人工智能AI盛宴 ⟶
[编按: 转载于 网易网/蒲公英互联, 2023-02-10. ]
ChatGPT 编年史
我们如何错过GPT盛宴
GPT大语言模型能实现AGI吗?
----
ChatGPT编年史----
我们来梳理一个时间轴.
ChatGPT是对话式UI + GPT–3.5系列模型,我们以最具代表性的论文、模型、API为主线,梳理到今天.
2020之前
- 2017年6月,Google发布Transformer论文.
- 2017年6月,7月,OpenAI发布人类喜好的强化学习算法、PPO算法,都是ChatGPT用到的算法.
- 2018年6月,OpenAI发布GPT-1.
- 2018年11月,Google发布BERT,此后NLP领域主要基于这个框架研究下游任务.
- 2019年2月,OpenAI发布GPT-2,OpenAI获得了自信,此后专注于GPT.
2020年
- 年初,Covid-19爆发.
中国闭关.
- 1月,OpenAI发布语言模型的Scaling Law(概念:模型能力跟参数规模、数据规模强相关),OpenAI获得了在数据和参数规模上Scaling-up的信心.
- 5月,GPT-3论文发布.
- 6月,GPT-3 API发布.
- 9月,ChatGPT的关键原型算法相关论文发布.
- 12月,欧洲机构发布用于GPT-3复现的开源数据集.
2021年
- 7月,OpenAI发布Copilot原型算法.
- 8月,Codex API发布.
- 11月,GPT-3 API Public Release,不对中国开 ... 中国如何缺席类ChatGPT人工智能AI盛宴 ⟶
... 02-08 06:19 , 7437 , 159 ..
迈向通用人工智能AGI之路:大型语言模型LLM技术精要-11
取经之路:复刻ChatGPT时要注意些什么
如果希望能复刻类似ChatGPT这种效果令人惊艳的LLM模型,综合目前的各种研究结论,在做技术选型时需要重点权衡如下问题:
首先,在预训练模式上,我们有三种选择:GPT这种自回归语言模型,Bert这种双向语言模型,以及T5这种混合模式(Encoder-Decoder架构,在Encoder采取双向语言模型,Decoder采取自回归语言模型,所以是一种混合结构,但其本质仍属于Bert模式).
我们应选择GPT这种自回归语言模型,其原因在本文范式转换部分有做分析.
目前看,国内LLM在做这方面技术选型的时候,貌似很多都走了Bert双向语言模型或T5混合语言模型的技术路线,很可能方向走偏了.
第二,强大的推理能力是让用户认可LLM的重要心理基础,而如果希望LLM能够具备强大的推理能力,根据目前经验,最好在做预训练的时候,要引入大量代码和文本一起进行LLM训练.
至于其中的道理,在本文前面相关部分有对应分析.
第三,如果希望模型参数规模不要那么巨大,但又希望效果仍然足够好,此时有两个技术选项可做配置:要么增强高质量数据收集、挖掘、清理等方面的工作,意思是我模型参数可以是ChatGPT/GPT 4的一半,但是要想达到类似的效果,那么高质量训练数据的数量就需要是ChatGPT/GPT 4模型的一倍(Chinchilla的路子);另外一个可以有效减小模型规模的路线是采取文本检索(Retrieval based)模型+LLM的路线,这样也可以在效果相当的前提下,极大减少LLM模型的参数规模.
这两个技术选型不互斥,反而是互补的,也即是说,可以同时采取这两个技术,在模型规模相对比较小的前提下,达到超级大模型类似的效果.
... 迈向通用人工智能AGI之路:大型语言模型LLM技术精要-11 ⟶
迈向通用人工智能AGI之路:大型语言模型LLM技术精要-11
取经之路:复刻ChatGPT时要注意些什么
如果希望能复刻类似ChatGPT这种效果令人惊艳的LLM模型,综合目前的各种研究结论,在做技术选型时需要重点权衡如下问题:
首先,在预训练模式上,我们有三种选择:GPT这种自回归语言模型,Bert这种双向语言模型,以及T5这种混合模式(Encoder-Decoder架构,在Encoder采取双向语言模型,Decoder采取自回归语言模型,所以是一种混合结构,但其本质仍属于Bert模式).
我们应选择GPT这种自回归语言模型,其原因在本文范式转换部分有做分析.
目前看,国内LLM在做这方面技术选型的时候,貌似很多都走了Bert双向语言模型或T5混合语言模型的技术路线,很可能方向走偏了.
第二,强大的推理能力是让用户认可LLM的重要心理基础,而如果希望LLM能够具备强大的推理能力,根据目前经验,最好在做预训练的时候,要引入大量代码和文本一起进行LLM训练.
至于其中的道理,在本文前面相关部分有对应分析.
第三,如果希望模型参数规模不要那么巨大,但又希望效果仍然足够好,此时有两个技术选项可做配置:要么增强高质量数据收集、挖掘、清理等方面的工作,意思是我模型参数可以是ChatGPT/GPT 4的一半,但是要想达到类似的效果,那么高质量训练数据的数量就需要是ChatGPT/GPT 4模型的一倍(Chinchilla的路子);另外一个可以有效减小模型规模的路线是采取文本检索(Retrieval based)模型+LLM的路线,这样也可以在效果相当的前提下,极大减少LLM模型的参数规模.
这两个技术选型不互斥,反而是互补的,也即是说,可以同时采取这两个技术,在模型规模相对比较小的前提下,达到超级大模型类似的效果.
... 迈向通用人工智能AGI之路:大型语言模型LLM技术精要-11 ⟶
本页Url
🤖 智能推荐