... 2023-02-26 05:30 .. 这就解释了为什么必应的回复有时候看起来有些情绪化和不可预测。
毕竟,被训练得像人一样的机器人也很容易犯下人类的错误。
这些聊天机器人最初通过摄取大量的训练数据来完成大部分学习。
此外,Bard项目的产品主管杰克·克劳奇克(JackKrawczyk)在一份备忘录中告诉员工,谷歌的研究发现,为用户查询添加高质量的响应“显著”提高了其AI模型的质量。
据多位AI专家透露,谷歌员工可能会为Bard编写高质量的答复以改进其模型。
这些专家已经在AI和大型语言模型领域完成了广泛的研究。
克劳奇克让员工向Bard询问他们擅长的领域,比如最喜欢的兴趣爱好。
然后,他们被要求评估Bard的答案,以确保这些答案符合人们的期望,长度和结构也都要合理。
如果某个答案过于人性化、存在事实错误或者没有任何意义,员工可以重写答案并提交给Bard的模型训练。
英属哥伦比亚大学计算机科学助理教授韦德·施瓦茨( .. UfqiNews ↓
19
本页Url
🤖 智能推荐