今天小编分享的互联网经验:王小川回应LLaMa套壳争议:团队知道从哪里拿最高质量的数据,欢迎阅读。
品玩 7 月 22 日讯,在极客公园 AGI Playground 论坛上,王小川回应了外界对百川智能开源模型 Baichuan-7B 套壳 Meta 开源模型 LLaMa 的质疑。他提到,搜索公司干了 20 年,团队对语言数据有深入的理解,知道取得高质量语料的渠道,模型迭代速度很快," 国内开源模型的能力目前已经可以达到 LLaMa"。同时他预告,百川智能在未来几个月内将首次发布闭源大模型。
今天小编分享的互联网经验:王小川回应LLaMa套壳争议:团队知道从哪里拿最高质量的数据,欢迎阅读。
品玩 7 月 22 日讯,在极客公园 AGI Playground 论坛上,王小川回应了外界对百川智能开源模型 Baichuan-7B 套壳 Meta 开源模型 LLaMa 的质疑。他提到,搜索公司干了 20 年,团队对语言数据有深入的理解,知道取得高质量语料的渠道,模型迭代速度很快," 国内开源模型的能力目前已经可以达到 LLaMa"。同时他预告,百川智能在未来几个月内将首次发布闭源大模型。