今天小編分享的互聯網經驗:王小川回應LLaMa套殼争議:團隊知道從哪裡拿最高質量的數據,歡迎閱讀。
品玩 7 月 22 日訊,在極客公園 AGI Playground 論壇上,王小川回應了外界對百川智能開源模型 Baichuan-7B 套殼 Meta 開源模型 LLaMa 的質疑。他提到,搜索公司幹了 20 年,團隊對語言數據有深入的理解,知道取得高質量語料的渠道,模型迭代速度很快," 國内開源模型的能力目前已經可以達到 LLaMa"。同時他預告,百川智能在未來幾個月内将首次發布閉源大模型。
今天小編分享的互聯網經驗:王小川回應LLaMa套殼争議:團隊知道從哪裡拿最高質量的數據,歡迎閱讀。
品玩 7 月 22 日訊,在極客公園 AGI Playground 論壇上,王小川回應了外界對百川智能開源模型 Baichuan-7B 套殼 Meta 開源模型 LLaMa 的質疑。他提到,搜索公司幹了 20 年,團隊對語言數據有深入的理解,知道取得高質量語料的渠道,模型迭代速度很快," 國内開源模型的能力目前已經可以達到 LLaMa"。同時他預告,百川智能在未來幾個月内将首次發布閉源大模型。