Baichuan2是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练而成。主要特点包括:
提供7B和13B两种规模,每种规模都有Base和Chat两个版本在多个权威的中文和英文基准测试中表现优异,同尺寸模型中效果最佳对学术研究完全开放,商用只需邮件申请即可免费使用支持中英文双语,在多语言翻译任务上也有不错表现Baichuan2模型可以从Hugging Face下载使用,主要版本包括:
Baichuan2-7B-BaseBaichuan2-7B-ChatBaichuan2-13B-BaseBaichuan2-13B-Chat使用示例:
import torchfrom transformers import AutoModelForCausalLM, AutoTokenizertokenizer = AutoTokenizer.from_pretrained("baichuan-inc/Baichuan2-13B-Chat", trust_remote_code=True)model = AutoModelForCausalLM.from_pretrained("baichuan-inc/Baichuan2-13B-Chat", device_map="auto", torch_dtype=torch.float16, trust_remote_code=True)messages = []messages.append({"role": "user", "content": "你好"})response = model.chat(tokenizer, messages)print(response)Baichuan2在多个权威基准测试中表现优异:
C-Eval (中文): 13B版本得分58.10,7B版本得分54.00MMLU (英文): 13B版本得分59.17,7B版本得分54.16CMMLU (中文): 13B版本得分61.97,7B版本得分57.07在数学、代码、多语言翻译等领域也有不错表现,详细评测结果可查看GitHub。
Baichuan2作为新一代开源大语言模型的佼佼者,值得研究人员和开发者深入学习和使用。欢迎访问上述资源了解更多信息!