乾元大模型
AI聊天对话
乾元大模型

国产乾元BigBangTransformer开源模型

BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务

超对称技术公司基于Transformer和Decoder-Only的架构开发了BigBang Transformer「乾元」大规模预训练语言模型。2022年5月我们发布了面向金融行业应用的BBT-1,2亿和10亿参数金融模型;2023年2月我们发布了BBT-2, 120亿参数的基础大模型,并在基础模型的基础上研发了金融模型、代码模型、文生图模型。

 

相关导航

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注