由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。[了解更多>](https://huggingface.co/EleutherAI/pythia-12b)
由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。[了解更多>](https://huggingface.co/cerebras/Cerebras-GPT-13B)
MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。[了解更多>](https://huggingface.co/mosaicml/mpt-30b-instruct)
MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。[了解更多>](https://huggingface.co/mosaicml/mpt-7b-instruct)
由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。[了解更多>](https://huggingface.co/databricks/dolly-v2-12b)
在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。[了解更多>](https://huggingface.co/OpenBuddy/openbuddy-openllama-7b-v5-fp16)
由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。[了解更多>](https://huggingface.co/tiiuae/falcon-40b-instruct)
由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。[了解更多>](https://huggingface.co/OpenBuddy/openbuddy-falcon-7b-v5-fp16)
由香港大学物理系校友彭博研发并开源的14B参数模型,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。[了解更多>](https://huggingface.co/BlinkDL)
由香港大学物理系校友彭博研发并开源的14B参数模型,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。[了解更多>](https://huggingface.co/BlinkDL)
由香港大学物理系校友彭博研发并开源的7B参数模型,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。[了解更多>](https://huggingface.co/BlinkDL/rwkv-4-world)
业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。[了解更多>](https://huggingface.co/bigscience/bloom)
业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。[了解更多>](https://huggingface.co/bigscience/bloom)
DISC-MedLLM是一个专门针对医疗健康对话式场景而设计的医疗领域大模型,由[复旦大学数据智能与社会计算实验室 (Fudan-DISC)](http://fudan-disc.com/)开发并开源。[了解更多>](https://github.com/FudanDISC/DISC-MedLLM)
由度小满开发,基于Llama2-70B模型进行中文增强的金融行业大模型,通用能力显著提升,在CMMLU/CEVAL等各项榜单中排名前列;金融域任务超越领先通用模型,支持金融知识问答、金融计算、金融分析等各项任务。[了解更多>](https://huggingface.co/Duxiaoman-DI/XuanYuan-70B-Chat-4bit)
关注公众号
立刻获取最新消息及人工咨询