基于Qwen3的代码生成模型,继承Qwen3-Coder-480B-A35B-Instruct的coding agent能力,代码能力达到同尺寸规模模型SOTA。
基于Jina-XLM-RoBERTa架构,该模型支持旋转位置嵌入(RoPE),能够处理长达8192个标记的长输入序列。 此外,它还具备5个LoRA适配器,以高效生成特定任务的嵌入。
由网易有道开发的跨语种语义表征算法模型,擅长优化语义搜索结果和语义相关顺序精排,支持中英日韩四门语言,覆盖常见业务领域,支持长package rerank(512~32k)。[了解更多>](https://huggingface.co/maidalun1020/bce-reranker-base_v1)
tao-8k是由Huggingface开发者amu研发并开源的长文本向量表示模型,支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。 [了解更多>](https://huggingface.co/amu/tao-8k)
关注公众号
立刻获取最新消息及人工咨询