谷歌发布开源文本嵌入模型 EmbeddingGemma
谷歌发布了基于 Gemma 3 架构的开源文本嵌入模型 EmbeddingGemma,拥有 308M 参数,支持超过 100 种语言,量化后可在 200 MB 以内的 RAM 上运行,在 MTEB 排行榜上位列 500 M 以下参数模型第一名。 EmbeddingGemma 模型支持 768/512/256/128 维 Matryoshka 输出,并拥有 2K token 的上下文长度。 EmbeddingGemma 已在多个主流工具框架中获得支持,包括 sentence-transformers、llama.cpp、MLX、Ollama、LiteRT、transformers.js、LMStudio、Weaviate、Cloudflare Workers AI、LlamaIndex 和 LangChain 等。 官方已在 Hugging Face、Kaggle 和 Vertex AI 上提供模型权重下载,并附有详细的推理、微调教程以及 Gemma Cookbook RAG 示例。 https://huggingface.co/collections/google/embeddingg...
