DeepSeek Coder V2 发布,首个击败 GPT-4 Turbo 的开源模型
DeepSeek-Coder-V2 已正式上线和开源,沿用 DeepSeek-V2 的模型结构,总参数 236B,激活 21B,在代码、数学的多个榜单上位居全球第二,介于最强闭源模型 GPT-4o 和 GPT-4-Turbo 之间。 开源模型包含236B和16B两种参数规模: DeepSeek-Coder-V2:总参 236B(即官网和 API 版模型),单机 8*80G 可部署,单机 8*80G 可微调(需要技巧) DeepSeek-Coder-V2-Lite:总参 16B,激活 2.4B,支持 FIM,代码能力接近 DeepSeek-Coder-33B(V1),单卡 40G 可部署,单机 8*80G 可训练。 模型下载:https://huggingface.co/deepseek-ai 代码仓库:https://github.com/deepseek-ai/DeepSeek-Coder-V2 技术报告:https://github.com/deepseek-ai/DeepSeek-Coder-V2/blob/main/paper.pdf 在拥有世界前列的代码、数学能力的同时,De...
