DeepSeek发布V3.1模型:685B参数,上下文长度提升至128K

   时间:2025-08-20 18:00 来源:ITBEAR作者:顾青青

近期,人工智能领域迎来了一项新进展。在8月20日前后,DeepSeek公司在Hugging Face平台上正式公布了其最新模型——V3.1-Base。据悉,这款新模型在上下文处理能力上实现了显著提升,能够处理长达128K的文本内容,其参数规模更是达到了约6850亿。

为了直观展示这一成果,DeepSeek还附上了一张图片,展示了模型的相关信息和性能参数。尽管图片内容未能在此直接展示,但感兴趣的读者可以通过访问DeepSeek在Hugging Face上的页面,亲自查看这张充满技术细节的图像。

除了在线上平台发布新模型外,DeepSeek还宣布了其线上模型版本已升级至V3.1,同样具备处理128K长度上下文的能力。用户现在可以通过DeepSeek的官方网站、应用程序以及小程序进行测试,而API接口的调用方式则保持不变,这对于开发者来说无疑是一个好消息。

然而,值得注意的是,尽管DeepSeek的新模型已经发布并升级,但用户们翘首以盼的DeepSeek R2版本却仍未确定具体发布时间。这一消息可能会让一些期待已久的用户感到些许失望,但同时也增加了他们对未来版本的期待。

随着人工智能技术的不断发展,DeepSeek的新模型V3.1-Base无疑将为自然语言处理领域带来新的突破和可能性。我们期待看到更多基于这一模型的创新应用和技术进步。

 
 
更多>同类内容
全站最新
热门内容