InternLM2.5-7B-Chat-1M

InternLM2.5-7B-Chat-1M

70亿参数的超长上下文对话模型

  • 支持1M超长上下文窗口,适合长文本任务处理
  • 在数学推理方面具有同量级模型最优精度
  • 工具调用能力升级,支持多轮调用完成复杂任务
  • 支持从上百个网页搜集信息进行分析推理
  • 通过LMDeploy和Transformers进行本地和流式生成推理
  • 与vLLM兼容,可启动兼容OpenAI API的服务

产品详情

InternLM2.5-7B-Chat-1M 是一个开源的70亿参数的对话模型,具有卓越的推理能力,在数学推理方面超越了同量级模型。该模型支持1M超长上下文窗口,能够处理长文本任务,如LongBench等。此外,它还具备强大的工具调用能力,能够从上百个网页搜集信息进行分析推理。