标签

 大模型 

相关的文章:

本列表汇集了关于大模型的最新研究与应用,涵盖多模态技术、医疗分析、AI推理等领域,展示了大模型在各行业的前沿发展与趋势。

发表于:
阅读原文
原文中文,约1900字,阅读约需5分钟。发表于:
阅读原文
原文中文,约1300字,阅读约需3分钟。发表于:
阅读原文

美团开源OIBench与CoreCodeBench:揭示大模型编程能力的真实水平

Meituan-M17 团队联合上海交大等机构,分别推出了 OIBench(聚焦高区分度算法题评测)与 CoreCodeBench(聚焦多场景工程级代码基准)两大数据集,旨在揭示大模型编程能力真实水平,这两大数据集已分别在GitHub和Huggingface上进行开源。

当前大语言模型(LLMs)在编程能力上存在宣传与现实的差距。尽管在传统基准测试中表现良好,但在复杂场景下通过率显著下降。Meituan-M17团队推出OIBench和CoreCodeBench数据集,以更真实地评估模型的算法推理和工程代码能力,揭示顶尖模型与人类选手之间的真实差距。

美团开源OIBench与CoreCodeBench:揭示大模型编程能力的真实水平
原文中文,约11600字,阅读约需28分钟。发表于:
阅读原文
发表于:
阅读原文

为什么主流大模型的上下文窗口都是128k?| 深度

上下文工程的前提是大模型充足的上下文窗口,今天主流模型基本都把 128k 作为上下文的标准长度。本文将探讨为什么主流大模型的上下文窗口都是128k?

上下文工程是AI领域的新概念,强调大模型的上下文窗口的重要性。目前128k是主流标准,因其在处理长文本时效率高,满足多种应用需求。尽管有向百万上下文扩展的尝试,但技术和成本限制使128k仍为最广泛应用的长度。未来将关注信息利用效率,以实现更智能的AI模型。

为什么主流大模型的上下文窗口都是128k?| 深度
原文中文,约4600字,阅读约需11分钟。发表于:
阅读原文

[教程]在 Claude Code 中使用 Kimi K2 大模型

Claude Code 是由 Anthropic 推出的 AI 编程助手,用起来非常顺手,用户只需要将指令提交给 Claude Code,然后刷刷手机,代码就写好了。 但由于 Cl

Claude Code 是由 Anthropic 推出的 AI 编程助手,用户可以使用 Kimi K2 大模型替代 Claude 模型。安装简单,需要获取 Kimi K2 API Key。Kimi K2 在代码生成和调试方面表现优异,适合大规模项目,成本低,适合企业开发。

[教程]在 Claude Code 中使用 Kimi K2 大模型
原文中文,约2100字,阅读约需5分钟。发表于:
阅读原文
原文中文,约3800字,阅读约需9分钟。发表于:
阅读原文
发表于:
阅读原文
发表于:
阅读原文