标签

 大语言模型 

相关的文章:

本列表汇集了关于大语言模型的最新研究与应用,涵盖从代码安全到交互式程序开发的多方面内容,助您深入了解这一前沿技术。

小型模型,大影响:为什么JetBrains看好聚焦型大语言模型

At AI Summit London 2025, Kris Kang, Head of Product for AI at JetBrains, gave a talk that questioned a common belief in AI development: that bigger means better. The industry has focused heavily...

在2025年伦敦AI峰会上,JetBrains的Kris Kang提出小型聚焦模型,强调其在降低成本和能耗方面的优势。这些模型专注于特定领域,性能优越,适合企业应用。JetBrains推出的Mellum模型专为代码开发设计,支持多种编程语言,旨在提升开发效率,为AI的可持续发展提供新方案。

小型模型,大影响:为什么JetBrains看好聚焦型大语言模型
原文英文,约900词,阅读约需3分钟。发表于:
阅读原文

在 openSUSE Tumbleweed 上使用 Ollama 运行本地大语言模型

本文为社区投稿作品翻译。 在本地计算机上运行大型语言模型(LLM)正变得越来越流行,它能提供隐私保护、离线访问和自定义功能。Ollama 是一款出色的工具,可以简化本地下载、设置和运行 LLM 的流程。它以强大的 llama.cpp 作为后端,支持在各种硬件上高效推理。本指南将介绍如何在 openSUSE Tumbleweed 上安装 Ollama,并解释...

本文介绍了如何在 openSUSE Tumbleweed 上安装和使用 Ollama 工具,以便本地运行大型语言模型(LLM)。Ollama 简化了下载和设置过程,支持多种硬件,用户可通过简单命令运行模型,并利用 Modelfile 自定义配置。

在 openSUSE Tumbleweed 上使用 Ollama 运行本地大语言模型
原文中文,约2800字,阅读约需7分钟。发表于:
阅读原文

利用大语言模型与 RAG 架构构建智能化 Support Case 问答系统

1. 引言 在云计算环境中,快速响应和解决客户问题至关重要。亚马逊云科技技术支持案例是客户与亚马逊云科技支持团 […]

本文介绍了如何利用大语言模型(LLM)自动化处理亚马逊云科技的技术支持案例,并将内容导入Dify知识库,构建基于RAG的支持机器人。目标是提升响应速度、知识积累和新员工培训效率,未来将优化模型并扩展功能。

利用大语言模型与 RAG 架构构建智能化 Support Case 问答系统
原文中文,约5700字,阅读约需14分钟。发表于:
阅读原文

大语言模型(LLM)到底是怎么运作的?(配图通俗讲解)

* LLM本质上是学习单词序列的条件概率。 * 每次预测下一个单词时,会根据已出现的上下文计算条件概率。 * 使用温度(Temperature)是为了控制生成结果的多样性和创造性。

条件概率是指在已知某事件发生的情况下,另一个事件发生的概率。大语言模型(LLM)通过学习单词序列的条件概率来预测下一个单词,并通过温度调节生成内容的多样性与创造性。

大语言模型(LLM)到底是怎么运作的?(配图通俗讲解)
原文中文,约1200字,阅读约需3分钟。发表于:
阅读原文

DeepSeek-R1 API:大语言模型接口详解

近年来,大型语言模型(LLM)在自然语言处理(NLP)领域取得了突破性进展,DeepSeek 推出的 DeepSeek-R1 API 凭借其强大的推理能力、高效的性能以及开源特性,迅速成为开发者关注的焦点。 DeepSeek-R1 API:大语言模型接口详解最先出现在APISpace。

DeepSeek-R1 API 是一款高性能的大型语言模型,支持文本生成、代码辅助和知识问答等多种自然语言处理任务,具备长上下文支持和多语言能力,适合开发者快速构建智能应用。

DeepSeek-R1 API:大语言模型接口详解
原文中文,约2600字,阅读约需7分钟。发表于:
阅读原文

你的模型是否公平地自信?面向不确定性的公平性评估方法用于大语言模型

The recent rapid adoption of large language models (LLMs) highlights the critical need for benchmarking their fairness. Conventional fairness metrics, which focus on discrete accuracy-based...

近期大语言模型(LLMs)的普及凸显了公平性基准的重要性。传统公平性指标未能有效捕捉模型的不确定性影响。为此,我们提出了UCerF指标,以更细致地评估模型公平性。同时,我们创建了一个包含31,756个样本的新性别-职业公平性评估数据集。通过该基准评估十个开源LLMs的表现,发现Mistral-7B在不正确预测中表现出高自信,UCerF能够捕捉到这一点。我们的基准为开发更透明的AI系统奠定了基础。

你的模型是否公平地自信?面向不确定性的公平性评估方法用于大语言模型
原文英文,约200词,阅读约需1分钟。发表于:
阅读原文
原文中文,约1100字,阅读约需3分钟。发表于:
阅读原文

利用 Amazon SageMaker Sticky Session 实现大语言模型推理加速

本文探讨了 Amazon SageMaker Sticky Session 技术如何解决大语言模型推理中的性能挑战。通过会话绑定机制,确保同一用户的请求路由至相同计算实例,实现 KV Cache 复用和上下文保持,这一技术显著降低多轮对话延迟,提升用户体验,特别适合交互式 AI 应用场景。

Amazon SageMaker的粘性会话路由功能通过会话绑定机制优化了大语言模型的推理性能,解决了传统架构的性能瓶颈,提升了用户体验和系统效率。该技术确保同一用户的请求路由到相同实例,实现缓存复用,降低计算开销,适用于需要保持对话上下文的应用。

利用 Amazon SageMaker Sticky Session 实现大语言模型推理加速
原文中文,约5800字,阅读约需14分钟。发表于:
阅读原文

SUSE 优化并发布开源大语言模型,助力社区协作发展

6 月 24 日,SUSE 在 openSUSE 的 Hugging Face 平台 上开源发布了新版精调的语言模型 Cavil-Qwen3-4B,旨在让开源生态中的开发者能够更便捷地实现法律合规自动化。 该版本基于出色的 Qwen3-4B 基础模型 构建,并采用 LoRA 适配器(低秩自适应)技术,用于检测代码和文档中与法律相关的文本(如许可证声明)。该模型源自 openSUSE...

SUSE于6月24日在Hugging Face平台发布了开源语言模型Cavil-Qwen3-4B,旨在帮助开发者实现法律合规自动化。该模型基于Qwen3-4B,采用LoRA技术,能够检测法律文本,支持商业使用。模型性能优越,适合消费级GPU,数据集和验证工具将公开,鼓励开发者反馈与合作。

SUSE 优化并发布开源大语言模型,助力社区协作发展
原文中文,约900字,阅读约需3分钟。发表于:
阅读原文

利用多模态大语言模型推进自我中心视频问答

Egocentric Video Question Answering (QA) requires models to handle long-horizon temporal reasoning, first-person perspectives, and specialized challenges like frequent camera movement. This paper...

本文评估了多模态大语言模型在Egocentric视频问答中的表现,使用QaEgo4Dv2数据集。研究发现,经过微调的Video-LLaVa-7B和Qwen2-VL-7B-Instruct在OpenQA和CloseQA中表现优异,超越了之前的基准。然而,模型在空间推理和细粒度物体识别方面仍存在困难。

利用多模态大语言模型推进自我中心视频问答
原文英文,约200词,阅读约需1分钟。发表于:
阅读原文