小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本文探讨了开源许可证在非代码资产(如文档、数据和模型权重)中的应用,尤其是在大规模语言模型和生成式AI背景下。传统软件许可证(如MIT、Apache)已无法满足这些资产的需求。文章分析了Creative Commons、开放数据库许可证和OpenRAIL等不同类型的许可证,强调选择合适许可证的重要性,以确保合法合规并促进资源的有效使用。

【开源许可与版权工程】文档、数据、模型的许可:CC、ODbL、OpenRAIL、LLaMA 协议

土法炼钢兴趣小组的博客
土法炼钢兴趣小组的博客 · 2026-04-22T00:00:00Z
在英特尔Arc Pro B系列GPU上快速且经济实惠的LLM服务与vLLM

英特尔Arc Pro B系列GPU具备强大的AI能力,支持本地运行大规模语言模型(LLM),优化多GPU性能和数据传输。vLLM软件栈提升推理效率,适合专业人士使用。

在英特尔Arc Pro B系列GPU上快速且经济实惠的LLM服务与vLLM

vLLM Blog
vLLM Blog · 2025-11-11T00:00:00Z

这篇博客推荐书籍《大规模语言模型:从理论到实践》,认为其为中文领域较为系统的预训练模型学习资料,内容更新及时,适合跳读,帮助读者发现知识盲点。

[书评] 推荐《大规模语言模型:从理论到实践》

桑弧蓬矢射四方
桑弧蓬矢射四方 · 2025-08-15T20:54:00Z
演讲:在Meta扩展大规模语言模型服务基础设施

本文探讨了在Meta进行大规模语言模型推理的挑战与解决方案,强调了模型与硬件适配、推理速度优化、内存与缓存管理等关键步骤。分布式推理和高效资源管理是提升性能的关键,同时需关注生产环境的复杂性与可扩展性。成功的LLM服务需综合考虑模型、硬件与系统的优化。

演讲:在Meta扩展大规模语言模型服务基础设施

InfoQ
InfoQ · 2025-05-29T13:11:00Z

本研究提出了无学习范式UniErase,有效解决了大规模语言模型中的知识冲突和过时信息问题,取得了最新的SOTA表现。

UniErase: A Universal Erasure Primitive for Language Models with Zero-Shot Tokens

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-21T00:00:00Z

本研究探讨了大规模语言模型(LLM)与小型模型(SM)协作的潜力,以应对LLM对数据和计算资源的高需求。提出了一种新方法,加速LLM在特定领域的适应,并强调基于真实数据集的多目标基准研究的重要性。

Harnessing the Collaborative Power of Large and Small Models to Address Domain Tasks

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-24T00:00:00Z

本研究分析了大规模语言模型在CPU-GPU耦合架构下的推理特征,结果显示紧耦合系统在大批量处理时性能优于松耦合系统,但在小批量时受限于CPU。内核融合技术能够缓解低批量的延迟瓶颈。

对CPU-GPU耦合架构上大规模语言模型推理工作负载的特征分析与优化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-16T00:00:00Z

本研究提出了SymRTLO框架,结合大规模语言模型与符号推理技术,旨在提升RTL代码优化效果。该方法通过检索增强生成系统和抽象语法树模板进行代码重写,显著改善功耗、性能和面积,解决了传统方法在复杂设计约束下的挑战。

SymRTLO: Enhancing RTL Code Optimization with Large-Scale Language Models and Neuron-Inspired Symbolic Reasoning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-14T00:00:00Z

本研究提出了Prism框架,利用蒙特卡洛树搜索技术进行动态基准测试,以评估大规模语言模型(LLM)的代码生成能力,并揭示其性能限制。

Prism: Dynamic and Flexible Benchmarking of LLM Code Generation Using Monte Carlo Tree Search Techniques

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-07T00:00:00Z

本研究提出了AutoPDL,一种自动化提示优化方法,旨在解决大规模语言模型(LLM)提示配置的人工调优问题。该方法将提示优化视为结构化的AutoML问题,能够高效导航组合空间,显著提升多种任务和模型的准确性,具有广泛应用潜力。

LLM代理的自动化提示优化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-06T00:00:00Z

本研究提出了一种扩散驱动提示调优(DDPT)方法,旨在解决大规模语言模型在代码生成中对提示质量的依赖问题,从而显著提升提示优化效果。

基于扩散驱动的提示调优用于大规模语言模型代码生成

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-06T00:00:00Z

本研究提出了CO-Bench基准套件,包含36个实际组合优化问题,旨在评估大规模语言模型(LLM)在组合优化中的应用。通过与传统算法的对比,揭示了现行方法的优缺点,并指出了未来的研究方向。

CO-Bench: Benchmarking Language Model Agents in Algorithm Search

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-06T00:00:00Z

本研究探讨了大规模语言模型在幽默理解方面的不足,通过将幽默理解分解为三个部分并进行改进,达到了82.4%的字幕排名准确率,超越了67%的基准,接近人类专家水平。这表明与特定群体对齐能有效提升模型的创意判断能力。

弥合创造力理解差距:小规模人类对齐实现大规模语言模型的专家级幽默排名

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-27T00:00:00Z

本研究提出了雅可比稀疏自编码器(JSAEs),解决了传统稀疏自编码器仅关注激活稀疏性的问题。JSAEs实现了输入、输出激活及连接的雅可比矩阵的稀疏性,在保持大规模语言模型(LLM)性能的同时,提升了计算稀疏性,强调了计算图稀疏性在LLM训练中的重要性。

Jacobian Sparse Autoencoders: Sparsifying Computations, Not Just Activations

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-25T00:00:00Z

本研究解决了Muon优化器在大规模语言模型训练中的可扩展性问题。新技术使Muon无需超参数调优即可实现约2倍的计算效率提升,且在参数较少时表现更佳。

Muon Optimizer for Large-Scale Language Model Training

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-24T00:00:00Z

本研究提出了一种名为LUNAR的新方法,用于大规模语言模型(LLM)的遗忘。该方法通过重定向未学习数据的表示,显著提升了模型的可控性和遗忘效果,测试结果显示性能提升高达11.7倍,且具有良好的适应性和鲁棒性。

LUNAR: Unlearning in Large Language Models via Neural Activation Redirection

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-11T00:00:00Z

本研究首次分析了大规模语言模型(LLMs)在83个软件工程基准中的数据泄露问题。尽管总体泄露率较低,但部分基准的泄露率显著较高,影响评估结果。为此,提出了新的基准LessLeak-Bench,以提高未来研究的可靠性。

LessLeak-Bench: A First Study on Data Leakage in Large Language Models Across 83 Software Engineering Benchmarks

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-10T00:00:00Z

本研究探讨了大规模语言模型(LLMs)与知识图谱(KGs)之间的元语言不一致性问题,提出了一个检测基准,以评估二者的事实性和元语言不一致性,为知识图谱构建提供新工具。初步验证已在Github发布。

A Benchmark for the Detection of Metalinguistic Inconsistencies between Large-scale Language Models and Knowledge Graphs

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-05T00:00:00Z

本研究探讨了大规模语言模型(LLMs)在儿童抑郁症诊断中的应用,发现其在提取抑郁症状方面的效率比传统方法高60%。LLMs在识别罕见症状方面表现优异,显示出其在减少诊断错误和补充传统筛查中的重要价值。

The Role of Large Language Models in Assisting the Diagnosis of Pediatric Depression

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-29T00:00:00Z

本研究探讨了大规模语言模型(LLM)代理的潜在风险,提出了一种构建“控制安全案例”的方法,以确保模型不破坏控制措施。案例研究强调了评估机制在安全部署中的重要性。

Preliminary Concept of Control Safety Cases for Artificial Intelligence

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-28T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码