小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
Karpathy:AI编程已质变,就从去年12月开始

Karpathy认为,自去年12月以来,AI编程发生了质变,模型质量显著提升,能够高效完成复杂任务。AI代理能独立完成编程工作,颠覆传统开发流程。尽管仍需人类指导,程序员的技术能力将变得更加重要。

Karpathy:AI编程已质变,就从去年12月开始

量子位
量子位 · 2026-02-26T03:50:31Z
持续1个月的降智才被发现 Claude修复影响3.5和4系列模型的降智问题

Anthropic 修复了影响 3.5 和 4 系列模型的降智问题,该问题自 8 月 5 日至 9 月 4 日持续。尽管开发者早在 8 月就反馈了此问题,但公司未予重视。修复后,用户对模型质量下降的担忧仍未得到解决。

持续1个月的降智才被发现 Claude修复影响3.5和4系列模型的降智问题

蓝点网
蓝点网 · 2025-09-09T04:30:20Z
Databricks Agent Bricks通过TAO和ALHF方法自动化企业AI开发

Databricks推出Agent Bricks,简化企业特定代理的开发。该平台通过自然语言反馈自动生成评估套件,优化代理质量。用户选择任务后,系统自动创建评估基准并进行优化,确保高效且具成本效益。新方法ALHF和TAO提升了模型质量,支持无标签数据的优化,适用于信息提取和知识助手等应用,促进领域专家参与系统改进。

Databricks Agent Bricks通过TAO和ALHF方法自动化企业AI开发

InfoQ
InfoQ · 2025-07-28T10:53:00Z
多头潜在注意力(MLA)简介

多头潜在注意力(MLA)是一种新型注意力机制,旨在降低计算成本和内存使用。通过低秩近似,将大矩阵分解为两个小矩阵,从而提高推理速度。MLA在推理时使用共享的压缩矩阵优化计算,且在模型质量和推理速度上优于传统多头注意力。

多头潜在注意力(MLA)简介

MachineLearningMastery.com
MachineLearningMastery.com · 2025-06-23T19:56:04Z

李飞飞实验室的2025 AI报告指出,中美在AI模型上的差距正在缩小,推理成本降至1/280。中国在AI模型质量上快速追赶,全球乐观态度领先。AI基准测试成绩显著提升,应用逐渐融入日常生活,企业投资持续增长。

李飞飞实验室2025 AI报告出炉:AI推理成本降低至1/280,中美AI模型差距更小了

量子位
量子位 · 2025-04-08T07:48:33Z

本研究首次探讨视频生成中的时间一致性与多样性问题,提出FluxFlow策略,通过控制时间扰动提升视频生成模型质量。

时间性正则化增强视频生成器的能力

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-19T00:00:00Z
Amazon Bedrock 中新的 RAG 评估和 LLM-as-a-Judge 功能

Amazon Bedrock推出了RAG评估和LLM-as-a-judge两项新功能,前者自动评测生成式AI应用,优化检索增强生成应用;后者以低成本评测模型质量。这些功能简化了评估流程,提高反馈速度,支持多维度评测,便于非科研人员理解。

Amazon Bedrock 中新的 RAG 评估和 LLM-as-a-Judge 功能

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2024-12-09T08:07:17Z

最近,文本到3D生成技术取得了重要进展,但现有方法常常生成低质量模型。本文提出了Interval Score Matching方法,解决了Score Distillation Sampling的缺陷,显著提升了3D模型的质量和训练效率。

ModeDreamer:基于参考图像提示的文本到3D生成的模式引导评分蒸馏

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-27T00:00:00Z
Scaling Laws终结,量化无用,AI大佬都在审视这篇论文

研究表明,训练的token数量与所需精度成正比。论文探讨了大模型量化的方向,强调低精度训练对模型质量的影响。未来可能需要扩大数据中心、动态扩展或进行知识提炼。研究统一了训练前后量化的扩展定律,发现低精度训练可以优化计算,但需谨慎处理。

Scaling Laws终结,量化无用,AI大佬都在审视这篇论文

机器之心
机器之心 · 2024-11-13T06:36:50Z

本文介绍了一种新型计算机辅助设计生成系统CAD-MLLM,能够根据文本、图像和点云等多模态输入生成CAD模型。研究表明,CAD-MLLM在模型质量和鲁棒性方面优于现有方法,具有重要的应用价值。

CAD-MLLM:统一多模态条件下的计算机辅助设计生成

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-07T00:00:00Z

本研究通过PHI标准化技术解决了视觉基础模型在无标签情况下进行异质多教师知识蒸馏时的分布不均问题,提升了学生模型的质量。结果表明,该方法在多种模型中表现最佳,具有重要应用潜力。

PHI-S:无标签多教师蒸馏的分布平衡

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-02T00:00:00Z
9月24日 - 入门开源FiftyOne计算机视觉工具集

Harpreet Sahota将主持一个免费90分钟的研讨会,介绍如何用FiftyOne提升计算机视觉数据集和模型质量。内容包括FiftyOne基础、数据探索、数据集加载、应用导航、属性检查、样本自定义和模型预测评估。

9月24日 - 入门开源FiftyOne计算机视觉工具集

DEV Community
DEV Community · 2024-09-24T22:30:23Z
ChatGPT 们能讲人话后,AI 污染互联网将变本加厉

生成式AI的普及加剧了互联网内容污染,人类难以区分AI与人类创作的文本。Wordfreq项目因AI文本泛滥停止更新,影响语言分析。AI在学术写作中影响显著,但导致创意同质化。爬虫与反爬虫争斗使高质量数据获取困难,合成数据虽为替代方案,但可能降低模型质量。AI生成的低质量内容与人类数据混淆,形成恶性循环,影响AI发展。

ChatGPT 们能讲人话后,AI 污染互联网将变本加厉

爱范儿
爱范儿 · 2024-09-23T09:00:49Z

本文介绍了一种自适应服务方法,用于高效部署Mixture-of-Experts模型,通过动态确定量化专家的数量和它们在CPU和GPU上的分布,优化吞吐量和模型质量的调整。该方法在最大量化条件下显著提高令牌生成的吞吐量,同时略微增加困惑度,但在动态和对输出质量敏感的应用中具有实际适用性。

部分专家检查点:稀疏混合专家模型训练的高效容错

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-08T00:00:00Z
语言模型应该训练多长时间?

这篇文章介绍了修改后的缩放定律,考虑了训练和推理成本。研究人员发现,通过在更多数据上训练较小但同样强大的模型,可以弥补额外的训练成本。模型质量随着参数标记数量的增加而提高。文章还讨论了如何估计实际成本,并提出了适用于实际部署的目标函数。作者建议在推理需求较高的情况下,可以训练更长时间的模型,以提高质量。

语言模型应该训练多长时间?

Databricks
Databricks · 2024-07-19T20:26:50Z

本文研究了自监督通用音频表示学习的问题,使用联合嵌入预测架构(JEPA)进行实验评估,并探讨了设计选择对模型质量的影响。实验证明输入数据的不同部分对模型性能有显著影响,凸显了音频和图像之间的重要差异。

联合嵌入预测架构用于自监督学习的蒙版分类架构

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-15T00:00:00Z

AdaScale SGD是一种适应大批量训练学习率的算法,可加速训练并保持模型质量,适用于机器翻译、图像分类、目标检测和语音识别任务。该算法具有可忽略的计算开销和无需新的超参数,适合大规模训练。

通过缩放进行自适应的本地方法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-02T00:00:00Z

本文研究了自监督通用音频表示学习的问题,使用联合嵌入预测架构(JEPA)进行实验评估,发现输入数据的哪部分被用作上下文或目标会显著影响模型的质量。同时也强调了音频和图像之间的重要差异。

LaT-PFN:一种用于上下文时间序列预测的联合嵌入预测架构

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-16T00:00:00Z
校准 Mosaic 评估挑战

Databricks Mosaic Research团队开发了一套名为Mosaic Evaluation Gauntlet的基准测试,用于评估不同能力的模型质量。他们测试了39个NLP性能基准,并确定了能够准确排名模型的训练规模指标。这些基准被分为良好、不良和噪声级别基准。团队建议在使用后两类基准时要谨慎。他们还承认了分析的局限性,并建议进一步探索不同模型大小和类型。

校准 Mosaic 评估挑战

Databricks
Databricks · 2024-04-30T20:30:12Z
在NVIDIA H100 Tensor Core GPU上部署量化的大型语言模型

量化是一种使机器学习模型更小更快的技术。将量化应用于Llama2-70B-Chat模型可以每秒生成2.2倍的标记。量化减少了内存占用并实现了更快的推理。可以应用于模型参数、键值缓存和激活。量化产生了更小的模型,减少了GPU内存使用量,并增加了最大批处理大小。NVIDIA A100和H100 Tensor Core GPU支持快速低精度操作。介绍了INT8和FP8量化设置,FP8通常产生更准确的模型。量化Llama2-70B-Chat模型使模型减小了50%,输出标记生成速度提高了30%,并且与原始模型具有相同的质量。量化还提高了模型吞吐量和并发性。H100 GPU的性能优于A100 GPU。量化后保持了模型质量。

在NVIDIA H100 Tensor Core GPU上部署量化的大型语言模型

Databricks
Databricks · 2024-01-31T01:17:54Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码