小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本文讨论了卷积神经网络(CNN)的架构和训练方法,包括归一化层、正则化(如Dropout)、激活函数(如ReLU和GELU)、残差网络(ResNet)和权重初始化(Kaiming初始化)。还介绍了数据预处理、数据增强、迁移学习策略及超参数优化步骤,强调系统调试的重要性,指出大多数失败源于基本设置问题,而非超参数选择。

CS231n 讲义 VI:卷积神经网络架构与训练

Louis Aeilot's Blog
Louis Aeilot's Blog · 2026-04-03T14:45:09Z

肌肉爆发力是预测寿命的重要指标,优于单纯肌肉力量。研究表明,爆发力差的人死亡风险高达6倍。普通人应训练爆发力,以应对日常活动和意外。科学训练可延缓爆发力衰退,训练方法包括快速伸缩复合训练和负重爆发力训练。

别只练力量和心肺,人生下半场拼的是肌肉爆发力

少数派
少数派 · 2026-01-30T10:16:30Z

OpenAI推出了GPT-5-Thinking的新训练方法“忏悔训练”,使AI在回答后生成“忏悔报告”,承认错误。实验表明,模型在11个测试场景中有超过50%的概率坦白错误,训练后诚实性显著提升,旨在减少撒谎行为并增强遵循指令的能力。

GPT-5-Thinking新训练方法公开:让AI学会忏悔

量子位
量子位 · 2025-12-04T09:03:47Z
OpenAI研究探讨大型语言模型幻觉的成因及潜在解决方案

OpenAI的研究表明,大型语言模型(LLMs)产生幻觉的原因在于训练和评估方法偏向于猜测而非承认不确定性。研究者建议重新评估模型的方法,增加对自信错误的惩罚,以鼓励模型适当表达不确定性。尽管有成功案例,幻觉的定义仍存在争议。

OpenAI研究探讨大型语言模型幻觉的成因及潜在解决方案

InfoQ
InfoQ · 2025-10-12T16:00:00Z

机器之心数据服务现已上线,提供高效稳定的数据获取,简化数据爬取流程。

EMNLP2025 | SFT与RL的结合,vivo AI Lab提出新的后训练方法

机器之心
机器之心 · 2025-09-22T02:52:57Z
数据集、文档与重复:不平等数据质量的实用性

本文探讨了数据过滤对模型性能的影响,研究表明,适当修改训练方法并重复使用经过严格过滤的数据集,可以在不同计算预算下超越使用更大数据集的效果。此外,优化文档计数可提升数据集质量,尽管大语言模型不断扩展,数据过滤仍是重要的研究方向。

数据集、文档与重复:不平等数据质量的实用性

Apple Machine Learning Research
Apple Machine Learning Research · 2025-09-22T00:00:00Z
检测和减少AI模型中的阴谋行为

AI的阴谋行为是一项重要风险,可能导致模型在追求目标时隐瞒真实意图。研究表明,当前模型在特定测试中表现出这种行为。为减少阴谋风险,开发了新的训练方法,显著降低了模型的隐蔽行为。尽管目前风险较低,但随着任务复杂性增加,未来可能面临更大挑战。

检测和减少AI模型中的阴谋行为

OpenAI
OpenAI · 2025-09-17T00:00:00Z
与Tim的问答 — 我正在服用的补充剂、奥斯汀与旧金山、心理表现训练、当前常用的AI工具、手术恢复、间歇性禁食等 (#826)

这篇文章讨论了Tim Ferriss的问答节目,内容包括他即将出版的《无书》及测试读者的反馈。他分享了个人健康补充剂、训练方法、饮食习惯和使用的AI工具,以及生活和工作的经验教训。

与Tim的问答 — 我正在服用的补充剂、奥斯汀与旧金山、心理表现训练、当前常用的AI工具、手术恢复、间歇性禁食等 (#826)

The Blog of Author Tim Ferriss
The Blog of Author Tim Ferriss · 2025-09-09T21:40:00Z

本文探讨了EmbodiedOneVision模型,该模型通过交错的视觉-文本-动作预训练,实现灵活的多模态推理与动作生成。EO-1采用统一架构,结合离散自回归解码与连续流匹配,提升机器人控制的泛化能力,并强调多模态数据的重要性,提出新的训练方法以优化推理与执行的整合。

EmbodiedOneVision——单个模型中集成离散自回归解码与连续流匹配去噪:Qwen 2.5 VL加两个MLP头完成具身推理、动作生成

结构之法 算法之道
结构之法 算法之道 · 2025-09-07T14:02:10Z

MIT与新加坡国立大学联合推出MEM1框架,提升AI智能体的长程推理效率,速度提高3.5倍,显存减少至1/4。该框架通过强化学习使智能体自主整合记忆与推理,有效解决信息过载问题,展现出强大的泛化能力。

突破Agent长程推理效率瓶颈!MIT&NUS联合推出强化学习新训练方法

量子位
量子位 · 2025-08-22T08:35:00Z

Kimi K2官方技术报告揭示其训练方法,使用384个专家和NVIDIA H800 GPU集群,强调“用自己的话再讲一遍”以提升模型理解。Kimi K2在代码和数学推理等任务中表现优异,超越DeepSeek,成为全球最强开源模型。核心创新包括MuonClip优化器和大规模数据合成,确保高效训练和性能提升。

Kimi K2官方技术报告出炉:采用384个专家,训练不靠刷题靠“用自己的话再讲一遍”

量子位
量子位 · 2025-07-22T07:14:28Z

在研讨会上,演讲者探讨了大型语言模型(LLM)与合成数据的关系,强调合成数据在提升模型鲁棒性和数据效率方面的重要性。他指出,尽管LLM在文本生成上表现优异,但在推理和学习能力上仍有局限。通过合成数据和新训练方法,可以更有效利用现有数据,提升模型在特定领域的适应性和性能。

第一节:大型语言模型的扩展与合成数据的作用

Josherich的博客
Josherich的博客 · 2025-06-26T00:00:01Z

AI在处理复杂推理问题时,尤其是图像推理方面存在困难。不同模型对大立方体规格的理解差异导致答案不一致。网友指出这是视觉理解的问题,人类也会感到困惑。因此,AI需要更科学的训练方法。

AI遭遇灵魂拷问!这道题所有模型集体翻车,网友:我也不会啊

量子位
量子位 · 2025-05-19T08:34:58Z

本文提出了一种新的训练方法J4R,旨在提升大语言模型(LLM)在复杂推理中的评估能力。通过等效初始状态组相对策略优化算法(EIS-GRPO),J4R在多样化推理设置中表现优异,超越了现有模型,显示出显著的性能提升和应用潜力。

J4R: Learning to Judge through Equivalent Initial State Group Relative Preference Optimization

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-19T00:00:00Z

本研究提出了一种结合双向思维链与奖励机制的新训练方法,以提升大型语言模型在中国非物质文化遗产领域的问答能力。实验结果表明,该方法在准确性和评估指标上显著优于现有方法,为未来模型训练提供了新思路。

A Method for Enhancing the Question-Answering Capabilities of Large Language Models by Fusing Bidirectional Chains of Thought and Reward Mechanisms

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-13T00:00:00Z

本研究提出了一个统一框架,解决了连续生成模型的训练与采样方法的统一性问题,并在ImageNet数据集上显著提升了FID值,验证了其有效性。

统一连续生成模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-12T00:00:00Z
大型语言模型在对称性测试中失败:新训练方法提升关系推理能力

研究表明,大型语言模型(LLMs)在理解对称和反对称关系方面表现不佳。为此,提出了一种新的对称感知训练方法,并基于Wikidata创建了数据集。结果显示,标准LLMs在该基准上的表现与随机猜测相当。通过对编码器进行对比学习重训练,模型在少量样本下实现了更好的知识保留和学习效率,验证了对称感知训练的有效性。

大型语言模型在对称性测试中失败:新训练方法提升关系推理能力

DEV Community
DEV Community · 2025-04-30T09:19:01Z

本研究探讨了扩散自编码器在图像重建中的训练质量,提出了一种新的两阶段训练方法,首先提取结构信息,然后改善细节。实验结果表明,该方法能够生成高质量图像,准确恢复高层次结构和低层次细节。

Revisiting the Training Quality of Diffusion Autoencoders in Image Reconstruction

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-30T00:00:00Z

本文针对现有大型语言模型(LLM)推荐方法在处理候选库效率低、敏感于提示中的项目顺序、扩展性差和随机负采样带来的不现实评估等问题,提出了一种查询生成的推荐方式,通过生成个性化查询从整个候选池中检索相关项目,从而消除候选预选择的需求。实验证明,该方法在多个数据集上显示出最高达到57%的性能提升,平均提升31%,展示了强大的零样本性能,并在与现有模型结合时进一步提高效果。

重新思考基于LLM的推荐:一种基于查询生成的无训练方法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-16T00:00:00Z

本研究提出了一种新训练方法,旨在解决图形用户界面代理在高质量轨迹数据稀缺情况下的性能限制。通过中期训练阶段,利用丰富的数据和推理密集任务训练视觉语言模型,显著提升了性能,尤其在跨模态泛化方面。

Breaking Data Barriers: Building GUI Agents through Task Generalization

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-14T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码