小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

清华大学的研究人员在Nature杂志上发表了一篇关于使用光学系统进行神经网络训练的论文。他们提出了一种全前向模式(FFM)的训练方法,通过光学系统直接执行训练过程,克服了传统基于数字计算机模拟的限制。研究人员通过实验证明,FFM方法具有高准确率、高分辨率的聚焦能力,并且可以在散射介质中实现并行成像视线之外的物体。此外,FFM方法还可以自动搜索非厄米特系统中的异常点。

清华光学AI登Nature!物理神经网络,反向传播不需要了

量子位
量子位 · 2024-08-09T06:01:22Z

该论文介绍了一种新的分布式深度学习方法,利用Geoffrey Hinton的Forward-Forward(FF)算法增强神经网络训练。该方法采用双向传递策略进行前向传递,提供更有效和符合生物学原理的神经网络训练方法。研究重点关注FF算法在分布式环境中的实现,以减少训练时间和资源消耗。该方法有潜力成为分布式深度学习系统中的变革性工具,提高训练效率。

FFCL:前馈 - 前馈神经网络与皮层回路,边缘上的训练与推理,无需反向传播

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-21T00:00:00Z

ASIC是专门用于执行特定任务的芯片,具有低功耗和高性能。谷歌的TPU是用于神经网络训练的ASIC芯片。英特尔、IBM和三星等公司也在研究和投资ASIC芯片。FPGA是可重构的芯片,适合产品原型开发和设计迭代。ASIC和FPGA的区别在于功能灵活性。从性能、功耗和时延来看,ASIC和FPGA优于CPU和GPU。然而,由于成本和开发周期的原因,GPU在AI计算中仍占主导地位。

到底什么是ASIC和FPGA?

良许Linux教程网
良许Linux教程网 · 2024-04-04T13:22:35Z

本文调查了大规模神经网络训练的实际能耗,并介绍了BUTTER-E数据集。研究分析了数据集大小、网络结构和能量消耗之间的复杂关系,并提出了一个能量模型。文章挑战了参数或FLOP减少是实现更高能效的最佳方法的假设,并建议在网络、算法和硬件设计上采用综合方法来实现能量效率。

测量深度神经网络的能量消耗与效率:实证分析与设计建议

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-13T00:00:00Z

研究人员引入了一种方差控制的自适应采样(VCAS)方法,通过使用细粒度的分层重要性采样和杠杆得分采样,在神经网络训练中加快了训练过程并降低了计算量。在多个任务中评估后发现,VCAS可以减少最高达73.87%的BP计算量和49.58%的整个训练过程计算量,同时保持准确性。

控制方差的自适应采样高效反向传播

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-27T00:00:00Z

该研究发现神经网络训练中的权重奇异值分解存在一个稳定的正交基。基于此,提出了一种新的训练方法OIALR,可以无缝集成到现有的训练工作流中,准确度损失最小,超越传统训练设置。

通过嵌套低秩逼近的神经网络进行运算员 SVD

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-06T00:00:00Z

非可微性对神经网络训练的影响有三个方面:连续可微的网络收敛速度更快,深度学习求解器对$L_{1}$正则化问题的解是错误的,凸性非光滑的Lipschitz连续函数显示不稳定的收敛。研究结果表明,在训练过程中考虑神经网络的非线性是关键。

非可微对神经网络训练的三种影响

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-16T00:00:00Z

该文章介绍了一种新的神经网络训练方法,使用APTS和可并行化的加法域分解方法。该方法在TR框架上构建,全局收敛到最小化器,无需超参数调优。通过实验证明了APTS训练方法的能力、优势和局限性,并与其他方法进行了比较。

神经网络训练中的并行信任区域方法:超越传统方法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-12-21T00:00:00Z

研究发现,神经网络训练中的设计选择会影响隐藏表示中的聚类。预训练模型在聚类时表现更好,尤其是预先训练于子类标签的模型。视觉变换器的子类聚类能力比 ResNet 低。

神经网络表示中的聚类探测

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-11-14T00:00:00Z

该文介绍了一种新颖的自我推测解码推理方案,用于加速大型语言模型,无需辅助模型。该方法通过草稿和验证两个阶段的过程来实现,不需要额外的神经网络训练和内存占用,加速比最高可达1.73倍。

高效译码的投机流水线执行

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-18T00:00:00Z

该研究使用隐马尔可夫模型和GPU加速的前向后向算法进行神经网络训练,结果表明转移模型训练对识别性能没有提高,但对齐质量有积极影响,生成的对齐可用于维特比训练。

带有标签和转移概率的神经 HMM 的端到端训练

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-04T00:00:00Z
pytorch学习——初探

本文介绍了使用PyTorch进行神经网络训练的流程,包括定义网络架构、损失函数和优化器的选择、数据集的处理、常用操作、tensor数据类型、训练流程和验证方法等。同时提到了注意事项,如使用model.eval与model.train切换模型行为,在测试时防止将测试数据放入模型中计算,并建议多翻阅PyTorch文档。

pytorch学习——初探

Sekyoro的博客小屋
Sekyoro的博客小屋 · 2023-09-12T01:04:36Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码