本研究提出了一种联邦黑寡妇优化(FedBWO)技术,以解决资源受限设备的传输能力不足问题。该方法仅传输性能得分,从而减少通信数据量,实验结果显示准确率提高了21%,通信成本显著降低。
本研究提出了一种自适应奇异值分解方法AdaSVD,旨在解决大型语言模型在资源受限设备上的高内存需求。该方法通过动态调整压缩比例和更新奇异矩阵,显著提升了内存效率和性能。
该研究提出了DiffRatio-MoD框架,解决了扩散变换器在资源受限设备上的高延迟和内存低效问题。通过动态计算路由,令牌计算需求可适应性调整,显著提升了生成质量与效率的平衡。实验结果表明,该方法在文本到图像生成和图像修复任务中优于现有技术。
本研究提出了一种自适应剪枝方法(SAAP),旨在解决大型语言模型在资源受限设备上的部署问题。SAAP通过自适应重要性指标和模块排名,降低计算和内存成本,同时保持模型性能。实验结果表明,SAAP在准确性和生成速度上显著优于现有方法,具有实际应用价值。
本研究提出了SoftmAP方法,旨在解决大语言模型在资源受限设备上的计算和内存开销问题。该方法通过利用内存计算硬件实现低精度Softmax,仅使用整数,从而显著提高能量延迟产品,提升模型的可部署性而不损失性能。
ONNX MLIR 是一种基于 MLIR 的工具,旨在优化 ONNX 模型在资源受限设备上的运行效率。通过静态编译,ONNX MLIR 能够减少运行时开销,并针对特定硬件进行深度优化,如降低浮点精度以提升计算效率,使深度学习模型在嵌入式系统中更高效。
本研究提出了一种迭代剪枝策略,以解决3D高斯散点模型的可扩展性不足问题,去除冗余信息,提升压缩效果。实验结果表明,该方法在多个基准测试中表现良好,增强了其在资源受限设备上的应用潜力。
随着个性化和隐私需求的增加,源无关无监督领域适应(SFDA)在时间序列数据中变得重要。我们提出了一种新方法,通过Tucker分解优化源模型权重,并在目标侧微调部分因子,提高效率和适应性。实验显示,该方法在资源受限设备上的时间序列应用中表现优异。
本研究提出FedPT框架,通过仅访问模型输出预测,解决大型预训练语言模型微调时的隐私和计算负担问题,适用于资源有限设备。实验表明,FedPT在保持性能的同时,大幅降低计算、通信和内存开销,具有广泛应用潜力。
本文介绍了一种名为RE-FL的新方法,解决了资源受限设备中的计算和通信挑战。通过可变修剪技术和知识蒸馏,优化资源利用并减少带宽消耗和通信轮次。实验结果证明了该方法在资源受限环境中保持数据隐私和性能的有效性。
本研究提出了一种统一框架,解决了复杂神经网络在资源受限设备上部署时的计算资源需求问题。该方法通过定义的秩约束下的复合压缩损失实现高效压缩,能够在模型压缩的同时保持性能不变。
本研究提出了一种方法,将大型语言模型(LLMs)的知识提炼为一个更小、更高效且准确的神经网络,以实现在资源受限设备上部署这些模型的挑战。通过对数据集的测试,结果显示提炼的学生模型能够比原始神经网络模型获得更高的准确率。此研究为自动评分在典型教育环境中的运用提供了潜力。
本研究提出了一种方法,通过训练较小的学生模型来提取大型语言模型(LLMs)的知识,以在资源受限设备上部署这些模型。学生模型在准确率上优于原始神经网络模型,参数大小减小了100倍和10倍。该研究对于自动评分在教育环境中的应用具有潜力。
研究人员提出了一种创新的方法,将早期退出和分裂计算合并在一起,以解决深度神经网络在资源受限设备上的部署问题。实验证明,这种方法能够显著降低成本。
本研究提出了一种方法,将大型语言模型(LLMs)的知识提炼为一个更小、更高效且准确的神经网络,以实现在资源受限设备上部署这些模型的挑战。通过测试,发现提炼的学生模型在准确率上优于原始神经网络模型。此研究对自动评分在教育环境中的应用具有潜力。
本研究提出了一种方法,将大型语言模型(LLMs)的知识提炼为更小、更高效且准确的神经网络,以在资源受限设备上部署模型。通过测试,发现提炼的学生模型准确率优于原始神经网络模型。此研究对自动评分在教育环境中的应用具有潜力。
该研究提出了一种面向资源受限设备的分散协作机器学习框架,通过增量学习算法、模型交换协议和预测算法实现了准确性、训练时间和鲁棒性的显著提升。
完成下面两步后,将自动完成登录并继续当前操作。