标签

 大模型 

相关的文章:

本列表汇集了关于大模型技术的最新研究与应用案例,涵盖从基础理论到实际落地的多维度探讨,助力您了解AI时代的前沿动态。

重磅开源!LocalAI让你在个人电脑上运行AI大模型,无需显卡,已获28K Star!

原文中文,约1400字,阅读约需4分钟。发表于:

随着AI技术的快速发展,如何在本地设备上高效运行AI模型成为了开发者关注的焦点。LocalAI开源项目提供了一个革命性的解决方案 - 它让用户能够在个人电脑上轻松部署和运行各种AI模型,并且完全兼容OpenAI的API接口。LocalAI是什么?LocalAI是一个高性能的AI运行时环境,它的核心目标是让AI模型的部署和使用变得更加简单和平民化。与传统云服务不同,LocalAI 完全运行在本地,这...

LocalAI是一个开源项目,支持用户在本地高效运行AI模型,兼容OpenAI API,确保数据隐私,零成本使用,支持离线运行,适合开发者和爱好者。

相关推荐 去reddit讨论

不停PUA大模型「写更好点」,无需其它花哨技术就能让AI代码水平暴增

原文中文,约9100字,阅读约需22分钟。发表于:

尽管AI编程能力已得到验证,但仍存在不足。通过不断优化提示,AI能够生成更高质量的代码。研究表明,迭代提示和设计对代码质量至关重要,优化提示词能显著提升代码性能,但可能引入细微错误。因此,人工干预仍然必要,以确保代码的质量。

不停PUA大模型「写更好点」,无需其它花哨技术就能让AI代码水平暴增
相关推荐 去reddit讨论
相关推荐 去reddit讨论
相关推荐 去reddit讨论

详解用大模型超拟人语音做桌面AI宠物/机器人的个性化能力

原文中文,约1900字,阅读约需5分钟。发表于:

目前聆思平台的超拟人模板实现了快速响应、声纹识别、知识库问答、兜底闲聊、超拟人TTS等功能,本文基于这几项功能进行详细解说。

本文介绍了CSK6大模型语音视觉开发板的超拟人交互功能,包括快速响应、声纹识别和知识库问答。用户通过语音交互,系统能够识别身份并提供个性化回复,提升用户体验。适用于智能助手和陪伴机器人,支持多种情感表达和精准语音处理。

相关推荐 去reddit讨论

引领人机交互革命?微软研究团队发布80页的大模型GUI智能体综述

原文中文,约5900字,阅读约需14分钟。发表于:

AIxiv专栏促进学术交流,微软研究团队发布综述论文,探讨基于大语言模型的GUI智能体。该智能体通过自然语言指令自动操作界面,克服传统GUI自动化的局限,提升人机交互效率,未来将在多个领域广泛应用。

引领人机交互革命?微软研究团队发布80页的大模型GUI智能体综述
相关推荐 去reddit讨论

大模型入秋

原文中文,约3900字,阅读约需10分钟。发表于:

到2024年的最后一个月,大模型依然是最热闹的赛道,没有之一。12月,智谱AI与阶跃星辰相继完成新一轮融资,OpenAI以直播的形式举办了一场长达12天的马拉松式新品发布会。但对从业者肖琳(化名)来说,年底的任何融资事件和新产品发布都已经很难让她眼前一亮,反倒是几个月前的一张网传图片成了她的“年度记忆”。这张图片显示,腾讯、字节、百度、科大讯飞和月之暗面旗下大模型的新增用户留存率,在30天后...

到2024年,大模型行业依然活跃,但融资和新产品发布吸引力减弱。用户留存率数据引发讨论,行业前景堪忧。招聘需求减少,薪资上涨困难,投资者信心减弱,行业进入淘汰赛,未来可能仅有少数公司存活。

大模型入秋
相关推荐 去reddit讨论

AI 帮你高效构建代码安全策略【大模型应用实践系列四】

原文中文,约2400字,阅读约需6分钟。发表于:

腾讯啄木鸟代码安全团队,依托混元大模型的超强代码理解和安全分析能力,在SQL注入威胁检测场景验证中,新增识别上百个漏洞检测策略,相比传统方法人效比提升3.8倍,在Github高star项目上斩获10+0day漏洞。

安全漏洞风险严重影响业务,外部攻击可能导致用户信息泄露。腾讯的混元大模型通过高效的代码理解和安全分析,提升漏洞检测效率,减少人工依赖,优化检测策略,保障业务安全稳定运营。

相关推荐 去reddit讨论

RoRA:具有可靠性优化的高效大模型微调以适应排名

原文中文,约300字,阅读约需1分钟。发表于:

本研究针对低秩适应(LoRA)在大型语言模型微调中的性能限制问题,提出了一种新颖的Rank-adaptive Reliability Optimization(RoRA)方法,通过优化缩放因子提高性能。实验结果表明,RoRA在微调压缩和未压缩模型时均优于现有技术,尤其在高剪枝率的模型上展示了更显著的准确性提升,表明其在模型微调领域的可观影响。

本研究提出Rank-adaptive Reliability Optimization(RoRA)方法,以解决低秩适应(LoRA)在大型语言模型微调中的性能限制。实验结果表明,RoRA在压缩和未压缩模型上均优于现有技术,尤其在高剪枝率模型中准确性显著提升。

相关推荐 去reddit讨论

通过CUR分解进行大模型压缩

原文中文,约200字,阅读约需1分钟。发表于:

本研究解决了大型深度学习模型在计算成本和内存使用上的挑战。提出了一种基于CUR矩阵分解的新型模型压缩方法——CURing,它通过选取具有重要性的行和列显著减少模型规模,同时保持性能损失最小化。该方法不仅保留了原始网络的输入/输出结构,还增强了可解释性。

本研究提出了一种CURing模型压缩方法,通过CUR矩阵分解显著降低大型深度学习模型的计算成本和内存使用,同时保持性能并增强可解释性。

相关推荐 去reddit讨论