小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

该示例展示了如何使用多路线功能进行离线推理,需HuggingFace凭证访问Llama2,并使用LoRA适配器进行SQL查询。

【vLLM 学习】Multilora Inference

HyperAI超神经
HyperAI超神经 · 2025-09-19T11:27:30Z

本文研究了大型语言模型(LLMs)在软件开发自动化中的应用,着重评估Llama 2-70B模型在科学应用中的代码生成、文档撰写和单元测试能力。通过测试,我们发现该模型在简单任务中表现良好,但在复杂计算方面存在显著困难,亟需改进以更好地支持科学计算工作流程。

使用LLaMA2进行LLM基准测试:评估多种编程语言的代码开发性能

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-24T00:00:00Z
本地对话助手:保护隐私的开源 GPT 项目 | 开源日报 No.498

DeepSeek-LLM 是一个拥有 67 亿参数的先进语言模型,经过大量数据训练,表现优于 Llama2 70B,特别在中文理解方面表现突出。该模型开源并提供多种版本。MagicTime 和 InstantStyle 分别用于视频生成和图像风格保持。localGPT 允许用户在本地安全对话,支持多种开源模型。gpt4free-ts 提供免费 GPT-4 API,降低使用成本。

本地对话助手:保护隐私的开源 GPT 项目 | 开源日报 No.498

开源服务指南
开源服务指南 · 2025-02-15T09:04:42Z
26年前老年机跑Llama2,每秒39个token:你的AI PC,也可以是Windows 98

EXO Labs成功在26年前的Windows 98奔腾II电脑上运行Llama 2,输出达到39.31 tok/秒,展示了人工智能在旧硬件上的潜力。该项目由牛津大学研究人员发起,旨在推动AI的普及,抵制少数公司对AI的控制。EXO通过古老的FTP传输文件,并使用Borland C++编译现代代码,实现了在老旧设备上运行AI模型的目标。

26年前老年机跑Llama2,每秒39个token:你的AI PC,也可以是Windows 98

机器之心
机器之心 · 2024-12-30T04:57:00Z

大语言模型Y-Mol在药物研发中展现出强大能力,解决了领域知识不足和数据获取难题,提升了药物-靶标及药物-药物相互作用的预测性能,为药物研发提供了新工具。

首个!四大高校联合推出药物研发大语言模型Y-Mol,性能全面领先LLaMA2

HyperAI超神经
HyperAI超神经 · 2024-11-07T07:16:20Z

本文介绍了一种基于开源语言模型LLAMA2的新方法,旨在从社交媒体和紧急信息中识别和分类紧急情况,以帮助公共安全通信员和用户。该模型能够理解911呼叫内容,提供指导并通知相关部门,尤其在911系统繁忙时,有效传递用户位置和紧急信息。

在危机场景中利用大语言模型进行机器翻译:低资源语言的蓝图

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-31T00:00:00Z

本文研究了大型语言模型Llama2在迭代囚徒困境中的合作行为。通过100轮游戏模拟,发现当对手背叛率低于30%时,Llama2表现出谨慎合作,其合作倾向优于人类参与者。这为LLMs在博弈理论中的应用提供了新思路。

机器能像人类思考吗?对大型语言模型代理在独裁者游戏中的行为评估

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-28T00:00:00Z

本研究提出了多语种大型语言模型(MLLMs)的开发与部署框架,分析了Llama2案例,并提出优化策略,强调支持语言多样性的重要性。

负责任的多语种大型语言模型:发展、应用与社会影响的综述

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-23T00:00:00Z

研究探讨了在特定领域使用大型语言模型进行代码生成的方法。通过数据分割和提示技术提升模型的思考深度,使用真实产品数据转化为语义向量,实现约70%的准确率。通过llama2微调实验验证其在专业领域代码生成中的有效性。

大语言模型在领域建模辅助中的实用性

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-16T00:00:00Z

研究分析了大型语言模型Llama2在迭代囚徒困境中的合作行为。通过100轮游戏模拟,评估其对游戏规则的理解和决策能力。结果表明,Llama2倾向于不主动背叛,并在对手背叛率低于30%时采取谨慎合作策略,显示出较强的合作倾向。此研究为LLM在博弈理论中的应用提供了新思路,帮助指导其审核和对齐实践。

我想要自由!大语言模型在社交等级下的反社会行为和说服能力

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-09T00:00:00Z

研究显示,Llama2在迭代囚徒困境中倾向于合作。在100轮游戏中,当对手背叛率低于30%时,Llama2采取谨慎合作策略,表现出宽容不报复的行为。相比人类,Llama2更倾向合作。这为评估大型语言模型在社交环境中的行为提供了理论框架。

利用大型语言模型再现和扩展行为策略实验

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-09T00:00:00Z

本研究提出了首个针对立陶宛语的开放Llama2大语言模型(LLMs),并配套提供了问答数据集和流行LLM基准的翻译。研究表明,高质量的预训练数据集对模型在语言理解任务上的高效表现至关重要。

立陶宛语的开放Llama2模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-23T00:00:00Z
基于 Amazon Bedrock 和 Llama2 构建智能导购解决方案

该文章介绍了一种电商导购的实现方案,通过构建一个智能导购系统,利用大语言模型和电商推荐系统,识别用户购买意图并推荐合适的商品。方案包括准备购物对话样本数据、训练Llama2模型、识别购买意图、调用推荐系统API、生成推荐文案等步骤。文章还提供了部分参考代码和实现效果。

基于 Amazon Bedrock 和 Llama2 构建智能导购解决方案

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2024-07-19T07:28:14Z

研究人员通过将AI的“慢思考”结果蒸馏进“快思考”,使Llama2的表现提升了257%,超过了GPT4,同时降低了推理成本。他们使用了四种不同的系统2方法进行微调,发现这种模式使系统1模型的表现大幅提升,甚至超过了真正的系统2模型。这种蒸馏方法在实时交互和移动设备部署等场景下具有优势。

AI慢思考蒸馏进快思考,Llama2升至GPT4水平,不写过程也能做对题

量子位
量子位 · 2024-07-12T04:04:13Z

华为云社区分享了昇思MindSpore技术公开课,深度解析LLaMA2模型架构。LLaMA2是Meta AI公司发布的开放高效语言模型,具有优异性能。LLaMA2的训练数据增加了40%,上下文长度翻倍,并采用了分组查询注意力机制。核心算法包括RMS Normalization、Group Multi Query Attention和SwiGLU Activation Function。LLaMA2在知识能力上有优势,但在学科、语言、推理和理解能力上被其他模型超越。未来大模型的发展方向包括改变底层模型架构、优化预训练微调方法和采用混合专家模型等。

一文为你深度解析LLaMA2模型架构

华为云官方博客
华为云官方博客 · 2024-07-04T06:24:53Z

本研究使用大型语言模型评估了Llama2在机器翻译方面的能力,发现其对已见过的语言具有较高的BLEU分数。研究结果表明句法相似性并非决定翻译质量的主要因素,同时发现某些语言虽然训练数据较少,但与英语具有可比较的相关性,为构建以非英语语言为中心的多语言模型提供了新的可能性。

如何训练强大的罗马尼亚语语言模型(LLM),附带英文指导

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-26T00:00:00Z
在 Amazon EKS 上使用 AWS Trainium 训练 Llama2

生成式人工智能正在改变企业运作方式,也在人工智能领域中推动创新。AWS Trainium是一个解决方案,可以降低训练成本并优化性能。使用Amazon EKS和AWS Trainium的分布式训练架构可以实现高性能和高成本效益的模型训练。通过AWS Trainium,开发人员可以最多降低50%的训练成本。

在 Amazon EKS 上使用 AWS Trainium 训练 Llama2

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2024-04-25T08:20:58Z

本试验旨在对大规模言语模型进行微调,以习惯有限的GPU核算能力(单张P100)。通过采用LoRA办法,咱们能够高效地对模型进行调整,以便进一步应用于后续课程项目的开发。试验基于Llama2-7B模型进行,要求模型依据给定的金融新闻内容进行情感剖析,并以文字形式输出新闻的情感类别:”positive”、”neutral”或”negative”。为了进行试验,咱们需求装置一些必要的包。其间,peft是一个包括了咱们在本试验中将运用的LoRA办法的包。通过增加一些额外的参数,peft能够有效地对大规模的言语模型进行微调,以习惯各种下流使命。另一个包是bitsandbytes,它提供了对模型进行4-bit量化的支持,这样能够进一步削减显存的运用,节约资源。

LoRA对Llama2-7B进行微调

六虎
六虎 · 2024-04-20T10:22:34Z

本文介绍了如何使用LangChain的RAG(检索增强生成)系统,通过上传PDF文件并向LLM提问来获取有关PDF的信息。教程重点介绍了环境设置、文件处理和数据库导入、文本切割和嵌入模型加载、将嵌入结果存储到VectorDB、启用LLM服务、设定Prompt、文本检索等步骤。通过这些步骤,可以实现自己的RAG系统并进行文本检索。

RAG实操教程,LangChain + Llama2 | 创造你的个人LLM

六虎
六虎 · 2024-04-19T09:52:46Z

本文记录了作者在微调LLaMA2 70B模型过程中遇到的报错信息及解决方法,包括GPU占用和数据截断等问题。作者成功微调了5K条数据,并进行了推理,结果超过了GPT4-1106模型。作者计划使用更大的15K数据集进行微调。

七月论文审稿GPT第4.2版:通过15K条paper-review数据微调Llama2 70B(含各种坑)

结构之法 算法之道
结构之法 算法之道 · 2024-04-18T07:48:23Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码