小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
免费!用HuggingFace搭建100G超大图床+网盘,大文件随便传,无需实名!

本文介绍如何利用HuggingFace免费搭建100G图床和网盘,项目名为CloudFlare-ImgBed,支持多种存储方式,操作简单,无需实名认证,适合文件分享和个人网盘,通过Cloudflare边缘网络实现高效存储。

免费!用HuggingFace搭建100G超大图床+网盘,大文件随便传,无需实名!

游魂博客
游魂博客 · 2026-03-05T08:39:05Z
百万围观、HuggingFace多模态登顶,华人团队开源语音版「DeepSeek」海外爆火

抱歉,您提供的文本内容过于简短,无法进行有效的总结。请提供更详细的文章内容。

百万围观、HuggingFace多模态登顶,华人团队开源语音版「DeepSeek」海外爆火

机器之心
机器之心 · 2026-01-23T03:56:58Z

群核科技的InteriorGS数据集在HuggingFace趋势榜上夺冠,首次应用3D高斯技术于AI空间训练,解决高质量训练数据短缺问题。该数据集包含1000个高斯场景和55.4万个物品标签,推动具身智能技术的发展。

全球第一!群核科技InteriorGS数据集霸榜HuggingFace趋势榜

量子位
量子位 · 2025-08-06T06:46:22Z

在 AWS EC2 上使用 HuggingFace 模型时,常见错误包括空间不足和权限问题。解决方法是将缓存数据移至大容量磁盘,并设置正确的权限和环境变量。

解決 HuggingFace 模型下載時的磁碟空間不足問題

1010Code
1010Code · 2025-07-12T16:00:00Z
从零到GenAI英雄:使用HuggingFace和Databricks构建您的GenAI应用

Databricks推出Databricks Apps,简化数据和AI应用的开发与部署。用户可利用GenAI和Unity Catalog构建定制AI应用,无需高级开发经验。通过示例,用户学习加载图像、注册和部署模型,最终将复杂AI模型转化为实用应用,推动业务创新。

从零到GenAI英雄:使用HuggingFace和Databricks构建您的GenAI应用

Databricks
Databricks · 2025-03-26T18:10:00Z

HuggingFace推出HuggingSnap应用,支持iOS、macOS和visionOS,利用本地smolvlm2模型实现离线实时物体识别,节省电量,适合购物、旅行和学习等场景。

HuggingFace推出iOS应用 无需联网即可使用本地视觉模型描述用户周围的内容

蓝点网
蓝点网 · 2025-03-20T07:01:01Z

本文介绍了如何使用HuggingFace Trainer组件微调通义千问0.5B模型,涵盖环境准备、数据加载和模型训练等步骤,提供简洁有效的实现方案,适合初学者。

使用“古法技术”——HuggingFace Trainer微调训练本地大模型保姆级教程

dotNET跨平台
dotNET跨平台 · 2025-03-03T00:00:57Z
Huggingface上的Llama3集合

抱歉,您提供的文本没有包含可供总结的内容。请提供具体的文章内容,我将为您进行总结。

Huggingface上的Llama3集合

DEV Community
DEV Community · 2025-02-16T06:27:25Z

黑客在HuggingFace上传恶意AI模型,成功绕过安全检测,连接硬编码IP地址以收集开发者信息。研究人员发现该模型使用7z格式压缩,提醒用户下载时需谨慎,选择认证发布者。

黑客在HuggingFace上传包含恶意代码的AI模型对开发者展开攻击

蓝点网
蓝点网 · 2025-02-09T02:30:15Z
在Go中计算发送给LLM的Token数量(第二部分)

本文介绍了如何使用Golang编写应用程序,计算用户发送给LLM的文本中的token数量。代码通过Huggingface获取tokenizer列表,允许用户选择LLM和文本文件,旨在深入理解token计算的机制。

在Go中计算发送给LLM的Token数量(第二部分)

DEV Community
DEV Community · 2024-12-22T16:19:07Z
探索HuggingFace与构建AI考试题目生成器

Kurt在HuggingFace平台上开发了Nexar,一个AI考试题目生成器,帮助教师轻松创建符合布鲁姆分类法的考试问题。Nexar支持用户设置题目数量、类型和难度,简化了考试准备。

探索HuggingFace与构建AI考试题目生成器

DEV Community
DEV Community · 2024-12-21T03:08:38Z
3B模型长思考后击败70B!HuggingFace逆向出o1背后技术细节并开源

研究表明,通过延长思考时间,小模型在性能上可以超越大模型,尤其在资源受限的情况下。HuggingFace探索了多种搜索策略,发现集束搜索和多样性验证器树搜索(DVTS)显著提高了小模型在复杂数学问题上的准确性。

3B模型长思考后击败70B!HuggingFace逆向出o1背后技术细节并开源

机器之心
机器之心 · 2024-12-17T13:02:34Z
如何在Google Colab上运行stable-diffusion-3.5-large-turbo

stable-diffusion-3.5-large-turbo是一个高精度文本生成图像模型。使用前需在Huggingface注册并创建访问令牌。通过Google Colab安装必要库,验证账户后下载模型,最后运行代码生成并保存图像。

如何在Google Colab上运行stable-diffusion-3.5-large-turbo

DEV Community
DEV Community · 2024-12-08T15:42:22Z
HuggingFace工程师亲授:如何在Transformer中实现最好的位置编码

有效的复杂系统源于简单系统。Transformer模型通过位置编码增强自注意力机制。HuggingFace工程师提出的旋转位置编码(RoPE)改进了位置编码方法,提升了模型对序列关系的理解。RoPE利用旋转矩阵处理相对位置,适用于多维数据,未来可能会有更多创新。

HuggingFace工程师亲授:如何在Transformer中实现最好的位置编码

机器之心
机器之心 · 2024-11-27T05:14:40Z
在大陆下载huggingface模型

我在电脑上部署stable diffusion时,使用4050显卡和Python 3.10.11,安装依赖时修改了Pytorch下载链接,成功使用清华镜像。由于huggingface.co无法访问,我通过国内镜像网站获取授权,并使用huggingface-cli成功下载模型。

在大陆下载huggingface模型

DEV Community
DEV Community · 2024-11-18T05:03:28Z
Stability AI在Huggingface上发布的Stable-Diffusion-Xl-Base-1.0模型初学者指南

Stable-Diffusion-Xl-Base-1.0是Stability AI开发的文本生成图像模型,利用预训练的文本编码器,根据文本提示生成和修改图像,可独立使用或作为两阶段管道的一部分。

Stability AI在Huggingface上发布的Stable-Diffusion-Xl-Base-1.0模型初学者指南

DEV Community
DEV Community · 2024-11-12T00:12:15Z
Compvis在Huggingface上发布的Stable-Diffusion-V1-4模型初学者指南

这是关于Compvis维护的AI模型Stable-Diffusion-V1-4的简要指南,该模型具备图像生成能力,适合对AI模型感兴趣的用户。

Compvis在Huggingface上发布的Stable-Diffusion-V1-4模型初学者指南

DEV Community
DEV Community · 2024-11-12T00:07:05Z

微软开源了BitNet b1.58,一个1.58bit大模型推理框架。通过将参数量化为{-1, 0, 1},大幅减少存储和计算需求,使千亿参数模型在单CPU上每秒处理5-7个token。该框架在ARM和x86 CPU上显著加速并降低能耗。虽然需要重新训练模型,但Huggingface已支持将现有模型微调到1.58bit。

微软开源爆火1.58bit大模型推理框架!千亿参数模型量化后单CPU可跑,速度每秒5-7个token

量子位
量子位 · 2024-10-22T06:30:49Z

去年 12 月,生成式 AI 公司 Petuum 以及穆罕默德·本·扎耶德人工智能大学(MBZUAI)共同推出了一个用于创建开源大型语言模型的项目LLM360,旨在提高开源代码的透明度,公开整个 LLM 训练过程、代码、数据和最佳实践,以帮助开发人员更轻松、更快捷、更经济地创建开源大型语言模型,实现...

最大的顶级数据集开源,HuggingFace排名第一,可创建15万亿Token

OneFlow深度学习框架
OneFlow深度学习框架 · 2024-10-19T04:05:37Z

本文介绍了如何使用HuggingFace Transformers微调大型语言模型(LLMs)。微调是在特定任务或数据集上训练预训练模型,以提升其在特定领域的表现。文章讨论了微调的重要性、应对模型生成不准确内容的策略(如检索增强生成、提示工程和微调),以及微调的具体步骤,包括选择模型、准备数据、设置参数、创建训练器、训练和评估。

使用 HuggingFace 微调大型语言模型

DEV Community
DEV Community · 2024-10-03T07:21:21Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码