Seven's blog

Seven's blog -

开源服务指南博客文章自动生成

GitHub Actions 可以添加运行参数。我只需要设置 filepath 和 content 两个参数,然后配合 shell 脚本就可以自动生成和提交博文到 GitHub 仓库,进而触发自动构建和发布。 GitHub Actions 提供了 REST API 来触发前面的工作流,这样我就可以通过 HTTP 请求来自动生成和发布博文。 开源服务指南数据库现在是建立在 Notion 上的,Notion 也提供了 REST API 的交互方式。所以我只需要定时扫描 Notion 数据库,获取状态刚变更为 “已发布” 的博文,提取文章内容,通过第 2 步中提到的 REST API 来触发第 1 步中提到的 GitHub Actions 即可自动生成和发布博文。这里我使用了 Cloudflare Workers 实现。 怎么监测 Notion 数据库文章状态变动呢?想要监测状态“变动”,我们需要知道变动前的状态和变动后的状态,进而需要有数据库缓存变动前的状态,能做,但麻烦。所幸,pipedream 帮我们做好了这个事情。它能够监测 Notion 数据库变动,并且触发工作流执行。

GitHub Actions可以通过设置参数自动生成和提交博文到GitHub仓库,并触发自动构建和发布。使用Cloudflare Workers实现监测Notion数据库文章状态变动,并通过Pipedream触发工作流执行。工作流程包括Pipedream监测数据库变动、Cloudflare Workers查询文章内容并发送给GitHub Actions,GitHub Actions写入文章路径并提交到仓库,持续集成和发版。

相关推荐 去reddit讨论
鸟窝

鸟窝 -

goroutine调度器揭秘 2

我翻译了Goroutine Scheduler Revealed: Never See Goroutines the Same Way Again, 这篇文章发表于1月2号,作者在文章最后说: 在接下来的部分,我们将更深入地探讨抢占式调度,并分析调度程序在运行期间所采取的每一步骤。

这篇文章是关于Go语言调度器的工作原理的解析。调度器的核心函数是schedule和findRunnable。schedule函数执行调度器循环,选择并执行可运行的goroutine。findRunnable函数寻找可执行的goroutine,包括本地和全局运行队列、定时器、网络事件等。文章还提到了一些内部函数和优化策略。

相关推荐 去reddit讨论
熊猫不是猫QAQ

熊猫不是猫QAQ -

NAS部署超酷网站一体化分析平台,评估你的网页是否安全

相信很多人有了nas之后会创建自己的博客,偶尔写写东西什么的,记录一下生活或者保存自己折腾nas的一些事情。但你的网址真的安全吗?你知道它存在那些问题吗?这时候我们就需要网站分析工具来进行全方面...

NAS部署超酷网站一体化分析平台,评估网页安全。使用web-check工具检测网址,提供DNS、SSL、域名等信息。部署过程需注意内存和存储空间。通过浏览器访问项目首页,可查看网站的各种信息。希望有人汉化该项目。

相关推荐 去reddit讨论
Lucien's Blog

Lucien's Blog -

使用 300 元的显卡推理 Qwen1.5-14B

本文地址:blog.lucien.ink/archives/546一直以来模型推理成本对于想要使用大模型却又注重隐私的用户来说都是个难题,今天在这里探讨一下如何用尽可能低的成本去获得尽可能高的模...

本文介绍了使用低成本显卡和llama.cpp推理Qwen1.5-14B-Chat模型的方法,包括使用Tesla P4显卡和GPU + CPU混合计算,在2048上下文支持下达到11个token/s的速度。文章还讨论了模型大小、量化方法的困惑度矩阵和不同模型的性能表现。作者提供了llama.cpp的部署和调用方法,并讨论了提高推理速度的改进点。最后,作者总结了Tesla P4显卡的优缺点,并强调了llama.cpp项目的重要性。

相关推荐 去reddit讨论
阮一峰的网络日志

阮一峰的网络日志 -

科技爱好者周刊(第 293 期):一周是一年的2%

这里记录每周值得分享的科技内容,周五发布。...

本文强调了每周的重要性,指出一周是一年的2%。同时介绍了短红外高光谱成像技术对烧焦的古书进行扫描和识别的新技术。还提到了一些科技动态和工具资源。

相关推荐 去reddit讨论
The Verge

The Verge -

SpaceX successfully launched its Starship, but the vehicle was ‘lost’ after reentry

The third Starship test flight has fared far better than SpaceX’s previous two attempts. | Image: SpaceX SpaceX’s massive Starship took off from the company’s Starbase launch facility in Boca Chica, Texas, at 9:25AM ET on Thursday morning. This test flight was far more successful than its two predecessors, as the vehicle became “the first Starship to complete its full-duration ascent burn” after the six Raptor engines powered it to its expected orbit. It completed the hot-staging separation from its Super Heavy booster and opened a payload door to demonstrate how it could be used for missions like delivering Starlink satellites into orbit. The vehicle remained in one piece until contact with the Starship spacecraft was lost shortly before its anticipated splashdown in the Indian Ocean. According to SpaceX, “The flight test’s conclusion... Continue reading…

SpaceX的Starship在德克萨斯州的Boca Chica发射场进行了第三次测试发射,但在印度洋着陆前失去了联系。这次测试比前两次更成功,完成了计划中的动作,并保持完整。Starship跳过了重新点燃引擎的步骤。这是SpaceX测试Starship火箭的第三次尝试,前两次分别在去年4月20日和之后爆炸起火。

相关推荐 去reddit讨论
Modular Blog

Modular Blog -

Modular: Announcing MAX Developer Edition Preview

Announcing MAX Developer Edition Preview

Modular推出了Modular Accelerated Xecution (MAX)平台,旨在简化在不同硬件平台上部署AI模型。MAX包括先进的AI编译器和运行时系统,高效的服务封装器和Mojo编程语言。MAX提供了性能提升和可移植性,允许开发人员无缝地将模型移植到不同的硬件上。它还提供了优化AI流水线的可扩展性和可编程性能力。MAX平台还提供了新的文档站点和Mojo编码平台等多种增强功能。未来的版本将包括Mac支持、企业功能和GPU支持。

相关推荐 去reddit讨论
Modular Blog

Modular Blog -

Modular: We’ve raised $100M to fix AI infrastructure for the world's developers

We’ve raised $100M to fix AI infrastructure for the world's developers

Modular宣布获得1亿美元新融资,加速实现全球开发者AI基础设施愿景。他们的下一代AI开发者平台改善了AI的可编程性、可用性、可扩展性、计算效率和硬件利用率。Modular社区已发展到超过12万名开发者。

相关推荐 去reddit讨论
Modular Blog

Modular Blog -

Modular: Using Mojo🔥 with Python🐍

Using Mojo🔥 with Python🐍

本文介绍了在Mojo中使用Python模块和包的方法,包括查找和加载模块和包、使用venv创建虚拟环境和使用Conda安装libpython。文章提供了示例和代码片段。建议使用conda创建虚拟环境以避免系统配置问题和库冲突。

相关推荐 去reddit讨论
路边的阿不

路边的阿不 -

在本地跑一个大语言模型(3) - 让模型自主使用工具

Run LLMs on your machine and extend their capabilities! This guide explores function calling in Ollama, allowing the model to connect with external tools and become more intelligent.

本文介绍了如何使用“函数调用”功能以扩展Ollama模型的能力。通过提供外部工具(函数),模型可以根据用户的问题自行判断是否需要调用工具以获得更多上下文信息。文章还提供了4个工具的示例,并演示了模型对问题的理解能力和选择工具的规则。通过测试,模型成功调用了相应的工具,并输出了预期结果。

相关推荐 去reddit讨论

热榜 Top10

eolink
eolink
观测云
观测云
Dify.AI
Dify.AI
LigaAI
LigaAI

推荐或自荐