小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
谷歌与五角大楼达成协议,允许“任何合法”使用人工智能

谷歌与美国国防部达成机密协议,允许其AI模型用于合法政府目的。协议未赋予谷歌对政府使用AI的否决权,尽管提到不应在缺乏人类监督的情况下用于国内监控或自主武器,这些限制似乎并无法律约束力。谷歌表示,AI不应在缺乏适当监督的情况下用于这些目的。

谷歌与五角大楼达成协议,允许“任何合法”使用人工智能

The Verge
The Verge · 2026-04-28T11:09:32Z
需要人类输入:参与我们的人工智能代理调查

文章讨论了人工智能代理在工作中的应用变化,调查显示人们从“人类参与”转向“人类监督”。AI代理不仅能完成简单任务,还能独立构建软件工具。研究表明,人与代理共同处理的项目测试效果更佳。呼吁软件工程师参与调查,以了解AI在工作中的影响和责任界限,调查将于4月30日结束。

需要人类输入:参与我们的人工智能代理调查

Stack Overflow Blog
Stack Overflow Blog · 2026-04-15T14:00:00Z
《Hermes Agent 从入门到精通》Github项目

《Hermes Agent 从入门到精通》介绍了一种开源AI代理框架,能够让AI自主学习和进化,减少人类干预。该框架采用三层记忆结构,提升AI理解能力,支持多平台对接,降低使用门槛。尽管高度自动化,仍需人类监督以确保质量。

《Hermes Agent 从入门到精通》Github项目

极道
极道 · 2026-04-09T22:19:00Z
一分钟读论文:《AI 治理 2026:三大新兴趋势》

到2026年,AI治理将从技术合规转向社会监护,强调去中心化自治、法律要求人类监督及社会影响审计,以确保AI决策的透明性、高效性和可控性。

一分钟读论文:《AI 治理 2026:三大新兴趋势》

Micropaper
Micropaper · 2026-04-01T00:00:00Z
为什么人工智能驱动的运营将治理推向超越合规问题,成为运营优先事项

企业在加速采用人工智能(AI)时,需建立有效的治理框架,以降低风险并确保透明度。AI的使用能提升效率,但需保持人类监督,特别是在高风险决策中。治理框架应包括明确的责任、可追溯性和性能评估,以确保AI系统的安全和有效性。各部门领导需共同参与,以平衡创新与安全。

为什么人工智能驱动的运营将治理推向超越合规问题,成为运营优先事项

The New Stack
The New Stack · 2026-03-12T16:21:37Z
Experian技术负责人为信用评分辩护:‘我们不是Palantir’

今天,我与Experian的技术与软件解决方案CEO Alex Lintner交谈。他强调了数据隐私和安全的重要性,以及Experian在信用评分中的关键角色。尽管用户可以选择退出数据收集,但信用评分在现代经济中几乎是不可避免的。Alex还讨论了AI的应用及其潜在风险,强调了人类监督的重要性。

Experian技术负责人为信用评分辩护:‘我们不是Palantir’

The Verge
The Verge · 2026-01-26T15:00:00Z
每个电子商务英雄都需要一个助手

Ryan与Shopify产品副总裁Vanessa Lee讨论了AI技术的复兴及其对电子商务的影响,介绍了新工具Sidekick的开发、构建AI工具的挑战、保持人类监督的重要性,以及未来个性化用户体验的发展。

每个电子商务英雄都需要一个助手

Stack Overflow Blog
Stack Overflow Blog · 2026-01-09T08:40:00Z
推动AI代理的发展

去年底,AI代理能力显著提升,能够自主编程、测试和文档搜索。新模型如Claude Opus 4.5和Codex 5在代码生成方面超越前代。尽管有人夸大AI将取代程序员的说法,但AI仍需人类监督。AI的进步令人兴奋,未来充满可能性。

推动AI代理的发展

David Heinemeier Hansson
David Heinemeier Hansson · 2026-01-07T09:03:58Z

Go社区近期围绕AI生成代码展开讨论。开发者@kolkov的coregex项目声称性能优于标准库,但GoAWK作者Ben Hoyt通过实测反驳,指出AI辅助开发的潜在问题。Hashimoto分享了有效利用AI的经验,强调人类监督的重要性。这一事件引发了对AI贡献审查标准的思考,Go社区需明确态度以应对未来挑战与机遇。

“这段代码是 AI 写的!”—— Go 社区的“AI 辅助编程”第一案

Tony Bai
Tony Bai · 2025-12-18T06:14:27Z
可信的生产力:保障人工智能加速发展的安全性

在代理系统中,需将所有输入视为不可信,实施来源验证和权限控制以防止攻击。应分离规划与监督,使用短期凭证和沙箱环境限制工具访问。通过STRIDE和MAESTRO模型进行威胁建模,记录代理循环并逐步增强安全性。确保代理执行任务时有明确界限和人类监督,以防止潜在灾难性后果。

可信的生产力:保障人工智能加速发展的安全性

InfoQ
InfoQ · 2025-12-16T09:00:00Z
自主AI在可观察性中的应用:构建弹性与问责的IT系统

随着企业IT系统日益复杂,维护可见性和操作弹性变得至关重要。自主AI的兴起重新定义了组织的可观察性和运营模式,缩短了故障解决时间。实现自主AI的潜力需要在自动化的每个阶段嵌入安全性和问责制,以确保透明度和可追溯性,从而平衡自动化与人类监督。

自主AI在可观察性中的应用:构建弹性与问责的IT系统

The New Stack
The New Stack · 2025-11-17T16:00:07Z
微软推出Magentic Marketplace,专为AI代理服务

微软研究院推出开源环境Magentic Marketplace,旨在模拟AI代理市场,测试代理的协作与交易。该项目受AutoGen启发,关注安全与公平,未来可能商业化。研究还探讨了通信协议和AI代理的偏见问题,强调人类监督的重要性,以确保技术的安全性与有效性。

微软推出Magentic Marketplace,专为AI代理服务

The New Stack
The New Stack · 2025-11-05T17:00:44Z
代理AI的伦理速成班:自主性与信任的平衡

领导者和技术从业者需在AI自主性与信任之间取得平衡,以确保AI系统的可靠性和透明度。不同应用场景对监督的需求不同,尤其在高风险领域需加强人类监督。建立信任机制和持续监控是实现负责任创新的关键。

代理AI的伦理速成班:自主性与信任的平衡

The New Stack
The New Stack · 2025-10-22T12:05:42Z
渗透测试利器:开启安全漏洞的全面评估与利用之旅 | 开源日报 No.761

humanlayer 是一个平台,旨在实现 AI 代理与人类之间的异步工作流沟通,确保高风险操作得到人类监督。它支持多渠道审批,解决函数调用的可靠性问题,构建安全的自动化控制体系。

渗透测试利器:开启安全漏洞的全面评估与利用之旅 | 开源日报 No.761

开源服务指南
开源服务指南 · 2025-10-17T07:35:44Z
我们能在代码生成中推动AI自主性到何种程度?

一项实验研究了生成式人工智能在无人工干预下开发高质量软件的能力。结果显示,尽管AI能够生成简单的Spring Boot应用,但在处理复杂任务时仍存在显著问题,如生成未请求的功能和错误的假设。因此,尽管采取了多种策略提高代码可靠性,仍需人类监督以确保代码质量。最终结论是,AI尚未具备完全自主创建和维护商业软件的能力。

我们能在代码生成中推动AI自主性到何种程度?

Martin Fowler
Martin Fowler · 2025-08-05T13:53:00Z
Slack Index 显示 AI 每日使用量激增 233%,这对 IT 领导者意味着什么

根据Salesforce报告,办公室工作人员日常使用AI增长233%,60%的员工积极使用AI,生产率提高64%。AI提升了技能和创造力,但仍需人类监督以避免错误信息。AI已成为核心工作工具,IT领导者需谨慎应对潜在风险。

Slack Index 显示 AI 每日使用量激增 233%,这对 IT 领导者意味着什么

实时互动网
实时互动网 · 2025-07-01T02:15:51Z
代理工程师必读

本文探讨了AI辅助开发的未来,强调“代理编码”作为新范式,AI代理成为协作伙伴。提供了使用Claude Code的最佳实践,包括保持环境清晰、有效工作流程和优化交互。尽管AI提高了编程效率,但需警惕其局限性,强调人类开发者的监督和技能保护。

代理工程师必读

Peter Steinberger
Peter Steinberger · 2025-07-01T02:00:00Z
自主智能体AI:自学路线图

本文提供了构建自主AI系统的指南,强调从反应式AI向主动式AI的转变。主动式AI能够设定目标、制定计划并自主执行复杂任务,适用于研究、编程和工作流程管理。开发此类系统需掌握高级Python编程、LLM集成和API设计等技能,并关注多代理系统的协调、工具使用、记忆管理及安全性,同时强调人类监督的重要性。

自主智能体AI:自学路线图

KDnuggets
KDnuggets · 2025-06-17T12:00:34Z
在生成式人工智能驱动的质量保证中建立信任:确保透明性和可解释性

生成式人工智能(GenAI)正在加速质量保证(QA)进程,但团队对其信任仍面临挑战。建立信任需关注数据隐私和AI输出的可靠性,企业应确保数据匿名化,避免敏感信息泄露,并保持人类监督以防错误。AI应作为人类助手,提升工作效率。通过透明沟通和培训,团队能更好适应AI工具,实现更高效的软件交付。

在生成式人工智能驱动的质量保证中建立信任:确保透明性和可解释性

The New Stack
The New Stack · 2025-05-16T12:00:01Z
解锁创新:如何在2025年轻松利用人工智能生成代码

到2025年,人工智能将迅速改变软件开发,AI工具帮助开发者高效生成代码和自动化常规任务,使其能专注于复杂问题。尽管AI提升了生产力,但仍需人类监督以确保代码质量,开发者应适应这一变化,利用AI工具提高效率。

解锁创新:如何在2025年轻松利用人工智能生成代码

DEV Community
DEV Community · 2025-05-16T00:06:02Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码