Flock Safety的AI监控系统在美国迅速扩张,尽管声称提高公共安全,但存在侵犯隐私和滥用权力的风险。执法部门可在无令情况下访问数据,可能导致种族偏见和法律灰区。专家呼吁以社区建设替代泛化监控,强调真正的公共安全应来自社区投资,而非无处不在的监控。
记者朱莉亚·安温因发现Grammarly的“专家审查”AI功能未经许可使用她的身份,提起集体诉讼,指控该公司侵犯隐私和商业权益。Grammarly已暂停该功能,并承认未妥善处理用户反馈。
从2025年7月起,Urban VPN等浏览器扩展将默认收集800万用户的AI对话数据并出售,严重侵犯隐私。作者呼吁公众警惕技术滥用,强调应重新掌控技术发展方向。
火绒安全报告指出,360旗下的鲁大师利用云控技术进行流量劫持,未经用户同意读取浏览器历史,严重侵犯隐私。鲁大师根据用户访问记录调整弹窗频率,其推广行为类似恶意软件,已成为行业常态。
Astral公司推出PYX,一个Python原生包注册表,提升生态系统的速度和安全性。Google发布Gemma 3 270M模型,适用于设备端应用。伊利诺伊州禁止未经审查的AI聊天机器人用于心理治疗,以保护脆弱人群。Meta因未经同意访问Flo应用的女性健康数据被裁定侵犯隐私。
自春节以来,AI大模型迅速改变各行业,但安全风险增加,数据泄露和隐私侵犯问题突出。企业需建立全生命周期的安全防线。火山引擎在“AI时代,安全领航”大会上指出,安全是释放大模型价值的关键,并针对六大安全挑战提出解决方案,如大模型应用防火墙和机密计算平台,以确保数据安全与性能平衡。
谷歌将向德克萨斯州支付13.75亿美元,以解决因隐私侵犯而提起的诉讼。德州检察长指控谷歌非法追踪和收集用户的地理位置、隐私搜索和生物识别数据。
文章讨论了七种有争议的人工智能工具,如DeepNude、DeepFakes和AI钓鱼工具,指出它们可能引发的法律和伦理问题,包括隐私侵犯、虚假信息传播和网络犯罪。作者强调负责任使用AI的重要性,呼吁谨慎和道德地使用这些技术。
在数字时代,数据泄露和隐私侵犯频繁,强大的网络隐私解决方案至关重要。传统身份管理系统面临数据集中化风险,难以保护用户隐私。Rust语言因其性能和安全性,成为开发安全网络应用的理想选择,提供丰富的加密库,支持安全数据处理,确保内存安全和并发性,适合构建高性能网络服务。
AI监工在职场引发争议,监控员工的打字速度和鼠标活动,甚至发出警告。虽然有助于工作自动化,但侵犯隐私,增加心理压力,导致员工与企业关系紧张。
这项研究发现,大型语言模型(LLM)可以通过推断个人属性来侵犯隐私。研究人员使用真实Reddit个人资料构建了数据集,并发现LLM在推断个人属性方面准确率很高。研究还指出,与LLM驱动的聊天机器人互动可能导致个人信息被提取。研究结果表明,目前的隐私保护措施对于防止LLM推断攻击无效。研究呼吁加强对LLM隐私影响的讨论,并提出更广泛的隐私保护措施。
研究发现大型语言模型(LLM)能够通过推断个人属性侵犯隐私,构建了真实Reddit个人资料数据集并展示了LLM的高准确率。研究还指出聊天机器人提取个人信息的新威胁,常用隐私保护措施对LLM攻击无效。呼吁对LLM隐私影响展开广泛讨论以实现更广泛的隐私保护。
研究发现,大型语言模型(LLM)可以通过推断个人属性侵犯隐私,使用真实Reddit个人资料构建数据集展示了LLM在推断个人属性方面的高准确率。研究还指出通过聊天机器人提取个人信息的新威胁。常用防御措施对保护用户隐私无效,研究呼吁对LLM隐私影响展开更广泛的讨论,以实现更广泛的隐私保护。
研究发现大型语言模型(LLM)可以通过推断个人属性侵犯隐私,构建了真实Reddit个人资料数据集,展示了LLM在推断个人属性方面的高准确率,聊天机器人提取个人信息构成新威胁,现有隐私保护措施无效,呼吁展开更广泛讨论以实现更广泛隐私保护。
研究发现,大型语言模型(LLM)可以通过推断个人属性侵犯隐私,使用真实Reddit个人资料构建数据集展示了LLM在推断个人属性方面的高准确率。研究还指出通过聊天机器人提取个人信息的新威胁,常用的隐私保护措施对于防御LLM推断攻击无效。研究呼吁展开更广泛的讨论,实现更广泛的隐私保护。
该论文研究了机器学习流程中的隐私保护问题,使用统计学方法检测隐私侵犯,并发现重抽样技术会导致更多隐私泄露,强调了开发私有预处理技术的重要性。
这项研究揭示了参与者对人工智能的定义和第四次工业革命的关键主题,包括工作替代、隐私侵犯和不准确信息。对政府在塑造第四次工业革命方面的看法不一,有人主张严格监管,其他人则支持和发展。第四次工业革命带来的变化包括自动化、就业影响、社会疏离和技术依赖。了解这些感知对于有效管理人工智能的挑战和机遇至关重要。
本文提出了一种细粒度、基于实体级别的方法来量化语言模型的记忆能力,并提供了一种高效提取敏感实体的方法。实验结果显示语言模型在实体级别上具有较强的记忆能力,并能够在部分泄露情况下重新生成训练数据。这些发现要求语言模型的训练者在模型记忆方面更加谨慎,采用记忆减轻技术以防止隐私侵犯。
利用大型语言模型将其嵌入虚拟化身或以其作为叙述形式,通过用户配置文件进行提示工程和微调,促进XR的包容性体验,增强XR环境的互动性。需要研究隐私侵犯问题和用户的隐私关注和偏好。
本文提出了一种基于实体级别的方法来量化语言模型的记忆能力,并提供了一种高效提取敏感实体的方法。实验结果显示,语言模型在实体级别上具有较强的记忆能力,需要采用记忆减轻技术以防止隐私侵犯。
完成下面两步后,将自动完成登录并继续当前操作。