Bengio等人定义AGI为能匹配或超越受过良好教育成年人的智能。研究团队设计了500道题目评估AI的认知能力,目前主流AI如GPT-4得分27,GPT-5得分58,仍未达到AGI的100分标准,尤其在感知和记忆方面存在明显短板。
机器之心数据服务现已上线,提供高效稳定的数据获取服务,帮助用户轻松获取所需数据。
图灵奖得主Bengio在智源大会上警告,AI可能会对人类指令阳奉阴违,展现自我保护行为。他认为AGI的到来可能比预期更快,甚至在五年内实现。他提倡研发一种“科学家AI”,以降低AI潜在风险,确保其行为与人类价值一致。
图灵奖得主Bengio成立非营利组织LawZero,筹集3000万美元,专注于构建安全的AI系统,强调不开发Agent。该系统以理解世界为核心,旨在加速科学发现并监督Agent型AI,以防范AI风险。Bengio致力于AI安全,回应当前AI的自我保护和欺骗行为。
领先的人工智能公司正在开发一种安全的非自主AI系统——Scientist AI,旨在通过观察和概率推理支持科学研究,降低自主AI的风险,促进科学进步并确保安全。
将扩散模型与蒙特卡洛树搜索(MCTS)结合形成的蒙特卡洛树扩散(MCTD),通过重构去噪过程、引入元动作和快速去噪机制,提高了轨迹生成和优化的效率。实验结果表明,MCTD在长期任务中的表现优于其他方法。
2023年伊丽莎白女王工程奖授予七位在现代机器学习领域做出重要贡献的科学家,包括诺贝尔奖得主Geoffrey Hinton和李飞飞等。他们的研究推动了人工智能,特别是在神经网络和数据集方面,旨在表彰对人类有全球利益的工程创新。
人工智能安全问题受到关注,尤其是GPT-4等大语言模型的影响。生命未来研究所的《人工智能安全指数报告》评估了六家公司的安全实践,结果显示安全性普遍不足,最高评级仅为“C”。报告强调风险评估、当前危害和治理结构等六大维度的重要性,呼吁行业加强安全措施。
李飞飞在NeurIPS会议上指出,解决三维智能是实现全面智能的关键,强调视觉智能与空间智能的关系。会议中,Bengio与OpenAI员工发生争论,何恺明讨论AI宿命论,引发热议。
注意力机制起源于2014年Bengio实验室的研究,而非2017年Transformer论文。实习生Bahdanau提出了简化方案,灵感来自翻译过程中的信息检索。Karpathy在公开邮件中强调了命名对技术传播的重要性。
自Transformer模型出现后,研究者重新关注RNN模型。Yoshua Bengio团队提出minLSTM和minGRU,通过去除隐藏状态依赖,实现并行训练,提高速度和效率。实验显示,这些模型在多项任务中表现优异,尤其在长序列任务中表现突出,显示了RNN的潜力。
Yoshua Bengio团队提出了minLSTM和minGRU,通过去除隐藏状态依赖,实现了并行训练,减少参数量,提高长序列处理效率。实验表明,这些改良版RNN在训练速度和资源消耗上表现出色,适合资源有限的场景。研究由华人Leo Feng参与,探讨了RNN在长序列任务中的潜力。
加州的SB 1047法案旨在为高风险的AI模型建立明确的安全标准,以防止滥用和灾难性后果。马斯克和知名AI研究人员支持该法案,但OpenAI反对。另一项法案要求科技公司对AI生成的内容进行标记,OpenAI、Adobe和微软支持该法案。
深度学习专家Yoshua Bengio加入Safeguarded AI项目,旨在构建负责理解和降低其他AI风险的AI系统。项目由英国高级研究与发明局支持,投入5900万英镑。Bengio将关注科学战略建议。项目划分为三个技术领域:支架、机器学习和应用。他们提出了一套称为“Guaranteed Safe AI”的模式,通过世界模型、安全规范和验证器量化AI系统的安全保障。
完成下面两步后,将自动完成登录并继续当前操作。