面壁智能发布了MiniCPM-o 4.5,这是首个全双工全模态大模型,支持视频、音频和文本流输入,能够在个人电脑上运行,具备实时感知和主动交互能力,提升用户体验。该模型在多项评测中表现优异,适用于智能助手和无障碍服务,但在稳定性和复杂场景处理上仍有不足。
OpenBMB推出的MiniCPM-o-4.5模型仅用9B参数实现全模态能力,强调跨模态对齐与推理效率,适合主流GPU部署,具备高性能与轻量化优势。
面壁智能推出的全模态模型MiniCPM-o4.5,具备边看边听和主动应答能力,能够实时识别环境变化并进行对话。与传统AI不同,它支持全双工交互,提升了用户体验,适用于多种场景,标志着端侧AI的新发展方向。
清华大学与面壁智能推出的MiniCPM-V 4.0模型,参数减少至4.1B,提升了移动端图像理解能力,并支持iOS应用,推动了端侧部署的广泛应用。
清华大学与面壁智能推出的MiniCPM-V 4.0端侧大模型,具备强大的图像理解能力,参数减少至4.1B,适用于移动设备,提升用户体验,推动AI在边缘设备的应用。
MiniCPM-o2.6是一个多模态大语言模型,具备视觉、语音和文本处理能力,基于80亿参数,支持实时语音对话和光学字符识别。本文介绍了在本地安装和运行该模型的步骤,包括创建GPU节点和环境配置,帮助用户轻松集成其高级功能。
MiniCPM-o 2.6 是 OpenBMB 发布的多模态人工智能模型,拥有 80 亿参数,支持视觉、语音和语言处理,能够高效运行于边缘设备。其性能优于 GPT-4V,适用于实时语音和视频处理等多种应用,推动人工智能在各行业的应用普及。
清华、厦大等提出的LLMxMapReduce技术突破了大模型的记忆限制,实现了“无限长”上下文。该技术通过将长文本切分为片段并并行处理,提取关键信息并汇总答案。实验表明,结合此框架的模型在处理超长文本时表现优异且速度较快,具有广泛的应用潜力。
这篇文章讨论了MiniCPM-Llama3-V 2.5和Llama3-V之间的剽窃争议。有人认为Llama3-V从MiniCPM-Llama3-V 2.5中窃取了大量作品,但也有人认为这只是版本升级。一些人对Llama3-V的作者的行为表示质疑,并公布了证据。参与推广者向MiniCPM的原作者道歉,并删除了对Llama3V的引用。网友对此事持不同意见,有人认为道歉不够,有人认为这只是程序员的习惯。还有人指出中国的大模型被忽视了。
面壁智能发布了2B旗舰端侧大模型面壁MiniCPM,超越了欧洲版OpenAI的性能标杆,整体领先于Google Gemma 2B量级,还比肩7B、13B量级模型。MiniCPM-V2.0多模态模型在OCR能力上显著增强,通用能力超越Qwen-VL-Chat-10B、CogVLM-Chat-17B、Yi-VL-34B等更大的模型。MiniCPM-V2.0与清华大学合作,能识别高清大图和长文本。MiniCPM-MoE-8x2B MoE性能超越全系7B量级模型,推理成本仅为Gemma-7B的69.7%。MiniCPM-1.2B模型保持上一代2.4B模型87%的综合性能,在多个测试榜单上表现优异。MiniCPM-1.2B模型在iPhone 15手机上推理速度提升38%。面壁智能选择研发体积更小、性能更强的模型。
这篇文章介绍了如何在本地运行Mini CPM 2B SFT / DPO版本的模型。首先,准备模型的运行环境和下载CPM模型。然后,编写推理程序并启动Docker容器来体验模型。文章还展示了一些简单的测试结果。
面壁智能发布了2B旗舰端侧大模型MiniCPM,性能超越Mistral-7B和Phi-2,能识别野外危险生物。MiniCPM的推理成本仅为Mistral的1%。面壁智能计划开源MiniCPM,推动大模型普及。AI Agent是大模型的关键应用方向,面壁智能推出了XAgent、AgentVerse和ChatDev。AI Agent在企业内部和消费级应用中有广泛应用前景。面壁智能的愿景是实现「智周万物」,将AI Agents连接起来形成群体智能。
完成下面两步后,将自动完成登录并继续当前操作。