格灵深瞳发布的Glint-MVT视觉基础模型在分类测试中表现优异,准确率超过CLIP和OpenCLIP。该模型采用间隔Softmax损失函数,提升了特征提取能力,并在图像理解和分割任务中表现出色。团队致力于技术创新,推动AI实际应用,展现国内计算机视觉实力。
本文提出施雷尔-余数图传播(SCGP)方法,解决图神经网络在处理图数据时的过度压缩问题,改善节点间信息传递。SCGP提升节点特征,保持拓扑结构,增强长距离信息传递性能,并在分类基准测试中表现优异,具有低推理延迟和高可扩展性。
完成下面两步后,将自动完成登录并继续当前操作。