本文提出了两种基于图距离的半监督 Fréchet 回归方法,证明其性能优于有监督对照方法,填补了现有研究空白,为半监督 Fréchet 回归领域的进一步发展铺平了道路。
OpenAI发布了GPT-4o mini,是GPT-4o的较小版本,性能优于GPT-3.5 Turbo。它使用指令层次方法训练,提高了对越狱和系统提示的抵抗力。GPT-4o mini支持文本和视觉输入/输出,未来将支持音频和视频。该模型具有相同的上下文窗口、标记数量和训练知识截止日期。在LLM基准测试中,GPT-4o mini的性能优于其他小型LLM和GPT-3.5。OpenAI致力于提升模型能力并降低成本,将模型无缝集成到应用程序和网站中。GPT-4o mini为开发人员构建和扩展人工智能应用程序提供了高效和经济的解决方案。
本文介绍了一种新的激活函数SwishReLU,结合了ReLU和Swish的元素。研究发现SwishReLU在计算成本较低的同时,性能优于ReLU。在CIFAR-10数据集上应用于VGG16模型可以提高6%的准确率。
大型语言模型的研究发现,神经元的稀疏性与任务特定能力呈正相关。神经元级微调(NeFT)是一种将参数训练的粒度细化到单个神经元的新方法,能够实现更精确、计算更高效的模型更新。实验结果表明,NeFT在性能和神经元分析方面优于传统的微调方法。
本研究提出了一种基于高速公路图的新颖图结构,用于加速RL算法的训练效率,并在性能上优于其他RL算法。同时,基于高速公路图训练的深度神经网络代理具有更好的泛化性能和更低的存储成本。
该研究提出了一种新型的双通道神经网络模型(DCNN),通过结合卷积操作和自注意机制,提高了细粒度图像分类的准确性。实验证明,该模型在细粒度基准数据集上的性能优于其他先进的卷积或注意力细粒度骨干网络。
本文研究了基于图卷积网络的协作过滤方法,提出了基于图滤波的协作过滤作为基准模型,并在实验中证明了其性能优于基于深度学习的方法。
K-Act2Emo是一个韩国常识知识图谱,包含1,900个间接情绪表达及其可推测的情绪。该模型专注于情绪上下文,并通过实验证明在训练情绪推理模型方面的有效性。K-Act2Emo在性能上优于其他韩国大语言模型,与GPT-4 Turbo相媲美。
通过融合模块改进的FusionU-Net是一种新型分割网络,实验证明其性能优于其他方法,融合模块设计更有效,可嵌入其他网络以提高模型性能。
本文介绍了一种简单准确的神经模型,用于词语语义角色标注。该模型通过双向LSTM编码器预测谓词论元依赖关系,在英语上取得有竞争力的性能。同时,在自动生成词性标注作为输入时,性能优于先前的模型,并接近英语CoNLL-2009数据集的最佳结果。在中文、捷克语和西班牙语上也取得了有竞争力的结果。基于语法的解析器在领域外数据上不可靠,而基于语法不可知的模型表现更健壮,在领域外测试集上得到了最佳结果。
我们提出了一种基于数据驱动的粗糙动作细化方法,通过手为中心的表示和建模手与物体的动态时空关系,捕捉手物互动的动态线索,并在实验证明我们的方法在性能上优于之前的方法。
T5预训练方法在数据生成文本任务中表现优异,超过传统神经网络和其他预训练技术。T5在域外测试集上展现出更好的泛化能力,为未来研究提供有益基础。
本文提出了一种多光谱框架用于差异化仿真攻击检测,通过捕获基准图像和面部图像来检测电子护照中的人脸图像是否被修改。实验结果表明,该框架的性能优于可见光图像检测。
本文研究信息提取问题,使用预训练语言模型和图神经网络相结合的模型编码视觉和文本信息,并通过无监督微调改善性能。实验证明该方法在发票和简历数据集上的性能优于基线方法。
本文介绍了一种新型的拓扑感知CNN架构——Ta-CNN,通过引入跨通道特征增强模块,有效增强了拓扑特征。实验证明,Ta-CNN在性能上优于现有的基于CNN的方法,并且在GFLOPs和参数要求上明显优于GCN-based方法。
本文提出了一种基于强化学习的新型路径规划方法,称为模型预测强化学习(MPRL),通过计算船只需遵循的航点来规划路径,能够处理任何形状的水道和障碍物。在两个场景上验证了该方法,结果表明其性能优于其他两种方法,能够安全地导航到目标。
该文介绍了一种新颖的弱监督引用图像分割(RIS)框架,通过利用已有的引用文本提供的信息来定位目标物体。该框架在四个基准数据集上的性能优于最新弱监督方法。
DeepOPF-U模型使用深度神经网络解决分布式能源资源条件下的最优潮流问题,性能优于现有解决方案。
本研究探讨了大型语言模型在故障模式分类中的有效性,并介绍了促使模型预测故障模式的方法。研究表明,在注释数据上进行微调的GPT-3.5模型在性能上优于当前可用的文本分类模型和开箱即用的GPT-3.5模型。
完成下面两步后,将自动完成登录并继续当前操作。