多视点模糊表示学习与基于规则模型

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

该文提出了一种基于可解释的Takagi-Sugeno-Kang模糊系统的多视图模糊表示学习方法,能够将多视图数据转化为高维模糊特征空间,并同时探索视图之间的共同信息和每个视图的特定信息。该方法还提出了一种新的基于L_(2,1)-norm回归的正则化方法,以挖掘视图之间的一致性信息,并通过拉普拉斯图保持数据的几何结构。实验结果表明,该方法在多个基准多视图数据集上具有优越性。

🎯

关键要点

  • 提出了一种基于可解释的Takagi-Sugeno-Kang模糊系统的多视图模糊表示学习方法。
  • 该方法将多视图数据转化为高维模糊特征空间。
  • 同时探索视图之间的共同信息和每个视图的特定信息。
  • 提出了一种基于L_(2,1)-norm回归的正则化方法,以挖掘视图之间的一致性信息。
  • 通过拉普拉斯图保持数据的几何结构。
  • 实验结果表明,该方法在多个基准多视图数据集上具有优越性。
➡️

继续阅读