该文提出了一种基于可解释的Takagi-Sugeno-Kang模糊系统的多视图模糊表示学习方法,能够将多视图数据转化为高维模糊特征空间,并同时探索视图之间的共同信息和每个视图的特定信息。该方法还提出了一种新的基于L_(2,1)-norm回归的正则化方法,以挖掘视图之间的一致性信息,并通过拉普拉斯图保持数据的几何结构。实验结果表明,该方法在多个基准多视图数据集上具有优越性。
完成下面两步后,将自动完成登录并继续当前操作。