王老师您好,首先我想请教一个问题:
在仔细看了GFK的原文及其之前closed的issues之后,

我发现G的是D*D的对称矩阵(代码结果也是),那 $z = \sqrt{\mathbb{G}} x $的话,原数据的维数的确没变。
我也提出了如 #122 的问题,多次运行发现,dim的设置只影响了投影矩阵的维数。
结合您的《迁移学习导论》,我了解到:GFK是利用PCA的子空间来表示Grassmann流形上的点。因此dim的设置在于对齐Ps和Pt的维数,才能进行子空间和子空间的度量。
所以请问,核G是不是可以看作点到子空间的映射,而不是传统意义上筛选特征的降维呢, 实际上特征是上升到了无穷维?
此外,#121 提出的GVSD实现可以通过一种简单的方式来实现:

由于 $P_s^TP_t$ 是 $d*d$ 的方阵,且是PCA后选出来列正交的矩阵,它的可逆性使得GSVD退化成求一个简单的奇异值分解,但更一般的GSVD需要查阅一些文献实现,我实现了一个pytorch版本的GFK(here),供大家一起交流学习!
王老师您好,首先我想请教一个问题:

$z = \sqrt{\mathbb{G}} x $ 的话,原数据的维数的确没变。
在仔细看了GFK的原文及其之前closed的issues之后,
我发现G的是D*D的对称矩阵(代码结果也是),那
我也提出了如 #122 的问题,多次运行发现,dim的设置只影响了投影矩阵的维数。
结合您的《迁移学习导论》,我了解到:GFK是利用PCA的子空间来表示Grassmann流形上的点。因此dim的设置在于对齐Ps和Pt的维数,才能进行子空间和子空间的度量。
所以请问,核G是不是可以看作点到子空间的映射,而不是传统意义上筛选特征的降维呢, 实际上特征是上升到了无穷维?
此外,#121 提出的GVSD实现可以通过一种简单的方式来实现:
由于$P_s^TP_t$ 是 $d*d$ 的方阵,且是PCA后选出来列正交的矩阵,它的可逆性使得GSVD退化成求一个简单的奇异值分解,但更一般的GSVD需要查阅一些文献实现,我实现了一个pytorch版本的GFK(here),供大家一起交流学习!