我试图将矩阵A(m,r),B(n,r)和C(k,r)分解一个张量(m,n,o)。这就是所谓的PARAFAC分解。 Tensorly已经做了这种分解。使用np.tensordot的矩阵Khatri产品
一个重要的步骤是乘以A,B和C以获得形状张量(m,n,o)。
Tensorly做到这一点,如下所示:
def kt_to_tensor(A, B, C):
factors = [A, B, C]
for r in range(factors[0].shape[1]):
vecs = np.ix_(*[u[:, r] for u in factors])
if r:
res += reduce(np.multiply, vecs)
else:
res = reduce(np.multiply, vecs)
return res
不过,我使用的是包(Autograd)不支持np.ix_
操作。因此我写了一个更简单的定义如下:
def new_kt_to_tensor(A, B, C):
m, n, o = A.shape[0], B.shape[0], C.shape[0]
out = np.zeros((m, n, o))
k_max = A.shape[1]
for alpha in range(0, m):
for beta in range(0, n):
for delta in range(0, o):
for k in range(0, k_max):
out[alpha, beta, delta]=out[alpha, beta, delta]+ A[alpha, k]*B[beta, k]*C[delta, k]
return out
但是,事实证明,这个实现也有一些autograd不支持的方面。但是,autograd确实支持np.tensordot
。
我想知道如何使用np.tensordot
来获得这个乘法。我认为Tensorflow的tf.tensordot
也会有类似的功能。
预期的解决方案应该是这样的:
def tensordot_multplication(A, B, C):
"""
use np.tensordot
"""
我很惊讶你的'ix_'评论。这已经是很长一段时间了。 'reduce'可能需要在PY3中导入。 – hpaulj
@hpaulj:Numpy确实支持这些。但是,Autograd不允许使用.ix_来计算渐变。请参阅:https://github.com/HIPS/autograd/issues/210 –
'ix_'只是Divakar第一种方法所做的维度扩展。 'reduce'应用乘法部分。 – hpaulj