2017-04-14 107 views
2

真的有类似的问题here,here,here,但我真的不明白如何正确地将它们应用于我的案例。矩阵和向量的元素智慧点积

我有一个矩阵数组和向量数组,我需要基于元素的点积。插图:

In [1]: matrix1 = np.eye(5) 

In [2]: matrix2 = np.eye(5) * 5 

In [3]: matrices = np.array((matrix1,matrix2)) 

In [4]: matrices 
Out[4]: 
array([[[ 1., 0., 0., 0., 0.], 
     [ 0., 1., 0., 0., 0.], 
     [ 0., 0., 1., 0., 0.], 
     [ 0., 0., 0., 1., 0.], 
     [ 0., 0., 0., 0., 1.]], 

     [[ 5., 0., 0., 0., 0.], 
     [ 0., 5., 0., 0., 0.], 
     [ 0., 0., 5., 0., 0.], 
     [ 0., 0., 0., 5., 0.], 
     [ 0., 0., 0., 0., 5.]]]) 

In [5]: vectors = np.ones((5,2)) 

In [6]: vectors 
Out[6]: 
array([[ 1., 1.], 
     [ 1., 1.], 
     [ 1., 1.], 
     [ 1., 1.], 
     [ 1., 1.]]) 

In [9]: np.array([m @ v for m,v in zip(matrices, vectors.T)]).T 
Out[9]: 
array([[ 1., 5.], 
     [ 1., 5.], 
     [ 1., 5.], 
     [ 1., 5.], 
     [ 1., 5.]]) 

这最后一行是我期望的输出。不幸的是,它效率非常低,例如matrices @ vectors计算由于广播而产生的不需要的点积(如果我理解的很好,它返回2个向量的第一个矩阵点和2个向量的第二个矩阵点)实际上更快。

我猜np.einsumnp.tensordot可能会在这里有所帮助,但我所有的尝试都失败了:

In [30]: np.einsum("i,j", matrices, vectors) 
ValueError: operand has more dimensions than subscripts given in einstein sum, but no '...' ellipsis provided to broadcast the extra dimensions. 

In [34]: np.tensordot(matrices, vectors, axes=(0,1)) 
Out[34]: 
array([[[ 6., 6., 6., 6., 6.], 
     [ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.]], 

     [[ 0., 0., 0., 0., 0.], 
     [ 6., 6., 6., 6., 6.], 
     [ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.]], 

     [[ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.], 
     [ 6., 6., 6., 6., 6.], 
     [ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.]], 

     [[ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.], 
     [ 6., 6., 6., 6., 6.], 
     [ 0., 0., 0., 0., 0.]], 

     [[ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.], 
     [ 0., 0., 0., 0., 0.], 
     [ 6., 6., 6., 6., 6.]]]) 

注:我的真实的情况是使用更复杂的矩阵比matrix1matrix2

回答

3

随着np.einsum,你可能使用:

np.einsum("ijk,ki->ji", matrices, vectors) 

#array([[ 1., 5.], 
#  [ 1., 5.], 
#  [ 1., 5.], 
#  [ 1., 5.], 
#  [ 1., 5.]]) 
+0

我想就是这样。我必须在这个爱因斯坦符号上工作,我猜...谢谢! – nicoco

+0

不客气。很高兴帮助! – Psidom

1

您可以使用@作为如下所示

matrices @ vectors.T[..., None] 
# array([[[ 1.], 
#   [ 1.], 
#   [ 1.], 
#   [ 1.], 
#   [ 1.]], 

#  [[ 5.], 
#   [ 5.], 
#   [ 5.], 
#   [ 5.], 
#   [ 5.]]]) 

正如我们可以看出它计算正确的东西,但安排他们错了。因此

(matrices @ vectors.T[..., None]).squeeze().T 
# array([[ 1., 5.], 
#  [ 1., 5.], 
#  [ 1., 5.], 
#  [ 1., 5.], 
#  [ 1., 5.]]) 
+0

这也适用,显然它和@ Psidom的解决方案一样快。我会接受他的回答,因为他速度更快,但这相当好... – nicoco

+0

@nicoco很好。感谢您的时间。这是有用的知道。 –