我是从repa-algorithms-3.2.1.1
检验出mmultP
功能用下面的代码(在此冷凝为简洁起见一点点):在repA的的算法功能观察到意外的性能
import Data.Array.Repa hiding (map)
import Data.Array.Repa.Algorithms.Matrix (mmultP)
import Control.Monad (replicateM)
import Control.Arrow ((&&&))
import System.Random.MWC (initialize, uniformR)
import Control.Monad.ST (runST)
import Data.Vector.Unboxed (singleton)
import Data.Word (Word32)
-- Create a couple of dense matrices
genRnds :: Word32 -> [Double]
genRnds seed = runST $ do
gen <- initialize (singleton seed)
replicateM (1000^2) (uniformR (0, 1) gen)
(arr, brr) = head &&& last $ map (fromListUnboxed (Z :. 1000 :. 1000 :: DIM2) . genRnds) [1, 100000]
-- mmultP test
main :: IO()
main = mmultP arr brr >>= print
和如使用指定here,编译
ghc mmultTest.hs -Odph -rtsopts -threaded -fno-liberate-case -funfolding-use-threshold1000 -funfolding-keeness-factor1000 -fllvm -optlo-O3 -fforce-recomp
这里是在线程运行时的连续运行:
$ time ./mmultTest +RTS -K100M > /dev/null
real 0m10.962s
user 0m10.790s
sys 0m0.161s
,这里是一个使用4芯(在四核的MacBook Air上运行):
$ time ./mmultTest +RTS -N4 -K100M > /dev/null
real 0m13.008s
user 0m18.591s
sys 0m2.067s
任何人有任何的直觉来这里发生了什么?我还获得了-N2
和-N3
的慢于序列的性能;每个核心似乎都会增加一些额外的时间。
请注意,我在做观察到一些手动轧制的Repa矩阵乘法代码的一些小的收益。
UPDATE:
困惑;我换成main
与
mmultBench :: IO()
mmultBench = do
results <- mmultP arr brr
let reduced = sumAllS results
print reduced
,并取消了对mwc-random
的依赖:
(arr, brr) = head &&& last $ map (fromListUnboxed (Z :. 1000 :. 1000 :: DIM2)) (replicate 2 [1..1000000])
的判定基准与运行时选项-N1 -K100M
产量:
mean: 1.361450 s, lb 1.360514 s, ub 1.362915 s, ci 0.950
std dev: 5.914850 ms, lb 3.870615 ms, ub 9.183472 ms, ci 0.950
和-N4 -K100M
给我:
mean: 556.8201 ms, lb 547.5370 ms, ub 573.5012 ms, ci 0.950
std dev: 61.82764 ms, lb 40.15479 ms, ub 102.5329 ms, ci 0.950
这是一个可爱的加速。我几乎认为之前的行为是由于将生成的1000x1000数组写入stdout所致,但正如我所提到的,如果我交换自己的矩阵乘法代码,我确实会在那里观察到并行增益。仍在挠挠我的脑袋。
哪个GHC版本? – 2012-07-31 14:07:51
使用GHC 7.4.1。 – jtobin 2012-07-31 14:09:00
使用3核时,你会得到什么? – 2012-07-31 15:04:00