import cupy as cp
import numpy as np
x_cpu = np.random.randn(100, 100).astype(np.float32)
x_gpu = cp.asarray(x_cpu)
%%timeit
x_cpu*x_cpu
2.41 µs ± 19.7 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
%%timeit
x_gpu*x_gpu
14.3 µs ± 53.4 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
import torch
x_tensor = torch.from_numpy(x_cpu)
%%timeit
x_tensor*x_tensor
3.01 µs ± 33.5 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
x_gpu_tensor = x_tensor.cuda()
%%timeit
x_gpu_tensor*x_gpu_tensor
7.85 µs ± 13.9 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
1
leido 2018-11-30 21:13:15 +08:00 via Android
用 Python 你还在乎效率?
|
3
justou 2018-11-30 21:19:05 +08:00 via Android
数据量太小,让 gpu 工作的一系列中间步骤所花费的时间占主要了,换大点的矩阵试试,比如 100000*100000
|
4
justou 2018-11-30 21:22:29 +08:00 via Android
gpu 适合一次性处理大量的数据
|
5
wlwood 2018-11-30 21:26:55 +08:00 via Android
当然,矩阵计算,numpy 可是堪比 matlab 的
|
6
necomancer 2018-11-30 21:41:25 +08:00
直接用 * 是矩阵乘法吗……别的不知道,numpy 下是批量相乘吧……
numpy 里 x_cpu.dot(x_cpu) 才是矩阵乘法。 |
7
Nimrod 2018-11-30 21:56:45 +08:00 via Android
numpy 的矩阵乘法是 dot 不是*吧。。
|
8
lonccc 2018-12-01 01:04:42 +08:00 via Android
你这也不是矩阵乘法啊,这是 element wise 的乘法。另外,numpy 的矩阵乘法可以用到 blas 的库,优化的很好了
|
9
takato 2018-12-01 01:22:01 +08:00
用 matmul()
|
10
Xs0ul 2018-12-01 02:24:14 +08:00
给个数量级参照:
def add(a, b): return a+b def add2(a, b): return add(a, b) x = 100.0 %%timeit add(x, x) 180 ns ± 6.67 ns per loop (mean ± std. dev. of 7 runs, 10000000 loops each) %%timeit add2(x, x) 281 ns ± 3.59 ns per loop (mean ± std. dev. of 7 runs, 1000000 loops each) 函数调用的开销都只比你低一个数量级了 |
11
northisland 2018-12-01 12:44:39 +08:00
量太小了,换成 5000 维的方阵,GPU 的并行加速的特性就能体现出来了
|