conda 环境下怎么使用 cuda、cudnn、tf 等环境

2022-07-27 14:08:04 +08:00
 CaptainD

问题

(nlp) [cs@localhost miniconda3]$ conda list cuda
# packages in environment at /home/cs/miniconda3/envs/nlp:
#
# Name                    Version                   Build  Channel
cudatoolkit               10.1.243             h6bb024c_0    https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
(nlp) [cs@localhost miniconda3]$ nvcc -v
bash: nvcc: 未找到命令...
Python 3.7.6 (default, Jan  8 2020, 19:59:22) 
[GCC 7.3.0] :: Anaconda, Inc. on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import torch

>>> 
>>> print(torch.cuda.is_available())
True

>>> import tensorflow as tf

>>> 
>>> print(tf.config.list_physical_devices('GPU'))
[]

可能是环境变量导致的,我应该怎么设置

依赖关系

版本
pytorch 1.7.1
paddle 1.8.5
tf 2.3
cuda 10.1
cudnn 7.6.5
python 3.7
1404 次点击
所在节点    问与答
8 条回复
RecLusIveF
2022-07-27 14:31:25 +08:00
tf 讲道理来说,不认 conda 环境里的 cudatoolkit ,只能从英伟达那边下载 cuda ,cudnn 进行安装才能识别
ysc3839
2022-07-27 15:41:55 +08:00
建议直接用系统的包管理安装 CUDA ,有的库可能写死了 /usr/local/cuda 路径,你用 conda 安装会麻烦很多的。如果要多版本共存,推荐用 Docker ,NVIDIA 官方有提供 cuda 镜像 https://hub.docker.com/r/nvidia/cuda
handuo
2022-07-27 15:58:43 +08:00
是的 安装完官方下的 cuda 和 cudnn 后,在本用户路径 bashrc zshrc 下把 cuda 的位置 bin 和 lbib64 分别附加到 path 和 ld library path 的环境变量,具体自己谷歌
whywaoxaks
2022-07-27 16:02:14 +08:00
很多年前,每次一配 gpu 环境就得花好几天,所以就一直用 docker 了,不知道现在好不好配了。
CaptainD
2022-07-27 16:16:14 +08:00
@handuo #3 我大概查到了类似方法,虽然感觉哪里有点怪怪的,但应该是可以用了
Muniesa
2022-07-27 18:29:13 +08:00
conda 的 cudatoolkit 不是完整的 CUDA ,pytorch 和 paddle 我记得如果用 conda 装的话是可以直接用的,不需要完整 CUDA 环境
hsfzxjy
2022-07-27 18:53:33 +08:00
建议配 docker ,省心
pydiff
2022-07-28 12:02:30 +08:00
之前用 paddlepaddle 时试过 conda 装的 cudatool 没用,要用 nvidia 的。建议你用 docker ,选择 nvidia 的 cuda-cudnn-devel 版本做基础镜像

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/869014

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX