GPU CUDA 5.0 インストール Scientific Linux / CentOS / Red Hat EL 6.4
PGIアクセラレータ™ コンパイラを使用する前に、NVIDIA社の CUDA™ 開発環境をインストールしておく必要があります。ここでは、 一例として Sceintific Linux 6.4 (RHEL/CentOS 6.4) 上に CUDA 5.5 環境をインストールする手順を説明します。ここでの前提は、ハードウェアシステムの中に、NVIDIA 社の GPU が実装されていることとします。
2013年10月16日 Copyright © 株式会社ソフテック 加藤
PGIアクセラレータ™ コンパイラを使用するためには、NVIDIA社の CUDA-enable な GeForce、Quadro、Tesla カードを有した CUDA ソフトウェアがインストールされたシステムが必要です。サポートされる GPU の詳細なリストは、NVIDIA の ウェブサイトでご覧下さい。www.nvidia.com/object/cuda_learn_products_jp.html
なお、現在、Linuxシステム(Red Hat/ CentOS /Fedora) に搭載している GPU ボードの型番を調べたい場合は、以下のコマンドを使用します。以下の例は、NVIDIA Tesla K20(NF200) と GeForce 580(GF110) ボードが搭載された場合の状況を示しています。
[root@photon29 ~]# lspci | grep -i nVidia (一例) 02:00.0 PCI bridge: NVIDIA Corporation NF200 PCIe 2.0 switch (rev a3) 03:00.0 PCI bridge: NVIDIA Corporation NF200 PCIe 2.0 switch (rev a3) 03:02.0 PCI bridge: NVIDIA Corporation NF200 PCIe 2.0 switch (rev a3) 04:00.0 VGA compatible controller: NVIDIA Corporation GF110 [GeForce GTX 580] (rev a1) 04:00.1 Audio device: NVIDIA Corporation GF110 High Definition Audio Controller (rev a1) 06:00.0 3D controller: NVIDIA Corporation Device 1022 (rev a1)
また、ソフトウェアでは、Linuxシステム上でNVIDIA CUDAドライバーコンポーネントをインストールしておく必要があります。 これらは、NVIDIA の Webサイト( https://developer.nvidia.com/cuda-downloads) からダウンロード可能です。これらは、PGIコンポーネントではありませんので、NVIDIA 社によってライセンス並びにサポートされます。現在、CUDA 5.5 のダウンロードサイトでは、以下に示す CUDA Toolkit、SDK code samples、ドライバーの全てが含まれた1ファイルで提供されています。
CUDA 5.5 から Linux の RPM (Package Manager) によるインストールが可能となりました。今回は、この方法で CUDA をインストールする方法を説明します。(従来の Runfile によるインストール方法もあります。Runfile による方法は、過去の CUDA 5.0 インストール方法をご参照ください。)上記の CUDA 5.5 ダウンロードサイトのページから Linux RHEL 6 のディストリブ-ション用のRPM 用のファイルをダウンロードします。このファイルは、cuda-repo-rhel6-5.5-0.x86_64.rpm と言うファイルですが、CUDA用のリポジトリをRPM管理下にセットするためのファイルです。
NVIDIA 英文インストレーション・ガイドは、こちらで見ることが出来ますので、併せて参照してください。
事前準備
RedHat系の場合、DKMS / libvdpauのような他の外部パッケージに依存するため、rpmforge 等のサードパーティのリポジトリのセットが必要となります。以下のコマンドにより、rpmforgeのためのセットアップを行います。yum を用いてリポジトリのセットを行います。
# yum install http://pkgs.repoforge.org/rpmforge-release/rpmforge-release-0.5.3-1.el6.rf.x86_64.rpm
CUDAドライバーは、基本的には、X display のドライバでもありますので、これをインストールする時は、X が動作していない状態で行う必要があります。Linux システムの起動では、デフォルト Run level 5 で起動されますので、X が動作しています。これを一旦、Run level 3 に戻してから CUDA のドライバのインストールを行いますが、その前に、RPMによるインストール方法と従来の NVIDIA Runfile でインストールする方法では、互換性がないため過去の NVIDIA ドライバーを削除します。
[root@photon30 ~]# init 3 [root@photon30 tmp]# uname -a (Linux カーネ情報) Linux photon30 2.6.32-358.18.1.el6.x86_64 #1 SMP Tue Aug 27 14:23:09 CDT 2013 x86_64 x86_64 x86_64 GNU/Linux (以前に .run ファイルで実装されたCUDAドライバーを削除する) [root@photon30 tmp]# /usr/bin/nvidia-uninstall
CUDA 5.5 の RPM によるインストール
今回は、Scientific Linux(RHEL/CentOS) 6.4 にインストールするため、CUDA ダウンロードサイトにて Red Hat Enterprise Linux 6 (64bit) 用の rpm ファイルをダウンロードします。
[root@photon30 tmp]# ls (/tmp配下で行う) cuda-repo-rhel6-5.5-0.x86_64.rpm (CUDAリポジトリのインストール) [root@photon30 tmp]# rpm --install cuda-repo-rhel6-5.5-0.x86_64.rpm [root@photon30 tmp]# ls /etc/yum.repos.d/ (yum のリポジトリ確認、cuda.repoが作成されている) cuda.repo mirrors-rpmforge-extras rpmforge.repo sl-updates.repo.rpmsave sl.repo.rpmsave mirrors-rpmforge mirrors-rpmforge-testing sl-other.repo sl.repo [root@photon30 tmp]# yum clean expire-cache Loaded plugins: refresh-packagekit, security Cleaning repos: cuda rpmforge sl sl-security 4 metadata files removed [root@photon30 tmp]# yum install cuda Loaded plugins: refresh-packagekit, security cuda | 2.5 kB 00:00 cuda/primary_db | 24 kB 00:00 rpmforge | 19 kB 00:00 sl | 3.7 kB 00:00 sl-security | 3.0 kB 00:00 Setting up Install Process Resolving Dependencies (中略) Install 45 Package(s) Total download size: 725 M Installed size: 1.5 G Is this ok [y/N]: y (中略) Installed: cuda.x86_64 0:5.5-22 Dependency Installed: cuda-5-5.x86_64 0:5.5-22 cuda-command-line-tools-5-5.x86_64 0:5.5-22 cuda-core-5-5.x86_64 0:5.5-22 cuda-core-libs-5-5.x86_64 0:5.5-22 cuda-documentation-5-5.x86_64 0:5.5-22 cuda-extra-libs-5-5.x86_64 0:5.5-22 cuda-headers-5-5.x86_64 0:5.5-22 cuda-license-5-5.x86_64 0:5.5-22 cuda-misc-5-5.x86_64 0:5.5-22 cuda-samples-5-5.x86_64 0:5.5-22 cuda-visual-tools-5-5.x86_64 0:5.5-22 dkms.noarch 0:2.1.1.2-1.el6.rf freeglut.x86_64 0:2.6.0-1.el6 freeglut-devel.x86_64 0:2.6.0-1.el6 libICE-devel.x86_64 0:1.0.6-1.el6 libSM-devel.x86_64 0:1.2.1-2.el6 libX11-devel.x86_64 0:1.5.0-4.el6 libXau-devel.x86_64 0:1.0.6-4.el6 libXdamage-devel.x86_64 0:1.1.3-4.el6 libXext-devel.x86_64 0:1.3.1-2.el6 libXfixes-devel.x86_64 0:5.0-3.el6 libXi-devel.x86_64 0:1.6.1-3.el6 libXmu-devel.x86_64 0:1.1.1-2.el6 libXt-devel.x86_64 0:1.1.3-1.el6 libXxf86vm-devel.x86_64 0:1.1.2-2.el6 libdrm-devel.x86_64 0:2.4.39-1.el6 libxcb-devel.x86_64 0:1.8.1-1.el6 mesa-libGL-devel.x86_64 0:9.0-0.8.el6_4.3 mesa-libGLU-devel.x86_64 0:9.0-0.8.el6_4.3 nvidia-kmod.x86_64 1:319.37-1.el6 nvidia-modprobe.x86_64 0:319.37-1.el6 nvidia-settings.x86_64 0:319.37-30.el6 nvidia-xconfig.x86_64 0:319.37-27.el6 xorg-x11-drv-nvidia.x86_64 1:319.37-2.el6 xorg-x11-drv-nvidia-devel.i686 1:319.37-2.el6 xorg-x11-drv-nvidia-devel.x86_64 1:319.37-2.el6 xorg-x11-drv-nvidia-libs.i686 1:319.37-2.el6 xorg-x11-drv-nvidia-libs.x86_64 1:319.37-2.el6 xorg-x11-proto-devel.noarch 0:7.6-25.el6 Complete!
環境変数 PATH と LD_LIBRARY_PATH
この環境変数の設定は、PGIコンパイラを使用するだけであるのであれば、必須ではありません。CUDA Tool Kit 内の cudaprof 等の utility を使用する場合や、NVIDIA CUDA C言語を使用する場合は必要ですので、予め設定しておいた方が無難でしょう。CUDAソフトウェアの置かれている場所とCUDA shared library の場所を指定するため、以下の環境変数の設定を $HOME/.bashrc 等の起動 rc ファイルに定義します。ここでは、個々のユーザ id 環境下の .bashrc に設定することにします。CUDA 2.3 以降は、/usr/local/cuda-5.5/lib (32bit用)と /usr/local/cuda-5.5/lib64 (64bit用)が存在します。64ビットの Linux の場合は、LD_LIBRARY_PATHは、/usr/local/cuda-5.5/lib64 と /lib の両方を指定します
【64ビットLinux】LD_LIBRARY_PATH=/usr/local/cuda-5.5/lib64:/lib
【32ビットLinux】LD_LIBRARY_PATH=/usr/local/cuda-5.5/lib
[kato@photon29 tmp]# cd [kato@photon29 etc]# vi .bashrc (前略) export PATH=/usr/local/cuda-5.5/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda-5.5/lib64:/lib:$LD_LIBRARY_PATH :wq [root@photon29 etc]#
CUDAコマンドの実行検証
設定した PATH 環境変数等が反映された別の端末セッションを開き、CUDAコマンドを実行してみます。
[kato@photon29 ~]$ which nvcc /usr/local/cuda-5.5/bin/nvcc (テストプログラム作成) [kato@photon29 ~]$ vi test.c main() {printf("hello\n");} :wq [kato@photon29 ~]$ nvcc -V (nvcc コンパイラのバージョン確認) nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2013 NVIDIA Corporation Built on Wed_Jul_17_18:36:13_PDT_2013 Cuda compilation tools, release 5.5, V5.5.0 [kato@photon29 ~]$ nvcc test.c [kato@photon29 ~]$ ./a.out hello [kato@photon29 ~]$ ldd a.out (shared library のリンク確認) linux-vdso.so.1 => (0x00007fff951ff000) librt.so.1 => /lib64/librt.so.1 (0x0000003e48200000) libpthread.so.0 => /lib64/libpthread.so.0 (0x0000003e47a00000) libdl.so.2 => /lib64/libdl.so.2 (0x0000003e47600000) libstdc++.so.6 => /usr/lib64/libstdc++.so.6 (0x0000003e53a00000) libm.so.6 => /lib64/libm.so.6 (0x0000003e47e00000) libgcc_s.so.1 => /lib64/libgcc_s.so.1 (0x0000003e53200000) libc.so.6 => /lib64/libc.so.6 (0x0000003e47200000) /lib64/ld-linux-x86-64.so.2 (0x0000003e46e00000)
以上で、CUDA の開発環境のセットアップは終了します。
PGIコンパイラの pgaccelinfo コマンドでGPUボード情報を出力
PGIコンパイラが既にインストールされている場合は、pgaccelinfo コマンドで、実装されているNVIDIA GPUボード情報が出力できます。もし、GPUのボード特性が表示されない場合は、こちらの FAQ をご参照下さい。Linux 上で、CUDA module のロードが行われておらず、/dev 上の nvidia エントリが作成されていない可能性があります。
Linux上の NVIDIA ドライバーバージョンを見る。 [kato@photon29 X11]$ cat /proc/driver/nvidia/version NVRM version: NVIDIA UNIX x86_64 Kernel Module 319.37 Wed Jul 3 17:08:50 PDT 2013 GCC version: gcc version 4.4.7 20120313 (Red Hat 4.4.7-3) (GCC)
[kato@photon29 GPGPU]$ pgaccelinfo CUDA Driver Version 5050 <== この番号は、NVIDIAドライバーのバージョン番号 5.5 の意味 NVRM version: NVIDIA UNIX x86_64 Kernel Module 319.37 Wed Jul 3 17:08:50 PDT 2013 Device Number: 0 Device Name: Tesla K20c Device Revision Number: 3.5 Global Memory Size: 5368512512 Number of Multiprocessors: 13 Number of SP Cores: 2496 Number of DP Cores: 832 Concurrent Copy and Execution: Yes Total Constant Memory: 65536 Total Shared Memory per Block: 49152 Registers per Block: 65536 Warp Size: 32 Maximum Threads per Block: 1024 Maximum Block Dimensions: 1024, 1024, 64 Maximum Grid Dimensions: 2147483647 x 65535 x 65535 Maximum Memory Pitch: 2147483647B Texture Alignment: 512B Clock Rate: 705 MHz Execution Timeout: No Integrated Device: No Can Map Host Memory: Yes Compute Mode: default Concurrent Kernels: Yes ECC Enabled: No Memory Clock Rate: 2600 MHz Memory Bus Width: 320 bits L2 Cache Size: 1310720 bytes Max Threads Per SMP: 2048 Async Engines: 2 Unified Addressing: Yes Initialization time: 30012 microseconds Current free memory: 5288091648 Upload time (4MB): 1199 microseconds (1063 ms pinned) Download time: 1236 microseconds ( 843 ms pinned) Upload bandwidth: 3498 MB/sec (3945 MB/sec pinned) Download bandwidth: 3393 MB/sec (4975 MB/sec pinned) PGI Compiler Option: -ta=nvidia,cc35 Device Number: 1 Device Name: GeForce GTX 580 Device Revision Number: 2.0 Global Memory Size: 1609760768 Number of Multiprocessors: 16 Number of Cores: 512 Concurrent Copy and Execution: Yes Total Constant Memory: 65536 Total Shared Memory per Block: 49152 Registers per Block: 32768 Warp Size: 32 Maximum Threads per Block: 1024 Maximum Block Dimensions: 1024, 1024, 64 Maximum Grid Dimensions: 65535 x 65535 x 65535 Maximum Memory Pitch: 2147483647B Texture Alignment: 512B Clock Rate: 1544 MHz Execution Timeout: Yes Integrated Device: No Can Map Host Memory: Yes Compute Mode: default Concurrent Kernels: Yes ECC Enabled: No Memory Clock Rate: 2004 MHz Memory Bus Width: 384 bits L2 Cache Size: 786432 bytes Max Threads Per SMP: 1536 Async Engines: 1 Unified Addressing: Yes Initialization time: 30012 microseconds Current free memory: 1526685696 Upload time (4MB): 914 microseconds ( 727 ms pinned) Download time: 1024 microseconds ( 648 ms pinned) Upload bandwidth: 4588 MB/sec (5769 MB/sec pinned) Download bandwidth: 4096 MB/sec (6472 MB/sec pinned) PGI Compiler Option: -ta=nvidia,cc20