2019年3月12日
Linux上での CUDA 環境をインストールする手順
2019年3月12日
Windows 上での CUDA 環境をインストールする手順
OpenACCの基礎から応用までを具体的事例で解説しています。
2017年11月27日
CentOS 7.2 上に CUDA 9.0 環境をインストールする手順を説明します。
2017年11月27日
Windows 7 / 8.1 / 10上に CUDA 9.0 環境をインストールする手順を説明します。
2016年10月18日
CentOS 7.2 上に CUDA 8.0 環境をインストールする手順を説明します。
2016年10月13日
Windows 7 / 8.1 / 10上に CUDA 8.0 環境をインストールする手順を説明します。
2015年10月20日
Scientific Linux(RHEL/CentOS) 6.5 上に CUDA 7.5 環境をインストールする手順を説明します。
2015年10月9日
Windows 7 / 8.1 上に CUDA 7.5 環境をインストールする手順を説明します。
2015年4月23日
Scientific Linux(RHEL/CentOS) 6.5 上に CUDA 7.0 環境をインストールする手順を説明します。
2015年4月24日
Windows 7 / 8.1 上に CUDA 7.0 環境をインストールする手順を説明します。
2014年9月9日
Scientific Linux(RHEL/CentOS) 6.5 上に CUDA 6.5 環境をインストールする手順を説明します。
2014年9月9日
Windows 7 / 8.1 上に CUDA 6.5 環境をインストールする手順を説明します。
2014年5月13日
Scientific Linux(RHEL/CentOS) 6.5 上に CUDA 6.0 環境をインストールする手順を説明します。
2014年5月12日
Windows 7 / 8 上に CUDA 6.0 環境をインストールする手順を説明します。
2014年 1月18日
OpenACCのプログラミングの方法をユーザガイドとして纏めました。
2013年10月16日
Scientific Linux(RHEL/CentOS) 6.4 上に CUDA 5.5 環境をインストールする手順を説明します。
2013年10月15日
Windows 7 / 8 上に CUDA 5.5 環境をインストールする手順を説明します。
2013年8月1日
OpenACC 1.0の復習と新しい OpenACC 2.0の機能の解説
2013年7月16日
実際の OpenACC ディレクティブを利用したポーティング方法を説明します。
2012年12月14日
Windows 7 上に CUDA 5.0 環境をインストールする手順を説明します。
2012年12月12日
Scientific Linux 6.3 上に CUDA 5.0 環境をインストールする手順を説明します。
2012年6月11日
Windows 7 上に CUDA 4.2 環境をインストールする手順を説明します。
2012年6月11日
Scientific Linux 6.2 上に CUDA 4.2 環境をインストールする手順を説明します。
2012年5月30日
OpenACC ディレクティブに関する講演資料(2)
2012年5月30日
OpenACC ディレクティブに関する講演資料(1)
2012年2月27日
Scientific Linux 6.2 上に CUDA 4.1 環境をインストールする手順を説明します。
2012年2月27日
Windows 7 上に CUDA 4.1 環境をインストールする手順を説明します。
2011年10月21日
NVIDIA® CUDA ランタイムの上位ライブラリである CUBLAS は、CUDA 4.0 から新しいインタフェース(API) が導入された。その使用法を説明する。
2011年10月12日
Unified Virtual Addressing(UVA) を使用する場合のホスト側メモリの属性に関して解説する。
2011年10月11日
CUDA 4.0 からの機能である Unified Virtual Addressing を使用する例として、 ホスト側のメモリ領域も含めて Unified Virtual 空間として捉えた場合のプログラミングの方法を解説する。
2011年10月6日
CUDA 4.0 からの機能である GPUdirect v2.0 の機能の使用する例として、デバイス間の peer-to-peer メモリアクセスを利用する際のプログラミングの方法を説明する。
2011年6月24日
Windows 7 上に CUDA 4.0 環境をインストールする手順を説明します。
2011年6月24日
CentOS 5.5 上に CUDA 4.0 環境をインストールする手順を説明します。
2011年6月13日
CUDA Fortran 上で NVIDIA CUFFT ライブラリを使用する方法
2011年5月9日
CUDA Fortran 上の Module 文の使用自由度が向上しました
2011年1月5日
PGIアクセラレータ™ コンパイラの使用する前に、NVIDIA社の CUDA™ 環境環境をインストールしておく必要があります。ここでは、CentOS 5.5 上に CUDA 3.2 環境をインストールする手順を説明します。
2011年1月5日
PGIアクセラレータ™ コンパイラの使用する前に、NVIDIA社の CUDA™ 環境環境をインストールしておく必要があります。ここでは、Windows 7 上に CUDA 3.2 環境をインストールする手順を説明します。
2010年8月16日
PGIアクセラレータ™ コンパイラの使用する前に、NVIDIA社の CUDA™ 環境環境をインストールしておく必要があります。ここでは、CentOS 5.4 上に CUDA 3.1 環境をインストールする手順を説明します。
2010年8月16日
PGIアクセラレータ™ コンパイラの使用する前に、NVIDIA社の CUDA™ 環境環境をインストールしておく必要があります。ここでは、Windows 7 上に CUDA 3.1 環境をインストールする手順を説明します。
2010年7月23日
PGIアクセラレータを使って、一般的な二次元の問題をヤコビ反復法で解く「アプリケーション」を使用して、実際に GPU 用に最適化してゆくステップを説明する。Fermi(GTX480) における実際の倍精度性能も示す。
2010年7月10日
PGIアクセラレータのディレクティブによる最適化の最終段階である Kernel ループスケジューリングの方法について説明する。また、一般的な CUDA Kernel 性能の最適化方法についても説明する。
2010年7月7日
姫野ベンチマークを例題に、PGIアクセラレータ・プログラミングモデルを使用してどの程度まで性能を向上できるかを見る。Fermi で 55 GFLOPS 記録している。
2010年6月30日
一般的な行列積(matmul)のプログラムを取り上げ、PGI CUDA Fortran + CUDA CUBLAS を使用して実行した結果を示す。
2010年6月26日
一般的な行列積(matmul)のプログラムを取り上げ、PGI CUDA Fortran を使用して実行した結果を示す。
2010年6月26日
一般的な行列積(matmul)のプログラムを取り上げ、PGIアクセラレータ・プログラミングモデルを使用して実行した結果を示す。
2010年6月16日
NVIDIA の GPU の構造をハードウェア的な観点で説明してから、CUDAソフトウェア環境の技術的な事柄にマッチングさせ、GPUが高速演算できる理由を理解する。
2010年4月27日
PGIアクセラレータ™ コンパイラの使用する前に、NVIDIA社の CUDA™ 環境環境をインストールしておく必要があります。ここでは、CentOS 5.4 上に Fermi GPU 対応の CUDA 3.0 環境をインストールする手順を説明します。
2010年4月27日
PGIアクセラレータ™ コンパイラの使用する前に、NVIDIA社の CUDA™ 環境環境をインストールしておく必要があります。ここでは、Windows 7 上に Fermi GPU 対応の CUDA 3.0 環境をインストールする手順を説明します。
2010年3月18日
商用コンパイラには、自動並列化機能も備わっている。この自動並列化の能力は、商用コンパイラによっても異なる。かなり優れた性能を得ることができた、PGIコンパイラの例を紹介する。
2010年3月12日
プログラムのホットスポットを把握し、最初にGPU並列を行う部分を絞り込む。この他に、Compute-Intensity(計算密度)指標の意味、プロファイル・フィードバックによる最適化、プロシジャー間最適化等についても触れる。
2010年3月1日
NVIDIA GPU (GeForce GTX 285) の実際のメモリ帯域の測定を行い、x64系でも最大と言われる Nehalem メモリ帯域とは大きなの違いがあることを理解する。
2010年2月16日
マルチコア・プロセッサに焦点を当て、そのプロセッサ上で実現できている並列化手法とその並列性能に関する知見、現在のプロセッサ技術の問題点等を簡単に整理する。
2010年1月30日
複数の GPU を備えたシステムで、PGIコンパイラでアクセラレータを使用するための具体的な方法を説明します。
2010年1月30日
CUDA Fortranプログラムのコンパイル時に Internal error! となる?
2010年1月23日
明示的にPGI CUDA Fortran 言語のプログラムをコンパイルする方法について説明します。また、エミュレーションモードで、カーネルコード部分をホスト側でデバッグする方法を説明します。
2010年1月13日
GPUをアクセラレータとして使用する際のPGI アクセラレータ™ コンパイラのオプションについて説明します。
2009年12月22日
PGI 2010バージョンにおける、PGIアクセラレータ™ コンパイラのインストールに関して説明します。
2009年12月22日
PGIアクセラレータ™ コンパイラの使用する前に、NVIDIA社の CUDA™ 環境環境をインストールしておく必要があります。ここでは、一例として、Windows 7 上に CUDA 2.3 環境をインストールする手順を説明します。
2009年12月11日
NVIDIA の GPU搭載の Linux / Windows / OS X システム上で、コンパイラ・ディレクティブ(指示行)ベースでプログラミング可能なGPUアクセラレータ・コンパイラ機能の概要を説明します。
2009年9月10日
PGIアクセラレータ™ コンパイラの使用する前に、NVIDIA社の CUDA™ 2.3環境環境をインストールしておく必要があります。ここでは、 一例として CentOS 5.3上に CUDA 2.3環境をインストールする手順を説明します。
2009年9月1日
NVIDIA GPU 上の PGIアクセラレータ™ コンパイラ姫野ベンチマークが指示行挿入だけで、20GFLOPS!
2014年2月20日
MPICH 3の実行のための準備と実行方法
2012年1月7日
MPICH2の実行のための準備と実行方法
2012年1月7日
MPICH2ライブラリのビルドの方法とその実装
2011年3月21日
PGIコンパイラによる MS-MPI プログラムのコンパイル、実行、デバッグ、プロファイルの方法を説明する
2011年3月17日
PGIコンパイラに付属するMPICH1使用方法(コンパイル、実行、デバッグ、プロファイリング)
2011年3月16日
MPICH2の実行のための準備と実行方法
2011年3月15日
MPICH2ライブラリのビルドの方法とその実装
2010年11月18日
FortranとC言語が混在したアプリケーションをPGI Fortran/C/C++ Workstation コンパイラでビルドする方法
2010年11月12日
FortranとC言語が混在したアプリケーションをMicorosoft™ Visual Studio 2008 上で PGI Visual Fortran と Visual C++ を使ってビルドする方法
2010年2月25日
PGI Workstation/Serverシリーズの製品は、他のプラットフォーム版のLinux版やOS X 版と同じコマンド・インタフェースで使用できます。また、Windows上で ACML ライブラリをリンクして使用する方法も説明します。
2010年1月 5日
Intel MKL 10.1リリース以降、PGIコンパイラは、MKL ライブラリをユーザプログラムにリンクできるようになりました。
2005年
IPGI コンパイラ 6.0 以降では、コンパイラレベルでプリフェッチを行う対象を見出して、さらに、コンパイラ・オプションでキャッシュ制御命令のパラメータを指定することが可能です。
2005年
行列積のプログラムを用いて、最内側ループのメモリアクセス方法の変化により、性能が大きく異なることを説明します。
2005年
高速フーリエ変換ライブラリである FFTE に関して、 PGI コンパイラを使用して最適な性能を得るための方法について説明します。ここでは、特に、PGI コンパイラ・ディレクティブ(指示行)の使用によって性能を向上させるための例を示します。
2005年
行列積の計算を行うためのプログラムを例示し、PGI コンパイラの使用法、ACML ライブラリの使用法、行列積計算の性能等に関して説明します。
2004年
プログラムの並列処理を考える場合、一体、並列化によってどの位の性能が稼げるのかと言う視点を予め持っておくことは非常に大事である。
PGIアクセラレータ, CUDA Fortran仕様 |
PGI GPU並列 基礎編 |
PGI GPU並列 実践編 |
PGI 一般使用法 |