GPU利用の並列処理アーキテクチャ、NVIDIAが「CUDA 6」を発表:8GPUまで自動的に性能向上
米NVIDIAは、CUDAの最新版「CUDA 6」を発表した。並列プログラミングの簡素化による開発時間と労力の削減、既存のCPUを利用して処理するライブラリをCUDAライブラリに置き換えてソフトウェアの処理を高速化することなどが特徴。
米NVIDIAは2013年11月14日、CUDAの最新版「CUDA 6」を発表した。CUDAは、GPUを利用して並列処理するためのライブラリ群。CUDA 6の特徴は、並列プログラミングの簡素化によるソフトウェア開発時間と労力の削減、既存のCPUを利用して処理するライブラリをCUDAライブラリに置き換えてソフトウェアの処理を高速化する機能などだ。
CUDA 6の主な新機能のうちの「Unified Memory」は、CPUのメモリ空間とGPUのメモリ空間との間でデータをその都度コピーすることなく、アプリケーションからどちらのメモリに格納されているデータにも統一的にアクセスできるようにする機能。これによってプログラミングを簡略化でき、幅広いプログラミング言語にGPUアクセラレーション機能を追加することを容易とした。
「ドロップインライブラリ」は、CPUを利用して処理する既存のライブラリを、GPUを利用して高速処理するライブラリに置き換えるもので、線形代数演算(Basic Linear Algebra Subprograms:BLAS)やフーリエ変換(FFT)が最大で8倍高速化できるとしている。
しかも、これらのライブラリを再設計しており、1台のPCで8個までのGPUを利用して演算処理性能を自動的に高められる。これによって、1台のPCでの倍精度浮動小数点演算性能は最大9TFLOPSに達するという。さらに、1つの処理で最大512Gバイトまでのメモリを利用可能とした。
CUDA 6プラットフォームではこのほかに、プログラミングツールやGPUを利用した数学関数演算ライブラリなどを提供する。また、「CUDA Toolkit」のバージョン6は2014年初頭の提供開始を見込んでいる。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- AWS情報アップデート:Amazon EC2でGPUインスタンスが登場、Elastic MapReduceの管理コンソールも刷新
AWSにOpenCLもCUDAも使えるインスタンスが登場。NVIDIA GRIDが使われる。 - GPUスパコン「TSUBAME2.0」を使った最先端研究:天気予報も医療もスパコンで計算されている
並列計算アーキテクチャ「CUDA」と東工大で運用されている大規模計算能力を持つスーパーコンピュータ「TSUBAME2.0」を使った最先端研究の成果を、東京工業大学青木尊之教授に聞いた。 - CUDAとPOWERのエコシステム統合へ:IBMがPOWERをオープン化、「OpenPOWER Consortium」結成
米IBMはPOWERアーキテクチャを採用したデータセンター技術の開発を目指す「OpenPOWER Consortium」を結成する。管理性や柔軟性の向上を目指し、高度なサーバやネットワーク、ストレージ、GPUアクセラレーション技術の開発を目指す。 - データ分析アプリケーション高速化にも期待:広がるGPGPUの利用――CUDAをPythonから呼び出せるように
LL系言語ユーザーもGPGPUプログラミングを手軽にチャレンジできるように。プロトタイプ構築・検証の効率化も期待できる。 - 初代地球シミュレータを2ラックで:インテルが発表したメニーコア時代のコプロセッサ「Xeon Phi」
インテルが、並列処理向けのコプロセッサを発表。x86アーキテクチャによるメニーコアはGPGPUによる並列処理よりも、既存のソフトウェア資産が活用できるという。