LL系言語ユーザーもGPGPUプログラミングを手軽にチャレンジできるように。プロトタイプ構築・検証の効率化も期待できる。
米NVIDIAは2013年3月18日、同社が提供するGPU向け並列処理ライブラリ群「CUDA」においてPythonをサポートすることを発表した。現在、Continuum Analyticsの新製品「Anaconda Accelerate」のPythonコンパイラである「NumbaPro」が対応している。従来、CUDAは、C/C++から呼び出す必要があったが、スクリプト系言語のサポートによって、利用用途が広がる可能性がある。
今回のPythonサポートは、LLVMインフラストラクチャにおいて、コアおよび並列スレッド実行のバックエンド処理部分にNVIDIAがコンパイラソースコードを提供したことによって実現したもの。
Pythonは数理系演算だけでなくWebアプリケーションなどでも採用されており、Web向け、学術演算向けなど、Python自体が多数のライブラリを持っている。物理演算など以外の統計分析などを含むアプリケーションの開発において、PythonからCUDAライブラリを呼び出すことでパフォーマンス向上を計れるようになる。
個別言語への対応ではなくLLVMプロジェクト側にソースコードを提供したことにより、今後、Pythonだけでなく他の言語からのアクセスにも対応できるものと見込まれる。各種フレームワークが用意されている軽量言語でアプリケーションのプロトタイプ検証が実現すれば、より迅速なアプリケーション開発が可能になる。
Copyright © ITmedia, Inc. All Rights Reserved.