NVIDIA opublikowała CUDA Toolkit 2.2

przez | 14/05/2009

NVIDIA informuje, iż udostępniła wersję 2.2 pakietów CUDA Toolkit oraz SDK dla obliczeń na GPU. Najnowsze wydanie tego oprogramowania przynosi ze sobą wiele nowych, istotnych funkcji, pozwalających uzyskać jeszcze wyższą wydajność podczas pracy z masowo-równoległymi, obsługującymi CUDA, procesorami graficznymi firmy NVIDIA. Wersja 2.2 pakietu CUDA Toolkit oferuje obsługę Windows 7, nadchodzącego systemu operacyjnego firmy Microsoft, obejmującego także obliczenia na GPU.

Wśród nowych funkcji pakietu CUDA Toolkit 2.2 znajdują się m.in.:

1. Graficzny profiler dla GPU

Jednym z podstawowych działań w procesie podnoszenia wydajności aplikacji jest jej profilowanie i modyfikowanie kodu. CUDA Visual Profiler to graficzne narzędzie umożliwiające profilowanie działających na GPU aplikacji napisanych w C. W najnowszej wersji CUDA Visual Profiler oferuje możliwość pomiaru transakcji pamięci, dając twórcom oprogramowania wgląd w jeden z najważniejszych obszarów, na którym można uzyskać wyższą wydajność.

2. Ulepszone współdziałanie aplikacji OpenGL

Zapewnia wyższą wydajność programów do obrazowania medycznego ora innych aplikacji OpenGL działających na procesorach graficznych Quadro, w czasie, gdy obliczenia CUDA i rendering grafiki OpenGL przeprowadzane są na odrębnych GPU.

3.Teksturowanie 2D z podzielonej pamięci liniowej

W aplikacjach przetwarzających wideo zapewnia do 2x wyższą przepustowość.

4.Transfer bez kopiowania (zero-copy)

Dzięki tej metodzie, pozwalającej funkcjom CUDA na odczyt i zapis bezpośrednio do pamięci, wzrasta znacząco wydajność aplikacji z zakresu mediów strumieniowych, przetwarzania obrazu czy przetwarzania sygnałów. Zmniejsza także częstość i ilość danych kopiowanych pomiędzy pamięcią GPU i CPU. Funkcja obsługiwana w układach MCP7x oraz GT200 i następnych GPU.

5. Stale zaalokowana pamięć współdzielona

Pozwala aplikacjom wykorzystującym wiele GPU na uzyskanie wyższej wydajności oraz wykorzystanie mniejszej ilości pamięci systemowej dzięki temu, że wiele GPU uzyskuje dostęp do tych samych danych w pamięci systemowej. Typowe systemy z wieloma GPU to serwery Tesla, osobiste superkomputery Tesla, stacje robocze wykorzystujące QuadroPlex oraz systemy klienckie wyposażone w wiele GPU.

6.Asynchroniczne kopiowanie do pamięci w systemie Vista

Pozwala uzyskać wzrost wydajności dzięki asynchronicznej metodzie kopiowania pamięci. Funkcja ta jest już dostępna na innych obsługiwanych platformach i pojawiła się teraz w systemie Vista.

7. Sprzętowy debugger dla GPU

Twórcy oprogramowania mogą teraz wykorzystać debugger działający na poziomie sprzętu przy pracy z GPU z obsługą CUDA: zapewnia on prostotę popularnego, open source`owego debuggera GDB przy możliwości debugowania programu o tysiącach wątków, działającego na GPU. CUDA GDB debugger dla systemu Linux wyposażony jest we wszystkie funkcje pozwalające na debugowanie bezpośrednio na GPU, w tym możliwość ustawiania punktów przerwań, monitorowania zmiennych itp.

8.Tryb wyłączności

Ta opcja konfiguracyjna pozwala na przekazanie aplikacji wyłącznej kontroli nad GPU, zapewniając, że 100% mocy obliczeniowej GPU i pamięci przeznaczonych będzie dla danej aplikacji. W systemie nadal może działać jednocześnie wiele aplikacji, ale tylko jedna może wykorzystywać każdy GPU naraz. Opcja ta jest szczególnie przydatna w klasterowych systemach Tesla, gdzie w aplikacje mogą wymagać wyłącznego wykorzystania jednego lub więcej GPU w każdym węźle linuksowego klastra.

Twórcy oprogramowania mogą pobrać najnowszy Toolkit CUDA i sterowniki pod adresem www.nvidia.com/cuda.