Budrys Napisano Luty 16, 2010 Zgłoś Share Napisano Luty 16, 2010 Czy ktoś może doradzić jak to ugryźć? Czy da się użyć procesora zwykłej karty graficznej np GF 8600 GT w programie pisanym w C tak, żeby obliczenia w jakiejś funkcji zostały wykonane przez GPU? Link do komentarza Udostępnij na innych stronach More sharing options...
Blind Napisano Luty 16, 2010 Zgłoś Share Napisano Luty 16, 2010 Na kartach od geforce 8xxx mozesz uzywac CUDA, na stronie Nvidii znajdziesz kompilator dla jezyka C i tutoriale do tego. Mozesz tez uzyc OpenCL ktory dziala tez na kartach ATI. www.blinder.pl - Blog Link do komentarza Udostępnij na innych stronach More sharing options...
mateusz midor Napisano Marzec 4, 2011 Zgłoś Share Napisano Marzec 4, 2011 Tak jak kolega wcześniej wspomniał - możesz wykorzystać GPU do obliczeń matematycznych w programie napisanym w C/C++. W tym celu musisz zainstalować sobie pakiet SDK Nvidia CUDA albo Khronos OpenCl. Samo programowanie GPU wygląda (przykładowo) tak: -piszesz w C specjalne programy (tzw. kernele, bardzo przypominają najzwyklejszą funkcję w C), które ze zwykłego pliku ładujesz do pamięci karty graficznej (przy użyciu funkcji dostarczanych przez CUDA/OpenCl). -tworzysz bufor danych wejściowych i bufor danych wyjściowych (tablica elementów np. double), wysyłasz je do pamięci karty graficznej -wypełniasz bufor wejściowy danymi do przetworzenia -uruchamiasz kernel - startuje równolegle na wielu jednostkach przetwarzania GPU, przetwarza Twoje dane(np przeprowadza obliczenia) -pobierasz dane z bufora wyjściowego I tyle. Trochę się bawiłem OpenCl - pozwala Ci wybrać, czy chcesz obliczenia przeprowadzić na CPU czy na GPU (możesz potem porównać wydajność). Całkiem fajna sprawa, ale też mocno skomplikowana... Pozdrawiam! Link do komentarza Udostępnij na innych stronach More sharing options...
Polecane posty
Zarchiwizowany
Ten temat jest archiwizowany i nie można dodawać nowych odpowiedzi.