•  

    Stacja robocza od wewnątrz czyli sprzęt Inżyniera Programisty pod CAD, symulacje i 3D

    Tym razem niezobowiązujący odcinek na temat tego jakim sprzętem dysponuję, jak komputery typu stacje robocze wyglądają od wewnątrz. Oraz moja opinia, wg moich odczuć i doświadczenia (więc od razu zaznaczam, że nie każdy musi się ze mną zgadzać i nie muszę mieć racji) co jest ważne przy doborze sprzętu pod naukę CAD'a. Pomijam kwestię zawodową, ponieważ różne gałęzie przemysłu i projektowania mogą się różnić innymi wymaganiami jeżeli chodzi o sprzęt i wydajność.

    Zapraszam: [#94] Stacja robocza od wewnątrz czyli sprzęt Inżyniera Programisty pod CAD, symulacje i 3D

    #inzynierprogramista #inzynieria #cad #projektowanie #solidworks #studbaza #pracbaza #ciekawostki #gruparatowaniapoziomu #komputery #hardware #modelowanie3d #chwalesie

    źródło: w.jpg

    •  

      @InzynierProgramista: Takie se serwerowe cpu i pseudo quadro, które gunwo daje a w chooj kosztuje. Jedynie ram na +. Ale masa firm projektowych jedzie na normalnych kartach grafiki i jakoś nie narzeka. I coś mi się wydaje, że ktoś zjebał chłodzenie cpu i źle założył, bo w tą stronę to nie ma żadnego sensu.

    •  

      pseudo quadro

      @wypokowy_expert: jakie quadro są pseudo, a jakie nie?

      pokaż spoiler nie pytam złośliwie jbc

    •  

      @wypokowy_expert: Xeony i Quadro bardzo często stanowią podstawę stacji roboczych w zastosowaniach inżynierskich, gdzie pracuje się na złożonych modelach i przygotowuje się złożone modele obliczeniowe. Wówczas karty Quadro służą nie tyle co obsługi modelu 3D a wykonywaniu obliczeń. Oczywiście nie jest to wymóg. Równie dobrze może to być jakieś i5, jeżeli jest wystarczające i zwykły GeForce lub coś analogicznego ze stajni AMD. Nie rozumiem stwierdzenia pseudo Quadro. Prawdziwe Quadro, które było na topie niemal 10 lat temu. Cóż, jest to stara konstrukcja i najmocniejsza jednostka na jaką mogłem sobie pozwolić w momencie zakupu te 6 lat temu. Pomimo tego spełnia moje oczekiwania do dnia dzisiejszego.
      Edit: Kwestię chłodzenia również podjąłem w nagraniu. Nie ma nic do zarzucenia.

    •  

      Prawdziwe Quadro, które było na topie niemal 10 lat temu.

      @InzynierProgramista: XD tak to tylko podsumuję. Jak dobrze widzę quado 600, oparte na rdzeniu geforce gt 430, biznesowe gunwo które, które się najwyżej do tabelek exela nadaje. Topowe to było w tamtym czasie quado 6000 oparte na GTX480, najlepiej w SLI ale nie jak to cywilnie 2 sztuki tylko można było połączyć nawet 4. Wtedy mowa o obliczeniach.

      @padobar: Kiedyś był jasny podział na 2 rodzaje quado, seria NVS dla biznesu, było tam kilka dodatków poprawiających wyświetlanie na wielu monitorach. I osobna seria FX czyli mocnych kart do modelowania 3d i obliczeń. Niestety później nvida z tych oznaczeń zrezygnowała i wszystko nie ważne czy na chipsecie bieda najtańszej karty, czy najmocniejszej nazywało się quadro, tylko po sprawdzeniu człowiek wiedział co kupuje. Z resztą jak taka jedno slotowa karteczka z gunwo chłodzeniem i żrąca 40W ma coś obliczać, no bądźmy poważni.

      źródło: image.ceneostatic.pl

    •  

      @wypokowy_expert: @padobar: @InzynierProgramista:

      Mnie zastanawiało o co te karty z półki "profesjonalnej" mają lepszego od tradycyjnej grafy. Przecież rdzeń ten sam co w tradycyjnym geforce... Może ktoś naświetlić, w jakich zastosowaniach te drogie karty, tak naprawdę dadzą jakąś przewagę?

    •  

      @lotos10: Aż tak bardzo to w tym nie siedziałem, choć nawet takie coś mam. W solidworskie posiadanie takiej karty odblokowywało rendering na żywo, w praktyce obraz generowany na żywo wyglądał lepiej niż ten render sceny, choć pamiętam, że na poprzednim kompie znalazłem pasujący driver FireGL, to solid łyknął baita i wyświetlał obraz tak jakby była to autentyczna karta...
      I wydaje mi się, choć nie jestem pewien, przynajmniej niektóre quadro mają korekcję błędów pamięci.

    •  

      @lotos10: możesz wygenerować więcej kosztów

    •  

      @lotos10 @wypokowy_expert @padobar @motoinzyniere:
      Typowe karty graficzne pokroju GeForce zorientowane do obsługi szerokopojętych multimediów przeznaczone są do wyświetlania obrazów o dużej ilości klatek na sekundę, czyli, żeby w grze było widać jak najwięcej fpsów, ale przy modelach o małej ilości wielokątów. Pod tym kątem optymalizacja kodu opiera się na bibliotekach DirectX (to jest moje proste rozumowanie, kto może to doprecyzuje lepiej). Programy CAD działają odwrotnie. Potrzebują wyświetlać dużą ilość wielokątów ale nie wymagają dużej ilości fpsów. Taką sytuację i zastosowanie lepiej ogarnąć na technologii OpenGL. Z tego tytułu nawet te same GPU zachowują się w inny sposób, przez co Quadro lepiej poradzi sobie z wieloma obiektami w zespole niż GeForce. Ale za to Quadro nie pociągnie w taki sposób gry czy animacji w jaki sposób zrobi to GeForce. Owszem, jak wspomniał @wypokowy_expert moje Quadro może i jest oparte o słabsze GPU (nic lepszego w momencie zakupu w ofercie nie było w przedziale cenowym na jaki sobie mogłem pozwolić) ale jak na taki staż w ogarnianiu dużo nowszego SolidWorksa radzi sobie wystarczająco dobrze.
      Mam nadzieję, że może znajdzie się ktoś, kto lepiej to podgarnie i wyjaśni.

      +: lotos10
    •  

      @motoinzyniere: @wypokowy_expert: @InzynierProgramista: @padobar:

      Przejrzałem troche you tubowych filmów pod tytułem geforce vs quadro. W 99%+ przypadków geforce jest szybsze i jednocześnie znacznie tańsze. Quadro potrafi być szybsze np. 50x w pewnych specyficznych zastosowaniach, ale.... Ale soft musi być napisano pod quadro. Tak więc jeśli sprzęt ma służyć do różnych zadań -> tylko geforce. Jednym z zastosowań które faktycznie działają o rzędy wielkości szybciej na quadroo to siemens NX. jednak to musi być stacja zakupiona specjalnie pod pracownika którego jedynym zadaniem jest modelowanie właśnie w S NX.

    •  

      nic lepszego w momencie zakupu w ofercie nie było w przedziale cenowym na jaki sobie mogłem pozwolić

      @InzynierProgramista: Jakikolwiek geforce w tej samej cenie byłby dużo szybszy, a nic zauważalnego byś nie stracił.

    •  

      @wypokowy_expert: Może i tak, ale nie było konfiguracji z GeForcem.

    •  

      @JakTamCoTam: No cóż, nie wpadłem na to. A dodać już chyba nie da rady.

    •  

      @wypokowy_expert: Co do korekcji błędów pamięci karty graficznej nie natknąłem się, natomiast jeżeli istnieje to obawiam się, że to działa dopiero we współudziale z RAM z ECC.

    •  

      @wypokowy_expert: jak będę miał więcej czasu, z ciekawości poczytam jak to tam działa o ile znajdą się jakieś źródła wiedzy. I jeszcze nie wiem czy widziałeś odpowiedź odnośnie chłodzenia tej jednostki, ale w materiale możesz zobaczyć, że tam naprawdę nie ma co zarzucić o chłodzenie procesora i RAM. Z resztą sam mogłem się przekonać na własnej skórze przez 2 tyg. ciągłej symulacji o czym wspomniałem. Temperatura nie przekraczała 80C. Maksymalne chwilowe wartości sporadycznie oscylowały w granicach 85C.

    •  

      @Czarna_ksiazka: Nawet nie ma się co oszukiwać, że w dzisiejszych czasach sprzętowo mocno odstaje. Natomiast póki działa sprawnie i jest wystarczający do tego czego potrzebuję, nie ma co ruszać. W zasadzie jak wspomniałem w materiale, nawet modernizacja już się nie opłaca, ponieważ płyta główna i tak nie obsłuży aktualnie panujących częstotliwości czy przepustowości.