•  

    pokaż komentarz

    Należy zwrócić uwagę, że procesory AMD Ryzen Threadripper są zoptymalizowane pod kątem produktywności, a nie grania w gry.

    •  

      pokaż komentarz

      @jacekmi: produktywne granie w gre

    •  

      pokaż komentarz

      @jacekmi: Czym się różnią obliczenia wykonywane przez gry od obliczeń wykonywanych przez inne programy? Sorry, że pytam, ale jestem tylko programistą i nie znam różnicy.

    •  

      pokaż komentarz

      @bbbbb: Nie jestem specjalistą pod tym względem, ale wyniki benchmarków mówią same za siebie. W grach TR ma poziom 7900X od Intela, natomiast jeśli weźmiemy takie rzeczy jak praca na 7-zip, cinebench, blender, albo multitasking oparty na grach, streamie i nagrywaniu to TR potrafi być lepszy nawet o kilkadziesiąt procent.

    •  

      pokaż komentarz

      @jacekmi: Powinny mieć nazwę kodową "No mercy"(ʘ‿ʘ)

    •  

      pokaż komentarz

      @jacekmi: Dużo tych benchmarków widziałeś? Może to nie była kwestia procesora tylko zbyt powolnego RAMu, czy czegoś takiego? Nie widzę żadnego powodu, żeby procesor zachowywał się gorzej w przypadku gier, niż innych programów.

    •  

      pokaż komentarz

      @bbbbb: Widziałem to u ludzi, którzy zawodowo zajmują się testowaniem, więc nie sądzę, żeby problemem był zestaw testowy. Poza tym po to właśnie mamy GPU, które pod jakimiś względami różnią się do CPU, żeby był wydajne do tworzenia grafiki oraz obliczeń fizycznych, natomiast CPU zajmuje się innymi rzeczami potrzebnymi przy produktywności.

    •  

      pokaż komentarz

      @bbbbb: chodzi o to że gry(tj silniki) nie są programowane pod wykorzystywanie 16 rdzeni i 32 wątków, 90% gier max co potrafi wykorzystać to 8 wątków, powyżej wydajność nie wzrasta, a często maleje bo procesor chodzi z mniejszym taktowaniem, wyjątki można policzyć na palcach jednej ręki, np crysis 3 z 2013 roku(sic!), a powodem tego wszystkiego są zwyczajnie konsole które nie mają 16 rdzeni i 32 wątków

    •  

      pokaż komentarz

      @bbbbb: chodzi o zrównoleglanie. Jak odpalisz sobie np. dwie różne aplikacje, to one mogą sobie chodzić na różnych rdzeniach bez problemu. Jak robisz coś co można łatwo podzielić na kawałki, np. kompresja wideo to to samo. W przypadku gier, większość gier chodzi na jednym wątku/rdzeniu. Nawet jak leci na kilku wątkach to trzeba to synchronizować regularnie, w przeciwieństwie do obliczeń gdzie często synchronizujesz tylko jak zwracasz wynik i pobierasz nową paczkę danych. Nowe API takie jak Vulkan i DX12 dużo lepiej się zrównoleglają, ale jeszcze nie są często używane w nowych silnikach (z nowszych gier tylko Talos Principle, Doom i bodajże Dota2).

    •  

      pokaż komentarz

      @bbbbb: w takim renderingu np materiału 3d dużo prościej zoptymalizować to na xxx wątków, dzielisz scenę na xxx części i każdy wątek klepie swoją część, w takiej grze jest dużo więcej zależności, często dane muszą być zsynchronizowane, otrzymane w jednym okresie czasu itp itd, tj nie ma sposobu aby rozbić obliczeń na wiele wątków bez widocznego wpływu na rozgrywkę, dlatego gry wykorzystują gorzej wielowątkowe procesory niż programy

    •  

      pokaż komentarz

      @Jurigag: @haxx:
      No wreszcie jakieś sensowne odpowiedzi. Tyle że nadal nie wiem, co to znaczy, że procesor nie jest zoptymalizowany pod gry. Jak niby mieliby go zoptymalizować? Zmniejszyć ilość wątków?

    •  

      pokaż komentarz

      @bbbbb: tu chodzi o to że gry nie są optymalizowane pod procesory wielowątkowe, a nie procesory pod gry, nie wiem skąd ten wymysł

    •  

      pokaż komentarz

      @jacekmi: trochę pomyliłeś szyk zdania, to te gry nie są zoptymalizowane pod kątem wykorzystywania procesorów wielowątków, a w tym programach produktywnych po prostu dużo, dużo prościej jest wykorzystywać te wątki(tj dzielisz podczas renderingu scenę na liczbę wątków i jazda), w grze to tak łatwo i różowo nie wygląda

    •  

      pokaż komentarz

      @Jurigag:

      Cały czas piszę o pierwszym komentarzu:

      Należy zwrócić uwagę, że procesory AMD Ryzen Threadripper są zoptymalizowane pod kątem produktywności, a nie grania w gry.

    •  

      pokaż komentarz

      @Jurigag: Nie zapominaj, że procesory też chodzą na jakiś sterownikach. Nie jest tak, że rodzaj i sposób napisania sterownika nie wpływa na wydajność w konkretnych aspektach użytkowych.

    •  

      pokaż komentarz

      @bbbbb: po prostu napisała to jakaś nieogarniająca tematu osoba, te nie procesory optymalizuje się pod coś, tylko to co się na nie tworzy pod nie

    •  

      pokaż komentarz

      @jacekmi: zgadza się, ale wciąż jest to kwestia synchronizacji, w takiej grze musisz otrzymywać dane od razu, na bieżąco itp itd bez wpływu na rozgrywkę, podczas takiego renderingu, konwersji, kompresji itp itd nie interesuje cię to że dany wątek wykona swoją robotę o 2 sekundy wcześniej niż inny, albo będzie miał mniej skomplikowaną część do wykonania czy cokolwiek w tym rodzaju, interesuje cię efekt końcowy gdy dojdzie do 100% i tyle

    •  

      pokaż komentarz

      większość gier chodzi na jednym wątku/rdzeniu

      @haxx: no znowu bez przesady, chyba że chodzi ci o samo "core" silnika gry, to pewnie tak jest, ale większość gier potrafi wykorzystać do tych 8 wątków, dopiero powyżej zaczynają się problemy i efektywne wykorzystanie tego, w takim crysise 3 np każdy obliczenia trawy są dzielone na xx wątków, dlatego tak dobrze ta gra wykorzystuje xx wątków

    •  

      pokaż komentarz

      @bbbbb:
      Nie wiem czy czasem to tak nie działa, że inaczej maszyna pracuje jak odczytuje informacje a inaczej jak generuje.

      Jak pracuje w oprogramowaniu CAD 3d to mam kartę Nvidia quadro, która wymiata w cadzie a w grach ssie i to strasznie. W domu mam gtx 970 i miło się gra w najnowsze produkcje a jak odpalam SOLIDWORKS to działa gorzej niż używana quadro z allegro za 200zł.

    •  

      pokaż komentarz

      @bbbbb: Jeśli weźmie się za kryterium wydajność jednego rdzenia, to Intel nadal jest liderem. Gry bardzo rzadko są optymalizowane pod przetwarzanie wielowątkowe. Dlatego wydajność Intela w takich zastosowaniach jest większa. Dodatkowo, Intel nadal potrafi wymusić na producentach optymalizację pod własne procki a nie konkurencji.

    •  

      pokaż komentarz

      @jacekmi: Kiedyś się zdecydowałem na AMD, chłodzenie tego to był masakra !!!

    •  

      pokaż komentarz

      Jak niby mieliby go zoptymalizować? Zmniejszyć ilość wątków?

      @bbbbb: też. Inną, chyba nawet ważniejszą optymalizacją, jest skrócenie potoku wykonwawczego i takie zrobienie systemu przewidywania rozgałęzień, by działał możliwie szybko, nawet za cenę licznych błędów.

      A tłumacząc z technicznego na ludzki, mocno przy okazji upraszczając:
      Procesory to urządzenia do wykonywania obliczeń. Ale żeby było szybciej, nie wykonują ich jedno po drugim, tylko zbierają dużą listę, wczytują potrzebne dane do swojej własnej pamięci (bo jest szybsza od RAM‑u, tylko kilka tysięcy razy mniejsza) i puszczają całe. Niestety, czasami to, jakie operacje będą potrzebne zależy od wyniku poprzednich operacji, więc procesory starają się zgadnąć, jaki będzie wynik, i odpowiednio ustawiają kolejne rozkazy. Jak zgadną dobrze, to wszystko super, jest spory przyrost wydajności. Jak zgadną źle, to muszą zapełniać kolejkę od nowa, co trwa.
      I teraz się pokazuje różna specyfika gier i obliczeń inżynierskich — te drugie się puszcza i niech się liczy, mają one jakiś sens i zasadniczo są stosunkowo łatwe do przewidzenia, tak więc procesor chce mieć możliwie długą kolejkę i możliwie dobrze przewidywać wynik, nawet jeśli zajmie to trochę więcej czasu. Tymczasem gry zależą od gracza, który jest nieprzewidywalny. Więc dłuższy, wolniej wypełniany potok jest rzeczą szkodliwą, zmniejszającą wydajność.

      Threadrippery mają chyba (tutaj nie jestem pewien) kolejkę „normalnych” rozmiarów (poprzednie procesory od AMD miały dłuższą niż Intele) oraz (tutaj już na pewno) bardzo zaawansowany układ zgadujący.

    •  

      pokaż komentarz

      @drMuras A teraz jest lepiej niż u Intela.

      @bbbbb Niektóre gry nawet się nie włączają na 16. rdzeniowym Threadripperze bez włączenia trybu game mode, który wyłącza połowę rdzeni.

    •  

      pokaż komentarz

      @cukru: Potrzebuję procków które nie spuchną prze renderach , poczekam na testy.

    •  

      pokaż komentarz

      @bbbbbb: te, programista, od kiedy to sprzęt optymalizujesz pod kod? :-)

    •  

      pokaż komentarz

      @drMuras Przecież testy już są, co prawda większość z dołączonymi do zestawu dla recenzentów coolerami AIO, ale nie wyobrażam sobie żeby ktoś taki procesor chłodził powietrzem.

    •  

      pokaż komentarz

      @bbbbb: To kwestia tego, ze Intele maja mniej rdzeni - ale na ogol mocniejsze rdzenie. Dlatego gry zachowuja sie na nich lepiej. A AMD-ki - wiecej mniejszych rdzeni i watkow - co jest lepsze dla aplikacji wielowatkowych.

    •  

      pokaż komentarz

      @bbbbb: przyp!@@?!#asz sie zwyczajnie i tyle

    •  

      pokaż komentarz

      @bbbbb Gry ani inne programy nie wykonują obliczeń, to może jedynie CPU.

    •  

      pokaż komentarz

      Nowe API takie jak Vulkan i DX12 dużo lepiej się zrównoleglają, ale jeszcze nie są często używane w nowych silnikach

      @haxx: ayyyy... I tak i nie. Dają "bardziej" bezpośredni dostęp do sprzętu. W niektórych przypadkach to pomaga w innych zaś nie. Ponadto aby naprawdę wykorzystać zalety V i DX12 trzeba napisać dobry, niskopoziomowy kod. A to kosztuje i wbrew pozorom wcale nie jest łatwe w biznesie "rozrywkowym". Najlepsi spece wcale się tam tak chętnie nie garną bo i pracować trzeba po kilkanaście godzin dziennie (często z weekendami) i płace nie są wcale wybitnie wysokie. Pozostaje więc garstka najwyższej klasy zapaleńców oraz rzesza młodych, naiwnych z głową pełną ideałów.

      Gry bardzo rzadko są optymalizowane pod przetwarzanie wielowątkowe.

      @jkrzyz: bo fizycznie jest to bardzo ale to bardzo trudno zrobić

    •  

      pokaż komentarz

      ayyyy... I tak i nie. Dają "bardziej" bezpośredni dostęp do sprzętu. W niektórych przypadkach to pomaga w innych zaś nie.

      @zenon1002: nie wiem jak DX9, ale w OpenGLu możesz submitować "command buffery" tylko z jednego wątku w danej chwili, w Vulkanie możesz naparzać listami z kilku wątków naraz

    •  

      pokaż komentarz

      @haxx: to jest właśnie ten bardziej bezpośredni dostęp do sprzętu który czasami pomaga a czasami nie :) Co z tego, że możesz popchnąć pipelajny i wielkiej ilości jeżeli i tak muszą czekać np. na G-buffer

    •  

      pokaż komentarz

      @bbbbb: Wszyscy Ci nawijają jakiś bezsensowny makaron na uszy, a odpowiedź jest dużo prostsza - gry nie potrzebują wielu wątków procesora, a bardzo lubią jego wysokie taktowanie. Także na dzień dzisiejszy ideałem do gier byłby 6 rdzeniowy procesor o stałym taktowaniu ponad 4,5Ghz. Jeśli Threadrippera dałoby się podkręcić do ponad 4.5Ghz to gry działałyby równie dobrze. Jednak nie da się tego zrobić, prawdopodobnie takie taktowanie w na 16 rdzeniach pod wysokim napięciem spowodowałoby pożar na zwykłym (a nawet wodnym) chłodzeniu. Wcześniej oczywiście komputer by się zresetował dzięki zabezpieczeniom na sockecie płyty głównej, które pilnują temperatur i napięcia.

    •  

      pokaż komentarz

      @bbbbb: Przede wszystkim chodzi tu o ilość rdzeni/wątków oraz o IPC (Instructions per second). Ogólnie architektura Zen cechuje się delikatnie mniejszym IPC (czyli jeden wątek jest jakby wolniejszy od Kaby Lake Intela), to jest jeden z powodów.

      Drugim powodem są zegary. W Ryzenach maksimum, jakie można osiągnąć w warunkach "domowych" to jakieś 4Ghz, 4.2 jak trafiłeś na złotego wafla. Zegar ma bezpośredni wpływ na IPC, więc też nieco przegrywa z podkręconymi Intelami.

      No i trzymanie zegarów na wysokim taktowaniu staje się niemożliwe/nieefektywne energetycznie, więc zasada jest taka, że im więcej rdzeni/wątków tym mniejsze taktowanie, jakie można uzyskać.

      Podane w specyfikacjach 4Ghz to jest tylko opcja BOOST, która działa podobnie jak w Xeonach i może przyspieszyć działanie kilku rdzeni. Jeśli będzie możliwość (a są takie przesłanki) uzyskania 4GHz na każdym rdzeniu to procesor będzie na podobnym poziomie "gamingowym" jak Ryzeny. Problem tylko będzie z TDP i temperaturami. Ale i tak ten procek to jest potwór wśród HEDT, może funkcjonować jako porządny serwer.

      AMD widocznie na tym się skupiło, bo taktowanie bazowe 3.4Ghz na 16 rdzeniach potwierdza, że TR są zwyczajnie "bardziej udanymi" czipami niż Ryzeny (Wszystkie procki Zen powstają jakby na jednej linii produkcyjnej, z jednego wafla. Jak wyjdzie dobra seria czterech CCX to się tworzy Threadrippera, słabsze CCX idą na Ryzeny, gdzie też jest hierarchia).

      Największym plusem jest właśnie to, ile można zrobić z jednego wafla i jak to się wpasowało optymalnie w rynek. Koszty również zostały przez to przycięte.

    •  

      pokaż komentarz

      @Amasugiru: IPC to „instructions per cycle”. Jest zależne od architektury proca. Wyższe taktowanie da krótszy cykl, ale nie zmieni IPC.

    •  

      pokaż komentarz

      @bbbbb: Jeżeli mamy takich programistów to nie wróżę niczego dobrego, chyba, że jesteś programistą PHP XD

    •  

      pokaż komentarz

      @bbbbb: Jeśli chodzi o procesory, to duża ich cześć sprzętowo realizuje niektóre algorytmy. Ostatnio było głośno o tym, jak Rosjanie wyprodukowali swojego Elbrusa, który jest procesorem służącym typowo do szyfrowania metodami KGB znormalizowanymi przez GOST.

      W sumie nikt w branży by nie usłyszał o tym procesorze, gdyby nie to, że procesor taktowany zegarem 750 MHz z emulacją x86 szyfruje dane szybciej niż Haswell taktowany zegarem 3,6 GHz.

      Oczywiście że są również zastosowania, pod które nie da się optymalizować sprzętu - Intel wspomnianego Elbrusa bije na głowę jeśli chodzi o kompresje i inne zastosowania, które wygrywa się zegarem.

    •  

      pokaż komentarz

      @jacekmi: No to dobrze, bo Nvidia Volta potrzebuje lepszego CPU z lepszą szyną, tak samo jak Linuxiarze. ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @jacekmi: a które to do gier najlepsze ?

    •  

      pokaż komentarz

      @jacekmi: No co ty. Do bicia rekordów w multiboxingu w WoW-ie jak znalazł ( ͡° ʖ̯ ͡°)

    •  

      pokaż komentarz

      @jacekmi: Są rzeczy których AMD nie przeskoczy, to nie kwestia optymalizacji tylko Ryzeny mają słabszy wątek i dlatego radzą sobie słabiej w grach bo te wolą 4-6 mocnych od 8-12 słabszych, tu nie ma jakiejś głębszej filozofii. Może w kolejnej lub za 2 generacje AMD doskoczy wydajnością jednowątkową.

    •  

      pokaż komentarz

      @jacekmi: Granie w 8 gier na raz, lel.

    •  

      pokaż komentarz

      Należy zwrócić uwagę, że procesory AMD Ryzen Threadripper są zoptymalizowane pod kątem produktywności, a nie grania w gry.

      @jacekmi: powiedziałbym raczej, że to gry są zoptymalizowane pod Intela, dlatego AMD tak średnio wypada

    •  

      pokaż komentarz

      @bbbbb: Generalnie to mógłbyś uzyskać odpowiedź googlując przez jakieś 2 minuty. Ale odpowiem dla nie-trolli, których to może naprawdę interesować.

      Threadripper składa się z dwóch niezależnych modułów Zeppelin, z których każdy pojedynczo jest niemal identyczny z samodzielnym Ryzenem 7. Wewnątrz takiego modułu są dwa CCX-y (core complex) po 4 rdzenie obliczeniowe w każdym. Razem daje to 2x2x4 rdzenie, łącznie 16. Z racji takiej budowy całego procesora komunikacja między różnymi rdzeniami może przebiegać szybciej lub wolniej. Łącznie są 3 warianty.

      Rdzenie w obrębie jednego CCX komunikują się ze sobą przez szybką wspólną pamięć cache L3. Natomiast komunikacja między rdzeniami w różnych CCX-ach w obrębie jednego modułu odbywa się za pomocą magistrali Infinity Fabric i kosztuje kilka cykli zegara więcej - jest wolniejsza. Do tego poszczególne moduły komunikują się ze sobą również przez łącza używające protokołu Infinity Fabric, ale to daje kolejny dodatkowy narzut.

      Stąd aplikacje, gdzie zadanie można łatwo podzielić na wiele zupełnie niezależnych mniejszych czynności jak np. renderowanie sceny 3D, czy dekompresja wielu plików działają na Threadripperze bardzo dobrze. Natomiast zadania, gdzie rdzenie muszą się ze sobą komunikować, jak na przykład większość gier, nie są wykonywane już tak efektywnie. Częściowo można ten problem zniwelować odpowiednią optymalizacją, wymuszając, żeby bloki zadań, gdzie komunikacja między wątkami jest najczęstsza wykonywały się, o ile to możliwe, na jednym CCX-ie.

      Dodatkowo każdy moduł Zeppelin ma dwukanałowy kontroler pamięci RAM. Łącznie Threadripper ma więc kontroler czterokanałowy, ale w przypadku gdy rdzenie w jednym module potrzebują doczytać dane z pamięci RAM obsługiwanej przez drugi moduł jest to również wolniejsze niż w przypadku sięgania do "macierzystego" RAM-u. Taką hierarchię pamięci (zwaną NUMA - Non-Uniform Memory Architecture) mają typowo wieloprocesorowe serwery i dlatego wiele profesjonalnych aplikacji zostało już pod nią zoptymalizowane dawno temu.

      Wydawać by się mogło zatem, że modułowa architektura Threadrippera i Ryzena w ogóle jest dziwnym i raczej błędnym wyborem konstrukcyjnym AMD. Nic bardziej mylnego. Dzięki budowie procesorów z mniejszych bloków, które łatwiej wytworzyć bez błędów, AMD ma dużo większy uzysk z jednego wafla krzemowego. Typową miarą jest tutaj ilość uszkodzeń na milimetr kwadratowy. Zatem im większy jest procesor, tym większa szansa, że będzie miał jakieś wady.

      Ponoć u AMD obecnie praktycznie żadne moduły się nie marnują i zależnie od jakości stają się Ryzenami 3/5/7, Threadripperami albo EPYC-ami. Dzięki temu AMD jest w stanie produkować tanio i oferować swoje procesory dużo taniej niż Intel, ciągle dobrze na nich zarabiając.

      Ale to nie koniec zalet takiej budowy. Dzięki temu, że podstawowy moduł składa się z dwóch CCX-ów połączonych przez Infinity Fabric i dzięki uniwersalności tej drugiej, teoretycznie stosunkowo łatwo wymienić jeden z CCX-ów na moduł graficzny. I tym najprawdopodobniej będzie debiutujący za kilka miesięcy Raven Ridge, czyli APU oparte na architekturach ZEN i Vega.

      Kolejną zaletą jest też to, że dużo łatwiej jest rozproszyć ciepło z kilku mniejszych układów niż z jednego monolitycznego, co widać w przypadku i9. Już teraz są duże problemy z 10-rdzeniowym układem, a kolejne (12-18 rdzeni) mają mieć coraz niższe taktowania. Jest to najpewniej wymuszone przez nadmierne grzanie się układów przy wyższych częstotliwościach. Zatem zapomnieć można będzie również o ich podkręcaniu. Warto tutaj dodać, że Threadripper-y kręcą się dokładnie tak samo jak większość innych Ryzenów, czyli typowe modele osiągają 3.9-4.0 GHz.

      Warto też pamiętać o kontekście. AMD miało nieporównywalnie mniejszy budżet niż Intel i dzięki takiej modułowej budowie było w stanie stworzyć produkt, który nadaje się na wszystkie segmenty rynku. A przy zbliżaniu się do granic możliwości krzemu procesory będą musiały rosnąć w szerz. Z kolejnymi megahercami jest coraz ciężej. Zatem jestem przekonany, że prędzej, czy później Intel również będzie zmuszony przejść na modułową architekturę. Pewnie najpierw w segmencie serwerowym, a z czasem i w konsumenckim.

    •  

      pokaż komentarz

      @bbbbb: Pewnie tym że wyniki obliczeń programów użytkowych są przydatniejsze w świecie realnym od tych z gier. Można je wykorzystać komercjalnie do zaoferowania klientom różnych produktów i usług bardziej uniwersalnych i przydatnych od gier.

    •  

      pokaż komentarz

      @ictu: Zapomniałem dodać, że większość gier nie korzysta ze zbyt wielu wątków. Zwykle jest jeden główny i kilka pomocniczych. Dlatego procesory Intela, które mają odrobinę wyższe IPC (5-7%, choć teoretycznie AMD po odpowiednich optymalizacjach kompilatora mogłoby mieć sporo wyższe IPC) i przewagę w taktowaniu radzą sobie w grach lepiej. Różnice w taktowaniu wynikają z gorszego procesu używanego przez Global Foundries, które wytwarza procesory dla AMD. Ich 14nm to bardziej 18nm, gdy porównać rozmiar bramki z Intelem.

    •  

      pokaż komentarz

      Czym się różnią obliczenia wykonywane przez gry od obliczeń wykonywanych przez inne programy? Sorry, że pytam, ale jestem tylko programistą i nie znam różnicy.

      @bbbbb: Użyciem w pełni wielowątkowości?

      źródło: pbs.twimg.com

    •  

      pokaż komentarz

      Należy zwrócić uwagę, że procesory AMD Ryzen Threadripper są zoptymalizowane pod kątem produktywności, a nie grania w gry.

      @jacekmi:

      Making a hugely multi-core CPU that’s ready for gaming is a challenging effort, because most PC games are designed for the typical 4-8 core processor. When greater core counts enter the picture, things can get squirrelly: poor thread scheduling can reduce performance, or (more rarely) the game may simply not run at all. The Threadripper team at AMD spent a long time thinking about how we can help our customers avoid these scenarios altogether, and we call it Game Mode.

      Game Mode is a new feature in AMD Ryzen™ Master that reconfigures the platform in two key ways:

      * It temporarily disables half of the CPU cores, which turns the AMD Ryzen Threadripper 1950X into an 8C16T device (like the AMD Ryzen™ 1800X) and the 1920X into a 6C12T device (like the AMD Ryzen™ 1600X). For the truly technical, this is a 4+4 CCX configuration on one die. This ensures the game encounters the number of cores it was truly designed to handle.
      * We tell the OS to use a Local Mode (NUMA) memory, which keeps a game and its memory footprint inside one CPU die and the locally-connected DRAM. This minimizes several key latency points in the system, which most games love.

      Together, these changes can make a big difference for the games that weren’t designed with a beastly 12-core or 16-core processor in mind! When you’re ready for heavy threaded workloads, switching back to “Creator Mode” in AMD Ryzen Master effortlessly reverts these changes.


      From the beginning, we envisioned the AMD Ryzen™ Threadripper™ platform as a do-it-all powerhouse built for the enthusiasts with demanding workloads that span work and play.

      [źródło]

    •  

      pokaż komentarz

      @bbbbb: odpowiedziało ci już 200 osób, ale widzę, że jak sam nie doświadczysz różnicy pomiędzy grą, a programami to nie zrozumiesz. Więc dalsze wyjaśnianie nie ma sensu.

    •  

      pokaż komentarz

      @Amasugiru: IPC - nie wiem skad wziales to „second”. To jest Instructions Per Clock (a precyzyjniej mowiac to Cycle, bo cykl moze trwac kilka taktow zegara), i pozwala porownac wydajnosc przy tym samym zegarze.

  •  

    pokaż komentarz

    AMD naprawdę odwaliło kawał dobrej roboty przy Ryzenach. W końcu coś co jest realną konkurencją dla Intela.
    Pod względem procesorów do pracy po prostu miażdżą Intela - za mniejsze pieniądze, oferują to samo, albo dużo więcej.
    Do tego po ostatnich optymalizacjach sterowników w grach wypadają praktycznie tak samo jak procki Intela (raz lepiej raz gorzej) a znowu - są od nich tańsze i mają więcej rdzeni (czasami robi to różnicę).
    Jak do niedawna do gier rozsądnym prockiem było najtańsze i5 (4 rdzenie i wystarczająca moc) tak teraz za 200-300zł mniej można kupić Ryzena 3 z taką samą ilością rdzeni i niewiele mniejszą (ale w 100% wystarczającą) mocą.
    Brawo AMD - oby tak dalej.

    •  

      pokaż komentarz

      @czupakadabra: Intel czekał na ten ruch, więc spokojnie, wyciągną asa z rękawa :)

    •  

      pokaż komentarz

      @Pabick: Trochę tak, bo ewidentnie od kilku lat zmiany w poszczególnych generacjach były wręcz kosmetyczne. Mimo wszystko mocno kibicuje AMD - choćby dlatego, że mocna konkurencja to w rezultacie albo niższe ceny, albo lepsze produkty - często jedno i drugie.

    •  

      pokaż komentarz

      @czupakadabra: Dlatego mówię, Intel ma pewnie jakiegoś asa w rękawie i zapoda coś fajnego szybkiego rdzeniowego na rynku gamingowym i do stacji roboczych do których AMD się wgryza :)

    •  

      pokaż komentarz

      Intel czekał na ten ruch, więc spokojnie, wyciągną asa z rękawa :)

      @Pabick: A my tylko na to czekamy. Konkurencja jest tylko z korzyścią dla konsumentów.

    •  

      pokaż komentarz

      @Pabick: I dobrze, niech tego asa wyciągają, w końcu skończy się rynkowy monopol.

    •  

      pokaż komentarz

      @Pabick: no wlasnie chyba doszli do jakies ściany bo rzucili i9 ktore sa gownem i cieżko sobie radzą.

    •  

      pokaż komentarz

      @czupakadabra: albo wziąć po prostu ryzena 1600 i mieć moc dużo wyższą niż ten ryzen 3 i w zapasie, ten ryzen 1600 bez problemu wystarczy do najmocniejszych kart na rynku pokroju 1080ti i titana xp

    •  

      pokaż komentarz

      @Jurigag: Co fakt to fakt, Ryzen 3 powoduje minimalny bottlenecking na GTX1070, więc karty pokroju GTX1080 są wyrzucaniem pieniędzy w błoto przy tym procesorze.
      Mimo wszystko, Ryzen 3 to jak na mnie najlepsza opcja z GTX 1060 - wyciska wszystko z tej karty, a cały zestaw komputerowy złożymy za kwotę niewiele wyższą niż cena 1070 - przy czym dalej będzie to odpalało 95% nowych gier w 60fps maksymalnych detalach i FullHD.

    •  

      pokaż komentarz

      95% nowych gier w 60fps maksymalnych detalach

      @czupakadabra: przesadziłeś troszkę :P high-ultra tak, ale na max detale i fullhd akurat gtx 1070 potrzebny aby mieć 60+ fps przez cały czas

    •  

      pokaż komentarz

      @Pabick: Obecnie jedynym posunięciem Intela może być przesunięcie segmentu, np: stare i5=nowe i3 itd. Architekturę nadal mają tą samą, a jej możliwości nie można eksploatować bez końca. Muszą wskoczyć na coś nowego, a Coffee Lake nie zapowiada się na rewolucję.

    •  

      pokaż komentarz

      Intel czekał na ten ruch, więc spokojnie, wyciągną asa z rękawa :)

      @Pabick: Już wyciągnęli. Zamiast przylutowanej czapki do rdzenia mamy marnej jakości pastę termoprzewodzącą, nawet w najdroższych procesorach HEDT za tysiące złotych przez co temperatury są z kosmosu (。◕‿‿◕。)

      pokaż spoiler AMD lutuje wszystko, nawet najtańsze Ryzeny 3.

  •  

    pokaż komentarz

    - Ryzen Threadripper 1950X: 16 rdzeni, 32 wątki, 3,4 / 4,0 GHz, 999 dolarów
    - Ryzen Threadripper 1920X: 12 rdzenie, 24 wątki, 3,5 / 4,0 GHz, 799 dolarów
    - Ryzen Threadripper 1900X: 8 rdzenie, 16 wątki, 3,8 / 4,0 GHz, 549 USD - dostępny od 31 sierpnia 2017


    @Conowegopl Wy tam macie kogoś od korekty?

  •  

    pokaż komentarz

    Never forget intel HEDT z glutem

    źródło: pclab.pl