•  

    pokaż komentarz

    To będzie rok AMD ( ͡º ͜ʖ͡º)

    •  

      pokaż komentarz

      @hudys u mnie każdy rok to rok amd :p

    •  

      pokaż komentarz

      @hudys: Brawo AMD, to jest idealna okazja by to wykorzystać. AMD Ryzen i Linux to super połączenie dla kumatych.

    •  

      pokaż komentarz

      @LunarLinux: w mojej pracy linux nie może mi zaoferować nic, kumatość nie ma tu nic do rzeczy, nie ma softu i kuniec, ni ma niczego

    •  

      pokaż komentarz

      @eclipsis co praca to inne wymagania, Ty nie masz co wykorzystać z Linuksa a inni mogą. Ot specyfika pracy. Ja piszę przy tworzeniu aplikacji serwerowych i nie ma bata, tylko Linux choćbyś nie wiem jak chciał chyba że jakiś masochista się znajdzie który zapragnie pisać serwer na windowsie. U mnie to tylko raz dali się sprawdzić, napisaliśmy kod w Javie serwera, następnie zrobiliśmy test wydajnościowy w specjalnym ośrodku z maszynami, klienci na windows, i na przemian raz serwer pod Linux, a raz Windows na tej samej maszynie. Od tamtej pory w przetargach nikt nie zaleca w szpitalach stawiania serwerów na windowsie. Różnica wynosiła ok 30% zanim pojawiły się problemy z wydajnością.

    •  

      pokaż komentarz

      @eclipsis
      Oferuje, oferuje. Tylko w chmurze, tam gdzie go nie widzisz ( ͡º ͜ʖ͡º)

    •  

      pokaż komentarz

      @hudys: A właśnie tak - rok 2018 to rok AMD. Już śpieszę wyjaśnić dlaczego:

      Po pierwsze - proces technologiczny. AMD praktycznie od ponad dekady zawsze było za plecami Intela jeśli chodzi o poziom zmniejszania tranzystorów, przez co musieli uciekać się do różnych sztuczek i kompromisów lub po prostu oferować tańsze produkty. Te lata to już historia - dziś Ryzen to litografia 14nm LPP, która choć jeszcze sporo jej brakuje do 14nm+++ Intela (nazewnictwo nie odpowiada już fizycznym rozmiarom bramek, zbyt dużo dziś w tym marketingu) pokazuje pazur pomimo tego, że praktycznie biorąc blokuje częstotliwość na poziomie 4Ghz, kiedy Intel pozwala w najnowszych Coffee Lake na przetaktowania nawet do 5Ghz i wyżej. est to okupione jednak temperaturami tak wysokimi, że wymaga to tzw. "deliddingu" czyli skalpowania, a więc niebezpiecznego procesu rozcięcia wierzchniej warstwy przykrywającej procesor, aby wymienić pastę termo-przewodzącą, którą to od pewnego czasu niebieski gigant zaczął stosować odchodząc od lepszej (i zapewne droższej) metody lutowania rdzenia do powierzchni IHS rozpraszającej ciepło w styku z chłodzeniem. Ale do rzeczy - przecież sam napisałem, że 14nm nie ma szans z 14nm+++ fabryk Intela. Jednak już za 3 miesiące, w kwietniu 2018 procesory AMD produkowane w fabrykach Global Foundries przejdą na ltografię 12nm (wcześniej nazywaną po prostu 14nm+) obiecując co namniej 10% większą wydajność i 15% większe upakowanie tranzystorów. W połączeniu z usprawnieniem architektury druga generacja układów Ryzen powinna przyspieszyć od 10 do 15%. Pokrywa się to z zapowiedziami AMD z tegorocznych targów CES, kiedy pokazywali wykres trendów wzrostów w procesorach x86 na generację szacując je na 7-8% - zaznaczając, że Ryzen+ (nazywany 2nd gen.) oraz późniejsze Ryzen 2 i 3 przyrost ten zwiększą o kolejne kilka %. Ale to dalej nie koniec, pomimo że 12nm może być w wydaniu AMD całkiem niezłe - będzie tylko niwelować wydajnościową przewagę i7-8700k oraz i5-8600K szczególnie w grach, które tak nagle stały się sześciordzeniowymi jednostkami nikt jednak nawet nie marzy o zrównaniu się wydajności. Jeszcze nie teraz... A kiedy? No właśnie - prawdopodobnie w przyszłym roku tj. 2019 kiedy to odkupiona od IBM technologia 7nm, która z wszystkich znaków na ziemi i niebie zdaje się być gotowa do produkcji pierwszych sampli inżynieryjnych już w drugiej połowie tego roku, zostanie wdrożona w masowej produkcji Global Foundries, najprawdopodobniej w postaci Vegi 7nm dla centr danych i obliczeń AI (o tym później). Co na to Intel? Wszystkie nadzieje wiążą się tutaj z 10nm, jednak premiera układów wykorzystujących tę litografię jest systematycznie przekładana, obecnie na końcówkę roku 2018 - chodzą jednak słuchy o tragicznym uzysku w tej litografii. Co prawda Intel wypuścił próbkę chipu na 10nm... jednak była to jednostka 2-rdzeniowa taktowana ok. 2Ghz z TDP 15W - nic co w dzisiejszych czasach miałoby prawo bytu w choćby średniej klasy laptopie. Wygląda na to, że Intel utknął ze swoją technologią, a dodatkowo tworzy monolityczne układy co tylko pogłębia problem niskiego uzysku sprawnych układów w produkcji. 7nm Global Foundries jest porównywane do 10nm Intela (z mikro przewagą, a właściwie nano przewagą dla 7nm). Jeśli AMD potrafiło być tak konkurencyjne przy 14nm LPP (Low power - więc technologią dla urządzeń o niższych poborach prądu) to nie mam wątpliwości, że dzięki procesowi technologicznemu 7nm, który to według jego twórców, tj. IBM ma posłużyć dla układów wysokich częstotliwości ok. 5Ghz, przy relatywnie niskim poziomem energii oraz dużemu uzyskowi układów (dzięki produkcji mniejszych płytek Zeppelin łączonych przy pomocy Infinity Fabric w większy układ w przypadku procesorów serwerowych i HEDT, a 2 modułów CCX w obrębie jednego Zeppelina, który to odpowiada w pełni sprawnemu 8-rdzeniowemu Ryzenowi 7) będzie prawdziwym Graalem procesorów x86 - wysoko-taktowanym, wielordzeniowym układem o niskim poborze mocy, a na dodatek tanim w produkcji. Nieźle prawda? A to powinno stać się w ciągu najbliższych kilkunastu miesięcy.

    •  

      pokaż komentarz

      @Technolust: @hudys:
      Po drugie jak już wspomniałem AMD najprawdopodobniej szykuje się na podbój rynku AI. Ten jest póki co w rękach Nvidii, jednak Vega dzięki serii Radeon Instinct wstawiła malutką, bo malutką ale jednak stopę w drzwiach zielonego giganta. Wygląda na to, że TSMC dysponuje lepszym dla układów Nvidii 16nm raz 12nm, pozwalających im na wyższe taktowanie układów. Nie jest to oczywiście jedyna przewaga Nvidii, mają po prostu zabójczo dobrą architekturę oraz CUDA wyznaczyła kierunek rozwoju obliczeń na kartach graficznych, co AMD dopiero teraz próbuje naprawiać w pocie czoła tworząc narzędzia choćby do automatycznych konwersji kodów programów pisanych pod obliczenia CUDA na swoje własne OpenCL. Tak czy owak Vega w 7nm powinna skorzystać z dobrodziejstw nowego procesu tak samo jak Ryzen - pozwalając na produkcję pierwszych układów w wysokich cenach na poczatku produkcji, kiedy uzysk nie jest jeszcze optymalny tak samo jak robi to Nvidia z akceleratorami Tesla na architekturze Volta. Nie wiadomo jednak co z konsumenckimi GPU, Vega okazała się dla wielu jednak rozczarowaniem, wydaje mi się jednak, że odczucia te są spotęgowane przez pewne specyficzne wydarzenia na rynku (inflacja cen - głównie Radeonów z powodu boomu na "kopanie".

      Po trzecie - SEMI-CUSTOM biznes. Intel ogłosił współpracę z AMD zamawiając konkretny typ Vegi i w paczce ze swoimi procesorami oraz 4 gigabajtami pamięci HBM2 sprzedawać na rynek cienkich laptopów i wydajnych ultra-booków. Sama ta umowa według pobieżnych rachub w odzyskaniu 10% rynku tego typu laptopów oscyluje w granicach 300 milionów dolarów przychodu rocznie. Do tego dochodzą inne wygrane jak ta Atari (choć ostatnio zawieszona - na centrum rozrywki domowej) i inne nieujawnione jeszcze przez AMD - zapowiedziane. Gdzieś w tle krąży także ciągle plotka CNBC, której nigdy nie zdementowano oficjalnie - o przygotowaniu produkcji chipów dla Tesli do ich systemu autonomicznej jazdy, na co wskazywałyby wypowiedzi pracowników Global Foundries oraz zatrudnienie Jima Kellera w szeregach firmy Elona Muska. Przecież to ten sam człowiek, który dał początek najlepszym architekturom x86 AMD - K8 oraz dzisiejszemu Ryzenowi. Coś musi być na rzeczy, prawda? :) Na koniec tego podpunktu pozostawiam coś, co jest według mnie nieuniknione. Dziś kiedy mówi się o powolnym końcu życia i zmniejszeniu sprzedaży konsol, choć najnowsze dane temu i tak zaprzeczają dzięki wprowadzeniu "pół-generacji" PS4 PRO oraz Xbox One X, myśli graczy powoli acz nieustannie zaczną wyobrażać sobie prawdziwy next-gen. Taki gdzie nie tylko podbijemy rozdzielczość do 4K czy polepszymy jakość tekstur lub zwiększymy ilość wyświetlanych klatek na sekundę. Rdzenie Jaguar produkowane od 2012 roku, pomimo że mają podbite taktowania, mocno ograniczają sprzęt. A bez tego - nie zobaczymy kolejnych skoków algorytmów AI, niesamowitej i dokładnej fizyki, ani miast wypełnionych tysiącami NPCtów. Do tego potrzeba czegoś więcej... Czego - ano tak APU na miarę dzisiejszych czasów. Kiedy powinna nastąpić zapowiedź PS5? Ja obstawiam drugą połowę roku 2019. No właśnie... 7nm Ryzen 2 lub 7nm+ 3 (zakładając rok produkcji 2020) + rdzenie Vega lub Navi w 7nm w jednej paczce z 16/32GB HBM2 lub 3 jako współdzielona pamięć operacyjna oraz VRAM? Tak - tylko AMD dysponuje taką technologią na dzień dzisiejszy. I będzie ją w stanie zaoferować taniej niż konkurencyjne rozwiązania Intela czy Nvidii. Na dodatek wcześniej wspomniana umowa między AMD i Intelem praktycznie przekreśla niebiesko-zielone partnerstwo, Intel ewidentnie stara się ukrócić zapędy Nvidii w dominacji obliczeń, które mogłyby w przyszłości przeszkodzić planom giganta z Santa Clara w rynku AI oraz odebrać większe udziały na rynku centr danych.

    •  

      pokaż komentarz

      @Technolust: @hudys:
      Dorzućmy do tego wszystkiego wcześniej wspomniane problemy Intela z Meltdown, na których AMD już teraz zyskało prawie 20% od początku roku w cenie akcji (Meltdown powoduje spadki wydajności po łataniu dziur, z czego nie będą zadowoleni dostawcy obliczeń w chmurach i centra danych), w połączeniu z wygranymi dostawami procesorów serwerowych Epyc dla kilku z przedstawicieli Super 7 + OEMów jak HP, czekając na oficjalne ogłoszenie sprzedaży konstrukcji DELL daje to całkiem niezły obraz przyszłości co do udziału w rynku serwerów. A ten może być tylko lepszy, ponieważ Intel dysponuje ok. 99,5% rynku serwerów x86. Lisa SU - CEO AMD w swoich bardzo konserwatywnych przewidywaniach szacuje ok. 5-6% udział w sprzedawanych jednostkach końcem roku 2018. To jakieś 800-960 milionów zysków rocznie począwszy od odległego za rok momentu, ale już w 2018 powinno to być kilkaset milionów przychodu. Przypomnę, że Epyc pod względem linii PCI Express przebija Intela o wręcz porażającą ilość połączeń 128 w 1-socketowej konfiguracji vs 48 i 128 w 2-socketowej vs 96 Intela, a także zapewniając 8-kanałowy kontroler pamięci vs 6-kanałowy. Same rdzenie mimo, iż trochę słabsze oferują w podobnych cenach większą ilość rdzeni, a brak AVX512 będzie minusem tylko w pewnych zastosowaniach, w których i tak w wielu testach procesory Xeon dławią się pod wpływem ograniczeń termicznych oraz energetycznych, same siebie właściwie ograniczając. Tym jednakże nie neguję wyższości w instrukcjach AVX512 - Xeony będą tam niezastąpione. Nikt jednak nie chce, aby Epyc przejął wszystkie centra danych. Wydaje się, że AMD podjęło inną decyzję - zachęcić dostawców do używania większej ilość konfiguracji jedno-socketowych, w szczególności tam, gdzie potrzebna jest duża ilość akceleratorów danych (jak Radeon Instinct lub Tesla) oraz duża przepustowość pamięci. Farmy renderingu dzięki dużej ilości rdzeni to także jasny wybór AMD, a często niższe zużycie energii od Intela (co było jeszcze nie do pomyślenia 2 lata temu!) znajdzie uznanie wśród wszystkich serwerowni. Należy także zrozumieć jak sama Lisa Su stwierdziła, że pierwsza generacja Epyc to tzw. "Proof of concept" - swoisty dowód, na to iż, parafrazując słowa prezydenta zeszłej kadencji w USA, "Yes, we can!". Dodatkowo rozpisana "roadmapa" na lata 2017-2020 upewnia w przekonaniu, że inwestycja w ekosystem AMD nie pójdzie na marne, ponieważ Epyc 7nm oraz 7nm+ zachowają ciągłość dostaw ze skokowym wzrostem wydajności i przede wszystkim - tak pożądanej na rynku serwerowym sprawności energetycznej.
      Na koniec szybko dodam, że AMD dzięki renegocjacji bardzo niegdyś niekorzystnego Waffer Supply Agreement z fabrykami Global Foundries, pozbyło się braku możliwości produkcji oraz istotnych kar z tym związanych w innych dostawcach wafli krzemowych. 7nm dla kart graficznych odbędzie się w TSMC (tam gdzie Nvidia produkuje swoje chipy), co powinno "odkorkować" wąskie gardła produkcji, które są największą zmorą AMD - możliwości produkcyjne nie nadążają za pobytem na GPU marki Radeon oraz prawdopodobnie chipów serwerowych dla centr danych. Wszystko to powinno być przeszłością wraz z wprowadzeniem 7nm - które powinno dodatkowo polepszyć konkurencyjność wszystkich układów jak już wspomniałem wcześniej.

      Jakby kogoś zainteresowała całość (po sporo tekstu ominąłem): Make AdvancedMicroDevices great again!

    •  

      pokaż komentarz

      @szymam: Inwestowania na górce w AMD i dodatkowo na historycznej górce dolara? ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @kiernek: @Endrius: napisałem "w mojej pracy" ;), to, że prawie cały internet stoi na tym lub jakiejś pochodnej tego, to już inna bajka i oczywiście pośrednio korzystam, ale na mojej stacji roboczej linux nie ma racji bytu...

    •  

      pokaż komentarz

      napisaliśmy kod w Javie serwera

      @kiernek: Co to jest ? jak piszesz aplikacje równie składnie co zdania nie ma bata aby były wydajniejsze! Aż z ciekawości sobie goog'lowałem o tym i wiesz co banialuki pleciesz! Java Performance: Ubuntu Linux vs. Windows Vista. Jeżeli możesz wyprowadź mnie z błędu i opisz co to za aplikacja co było wąskim gardłem.

    •  

      pokaż komentarz

      @hudys: Oby, bo to co Intel wyczynia od prawie dekady woła o pomstę do nieba...

    •  

      pokaż komentarz

      @szymam: Wybaczcie tę auto-reklamę, ale widzę, że tekst nawet się podoba. Jeśli lubicie takie tesla-sresla, go go AyyMD, mój ojciec jest fanatykiem SpaceX to zapraszam pod #technolust - nic was nie ominie z moich tecno-wypocin ;)

  •  

    pokaż komentarz

    AMD>Intel nigdy nie dbał o klientów, zawsze zależało im wyłączenie na maksymalizacji zysków. Pokazywali to nie raz, żąglujac podstawkami, dając gluta itp itd.

  •  

    pokaż komentarz

    Następny komputer będzie z AMD.

    •  

      pokaż komentarz

      @gusioo: U mnie też, nawet laptop Asus z AMD Ryzen 7.

    •  

      pokaż komentarz

      @LunarLinux: U mnie: i386SX, i486DX2, P1-233MMX, P3-450, AMD 1700+, AMD 2200+, AMD 2500+, SEMPRON 3000+, AMD X2 4200+, C2Q8200, C2Q9300, I5 2500K, I5-4690K, czyli 4 intele, 5 amd, 4 intele i tera znowu AMD wypada seria - choć praktycznie mam/miałem komputer z procesorem każdej serii i producenta (oprócz VIA) począwszy od 286 ale to raczej kolekcjonersko.

    •  

      pokaż komentarz

      @bezemnie: Ja tam w gry gram tylko na konsolach, które mają teraz podzespoły AMD Jaguar. Gry są dobrze zoptymalizowane pod procesory AMD CPU i GPU. Do przeglądania internetu i programowania lepiej odpowiada mi taki 8 rdzeniowy Ryzen, wygląda też na to, że AMD jako pierwsze wprowadzi procesory AMD Ryzen+ w technologii litograficznej 12nm. I nie trzeba będzie zmieniać podstawek i płyt głównych, jak to ma w zwyczaju intel.

  •  

    pokaż komentarz

    Jak komputer to znowu tylko AMD (czasy Duronów i Athlonów mi się przypominają) (。◕‿‿◕。)

    •  

      pokaż komentarz

      @Init0: Ja bym się chętnie na AMD przesiadł (tylko na Threadrippera), ale nikt nie oferuje sensownych płyt głównych. Obecnie korzystam z Asusa X99-E WS/3.1 i nawet jak bym chciał dalej Intela to też nic porównywalnego nie ma (╯︵╰,)

    •  

      pokaż komentarz

      @Marrond: na razie mam jeszcze Intela i7-3770 w domu na stacjonarce, wiec przy najbliższej wymianie komputera trzeba będzie się przesiąść i rozejrzeć za AMD jakąś dobrą podstawką - dla mnie to niestety odległa przyszłość, bo mam inne wydatki, a to co mam starcza mi (z pracy i tak mam zawsze laptopa).

    •  

      pokaż komentarz

      @Init0: Jak to tylko AMD? Podaj mi realną konkurencję dla chociażby i7 8700k do zestawu z 1080Ti. AMD ma jeszcze sporo do nadrobienia i gracze będą nadal kupować w dużej mierze Intelowskie CPU.

    •  

      pokaż komentarz

      @niechcemisie_: Tak jak @Marrond - AMD ma coraz lepsze proce, ale jest spora posucha w płytach. Oczywiście jak dasz wór złota to dostaniesz jakąś najdroższą wersję dla AMD, ale mid- i highend świecą pustkami, albo chociaż mają mniej dodatków...

    •  

      pokaż komentarz

      @tellet: Owszem, ale tylko w zastosowaniach profesjonalnych. W grach nadal przez jakiś czas będzie rządził Intel. W porównaniach z TR nadal zwycięża 8700k i to ze sporą przewagą. AMD i tak poczyniło ogromne postępy, a Ryzeny to bardzo duży sukces jak na przepaść, która dzieliła wcześniej Intela i AMD za czasów "legendarnych" FXów ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @tellet: No właśnie nawet za wór złota nie ma w czym wybierać za bardzo... sprawa ma się jeszcze gorzej jeżeli szukasz płyt dwuprocesorowych pod serwerowe AMD...

    •  

      pokaż komentarz

      @niechcemisie_ Do zestawu z 1080ti? Ryzen 1600. Te karty i tak są do 2 i 4k a tam i tak GPU jest bottleneckiem.

    •  

      pokaż komentarz

      @khurghan: Przy graniu w 4K tak, przy 2K (2560x1440) już nie - tam potrzeba czegoś co pozwoli na 100+ FPS. O ile mocno wykręcony Ryzen 1600 na 4Ghz jeszcze daje radę to uznałbym to już za szczyt możliwości przy 2K. Przy 200Hz 1080p i 1080Ti niestety pozostaje 8700k, ale z drugiej strony to dość dziwna konfiguracja. Na szczęście tuż za rogiem Ryzen 2nd gen i taki 2600x z bazowym taktowaniem 3.9Ghz, max OC 4,4Ghz i lekkimi usprawnieniami zmieni nieco ten obraz i zbliży się do i7-8700k będąc jedynie 10-15% mniej wydajnym.

    •  

      pokaż komentarz

      @Technolust Z 2k w sumie masz rację. Użyłem trochę skrótu myślowego. Jakiś czas temu testowaliśmy z kumplem 7700k + 1080ti vs 1700 + 1080ti na 3440x1440 i wyniki były niemal identyczne. Stąd mi się wzięło 2k, chociaż w sumie to będzie 3k? ;-p

    •  

      pokaż komentarz

      @Technolust Co do 1080ti do 1080p przy wysokiej częstotliwości odświeżania to rzeczywiście dość niezwykła konfiguracja. W sumie widzę to tylko przy profesjonalnych e-sportach. Gdzie indziej to się mija z celem.
      A co do kolejnych generacji ryzenow, to trzymam za nich kciuki.

    •  

      pokaż komentarz

      @khurghan: @Technolust: Mylicie 2k z WQHD 1440p. Poza tym mam nadzieję, że propozycja Ryzena 1600 do takiego zestawu nie była poważna. Jeśli już to Ryzen 1700, 1800 albo jakiś TR. A to już jest nieopłacalne. Do gier póki co najlepsze są Coffe Lake i żadne kombinowanie tego nie zmieni. Oczywiście nie zabraniam nikomu kupować Ryzena do high-endowej karty graficznej tylko dlatego, że lubi AMD. Ja jednak przy zakupie podzespołów kieruję się logiką i po prostu biorę to co jest dla mnie bardziej opłacalne.

      Dodam, że Ryzeny jak najbardziej nadają się do gier i radzą sobie w nich całkiem nieźle. Niestety póki AMD nie zaproponuje czegoś co przebije Coffe Lake, kupno takiego procesora tylko do grania mija się z celem, chyba że składa się zestaw low-mid end gdzie taka 1600 rzeczywiście w niektórych przypadkach może się opłacić.

    •  

      pokaż komentarz

      @niechcemisie_: Przecież pisałem, że 2K to 2560x1440 pomylił się przedmówca. A czym się różni Ryzen 1700 od 1600? Bo tylko 2 dodatkowymi rdzenia, z których i tak niezbyt dużo gier będzie miało pożytek. TR jest głupotą, ponieważ ma większe opóźnienia pomiędzy dwoma modułami Zeppelin w grach byłby jeszcze gorszy od podkręconego 1700 lub taki sam.

      Jeśli Kupujesz Coffee Lake i nie chcesz mieć możliwości rozbudowy (patrząc na to jak zostali potraktowani nabywcy Kaby Lake) to oczywiście możesz brać to co najwydajniejsze do gier. Po czym odpowiedni patch do Win10 zbije trochę wydajność w różnych zastosowaniach (w grach nie - to fakt). Kwestia tego jak kto lubi być robiony na kasę, czy wziąć Ryzena 1600 za połowę ceny (dokładnie tak 1600zł vs 850zł) i podkręcić do 4Ghz lub poczekać 3 miesiące na 2600 i zminimalizować stratę do 8700k. Sama 8700k jest dobra, ale firma za nią stojącą wyjątkowo perfidna.

    •  

      pokaż komentarz

      @Technolust: Ale 2K to nie jest 2560x1440. 2K = 2048 × 1080. Z tym 1700 trochę się rozpędziłem.
      A co do możliwości rozbudowy, to właśnie o tym pisałem wcześniej. W pewnych przypadkach Ryzen do gier może być bardziej opłacalny, ale na pewno nie w high-endzie. Tylko, że ta 8700k starczy na lata, a na upartego kiedy przestanie być już zadowalająca, to można będzie od razu wymienić całą platformę.

      Co do ostatniego zdania. Intel i AMD to korporacje. Śmieszy mnie ta odwieczna wojenka fanów obu stron. Korporacje nie dzielą się na te dobre i te złe, u nich liczy się tylko zysk. Gdyby AMD było na miejscu Intela, byłoby równie perfidne. Wierzę, że pani Lisa Su wyprowadzi ich na prowadzenie i na jakiś czas role dwóch graczy się zamienią. Chociaż najlepszym scenariuszem dla wszystkich byłoby, gdyby tych graczy pojawiło się więcej.

    •  

      pokaż komentarz

      @niechcemisie_: Tylko i wyłącznie do grania ryzen jest średnio opłacalny, zgadza się, ale raczej w midzie. W high endzie jak najbardziej daje radę, bo przy wysokich rozdzielczościach to gpu ogranicza system. No chyba, że ktoś kupuje 8700k + 1080ti do 1080p. Ale to wtedy to jest wyrzucanie kasy w błoto.
      Tak jak pisałem wcześniej, z kumplem robiliśmy testy na 3440x1440 i pomiędzy Ryzenem 1700 a Intelem 7700k nie było żadnej różnicy używając 1080ti (tzn była ale tak mała, że to błąd pomiarowy).

      https://www.anandtech.com/show/11859/the-anandtech-coffee-lake-review-8700k-and-8400-initial-numbers/17
      http://www.guru3d.com/articles-pages/intel-core-i7-8700k-processor-review,21.html

      A co do ostatniego, nie ma w tym żadnego fanbojstwa. Amd po prostu postępuje etycznie. I jest to duży plus dla nich przy wyborze sprzętu, jeżeli różnice są niewielkie.
      No i ostatnia wtopa z dziurawymi procesorami.

    •  

      pokaż komentarz

      @niechcemisie_: Nie, rozdzielczoscia 2K nazywana jest rozdzielczosc QHD (quad hd czli 1280x720 x4). Nie wszystkie korporacje sa tak perfidne jak Intel i stawianie tutaj ich na tym samym poziomie z AMD jest niesprawiedliwe pamietajac co Intel wyprawial w przeszlosci i co dalej czesto robi.

    •  

      pokaż komentarz

      Nie, rozdzielczoscia 2K nazywana jest rozdzielczosc QHD (quad hd czli 1280x720 x4).

      @Technolust:
      Proszę o źródło, bo zawsze byłem przekonany, że 2K to trochę szersze FullHD, czyli 2048x1080, a QHD(lub jak wolisz WQHD) to po prostu 1440p, proporcja nie mająca nic wspólnego z 2K. Sprawdziłem teraz na szybko kilka źródeł w Google i nigdzie nie widzę wzmianki, żeby 2560x1440 było nazywane gdzieś 2K.

      2048x1080 jest nazywana 2K, i rozdzielczość 4096x2160 to 4K (prawdziwa 4K), za to 3820x2160 (proporcje takie same jak FullHD) to UHD 4K. Nie do końca logicznie, ale tak to się przyjęło oficjalnie.

    •  

      pokaż komentarz

      @niechcemisie_: Racja - tak często ludzie zaczeli nazywać tę rozdzielczość w Internecie itd. QHD lub 1440p to jedyna słusza nazwa, zwracam honor :)

      https://linustechtips.com/main/topic/691408-2k-does-not-mean-2560%C3%971440/