•  

    pokaż komentarz

    Stulejarz-pseudomądrala z tekstem "BUBUBUBU ZAKOP ZA WHATSNEXT" bez przeczytania artykułu, za 3... 2... 1...

  •  

    pokaż komentarz

    Rdzenie, zwiększać liczbę rdzeni! Milion rdzeni razy 10GHz = komputer sto milionów gigaherców. Problem nauko? ( ͡° ͜ʖ ͡°)

  •  

    pokaż komentarz

    bo tak nazywa się to nowe podejście, ma nawet nie tyle uchronić komputery przed popełnianiem błędów, (przy stanie obecnej techniki wydaje się to zadaniem zupełnie niewykonalnym), co uodpornić programy na pomyłki, zapewnić im stabilne funkcjonowanie i możliwość uzyskania poprawnych wyników niezależnie od wad sprzętu.

    Samonaprawiające się bugi? :)

  •  
    y.....y

    -10

    pokaż komentarz

    Zainstalować normalny system.

  •  

    pokaż komentarz

    Jakoś mi się to nie widzi. Bo kasa kasa kasa
    Czy ktoś kupi sprzęt który będzie wyraźnie droższy (mniejszy proces technologiczny, więcej tranzystorów) który będzie drożej i ciężej oprogramować (część programów zostanie przepisane, część zniknie bo się nie opłaci przepisać, a przepisanie będzie kosztować) a może być tylko trochę lepszy bo większość czasu procek "się sprawdza".
    W przypadku PC-tów to już od kilku lat tak naprawdę tylko gracze powoli ciągną sprzęt - innym więcej niż 2x1.6 GHz nigdy nie będzie potrzebne do szczęścia. W przypadku ośrodków naukowych - sporo kodów jest zrównoleglonych - tam do szczęścia wystarczą SSD zamiast HDD i wielordzeniowe procesory zasysające mniej prądu - zakup sprzętu potrafi być ułamkiem tego co koszt utrzymania.

    •  

      pokaż komentarz

      @ostatni_lantianin: Chyba jednak nie masz bladego pojęcia o kosztach zakupów I utrzymania tego typu sprzętu. Koszty utrzymania wynoszą mniej więcej 1/4 ceny zakupu o ile kupujemy sprzęt w miarę świeży na rynku, z serwisem na 5 lat i liczymy 5-cio letni okres amortyzacji i to licząc koszt zakupu samego sprzętu bez budynku, klimatyzacji, podtrzymania. Chociaż w sumie 400% to też ułamek...

    •  

      pokaż komentarz

      część programów zostanie przepisane, część zniknie bo się nie opłaci przepisać, a przepisanie będzie kosztować

      @ostatni_lantianin: Chyba że mechanizmy samotestowania zostaną zaimplementowane na poziomie kompilatora.

      innym więcej niż 2x1.6 GHz nigdy nie będzie potrzebne do szczęścia.

      @ostatni_lantianin: A widziałeś podglądarki 3D natywnie działające w przeglądarkach internetowych? W sumie to określenie "2x1.6 GHz" i wciskanie wszędzie SSD jest mocno Januszowate.

    •  

      pokaż komentarz

      @orcus: Wydaje mi się że zależy od skali. W przypadku centrów które używają komputerów serwerowych mają własną infrastrukturę to jest racja. Za to kumpel pracował w labie i mówił że u nich wydatek główny to prąd - dlaczego - serwery to PC-ty kupione po kosztach, a naprawy to - wymiany dysków + lutowanie kondesatorów na płycie. Sądzę że serwery mimo że mniej awaryjne wychodzą drożej :)
      @AdireQ:
      Ale kto tego używa. Kiedy 99% ludzi zajeżdza CPU - jak grają. A co robią jak nie grają - łażą po necie piszą w Wordzie, do tego nie trzeba potwora. Tak naprawdę net to też zło konieczne bo moim zdaniem jest przesycony gównoskryptami i flashoreklamami które tylko jedzą zasoby. Gdyby się postarać to poza grami te dwa rdzenie by styknęły większości populacji - z czego ten drugi raczej byłby na wypadek jak jakiś program przypadkiem coś zmuli. Co do SSD - to się nie zgodzę, o ile w przypadku Januszy SSD to zabawka która daje +5 do ładowania aplikacji o tyle przy przerabianiu danych czas w jakim czekasz na danę może grać dużą rolę.

    •  

      pokaż komentarz

      @ostatni_lantianin: Warto to sobie policzyć. Koszt zakupu superkomputera nawet biorąc pod uwagę to, że trzeba go połączyć siecią i zapewnić współdzielony storage jest porównywalny do stada domowych PC (też dobrej klasy - patrzyłem na zakup i7-4790K + GTX770) o tej samej mocy. Oczywiście nie liczę klawiatury, monitorów etc.

      Co ciekawe współczesny superkomputer robi około 6 razy więcej operacji zmiennoprzecinowych na W pobranej mocy niż taki PC.

      Warto to podrzucić koledze z labu. To są liczby przemawiające za outsourcowaniem obliczeń w postaci wykupienia mocy lub nawet konsolidacji, czyli dołożenia swojego sprzętu do superkomputera na etapie zakupów.

      Teraz co do SSD - to się zwyczajnie nie opłaca. Mamy dwie opcje:
      - Wsadzenie dysków SSD bezpośrednio do serwerów. Powoduje to spore utrudnienia przy zrównoleglaniu kodu (bo dane musisz też dystrybuować) oraz ohromne straty - nawet jeśli 75% kodu potrafi skorzystać z wydajności tych dysków to masz 25% inwestycji która się marnuje. To jest podzielenie sumarycznej wydajności dysków na "worki". Zawsze powoduje to straty.
      - Wrzucenie ich do macierzy i budowa systemu współdzielonego. To nie dzieli wydajności, czyli strat nie powinno być, ale powoduje inny problem. Musimy teraz zakładać utylizację dysków na poziomie bliskim 100%. Żaden dysk domowy tego nie wytrzyma. Dopiero od niedawna producenci zgadzają się podpisywać SLA na dyski enterprise na 5 lat. Te dyski są dużo droższe i kupujesz np. 600GB z których 400GB jest zablokowane na relokację komórek. W tej samej cenie masz 3 dyski HDD po 2 albo 3TB każdy i o sumarycznej wydajności zbliżonej do tej z SSD zakładając mocno sekwencyjny profil zapisów i odczytów (czyli większość zastosowań w tym naukowe). Jedyny minus to objętość i waga tych dysków. Koszt półek do macierzy jest znikomy a kontrolery skaluje się i tak pod wydajność a nie liczbę dysków.

      Podsumowując - dyski SSD tylko do domu lub do mało sekwencyjnych zastosowań jak relacyjne bazy danych z pierdyliardami indeksów i zapytań.

    •  

      pokaż komentarz

      @orcus: Dlatego SSD to niestety przyszłość, ale jestem dobrej myśli.
      Co do kolegi z labu - to on tych kompów nie kupuje. Takie #coolstory:
      - kilka lat temu chcieli rozbudować ten swój "superkomputer", oczywiście padło kilka opcji - serwer, wynajęcie i szereg pecetów. Z wynajęciem to od początku było wiadomo że nie przejdzie bo admin by stracił robotę (a to niestety taki level admina że nie potrafi skopiować ukrytych katalogów przez konsolę). Swoją drogą admin adminuje tam całą siecią i burdel tam mają nieziemski. Z tego co mi mówił to system kolejkowy mają od roku bo przez długi czas admin uważał że reszta userów jest "za głupia" na system kolejkowy - więc jak coś robili to była to pętla po bashu + aplikacje odpalane w screenie :).
      W każdym razie historia była jeszcze ciekawsza - otóż zakupili kilkanaście kompów średniej klasy. I wiesz co się stało? - przez kilka lat nikomu nie chciało się ruszyć dupy i złożyć je do kupy, poinstalować soft, w końcu jak jakiś ambitniejszy doktorant się znalazł to okazało się że połowa kompów nie odpala (a było już po gwarancji) a średnio się opłacało je remontować skoro na rynku były już dużo mocniejsze maszyny.