•  

    pokaż komentarz

    Pamiętam kiedyś na ćwiczeniach prowadzący opowiadał o pewnej firmie produkującej aparaturę do tomografii komputerowej. W skrócie działa on tak iż robi prześwietlenia z każdego kąta a następnie przerabia je za pomocą odwrotnej transformaty Radona na jednostkowy przekrój z których dalej składa się model 3D. Transformata ta jest dość złożona obliczeniowo i od szybkości jej wykonania zależy czas całego procesu. No i wracając do tej firmy. Otóż produkowała kilka rodzajów tomografów które różniły się czasem rekonstrukcji obrazu. Oczywiście im szybszy tym droższy. A od czego zależał ten czas ? Otóż nie od mocy obliczeniowej zamieszczonego tam komputera jak mogło by się wydawać. Wszystkie maszyny były wyposażone w praktycznie identyczne komponenty. Z tą różnicą iż w tańszych dodatkowo software'owo albo hardware'owo za każdym obiegiem pętli dorzucono instrukcję wait. I w praktyce znaczna część czasu rekonstrukcji była po prostu czasem martwym. Z tym że różnica cenowo była znacznie większa niż w tym przypadku.

  •  
    t...c

    +22

    pokaż komentarz

    Może ktoś wyjaśnić co to za karty graficzne? Znam jedynie Geforce GTX690.

  •  
    kwahoo2

    +91

    pokaż komentarz

    tl,dr;
    1. Gościu kupił Geforce GTX, głównie z myślą o grach, ale chciał mieć jeszcze wsparcie dla trzech monitorów pod Linuksem
    2. Nvidia (jak to ma w zwyczaju) się wypięła ze sterownikami: wsparcie 3 monitorów dostępne jest dla Geforce tylko pod Windows, pod Linuksem trzeba mieć znacznie droższe, profesjonalne Quadro.
    3. Wiadomo było, że Quadro i Gforce różni się szczegółami, np. rezystorami (flashowanie GF->Quadro było już praktykowane koło 2000 roku) - gościu poszukał rezystorów, które mogą być ustawione w alternatywnych pozycjach lub wyrzucone/dodane.
    4. Profit.

    A co do różnic w sterownikach http://www.servodata.com.pl/hardware/pny/quadro/articles/quadro_geforce.htm

    Edit: Zauważcie jeszcze, że GTX 690 to dual-gpu i co jest na screenach po modowaniu;)

    •  

      pokaż komentarz

      @kwahoo2: ale co to za odkrycie? nawet procesory się niczym w danej rodzinie nie różnią. a to, że cena jest wyższa? normalne, koszty produkcji to ułamek całej wartości - sprzęt jest warty tyle ile ludzie są w stanie zapłacić.

    •  
      h.....h

      +9

      pokaż komentarz

      Komentarz usunięty przez moderatora

    •  

      pokaż komentarz

      @prusi: nie do końca niczym się nie różnią. na początku produkcji proces nie jest ustabilizowany - dlatego czasami trafiają się błędy. Wtedy zamiast wyrzuć cały układ, sprzedawany jest jako np. Celeron z mniejszą ilością L2.
      Czasami wada produkcyjna jest mniej tragiczna w skutkach (np, tranzystor ma 99 zamiast 100 atomów na bramce) i okazuje się, że układ działa, ale tylko do pewnej częstotliwości - wtedy jest sprzedawany taniej i z zablokowanym mnożnikiem.

      Po pewnym czasie jakość produkcji się poprawia i zapotrzebowanie na tańsze procesory przewyższa "odpady" - wtedy łatwiej jest sztucznie zablokować połowę cache, 1 rdzeń czy mnożnik, niż bawić się w projektowanie nowego układu. Dlatego nie wszystkie tańsze układy da się odblokować (pamiętam, że ok 50% Duronów dało się przerobić na Athlony przez dorysowanie ołówkiem ścieżki) i należy zwracać uwagę na serię produktu.

    •  

      pokaż komentarz

      @kite: no tak, chodziło mi o architekturę, a nie jakość wykonania.

    •  

      pokaż komentarz

      @kwahoo2: To nie zawsze jest takie proste. Ten problem zostal poruszony glownie w kartach NVIDIA TNT, TNT2, TNT2 Vanta, M64 i oczywiscie Ultra. Procesory z rogu wafla produkcyjnego, ktore nie uzyskaly parametrow Ultry byly ogolnie wyrzucane dopiero ktos byl sprytny i wpadl na pomysl, ze mozna sprzedac je jako produkt LOW-END i tam narodzily sie wlasnie Vanty i M64 i co jak co one wlasnie rozkrecily rynek kart bo wtedy ultra kosztowala ok 1200zl zwykla TNT2 cos ok 800 a M64 jakos 400zl. Roznice byly w taktowaniu core i mem ale technologicznie byl to ten sam procesor. Nawet powiem ci ze dokladnie to samo robi intel i AMD najmocniejsze procki od najslabszycj z tej samej rodziny niczym sie nie roznia. Po prostu z jakiegos powodu sa grosze i dlatego sprzeaje sie je jako tansze modele. Roznica miedzy GF a Quadro od lat jest wiadomo, ze to glownie oprogramowanie i jakis tam pin czy styk norma.

  •  

    pokaż komentarz

    Poprawcie mnie, może się mylę, ale...
    Kiedyś czytałem o produkcji procesorów pentium, i podobno ze wszystkich wyprodukowanych płytek, po zejściu z taśmy, robiło się tam badania takiego procesora i tylko dwa na dziesięć spełniany normy, aby dostać naklejkę Pentium, trzy kolejne dostawały nakleję Celeron i wyłączało się im pewne funkcję, reszta szła do odzysku, lub na sprzedaż jako noname.
    Krótko mówiąc, nie opłaca robić oddzielnej linii produkcyjnej do oddzielnych kart bazujących na tych samych podzespołach, kiedy sam proces produkcji procesora graficznego obarczony jest takim marginesem błędu. Na dziesięć procesorów graficznych tylko, dajmy na to, dwa wydrukują się tak dobrze, że będzie je można użyć w linii profesjonalnej, trzem kolejnym się utnie troszkę możliwości, aby podołały zadaniu i wrzuci się na segment dla zwykłego użytkownika.
    Krótko mówiąc, można przerobić kartę dla graczy na kartę profesjonalną, ale istnieje spore ryzyko, że nie będzie ona działała prawidłowo.
    Nie jestem specjalistą. Tę teorię przeczytałem lata świetlne temu, kiedy miałem jeszcze internet 128kb/s. Wtedy można było podmienić łatwo sterowniki dla GeForce 2 , aby uzyskać w ten sposób Quadro 2, co zamierzałem zrobić, jednak ostatecznie zrezygnowałem właśnie dlatego, że przeczytałem gdzieś tę teorię i wydała mi się sensowna.

    •  

      pokaż komentarz

      @pinol: To jest prawda. Układy są selekcjonowane i przeznaczane na różne wersje. Ostatnio najsłynniejsze takie modyfikacje mogli robić posiadacze Athlon'ów X3. U sporej ilości osób czwarty rdzeń działał dobrze, u niektórych powodował błędy u jeszcze innych w ogóle.

      W przypadku układów Tesla mają one szerszą szynę obliczeń strumieniowych, pamięci ECC, co wpływa na dokładność i wydajność obliczeń zmiennoprzecinkowych.

    •  
      kwahoo2

      +17

      pokaż komentarz

      @pinol:
      To nie mogło być Pentium, bo PII miało cache L2 taktowane 1/2 częstotliwości procesora, a Celeron pełną. Chyba, że by chodziło o słynnego Celerona 300A...

    •  

      pokaż komentarz

      @pinol: Im bliżej środka wafla krzemowego tym lepsze procki wychodziły. Spora część procków pracuje z częstotliwościami niższymi niż powinny bo okazuje się, że znaczna część partii która zeszła z taśmy nie spełnia norm dla danego procka. Tak więcej zamiast testować wszystkie obniża się ich częstotliwość i sprzedaje jako gorsze. Stąd czasem niektórzy mają świetne wyniki w podkręcaniu bo trafił im się lepszy procek z danej partii który teoretycznie mógłby być tym droższym.

    •  

      pokaż komentarz

      @adios: Z Phenomami II tak było. Wersje X2 i X3 miały fizycznie 4 rdzenie z których 1,2 były zablokowane. Można było je odblokować w biosie i przy odrobienie farta działały bezproblemowo. Czasem wystarczyło lekko obniżyć taktowanie. Ja przez rok miałem 4 rdzeniowca, jednak po tym czasie któryś z tych 2 odblokowanych rdzeni padł i musiałem je wyłączyć i wrócić z powrotem do X2. Ten 1 lub 2 rdzenie są wyłączone ponieważ nie przeszły testów i nie spełniają norm. Po co wyrzucać cały procesor skoro np tylko 1 rdzeń jest niesprawny?

    •  

      pokaż komentarz

      @czef: Oczywiście, że jeśli chodzi o zarządzanie to świetne podejście minimalizujące straty w produkcji. A to, że co sprytniejsze osoby mogły dostać dodatkową moc obliczeniową - nic tylko się cieszyć. :)

    •  

      pokaż komentarz

      @pinol: > Nie jestem specjalistą. Tę teorię przeczytałem lata świetlne temu, kiedy miałem jeszcze internet 128kb/s.
      Lata świetlne to jednostka odległości, a nie czasu.

    •  

      pokaż komentarz

      @kwahoo2: A nie było tak, że Celeron nie miał pamięci podręcznej poziomu L2, przez co nieźle można było go podkręcić, ale przez brak pamięci to podkręcanie niewiele dawało. Celeron A miał tam zdaje się trochę pamięci L2, był wydajniejszy od zwykłego Celerona ale nie można było go już tak dobrze kręcić.

    •  
      kwahoo2

      +1

      pokaż komentarz

      @andrewson:
      Faktycznie, czyli najpierw był bez A i bez L2, potem był A z L2, a na koniec zrezygnowali z dodawania literki.
      Pochrzaniło mi się;) http://www.cpu-world.com/CPUs/Celeron/Intel-Celeron%20300A-66.html

    •  

      pokaż komentarz

      @pinol: Trzeba również pamiętać, że oprócz kosztu produkcji dochodzi również koszt badań. Taki procesor musi się zwyczajnie zwrócić. Pracuje w firmie, która produkuje precyzyjne układy pomiarowe i koszt wyprodukowania to może 10-20%. Reszta idzie na pokrycie kosztów pracowni badawczej, gdzie idą bardzo duże pieniądze.

    •  

      pokaż komentarz

      @meabilis: Wiem, ale to było metaforycznie. Lata świetlne temu, czyli czas przed internetem ze światłowodów :D

    •  

      pokaż komentarz

      @pinol: Nie chodziło o zmianę procka z Pentium na Celerona, ale o częstotliwość taktowania. Te najlepsze szły z największym taktowaniem, te gorsze z niższym.

    •  

      pokaż komentarz

      @pinol:
      Zgadza się tak to się mniej więcej robi. Przykładowo takie AMD - Phenom II X4 jeden rdzeń uszkodzony -> Phenom II X3 -> 2 rdzenie uszkodzone Phenom II X2.
      Uszkodzone cache L3 -> Athlon II X4, później zrobili osobny rdzeń dla athlonów który od początku nie miał L3 ale dalej było analogicznie i były Athlony II X3.
      U intela podobnie Xeony na LGA 1155 - najlepsze sztuki, potem odblokowane i7, zablokowane i7, i7 bez HT i części cache czyli i5, z GPU bez GPU...
      Potem i3, i3 bez ht - pentiumy, celerony...
      Tak na prawdę nie płacimy za same procesory (mała część) tylko za kasę wpompowaną w badania nad nowym procesem technologicznym, budowę nowych FABów (fabryk) itd.

  •  

    pokaż komentarz

    1. kupować zwykłe gejforsy
    2. kupować rezystorki
    3. sprzedawać quadro
    4. ???
    5. PROFIT!