Samsung przygotowuje 5 nm chip Exynos z GPU AMD, który ma konkurować z M1

Samsung przygotowuje 5 nm chip Exynos z GPU AMD, który ma konkurować z M1

Samsung prawdopodobnie przygotowuje chipset z rodziny Exynos, który będzie konkurentem Apple M1.

  •  

    pokaż komentarz

    zastanawiam się, czy to nie jest czasem początek konca pecetów opartych na architekturze x86? Apple zrobiło pierwszy krok i pokazało że budowa komputera na zupełnie innym chpie w dzisiejszych czasach jest możliwa. jak się okazuje dla wielu ludzi chip M1 jest wystarczający do pracy.

    czy teraz pora na komputery (laptopy) z chipami ARM? czy jesteśmy w staie oddać (trochę) wydajności w zamian za dużo dłuższą pracę na baterii?

    •  

      pokaż komentarz

      @secret_passenger: To zależy. Trzeba by sporo oprogramowania poprawić na nową platformę. Sprzęt Apple ma też taką wadę, że ciężko go rozbudowywać. Ale fajnie by było mieć laptopa, który działa ciszej i dłużej na baterii :)
      Sama technologia ARM na pewno będzie zjadała coraz więcej rynku CPU dla komputerów/serwerów.

    •  

      pokaż komentarz

      @crazy_wolf: Właśnie, takie coś jest tylko możliwe w środowisku appla, bo tam jak nie idziesz z prądem to zostajesz wydalony przez system. W środowisku windows jest tak duża fragmentacja i każdy ma swoją opinię, że taka migracja by się ciągneła w nieskończoność. Nie minął rok od ogłoszenia M1 i już 90% aplikacji jest zbudowanych pod M1, a pozostałe 10% działa bardzo szybko w emulacji.

    •  

      pokaż komentarz

      @crazy_wolf: pewnie że oprogramowanie to jest coś co będzie najpoważniejszym problemem na początku. ale dziś - gdy sporo programów pisze się w językch wysokiego poziomu to raczej kwestia rekompilacji. oczywiście w praktyce będzie to wymagało rekomplikacji również również tysięcy bibliotek i narzędzi niezbędnych do budowania tych aplikacji.

      myślę że to konieczny krok b producenci laptopów mogli w jakikolwiek sposób dogonić Apple i zaproponować klientom cokolwiek co będzie działało podobnie drugo na baterii jak Apple MacBook z procesorem M1.

    •  

      pokaż komentarz

      @pwnd: W wypadku Apple jest łatwiej portować aplikacje, bo to jak by nie patrzeć taki BSD ten ich OSX. Co prawda jest Windows 10 na ARM, ale największy problem to byłby imho sterowniki i stary soft. Z naciskiem na to pierwsze.

    •  

      pokaż komentarz

      @pwnd: ale dziś są już nawet w środowisku PC inne podejście: teraz odpalenie maszyny wirtualnej dla jakiegoś starego oprogramowania nie jest już problemem. myślę, że już powoli nadchodzi czas na migrację i opór nie będdzie tak silny jak się niektórym wydaje.

    •  

      pokaż komentarz

      jak się okazuje dla wielu ludzi chip M1 jest wystarczający do pracy.

      @secret_passenger: Dla zdecydowanej większości jest wystarczający lub nawet bardzo wydajny.

    •  

      pokaż komentarz

      @pejter: dlatego też wydaje mi się, że dzisiaj zmiana architektury z x86 na coś innego jest bardziej realna niż kiedykolwiek wcześniej.

    •  

      pokaż komentarz

      zastanawiam się, czy to nie jest czasem początek konca pecetów opartych na architekturze x86?

      @secret_passenger: Pomijając już Raspberry PI i klony, jest też Windows na ARM a MS produkuje tablety Surface Go.

      odpalenie maszyny wirtualnej

      @secret_passenger: żeby odpalić kod binarny x86 na ARM potrzebny jest emulator a nie VM.

    •  

      pokaż komentarz

      @secret_passenger ja jestem pod warunkiem że nie będzie to takie gówno jak to od apple masakrujące ssd...

    •  

      pokaż komentarz

      @Trabant777: myślę że nie będzie - rynek PC jest o tyle lepszy że jest więcej dostępnych modeli i jest więcej producentów - tu nikt nie może prezentować takiego podejścia jak Apple (ignorancja odnośnie potrzeb użytkownikow: jeśli Apple mówi że użytkownik czegoś nie potrzebuje to tego nie będzie - a nie zawsze Apple dokonuje mądrych wyborów)

    •  

      pokaż komentarz

      @secret_passenger DDR5 niedługo wychodzi i nowe procesory. Zresztą już teraz M1 nie jest wybitnie Szubin procesorem, wygrywa właściwie tylko w obliczeniach na jednym wątku (x86 obecnie nie jest pod tym kątem w ogóle optymalizowane, bo to nie te czasy, a rdzenie są projektowane pod wykonywanie 2 wątków jednocześnie)

      Sądzę że nowa generacja Ryzenów pokaże że x86 jeszcze stać na wiele. Energetyczne w trybie oszczędzania źle też nie powinno być.

      Osobiście wolałbym bardziej rozwój RISC-V.

    •  

      pokaż komentarz

      @Arv_: pisałem o obciążeniu - Jeszce jakiś czas temu wydawało się że odpalenie vm dla jednej aplikacji nie ma sensu - dziś nie jest to w sumie nic wielce niezykłego. Mamy dobre emulatory DOS - dosbox, pcemu (tak, na x86) ale jeśli będzie potrzeba to prawdopodobnie pojawią się rozwiązania pomagające w lepszym uruchamianiu starego kodu na nowej architekturze.

      Choć szczerze mówiąc to ja uważam że większość użytkowników takiej potrzeby mieć nie będzie. To jest wyolbrzymianie problemu
      Pewnie ze zmianą zajmie pewien czas, ale nie róbmy z tego problemu nie do rozwiązania

      Apple robił już taka rewolucję w przeszłości i teraz szykuje kolejną. Można się od nich uczyć

    •  

      pokaż komentarz

      @Razi91: ale problemem x86 nie jest wcale mała wydajność! Problemem jest raczej to, że dla wielu osób ona jest już dzis więcej niż zadowalająca ale co z tego skoro czas pracy na baterii jest względnie krótki i wcale się nie wydłuża wraz z wprowadzaniem nowych generacji procesorów w ostatnich latach.

      M1 I podejście Apple dało nadzieję na to bt wydajność była nadal całkiem wysoka (tzn. zadowalająca dla większości ludzi) ale zapotrzebowanie na energię znacznie niższe.

      Ja nie wiem co jest najlepsze - chętnie zobaczę jakieś alternatywy, może takie porównanie da nam odpowiedź, która platforma jest przyszłością dla rynku konsumenckiego i profesjonalnego w IT? Może za jakiś czas drogi tych rynków się rozejdą?

    •  

      pokaż komentarz

      @secret_passenger: zależy też od baterii. taki Dell Latitude 9510 wytrzyma prawie 24h, Apple 9h przy tym samym obciążeniu. do tego Apple korzysta z ekranów Samsunga o wysokiej rozdzielczości, a świat poszedł do przodu oferując mniej prądożerne ekrany. generalnie M1 to rewolucja, ale tylko w porównaniu do poprzedników od Apple. to tak, jakbyś powiedział, że nowy polonez jest super, bo ma klimę, wspomaganie itp. a w dalszym ciągu to polonez, tylko w porównaniu do poprzednika jest dobry.

      a przejście na inną architekturę też jest kosztowne - ludzie robiący soft na OSX, często robią go na archaicznym sprzęcie i wydają nowe wersje. po przesiadce na nową architekturę, muszą kupić nowego maka, albo ich soft nie będzie na tyle nowoczesny, by działać na najnowszym dziele Apple ;)

    •  

      pokaż komentarz

      @secret_passenger: nie, dopóki na PC bedzie rządzić M$ Windows, dopóty nic sie nie zmieni. Wintel forever ( ͡° ʖ̯ ͡°)

    •  

      pokaż komentarz

      @crazy_wolf: mam lapciaka na i5 i trzyma 10 godzin pracy, nie grzeje się i waży równo 1kg więc nie widzę potrzeby.

    •  

      pokaż komentarz

      @manjan: co za bzdety, macbooka do poloneza przyrównujesz :D Proszę cię, można nie lubić appla, ale trochę obiektywności...

    •  

      pokaż komentarz

      chętnie zobaczę jakieś alternatywy, może takie porównanie da nam odpowiedź, która platforma jest przyszłością dla rynku konsumenckiego i profesjonalnego w IT?

      @secret_passenger: produkty appla to jest idealne połączenie rynku konsumenckiego i pro. Z jednym zastrzeżeniem: nie w biednych krajach jak Polska. Tutaj ceny są kosmiczne i nie wszystkich na to stać.

    •  

      pokaż komentarz

      @mbn-pl: Ja mam mbp air z m1, który jest 2x szybszy od twojego i5 i bateria trzyma 20h. Też waży 1kg i się nie grzeje (nie ma nawet wentylatora). Czyli można powiedzieć że m1 jest 2x lepszy, ale zależy kto jakie ma potrzeby ;) I nie kosztował majątku jak topowe wersje poprzednich mbp.

    •  

      pokaż komentarz

      macbooka do poloneza przyrównujesz :D Proszę cię, można nie lubić appla, ale trochę obiektywności...

      @pwnd: Technologicznie, patrząc na jakość budowy laptopów Apple to nie masz zielonego pojęcia o czym mówisz po prostu.

    •  

      pokaż komentarz

      @secret_passenger: Podstawowy problem architektury x86 jest wsteczna kompatybilność. Jest to również jej główna siła.

      Problemy z aplikacjami na x86 biorą się z tego, że często mają w sobie wieloletni kod, dawno nie zmieniany. Kod na M1 jest w tym momencie świeży.

      Większość aplikacji na Apple x86 jest kompilowane ze wsteczna kompatybilnością do systemu 10.11, czasem nawet 10.9. Aplikacje na M1 są obecnie kompilowane pod najnowszą wersję systemu (11).

      Aby mówić o przewadze architektury M1 trzeba poczekać kilka lat i zobaczyć jak utrzymanie wstecznej kompatybilności i konieczność działania wpłynie na wydajność aplikacji.

      Na przykładzie x86. Weź sobie jakiś kod i skompiluj go używając flag -march=native i podobnych, a potem porównaj ze standardową binarną dystrybucją tego programu. Zna przykłady 2 krotnego przyspieszenia kiedy kod mógł używać wszystkich instrukcji z danego procesora a nie generycznych.

      A testy najlepiej zrobić na procesorze Intela i używając kompilatora intela, bo wtedy jest najlepsze wykorzystanie instrukcji procesora.

    •  

      pokaż komentarz

      @secret_passenger: moim zdaniem przejscie z cisc na risc to dla domowych PC bedzie prawdziwa rewolucja i wybawienie.

    •  

      pokaż komentarz

      zastanawiam się, czy to nie jest czasem początek konca pecetów opartych na architekturze x86? Apple zrobiło pierwszy krok i pokazało że budowa komputera na zupełnie innym chpie w dzisiejszych czasach jest możliwa.

      @secret_passenger: ... bo Microsoft wcale nie wypuścił Windowsa RT już w 2012 roku, a Windowsa 10 na ARM już w 2017 roku xD to jest prawdziwy fenomen, że Apple ma swoich darmowych i pożytecznych wszędzie w Internecie, którzy potem rozgłaszają kłamstwa np. o "pierwszych krokach" - a jak wiadomo, kłamstwo powtarzane tysiące razy staje się prawdą.

    •  

      pokaż komentarz

      ja jestem pod warunkiem że nie będzie to takie gówno jak to od apple masakrujące ssd...

      @Trabant777: było kupić wersję 16gb ram

    •  
      L.........i

      +2

      pokaż komentarz

      @Trabant777: ale z masakrowaniem SSD to nie wina M1 tylko tego że ludzie odpalają mega procesy i wtedy leci giga swapping. W tym laptopie brakuje po prostu parametrów żeby niektóre czynności wykonywać, dlatego kompensuje to dysk SSD. Jak będą laptopy z 32 GB RAM itd. to to powinno być zdecydowanie lepiej.

      Dla programowania itd. to ten M1 w ogóle nie upeirdala tego dysku. Natomiast jak ktoś cche edytować filmy na MacBook z 16 GB RAM to też nie dziwne że takie coś się dzieje (przy czym imo powinien być na to jakiś pstryczek aby pozwalać lub nie pozwalać na takie zachowanie się komputera)

    •  

      pokaż komentarz

      @secret_passenger:
      Ja tu widzę lukę dla nowego języka programowania/kolejnej warstwy architektury programowej. Chodzi o to, żeby aplikacje wysokiego poziomu pisać raz, a jednocześnie, żeby łatwo kompilowało się na wiele platform. Ba, z tego co widzę, już coś takiego powstało:

      https://en.wikipedia.org/wiki/LLVM

      Więc nie ma nic na przeszkodzie, żeby jechać dalej i uwolnić się od przestarzałego x86. Nastąpi uwolnienie architektury a już niedługo być może nawet od systemów operacyjnych.

    •  

      pokaż komentarz

      @secret_passenger do pracy, a co z grami? i video full HD

    •  

      pokaż komentarz

      Problemem jest raczej to, że dla wielu osób ona jest już dzis więcej niż zadowalająca ale co z tego skoro czas pracy na baterii jest względnie krótki i wcale się nie wydłuża wraz z wprowadzaniem nowych generacji procesorów w ostatnich latach.

      @secret_passenger: wiem, że TDP to nie do końca rzeczywisty pobór prądu, ale na szybko wychodzi, że Ryzeny są bardziej energooszczędne niż M1.

      . . . kliknij, aby rozwinąć obrazek . . .

      źródło: Screenshot_20210512-120517_Firefox Nightly.png

    •  

      pokaż komentarz

      ale problemem x86 nie jest wcale mała wydajność! Problemem jest raczej to, że dla wielu osób ona jest już dzis więcej niż zadowalająca ale co z tego skoro czas pracy na baterii jest względnie krótki i wcale się nie wydłuża wraz z wprowadzaniem nowych generacji procesorów w ostatnich latach.

      @secret_passenger: Ale p$@!#%%enie... Od dawna są CPU które mają podobne zapotrzebowanie na prąd co M1 ale jakoś hitem sprzedażowym nie zostały, bo większość wybiera mocniejszy sprzęt. Porównaj sobie choćby r7 4800u do M1. A w przypadku Ryzena odpada problem z emulacją. M1 jest korzystny dla Apple bo uniezależni się od Intela/AMD.

    •  

      pokaż komentarz

      Chodzi o to, żeby aplikacje wysokiego poziomu pisać raz, a jednocześnie, żeby łatwo kompilowało się na wiele platform.

      @ukradlem_ksiezyc: no nie wiem, może Java? ;)

    •  

      pokaż komentarz

      Chodzi o to, żeby aplikacje wysokiego poziomu pisać raz, a jednocześnie, żeby łatwo kompilowało się na wiele platform.

      @ukradlem_ksiezyc: I znowu całą wydajność RISCów ch%# strzeli bo najebiemy warstw abstrakcji :D

    •  
      G.....r via Android

      0

      pokaż komentarz

      @secret_passenger jeszcze software brakuje no i gry jednak dalej pisane pod x86 więc nie, najwyżej zajmą segment niskonapięciowych procesorów w laptopach

    •  

      pokaż komentarz

      wiem, że TDP to nie do końca rzeczywisty pobór prądu, ale na szybko wychodzi, że Ryzeny są bardziej energooszczędne niż M1.

      @ShortyLookMean: Tylko że ten AMD Ryzen™ 7 PRO 4750U który jest tuż nad M1 w twojej grafice ma 75% wydajności M1 (wg. geekbench 5): https://browser.geekbench.com/v5/cpu/compare/7833868?baseline=7732383

    •  

      pokaż komentarz

      @secret_passenger Nie jest. ARM nie nadaje się do tego, co robią procesory x86. Po prostu procesory ARM z telefonów mają wbudowane akceleratory do różnych pierdół pokroju przetwarzanie obrazu, albo czytanie i porównywanie linii papilarnych.

      Potem można robić krzykliwe nagłówki w rodzaju "procesor Intela pokonany w szybkości obróbki obrazu przez Snaodragona 6969????" - no. Tak. Tyle że Intel musiał sobie z tym poradzić software'owo, a Snap miał dedykowany czip do tego. Na tej samej zasadzie możemy sobie porównać liczbę klatek w GTA i mówić o rzetelności XD

    •  

      pokaż komentarz

      czy jesteśmy w staie oddać (trochę) wydajności w zamian za dużo dłuższą pracę na baterii?

      @secret_passenger: Większość i tak nie potrzebuje lepszych bebechów do fejsbuczka, na telefonach też powinni skupić się na baterii bo te gównoapki nie powinny tyle tego żreć.

    •  

      pokaż komentarz

      @pwnd
      Ale wtedy nie będziesz ograniczony do niczego. Możesz budować procesory o architekturze która obecnie ludziom do głowy nie przychodzi. Nie trzeba być ograniczonym do obecnych rozwiązań. Otwartość to innowacja, otwartość to życie :)

    •  

      pokaż komentarz

      @AgLagylak: czekaj to zle ze nowe procki robia sprzetowo co intel musi robic softwareowo?

    •  

      pokaż komentarz

      @pwnd A po co Ci układ do analizowania linii papilarnych w PCtach? XD Dlatego wspomniałem o rzetelności tych testów. Porównajmy klatki w GTA na M1 i jakimkolwiek Intelu.

      Albo lepiej - weźmy sobie dziesięcioletniego ruskiego Elbrusa, taktowanego niecałym gigahercem, i porównajmy go z M1. Najlepiej porównajmy szybkość szyfrowania GOST. I już mamy nagłówek "rosyjskie procesory lepsze od Apple?!12"

    •  

      pokaż komentarz

      @AgLagylak: na przykład żeby nie musieć wpisywać hasła za każdym razem? I czemu GTA niby źle by miało chodzić na M1, skoro GPU ma 8 rdzeni i 8GB pamięci? Z tego co widziałem to np. Minecraft chodzi na M1 dużo lepiej niż na intelu.

    •  

      pokaż komentarz

      @pwnd No, coś te czytniki w PCtach nie zagościły. Nikomu się nie chce kupować osobnego peryferium do tego. Zresztą, już widzę, jakie to by było wygodne. Jak Ci się nie chce wpisywać hasła, to zrób sobie token z jakiegoś dongla i fajrant.

      I działanie takiego Minecrafta to dość losowa sprawa, przy czym dawno nie widziałem maszyny, która generowałaby mniej, niż 500 FPS XD

      No i liczba rdzeni czy tam pamięci nie ma nic do rzeczy. Już to przerabialiśmy. Pamiętam ośmiordzeniowe Bulldozery, które były słabsze od kilkuletnich wtedy Core 2 Duo. Albo Cell od PS3, którego nikt nie potrafił programować.

    •  

      pokaż komentarz

      Apple zrobiło pierwszy krok i pokazało że budowa komputera na zupełnie innym chpie w dzisiejszych czasach jest możliwa

      @secret_passenger: No jaki pierwszy krok jak Windows RT podstal w 2012roku? xD Mogli zrobic kolejny, znaczacy, kluczowy no ale kuzwa nie pierwszy krok...

    •  

      pokaż komentarz

      @crazy_wolf: wiekszosc ludzi nie dotyka komputera w srodku. Chcesz rozbudowy to kup sobie windowsa albo poczekaj na mac pro ktory bedzie mial mozliwosci rozbudowy.

    •  

      pokaż komentarz

      @monarchista: Ja nie muszę czekać, bo mam kilkanaście maszyn w domu. Maki też miałem, ale porozdawałem znajomym, bo to zupełnie nie moja bajka. Za mało możliwości ingerencji własnej i softu. Ale dla każdego co innego :)

    •  

      pokaż komentarz

      @AgLagylak: Aj pierdzielisz chłopie. Olać czytniki na moment (te są wbudowane we wszystkie macbooki obecnie, nie trzeba żadnego dongla ani peryferium). Oczywiście Wintendo jest 100x lepszy do grania, to nie ulega wątpliwości, bo większość gier jest w DirectX pisanych i cały ekosystem i biblioteki są gotowe już pod Wintendo. Ale popatrz sobie na przykłady gier działających pod tym samym OS, tylko na różnych prockach (intel vs m1): https://www.youtube.com/watch?v=ahReEQ-c7y8 Różnica jest diametralna i takich filmików jest pełno w sieci. Przecież nie porównujemy PCta stacjonarki z ryzenem czy i9 i rtx 3080, bo wiadomo że to w grach będzie zawsze szybsze? Tylko tani intel w laptopie vs tani m1 w laptopie.

    •  

      pokaż komentarz

      @crazy_wolf: maki miedzy koncem 2015 bodajze a wiekszością 2020 to szrot niewarty uwagi. To wina Intela ponieważ kazdy kolejny procesor żarł wiecej prądu i bardziej sie grzał a Apple nie chciało nagle robić wiekszej obudowy wiec w sumie troche świadomie to pakowało w to samo. Efekt był taki, ze te komputery były mocne chwile a potem wydajność spadala. Plus gorąc i dzwiek wiatraków. Podczas prezentacji ktoregos kompa z M1 powiedzieli, ze w koncu mak wygląda tak jak chcieli od początku. Dobrze, ze sie wzieli sami za procesory bo wystarczylo, ze ktos pokazał, ze mozna zrobic duzo lepszy procesor i energooszczedny i widać teraz, ze Intel to szrot. Windows tego nie dogoni. Ponieważ teraz jest tona różnego sprzętu ale wszystko na x86. A w przyszlosci bedzie ta sama tona sprzętu pod x86 ale również tona sprzętu pod ARM. Juz widze te optymalizacje zeby działało wszędzie x))/ W tym tkwi siła Apple, ze robi wszystko sam i konfiguracji jest garść.

    •  

      pokaż komentarz

      @secret_passenger: A co z info, że M1 zarzyna dyski ssd? Pojawiła też się informacja, że wyłączając funkcje pamięci oszczędza się ssd ale M1 przestaje być taki szybki.

      https://news.ycombinator.com/item?id=26244093

    •  

      pokaż komentarz

      "ale z masakrowaniem SSD to nie wina M1 tylko tego że ludzie odpalają mega procesy i wtedy leci giga swapping. W tym laptopie brakuje po prostu parametrów żeby niektóre czynności wykonywać, dlatego kompensuje to dysk SSD. Jak będą laptopy z 32 GB RAM itd. to to powinno być zdecydowanie lepiej.

      Dla programowania itd. to ten M1 w ogóle nie upeirdala tego dysku. Natomiast jak ktoś cche edytować filmy na MacBook z 16 GB RAM to też nie dziwne że takie coś się dzieje..."

      @LubieKocyki o stary. Zaraz cię jabłkowcy zjedzą. Przecież to jest właśnie laptop do edycji zdjęć i montażu filmów. Nawet wersje z 8GB. Dowodem na to jest ekran z ilomaś tam tysiącami niezależnie sterowanych diod led.
      Po co apple miałby pakować ekran, którego użytkownicy wykopu wycenili na minimum 4000zł do komputera do internetu albo edycji tekstu?
      Coś tu się kupy nie trzyma.

    •  

      pokaż komentarz

      @secret_passenger: Troszeczke wydajnosci, przy czym kod zoptymalizowany pod ARM dziala juz znacznie szybciej. Za moment wychodzi M1X

      źródło: cdn.wccftech.com

    •  

      pokaż komentarz

      @secret_passenger I multicore

      źródło: photos5.appleinsider.com

  •  

    pokaż komentarz

    Lepsza optymalizacja i nie będzie strat w wydajności, teraz programiści mają w dupie optymalizację bo mocne procki i tak to udźwigną

    •  

      pokaż komentarz

      @zlozlo: nikt (prawie) nie płaci za optymalizację to nie optymalizują - proste. jak ktoś będzie płącił, to będą improwizacje.

    •  

      pokaż komentarz

      @zlozlo: ale problemem nie jest optymalizacja aplikacji, bo wiele potężnych narzędzi jest optymalizowane, tylko wydajność z wata lub ilość obliczeń wykonana z joula energii. No i to bardzo mocno zależy od architektury procesora, a nie samej aplikacji.

    •  

      pokaż komentarz

      @zlozlo: pod kazdym wykopem o ARM znajdzie sie taki co napisze ze programisci sa leniwi i nie optymalizuja. To ja ci powiem jak to wyglada:
      1. zwykly klepacz kodu w javie, pythonie, nodej.js czy .net moze napisac wydajny kod i taki na odp!!%?!@. Ten na odp!!%?!@ zawsze bedzie c?!!!wy a ten dobry/wydajny bedzie z gory ograniczony mozliwosciami frameworka/ biblio, sufit ktorego nie przebije.
      2. programisci frameworkow/ biblio dostarczaja tym pierwszym narzedzi do pracy. To sa zazwyczaj top programisci i te projekty sa zawsze optymalizowane.
      3. Ci ostatni (top programisci) korzystaja natomiast z narzedzi/ programow/ jezykow kodowania ktore sa bardzo blisko sprzetu ze wzgledu na wydajnosc. Czyli dla przykladu jakies asemblery, C/C++, kompilatory, ostatnio Rust itp Tutaj absolutnie wszystko jest zoptymalizowane do granic naszych umyslowych mozliwosci. Spece siedza, testuja i optymalizuja co tylko sie da.

      Tak wiec jak widzisz, my juz teraz mamy zoptymalizowany kod calkiem dobrze, a gadanie ze programisci sa leniwi bo maja duzo ramu i cpu jest ignorancja. Kazdy etap generowania kody wynikowego jest optymalizowany, a ze ma tyle 'warstw' to czasem wychodzi jak wychodzi.

      Rzecza ktora mozemy poprawic jest nastawienie podstawowych narzedzi programistycznych na konsumowanie wielu rdzeni gdzie tylko sie da. Stary soft srednio spelnia to zalozenie bo:
      - kompatybilnosc wsteczna i zaleznosci
      - wiekszosc problemow ciezko rozlozyc na rownolegle przetwarzanie

    •  

      pokaż komentarz

      Tak wiec jak widzisz, my juz teraz mamy zoptymalizowany kod calkiem dobrze, a gadanie ze programisci sa leniwi bo maja duzo ramu i cpu jest ignorancja.

      @4191727801: Nie do końca się zgodzę, biznes to pieniądz, sprzęt w obecnych czasach jest nierzadko tańszy niż praca całych zespołów, która miałaby się przeciągnąć o kolejne miesiące z powodu optymalizacji. Jest od groma rozwiązań, które mogłyby działać lepiej, ale po co skoro klient zapłaci za X razy więcej mocy obliczeniowej?

    •  

      pokaż komentarz

      To ja ci powiem jak to wyglada:

      @4191727801: To nie jest do końca tak. Top of the Top robi dobre rzeczy, żeby leń programista miał łatwiej i nie musiał zbytnio myśleć nad optymalizacją i wieloma rzeczami o których być może i nie ma pojęcia. Jego zadaniem jest po prostu uzyskać w szybkim czasie działający kod, który uda się skompilować pod wiele sprzętów.
      Jednak już samo zadbanie o to przez "Top'a" powoduje że musi on zabezpieczyć wiele tematów, bardzo często nadmiarowo. I ta nadmiarowość + rozbebłany kod leszcza = lipa.

      No, ale słabe to do przeskoczenia, bo programistami musiały by być tylko top'y z mózgami.

      Tak to se ja tłumaczę z perspektywy mikroprocków.

    •  

      pokaż komentarz

      @abcasdf: Jeśli przez optymalizację rozumiesz poświęcenie czasu na profilowanie algorytmu/zapytania, to kosztem faktycznie jest jedynie czas, ale w sensie architektonicznym wydajność i elastyczność projektu wzajemnie się wykluczają. Stosujemy języki wysokopoziomowe, obklejamy kod warstwami abstrakcji, izolujemy komponenty w modułach i serwisach, zabezpieczamy logikę przed błędami innych programistów kosztem wydajności, bo w praktyce bez tego narzutu koszty rozwoju i utrzymania projektu rosną wykładniczo do jego wielkości. Wiele rzeczy da się uczynić wydajniejszymi, tylko będzie to niepraktyczne jeśli więcej czasu niż na zmiany będziesz poświęcał na błędy powstałe w ich wyniku. To raczej pragmatyzm i kalkulacja, a nie lenistwo.

    •  

      pokaż komentarz

      @zlozlo: pomijając fakt optymalizacji należy mieć na uwadze że kiedy system staje skomplikowany to od szybkości działania ważniejsza staje się utrzymywalność. Dalej nie pisze bo jak potrafisz tylko narzekać a nie zastanowisz się z czego wynika wolniejsze przetwarzanie to nie ma co prowadzić dyskusji na poziomie.

    •  

      pokaż komentarz

      u. To raczej pragmatyzm i kalkulacja, a nie lenistwo.

      @Tarec: No oczywiście, ze tak. Przecież ja nigdy nie twierdziłem ze to lenistwo, mylisz adwersarzy ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @4191727801: dodaj do tego jeszcze, że w pełni zoptymalizowane oprogramowanie nie jest multiplatformowe, natomiast to multiplatformowe zawsze będzie mniej wydajne, bo albo korzysta z języka opartego o VM (Java, .Net, Node.js), albo nie korzysta z najwydajniejszych dostępnych instrukcji, bo musi obsłużyć platformy, na których nie są dostępne.

      @HeniekZPodLasu: widać, że programistę to Ty widziałeś jedynie na obrazkach w książkach dla dzieci...

    •  

      pokaż komentarz

      nikt (prawie) nie płaci za optymalizację to nie optymalizują - proste. jak ktoś będzie płącił, to będą improwizacje.

      @secret_passenger: "improwizacje" coś mi się wydaje, że jednak nie tego słowa chciałeś użyć :)

    •  

      pokaż komentarz

      @HeniekZPodLasu: tak żeby nie być gołosłownym, "top topów" pracuje nad frameworkami żeby rzesze programistów tworzących oprogramowanie biznesowe nie musiały ciągle powielać tych samych schematów i wynajdować koła na nowo za każdym razem dźwigając ryzyko popełnienia błędu lub zostawienia luki w bezpieczeństwie aplikacji. Nieoptymalny kod to nie jest lenistwo programisty tylko zarządzanie i nacisk ze strony biznesu na jak najszybsze dostarczanie wartości przy jednoczesnym niedoinwestowaniu zespołu.
      Żeby pracować nad frameworkiem nie trzeba być "topem topów", to nie jest jakaś elita geniuszy, wytwarzanie oprogramowania to dziedzina pełna różnych specjalizacji i zespoły skupione wokół produktów często mają cały workflow wyspecjalizowany pod rodzaj produktu, nad którym pracują. Poza tym większość frameworków to FOSS, więc nad ich rozwojem pracuje cała społeczność, w tym ich użytkownicy, więc core team frameworka ma gigantyczne wsparcie.

  •  

    pokaż komentarz

    Takie małe zboczenie z temat - czemu systemy 32 bitowe są oznaczone jako 86, a 64 już normalnie?

  •  

    pokaż komentarz

    Najpierw niech Exynos będzie lepszy od Snapdragona ...

  •  

    pokaż komentarz

    Ale oni będą chcieli na tym uruchamiać Windows czy jakiegos Androida?
    Różnica w stosunku do Apple jest taka, ze Apple dało deweloperom narzędzia i jasną scieżkę. Powiedzieli "idziemy w Apple Silicon" i nara. Póki na rynków PC procki ARM będą ciekawostką (bo juz jest takie laptopy sa i to od dawna) to deweloperzy nie będą tracić czasu na optymalizacje softu na tą platformę. Bo o ile proste programy mogą wymagać jedynie odpowiedniej kompilacji, to te które są mocno optymalizowane mogą wymagać już sporego nakładu pracy.