•  

    pokaż komentarz

    Niestety, niebawem Chiny znowu wskoczą na pierwsze miejsce, a to za sprawą budowanego superkomputera o nazwie Tianhe-3, który będzie dysponował wydajnością na poziomie nawet 1000 petaflopsów.

    Niestety bo... ?

    Btw. w artykule chyba nie ma nic o OS:
    OPERATING SYSTEM Red Hat Enterprise Linux (RHEL) version 7.4

    Pewnie polegli na wyłączaniu aktualizacji na Win10 ( ͡° ͜ʖ ͡°)

  •  

    pokaż komentarz

    Znalazłem gdzieś informację że aby wykopać 1BTC potrzeba wydajność 137peta flopsów. Czyli ten komputer waliłby po 1.25 BTC / sekundę. Ktoś ma inne wyliczenia proszę mnie poprawić.

    •  

      pokaż komentarz

      @Stivo75:Większa moc wydobywcza = zwiększona trudność wydobycia (✌ ゚ ∀ ゚)☞

    •  

      pokaż komentarz

      @Stivo75: To oznacza dużo BTC (⌐ ͡■ ͜ʖ ͡■)

    •  

      pokaż komentarz

      @av18: To oznacza mniej BTC, skoro zwiększona trudność wydobycia.

    •  

      pokaż komentarz

      @iOskarpl: To oznacza, że mając najpotężniejszy superkomputer świata zwiększenie trudności wydobycia nie ma takiego znaczenia jak w przypadku zwykłych koparek. Zanim zaczęłaby ona stanowić problem to komputer zdążyłby wykopać już okrągłą sumkę.

    •  

      pokaż komentarz

      @Noiceno: @czlowiekzcegla: Czyli dobrze rozumiem ze jakby ktos na tym komputerze zaczal kopac bitcoiny to moglby momentalnie rozwalic rynek tej kryptowaluty?

    •  

      pokaż komentarz

      @DryfWiatrowZachodnich: Jeden prosty trick jak rozwalić system kryptowalutowy. Kuce go nienawidzą!

    •  

      pokaż komentarz

      @Noiceno: @iOskarpl: @czlowiekzcegla dobrze mówi. Mając odpowiednią moc obliczeniową można policzyć dowód pracy natychmiast i wstrzymać się z jego publikacją do ostatniego momentu. Czasem się zdąży, czasem nie. Dzięki temu częstotliwość wykopywania bloków nie zmieni się ale określona część wygenerowanych BTC trafi na konto posiadacza superkomputera.

    •  

      pokaż komentarz

      @DryfWiatrowZachodnich: Gdyby jego moc obliczeniowa byłaby większa od reszty kopaczy to mógłby uwierzytelniać nie prawdziwe transakcje a reszta sieci by je łykła bo "większość" tak potwierdziła.

    •  

      pokaż komentarz

      @Stivo75
      Te 1,25 BTC (zakładając, że dobrze policzyłeś, nie chce mi się sprawdzać) kopałby tylko przez chwilę. Po maksymalnie 2016 blokach trudność by się dostosowała i zacząłby kopać 1 blok na 10 minut (nagroda za blok to obecnie 12,5 BTC).

    •  

      pokaż komentarz

      @Stivo75: nei wiem skad masz dane ale z https://bitcoincharts.com/bitcoin/ wynika ze cala siec ma moc ok 80704290 PetaFLOPS wiec jak kompuer ma moc 200 to z czym do ludzi :)

    •  

      pokaż komentarz

      @trololol: dokładnie, jeżeli ktoś osiągnął bym ponad 50% mocy obliczeniowej w systemie to był by w stanie ustawić wszystko pod siebie. Najczęście przy obecnej mocy jaka jest w to ładowana to nie możliwe. Co innego z innymi walutami.

    •  

      pokaż komentarz

      obecnej mocy jaka jest w to ładowana to nie możliwe

      @CoJaToNieTY: Ponad rok temu kopalnia ( zrzeszenie kopaczy współdziedziczących się mocą obliczeniową i dzielącą się zyskami ) osiągnęła prawie 50% ( ͡º ͜ʖ͡º)

    •  

      pokaż komentarz

      @trololol: źródło? Bo raczej wątpię, na tym opiera się cały blokchain a kopalni jest wiele w tym z tego co pamiętam największe w Chinach ale nie przypominam sobie by chociaż jedna miała więcej niż 15%

    •  

      pokaż komentarz

      @Stivo75: obecnie siec bitkojna ma jakies 25 eksahashy na sekunde, na hash troche tych operacji potrzeba, wiec jakies 200 topowych koparek asic bedzie o wiele szybsza

    •  

      pokaż komentarz

      @CoJaToNieTY: nie ustawil by pod siebie tylko zrobil fork i to od kopalni i masternodow by zalezalo co dalej i ewentualnyskok do tylu o kilka blokow

    •  

      pokaż komentarz

      Gdyby jego moc obliczeniowa byłaby większa od reszty kopaczy to mógłby uwierzytelniać nie prawdziwe transakcje a reszta sieci by je łykła bo "większość" tak potwierdziła.

      @trololol: nie mógłby - każdy node sprawdza cały blockchain więc taka transakcja zostałaby odrzucona a node który ją nadał dostałby bana.

      Jedyne co by zyskał to możliwość blokowania niektórych transakcji(brak potwierdzenia) i ewentualnie double-spending ale tylko od momentu w którym przejął sieć.

    •  

      pokaż komentarz

      No i macie niezależność kryptowalut. Ile trzeba jeszcze dowodów na to, że gra jest ustawiona? Nawet jeśli nie mogli by sobie kopać w nieskończoność przez wzrastający stopień trudności wydobycia i to że kryptowaluty natychmiast by poleciały na łeb, fakt że posiadacz największej mocy obliczeniowej może regulować trudność wydobycia chyba jest wystarczający.

    •  

      pokaż komentarz

      @Kliko:

      Te 1,25 BTC (zakładając, że dobrze policzyłeś, nie chce mi się sprawdzać) kopałby tylko przez chwilę. Po maksymalnie 2016 blokach trudność by się dostosowała i zacząłby kopać 1 blok na 10 minut (nagroda za blok to obecnie 12,5 BTC).

      Wtedy mogliby przestać kopać i reszta sieci miałaby spory problem wykopać kolejne 2016 bloków na zwiększonej trudności :)

      A jak już trudność by spadła do pierwotnego poziomu to mogliby ten komputerek włączyć ponownie :))

    •  

      pokaż komentarz

      @comrade:

      Wtedy mogliby przestać kopać i reszta sieci miałaby spory problem wykopać kolejne 2016 bloków na zwiększonej trudności

      Zgadza się. Kiedyś nawet napisałem artykuł na ten temat.

      Jak zabić Bitcoina.

    •  

      pokaż komentarz

      @fdisk:

      Jedyne co by zyskał to możliwość blokowania niektórych transakcji(brak potwierdzenia) i ewentualnie double-spending ale tylko od momentu w którym przejął sieć.

      "Jedyne"? To byłby gigantyczny p??$!%@nik, jakby mógł produkować bloki szybciej niż cała reszta sieci razem wzięta to mógłby opublikować własny alternatywny łańcuch i reszta sieci by musiała to zaakceptować. Gdyby w ten sposób "przekreślił" na przykład kilkaset bloków to byłby dramat bo bloki oznaczają często że jakiś towar (np dolary) przeszły z rąk do rąk. Nie dałoby się cofnąć tego wszystkiego.

    •  

      pokaż komentarz

      "Jedyne"?

      @comrade: Jedynie. Double-spending mógłby przeprowadzić jedynie na własnych transakcjach do których posiada klucz prywatny żeby móc je podpisać a blokować mógłby tylko konkretne adresy a jak zostanie wykopana przez innego minera to pozostaje fork.

      W przypadku gdy któryś fork jest dłuższy niż 7 bloków core wyświetla ostrzeżenie: Warning: Large valid fork found.

      Gdyby w ten sposób "przekreślił" na przykład kilkaset bloków to byłby dramat bo bloki oznaczają często że jakiś towar (np dolary) przeszły z rąk do rąk. Nie dałoby się cofnąć tego wszystkiego.

      @comrade: wszystkie tx które 'wypadły' przy reorganizacji łańchucha zostały by dodane do mempoola node'a

    •  

      pokaż komentarz

      @trololol: ... ale rozumiesz że tam nie ma ani słowa o tym że można uwierzytelniać nie prawdziwe transakcje tak jak napisałeś?

      pokaż spoiler jeżeli przeoczyłem to wrzuć mi proszę ten fragment

    •  

      pokaż komentarz

      @fdisk: chodziło mi o double spending
      wcześniej nie doprecyzowałem

    •  

      pokaż komentarz

      chodziło mi o double spending

      @trololol: to trochę zmienia sytuacje ;) double spending jest możliwy ale tak jak pisałem wyżej tylko dla transakcji dla których możemy wygenerować prawidłowy podpis czyli do których posiadamy klucz prywatny.

    •  

      pokaż komentarz

      @fdisk:

      wszystkie tx które 'wypadły' przy reorganizacji łańchucha zostały by dodane do mempoola node'a

      Czyli trzeba byłoby wykopać bloki drugi raz żeby je dodać (wydatkować moc obliczeniową ponownie by naprawić sytuację). Tylko kto by to robił wiedząc że właściciel takiego superkomputera ma przewagę i może znów włączyć się do gry i nadpisać stan blockchaina PONOWNIE wypychając z trudem dodane transakcje do kolejki? Bo ten z premedytacją ignorowałby sobie tego mempoola a dodawał bloki z jakimis innymi własnymi transakcjami....

      Także nawet bez intencji ataku 'double spend' takie coś wywłałoby ogromną nerwówkę wśród wszystkich użytkowników. Towar wydany za bitcoiny poprzechodził z rąk do rąk, plazmy, komputery, dulary i inne rzeczy :) a ludzie co mieli za to dostac coiny widzą je tylko w mempoolu i nie mają w zasadzie gwarancji że stan ten się zmieni.

      Ale by jebnął kurs na łeb na szyję, absolutna panika globalna i mega wyprzedaże. Właściciel superkompa skupuje wtedy masę bitcoinów po taniości i publikuje ostatni łańcuch gdzie jego adresy mają te kupione tanio coiny :)) następnie się wyłącza na zawsze i czeka aż sytuacja wróci do normy by zdobyte coiny odsprzedać z ogromnym zyskiem :)))

      Ale czy wyłącza się na zawsze...??? :))) You never know :))

    •  

      pokaż komentarz

      Bo ten z premedytacją ignorowałby sobie tego mempoola a dodawał bloki z jakimis innymi własnymi transakcjami....

      @comrade: miner bierze tx z mempoola i nie może tworzyć fałszywych

      a ludzie co mieli za to dostac coiny widzą je tylko w mempoolu i nie mają w zasadzie gwarancji że stan ten się zmieni.

      @comrade: skoro jest w mempoolu(w tej sytuacji już po ataku) to ma gwarancje że zostanie w końcu wykopana.

      następnie się wyłącza na zawsze i czeka aż sytuacja wróci do normy by zdobyte coiny odsprzedać z ogromnym zyskiem :)))

      Ale czy wyłącza się na zawsze...??? :))) You never know :))

      Poczytaj sobie o PoW i difficulty to Ci wiele wyjaśni.

      Edit: co do mempoolu to chyba jest jakiś defaultowy timeout po którym tx zostanie usunięta

    •  

      pokaż komentarz

      @fdisk:

      miner bierze tx z mempoola i nie może tworzyć fałszywych

      Nie mówiłem o fałszywych. Popraw mnie jesli się myle ale nie ma obowiązku brać jakichś KONKRETNYCH transakcji z mempoola. Atakujący może wręcz zapychać bloki własnymi (poprawnymi) transakcjami o zerowym fee. Jeśli nie liczy się z kosztami może rozegrać atak właśnie w taki sposób że będzie dowolnie długo wstrzymywał wykonywanie innych transakcji generując narastająca niepewność a potem panikę.

      skoro jest w mempoolu(w tej sytuacji już po ataku) to ma gwarancje że zostanie w końcu wykopana.

      Dopiero kiedy atakujący zaprzestanie ataku albo inni przebiją go obliczeniami, a ten stan może trwać nie wiadomo ile w praktyce dowolnie długo, generując przez ten czas panikę na rynku....

      Poczytaj sobie o PoW i difficulty to Ci wiele wyjaśni.

      Popraw mnie jeśli się mylę ale dopóki masz jednostronną przewagę mocy obliczeniowej możesz de facto arbitralnie decydować które z transakcji trafiają na blockchain a które muszą czekać aż zaprzestasz ataku. Mining difficulty nie powinien mieć tu znaczenia bo niezależnie od trudności to ty utrzymujesz przewagę obliczeniową i samodzielnie bloki szybciej niż cała reszta sieci razem wzięta.

    •  

      pokaż komentarz

      Komentarz usunięty przez autora

    •  

      pokaż komentarz

      Nie mówiłem o fałszywych.

      @comrade: pisałeś o ignorowaniu tego mempoola co jest nieprawdą bo istnieje tylko jeden i wszystkie tx przez niego przechodzą a o blokowaniu konkretnych adresów już pisałem wcześniej.

      Popraw mnie jeśli się mylę ale dopóki masz jednostronną przewagę mocy obliczeniowej możesz de facto arbitralnie decydować które z transakcji trafiają na blockchain a które muszą czekać aż zaprzestasz ataku

      @comrade: to że ma 51% wcale nie znaczy że tylko jego bloki będą wykopywane...

      Mining difficulty nie powinien mieć tu znaczenia bo niezależnie od trudności to ty utrzymujesz przewagę obliczeniową i samodzielnie bloki szybciej niż cała reszta sieci razem wzięta.

      następnie się wyłącza na zawsze i czeka aż sytuacja wróci do normy by zdobyte coiny odsprzedać z ogromnym zyskiem :)))

      Ale czy wyłącza się na zawsze...??? :))) You never know :))

      skoro zamierza się wyłączyć na 'zawsze' a później wrócić to difficulty będzie miało duże znaczenie bo się okaże że ten jego komputer nie jest już taki super i zamiast 51% ma 0.51%

    •  

      pokaż komentarz

      @fdisk:

      pisałeś o ignorowaniu tego mempoola co jest nieprawdą bo istnieje tylko jeden i wszystkie tx przez niego przechodzą a o blokowaniu konkretnych adresów już pisałem wcześniej.

      Ale nie ma obowiązku rozpatrywania tx w jakiejś kolejności, ktoś kto wykopie blok może wziąć dowolne transakcje albo wygenerować po prostu własne.

      to że ma 51% wcale nie znaczy że tylko jego bloki będą wykopywane...

      To rozważ coś takiego. Blok numer 100 to koniec łańcucha, sieć kolektywnie wykopała 3 bloki do numeru 104 włącznie, wtedy zjawia się ktoś i pokazuje że on ma o 3 bloki dluższy łańcuch od 100 do 107. Transakcje z bloków wykopanych pierwotnie przez sieć trafiają do mempoola. Kopanie trwa dalej, sieć wykopuje bloki 108, 109, 110 i umieszcza w nich transakcje z mempoola. Wtedy znów zjawia się ten sam ktoś i przedstawia alternatywną kontynuację od bloku 107, w postaci dłuższego o kilka bloków łańcucha. Skoro dłuższy to siec musi go zaakceptować. Bloki 108, 109 i 110 idą w piach, a te tx znów trafiają do mempoola. I tak ad infinitum. Ludzie w sieci którzy kopią te bloki widzą że marnują moc obliczeniową bo ktoś i tak ich przebija za każdym razem.

    •  

      pokaż komentarz

      To rozważ coś takiego. Blok numer 100 to koniec łańcucha, sieć kolektywnie wykopała 3 bloki do numeru 104 włącznie, wtedy zjawia się ktoś i pokazuje że on ma o 3 bloki dluższy łańcuch od 100 do 107. Transakcje z bloków wykopanych pierwotnie przez sieć trafiają do mempoola. Kopanie trwa dalej, sieć wykopuje bloki 108, 109, 110 i umieszcza w nich transakcje z mempoola. Wtedy znów zjawia się ten sam ktoś i przedstawia alternatywną kontynuację od bloku 107, w postaci dłuższego o kilka bloków łańcucha. Skoro dłuższy to siec musi go zaakceptować. Bloki 108, 109 i 110 idą w piach, a te tx znów trafiają do mempoola. I tak ad infinitum. Ludzie w sieci którzy kopią te bloki widzą że marnują moc obliczeniową bo ktoś i tak ich przebija za każdym razem.

      @comrade: taki scenariusz nie jest możliwy: With 60% of the network hash power, the expected number of blocks until Mitbain overtakes the network is actually 6 blocks! Note this is with 60% of the hash power, so that’s not 60 minutes for those 6 blocks, but 100 minutes.

    •  

      pokaż komentarz

      @fdisk:

      Nie rozumiem co jest w tym niemożliwego? Mając przewagę możesz kopać bloki "w cichości" nawet i kilka godzin i pchasz je na sieć jak masz dłuższy łańcuch niż cała reszta sieci wykopała. Co tu niby ma do rzeczy jakieś 100 minut?

    •  

      pokaż komentarz

      Nie rozumiem co jest w tym niemożliwego?

      @comrade: specjalnie wkleiłem Ci link... wystarczy przeczytać - masz tam ładnie opisane jak taki atak mógłby wyglądać(Scenario 4: Majority-only chain).

      Mając przewagę możesz kopać bloki "w cichości" nawet i kilka godzin i pchasz je na sieć jak masz dłuższy łańcuch niż cała reszta sieci wykopała. Co tu niby ma do rzeczy jakieś 100 minut?

      W Twoim przykładzie skoro już opublikował swój łańcuch to wszyscy zaczynają od bloku 107 i będzie potrzebował przynajmniej 100min żeby zyskać przewagę nad resztą sieci(min 2 bloki) więc nie może 'przedstawia alternatywną kontynuację od bloku 107' czyli scenariusz który przedstawiłeś jest niemożliwy.

      w postaci dłuższego o kilka bloków łańcucha

      długość łańcucha nie ma nic do rzeczy...

    •  

      pokaż komentarz

      @fdisk:

      No to przecież ten artykuł pisze: "Given sufficient time with a majority of the network hash rate, overtaking is inevitable, but this does not necessarily happen very quickly."

      Czyli technicznie wszystko napisałem poprawnie, a jedynym zastrzeżeniem jest że nie stanie się to szybko (np 100 minut) czego w sumie nie rozumiem bo jakie znaczenie dla tego ataku ma 100 minut czy 200 minut czy inna ilość minut

    •  

      pokaż komentarz

      Czyli technicznie wszystko napisałem poprawnie, a jedynym zastrzeżeniem jest że nie stanie się to szybko (np 100 minut) czego w sumie nie rozumiem bo jakie znaczenie dla tego ataku ma 100 minut czy 200 minut czy inna ilość minut

      @comrade: nic nie napisałeś poprawnie... nie może opublikować dłuższego(a raczej z większą ilością wykonanej pracy) łańcucha skoro go nie ma. Przeczytaj na spokojnie ten artykuł ze zrozumieniem.

    •  

      pokaż komentarz

      @fdisk:

      Jak ma nie mieć dłuższego łańcucha skoro ma więcej mocy obliczeniowej? Sens miałoby to tylko wtedy gdyby nie można było publikować więcej niż kilka bloków, wtedy statystycznie przegrałby wyścig raz na jakis czas nawet dysponując większością mocy.

    •  

      pokaż komentarz

      Jak ma nie mieć dłuższego łańcucha skoro ma więcej mocy obliczeniowej?

      @comrade: to że ma więcej mocy obliczeniowej nie znaczy że po sekundzie od włączenie będzie miał dłuższy łańcuch (-‸ლ)

      Sens miałoby to tylko wtedy gdyby nie można było publikować więcej niż kilka bloków, wtedy statystycznie przegrałby wyścig raz na jakis czas nawet dysponując większością mocy.

      z początku myślałem że po prostu nie ogarniasz podstaw ale teraz już jestem pewny że tylko trollujesz.

      pokaż spoiler 4/10 bo straciłem na Ciebie dużo czasu

    •  

      pokaż komentarz

      @fdisk:

      Nie jestem trollem, sądziłem że atakujący może bloki generować nie publikując ich na bieżąco (pojedynczo), a dopiero w formie całego łańcucha liczącego np. kilkanaście bloków. To jest niemożliwe?

    •  

      pokaż komentarz

      Nie jestem trollem, sądziłem że atakujący może bloki generować nie publikując ich na bieżąco (pojedynczo), a dopiero w formie całego łańcucha liczącego np. kilkanaście bloków. To jest niemożliwe?

      @comrade: to jest możliwe ale to nie jest to co napisałeś w swoim przykładzie w którym już opublikował swój chain w 107 bloku:

      To rozważ coś takiego. Blok numer 100 to koniec łańcucha, sieć kolektywnie wykopała 3 bloki do numeru 104 włącznie, wtedy zjawia się ktoś i pokazuje że on ma o 3 bloki dluższy łańcuch od 100 do 107. Transakcje z bloków wykopanych pierwotnie przez sieć trafiają do mempoola. Kopanie trwa dalej, sieć wykopuje bloki 108, 109, 110 i umieszcza w nich transakcje z mempoola. Wtedy znów zjawia się ten sam ktoś i przedstawia alternatywną kontynuację od bloku 107, w postaci dłuższego o kilka bloków łańcucha. Skoro dłuższy to siec musi go zaakceptować. Bloki 108, 109 i 110 idą w piach, a te tx znów trafiają do mempoola. I tak ad infinitum. Ludzie w sieci którzy kopią te bloki widzą że marnują moc obliczeniową bo ktoś i tak ich przebija za każdym razem

    •  

      pokaż komentarz

      @fdisk:

      Jeśli atakujacy generuje bloki bez publikowania ich (a następnie wrzuca cały łańcuch) to jaka jest różnica czy końcówką jest blok 100 czy 107?

  •  

    pokaż komentarz

    10 dni dla zwykłego komputera ? I wydali 200 baniek ? Ktoś chyba nie czyta tego co pisze

  •  

    pokaż komentarz

    To i tak nic przy możliwościach kwantowego. Ciekawe czy dożyje ich w ogólnym użyciu.

    •  

      pokaż komentarz

      @Krzychu7: Przecież aktualne komputery kwantowe są tak skomplikowane, że da się je symulować zwykłym domowym PC...

    •  

      pokaż komentarz

      @AutomatycznyCzarodziej: Symulować.. słowo klucz. To tak jakby kobieta ubierała strapona, na dodatek takiego milimetrowego.

    •  

      pokaż komentarz

      @AutomatycznyCzarodziej: no to chowaj kasę do skarpety, bo takim można bez problemu złamać obecne zabezpieczenia banków itd w krótkim czasie. Ściągam symulator ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @Krzychu7: Kwantowe komputery nie są szybsze zawsze, tylko w specyficznej dziedzinie problemów. Nie są to komputery generalnego przeznaczenia.

    •  

      pokaż komentarz

      @cxnmlhuipwetr: Mam nadzieje, że kiedyś będą, albo jakieś hybrydy ze zwykłymi. Ta przewaga w mieleniu danych.. mmm

    •  

      pokaż komentarz

      To i tak nic przy możliwościach kwantowego.

      @Krzychu7: Przecież komputer kwantowy wykonuje całkiem inne algorytmy niż tradycyjny. W jednych sprawach może być lepszy, w innych gorszy. To trochę jak porównywać rybę i człowieka. Dasz im zadania: wykopać łopatą rów i przepłynąć morze. Jedno jest lepsze w jednym, a drugie w drugim.

      Niektórzy się naczytali o komputerach kwantowych na pseudonaukowych portalach (z pseudodziennikarzami) i myślą, że jak dostaną komputer kwantowy to nagle im wszystkie gierki będą śmigać.

    •  

      pokaż komentarz

      @Siotson: Czas gier mam za sobą, nawet tego tu nie poruszyłem. Dużo stron wiki także o tym już za sobą i wiem jak to działa. Chciałbym za 50 lat np móc na pc porobić sobie symulacje kolizji galaktyk z miliardami szczegółów lub przekonać się czy będzie skok z nimi jak ze zwykłymi pc i będzie to codziennością #gownowpis

    •  

      pokaż komentarz

      Czas gier mam za sobą, nawet tego tu nie poruszyłem

      @Krzychu7: przecież to był przykład... Co ma do tego twoje granie bądź nie?

      Chciałbym za 50 lat np móc na pc porobić sobie symulacje kolizji galaktyk z miliardami

      @Krzychu7: a jakiego algorytmu kwantowego użyjesz mając komputer kwantowy?

    •  

      pokaż komentarz

      @Siotson: ehh miejmy już chwalenie, czy czepianie się za sobą. Czekam na wykład Edit. Utrudnię, za taki kawał czasu nie będę musiał się tym martwić, będzie to klikanie jak w pasjansa, gui do projektowania z gotowymi schematami o0

    •  

      pokaż komentarz

      @Krzychu7: nie rozumiem. Oczekujesz wykładu ode mnie?

      Wszystko co miałem do napisania, to napisałem. Komputery kwantowe to nie są szybkie komputery tradycyjne. Komputery kwantowe to maszyny do wykonywania algorytmów kwantowych.

    •  

      pokaż komentarz

      @Siotson: Tak, wiem, jestem bardziej entuzjastą połączenia tego w jedno niż specem.

    •  

      pokaż komentarz

      no to chowaj kasę do skarpety, bo takim można bez problemu złamać obecne zabezpieczenia banków itd w krótkim czasie

      @Krzychu7: Post-quantum cryptography

      Mam nadzieje, że kiedyś będą, albo jakieś hybrydy ze zwykłymi. Ta przewaga w mieleniu danych.. mmm

      @Krzychu7: Przed nami jeszcze komputery rekonfigurowalne. Wyobraź sobie że programista pisze program i może samo sobie zdefiniować sprzętowy koprocesor który będzie odpowiedni dla jego zastosowań. I taki koprocesor jest ładowany do krzemu w momencie uruchomienia programu.

      Chciałbym za 50 lat np móc na pc porobić sobie symulacje kolizji galaktyk z miliardami szczegółów

      @Krzychu7: Niedługo dostaniemy wiarygodny, proceduralny, skalowalny poziom detali za sprawą generatywnych sieci neuronowych odwzorowujących złożone struktury na podstawie wyuczonych wzorców. Co prawda taka sieć nie pokaże jak wyglądałyby galaktyki po zderzeniu ale może pokazać jak mogłyby najprawdopodobniej wyglądać galaktyki po zderzeniu. I to przy dość niskim zapotrzebowaniu na moc obliczeniową.

    •  

      pokaż komentarz

      @Krzychu7: Nie wiem czy zauważasz trend, ale wszystko idzie w kierunku rozwiązań typu cloud. Jak 5G i światłowody będą rozwiązaniem powszechnym to będziesz w stanie zagrać w dowolną grę na tablecie i płacił abonament na zasadzie Netflixa. Co do złożonych symulacji to już teraz masz dość sporo rozwiązań jak AWS czy oparte o blockchain.

    •  

      pokaż komentarz

      Symulować.. słowo klucz. To tak jakby kobieta ubierała strapona, na dodatek takiego milimetrowego.

      @jdbc: Ot, wykop. Napisałeś bezsensowny komentarz i dostałeś masę plusów...

      Może wyjaśnię. Aktualnie najlepszy zrobiony komputer kwantowy ma około 20 kubitów. Są też D-Wave, które mają ograniczoną funkcjonalność. Da się nawet symulować komputer kwantowy na D-Wave, ale bardzo dużym kosztem (tak, że dla 1000 kubitowego D-Wave znowu lądujemy w okolicach 20-30 kubitów komputera kwantowego). Niestety, nie mogę teraz znaleźć pracy, w której było to opisane.

      Mając 20 kubitów, komputer kwantowy operuje na pamięci rzędu 2^20. Może to mnożyć przez (pewne) macierze albo odczytywać pamięć (to może zmienić stan). Coś takiego jak najbardziej jest w zasięgu przeciętnego komputera, który ma około 2^32 pamięci oraz wykonuje około 2^30 operacji na sekundę.

      Dodatkowo komputer kwantowy ma jeszcze inne problemy (jak np. błędy), więc zwyczajny komputer miałby nawet łatwiej.

      Zresztą znalazłem nawet stronę, na której można sobie symulować 22 kubity http://www.quantumplayground.net na swoim własnym komputerze...

      no to chowaj kasę do skarpety, bo takim można bez problemu złamać obecne zabezpieczenia banków itd w krótkim czasie. Ściągam symulator

      @Krzychu7: Nie można, bo nie ma wystarczająco mocy. Aby złamać aktualne szyfrowanie potrzeba co najmniej 200 kubitów (w pełnym komputerze kwantowym). To jest nie do zasymulowania przez zwykłe komputery (a nawet superkomputery). Nie ma także takich komputerów kwantowych, a jeśli popatrzymy na tempo rozwoju w ciągu ostatnich 10 lat to o ile nie będzie jakiejś rewolucji to 200 kubitów osiągniemy w 2050...

      A no i raczej większość szyfrowania nie zostanie złamane. Wiadomo jak złamać RSA na komputerze kwantowym i może coś jeszcze, ale np. ludzie wierzą, że krzywe eliptyczne są poza zasięgiem.

    •  

      pokaż komentarz

      no to chowaj kasę do skarpety, bo takim można bez problemu złamać obecne zabezpieczenia banków itd w krótkim czasie. Ściągam symulator ( ͡° ͜ʖ ͡°)

      @Krzychu7: Przecież banki i rządy będą pierwszymi, którzy będą mieć takie komputery, więc te dane zostaną kwantowo zaszyfrowane, zanim będzie ktokolwiek miał możliwość je złamać.

    •  
      P..................s

      +1

      pokaż komentarz

      @AutomatycznyCzarodziej: faktoryzacja liczb piereszych, logarytmowanie w ciele skończonym i Krzywe eliptyczne w ciałach skończonych są do rozwiązania przez kwantowy algorytm faktoryzacji Shora. Nie wiem gdzie przeczytałeś ze Krzywe eliptyczne są odporne na ten algorytm. Ogólnie to wszystkie algorytmy niesymetryczne z kluczem jawnym które są teraz popularne nie są odporne. Odporne są tylko algorytmy z szyfrowaniem symetrycznym i kluczem tajnym

    •  

      pokaż komentarz

      faktoryzacja liczb piereszych, logarytmowanie w ciele skończonym i Krzywe eliptyczne w ciałach skończonych są do rozwiązania przez kwantowy algorytm faktoryzacji Shora

      @Philopolemus_Fronius: Faktycznie, nie wiedziałem. Dzięki. Nawet znalazłem jakąś pracę, która to podsumowuje https://arxiv.org/pdf/1804.00200.pdf

    •  

      pokaż komentarz

      @AutomatycznyCzarodziej: Nie rozumiem w czym problem, moja analogia z milimetrowym straponem jest zupełnie poprawna w odniesieniu do symulowania komputera kwantowego na obecnym sprzęcie. Po pierwsze procesory kwantowe wykorzystują zupełnie inne zjawiska fizyczne niż procesory oparte na krzemie.

      W przypadku procesorów kwantowych trzeba zadbać o utworzenie odpowiednich warunków, umożliwiając jednocześnie ingerencję w stany kwantowe cząstek elementarnych oraz zapobieganie dekoherencji, czyli oddziaływaniu obiektów kwantowych z otoczeniem. Ważne jest także utrzymanie splątania kwantowego kubitów, dającego możliwość wymiany informacji kwantowej, a niekontrolowane splątanie kubitu z cząstką spoza układu również może doprowadzić do zniszczenia danych lub co gorsza - wycieku informacji poza procesor. A do samego utworzenia procesora kwantowego można wykorzystać: rezonans jądrowy, który nie nadaje się do produkcji na masową skalę, zjawiska: polaryzacji światła, pułapki jonowe, kropki kwantowe, kondensat BosegoEinsteina, stany energetyczne elektronów na powłokach elektronowych, fulereny. A więc ciężko powiedzieć aby tak złożone fizycznie układy mogły być symulowane za pomocą dzisiejszych komputerów.

      Wspomniałeś także o D-Wave, tutaj jest kontrowersyjna kwestia czy można uznać je za układy kwantowe, gdyż nie wykorzystują tradycyjnej koncepcji kwantowych bramek logicznych, a wynik osiągany jest za pomocą wyżarzania kwantowego. W 2014 roku, naukowcy udowodnili, że optymalizując algorytm służący do rozwiązywania tego samego szczególnego problemu, udaje się uzyskać wynik zbliżony do czasu osiągniętego na maszynie opartej na wyżarzaniu, a więc nie odnotowali wzrostu wydajności D-Wave.
      Z drugiej strony naukowcy z Google przedstawili dowody, stwierdzające, że kwantowy algorytm wykorzystywany w maszynie jest 100 mln razy szybszy od symulowanego algorytmu wyżarzania uruchomionemu na pojedynczym procesorze.
      Jedno jest pewne - maszyna D-Wave jest znacznie szybsza jedynie w przypadku pewnych typów problemów, tych do których została stworzona, oraz tych, które wspiera sam proces wyżarzania, a więc - dotyczy określonych zadań optymalizacyjnych.

      Apropos symulowania komputera kwantowego na D-wave to tak trochę słabo, gdyż jest to byt wykorzystujący już kwantowe zjawiska fizyczne, a więc ciężko tutaj mówić o jakimś symulowaniu. W uproszczeniu zasada działania D-wave polega na kwantowym wyżarzaniu, a więc znajdowaniu optymalnej wartości wśród wszystkich możliwych rozwiązań. Rozwiązanie znajdowane jest dzięki kwantowemu tunelowaniu, w którym elektrony wędrują przez tzw. przeszkody, znajdując najniższy punkt, który jest oparty na polu magnetycznym. Całość oparta jest na urządzeniach zwanych SQUID (ang. superconducting quantum interference device) czyli jednych z najczulszych urządzeń służących do pomiaru natężenia pola elektromagnetycznego, składających się z dwóch złączy Josephsona. Układ oparty na SQUID, można wprowadzić w stan superpozycji, ustawiając prąd na granicy przełączania złącza Josephsona, otrzymując w ten sposób kubit. Kierunki przepływu prądu opisuje przepływ elektronów przez pierścienie nadprzewodzące.

      Więc mamy układ wykorzystujący fizyczne zjawiska kwantowe, mamy kubity, mamy superpozycje ( ͡° ʖ̯ ͡°)

      pokaż spoiler CD w kolejnym poście (pasta o serwerowni też jest długa a się mieści ( ͡° ʖ̯ ͡°) )

    •  

      pokaż komentarz

      @AutomatycznyCzarodziej: Ciąg dalszy:
      Natomiast odnośnie samego symulowania na tradycyjnym sprzęcie to również trochę słabo z tym, przecież komputer kwantowy byłby szybszy od tradycyjnych ze względu na jego działanie równoległe, dzięki któremu wykonuje wiele zadań na raz, w przeciwieństwie do tradycyjnych układów, w których wielotorowość jest jedynie symulowana, a procesor działa liniowo. Prawdziwe wielotorowe działanie komputerów kwantowych możliwe jest dzięki właściwościom świata mechaniki kwantowej, w której kubit (kwantowy bit) może przybierać stan superpozycji, który oznacza, że jego wartość wynosi trochę 1 oraz trochę 0 jednocześnie. Ilość operacji w komputerze kwantowym wynosi 2n , gdzie n jest liczbą kubitów w procesorze. Dla komputera o 10 kubitach, jest to 1024 obliczeń wykonanych w jednym momencie.

      W przypadku procesora tradycyjnego, obliczona wartość będąca efektem manipulacji napięciem na tranzystorach jest zapisana w formie 0 i 1, a sam wynik jest deterministyczny, a więc za każdym otrzymany wynik będzie tą samą liczbą (pomijając fakt możliwego nieprawidłowego działania tradycyjnego procesora, teoretycznie wynik zawsze będzie taki sam). W przypadku procesora kwantowego, wynik zawsze jest obarczony prawdopodobieństwem, znaczy to, że uzyskany wynik nie daje gwarancji, iż jest to wynik poprawny. Aby zminimalizować probabilistyczny typ wynikowy, należy wykonać te same obliczania wiele razy, jednocześnie za każdym razem zmniejszając szanse, że uzyskany wynik jest błędny.

      pokaż spoiler omg znów post za długi..

    •  

      pokaż komentarz

      @AutomatycznyCzarodziej: Ciąg dalszy no2:
      Chciałbym zobaczyć w jaki sposób dzisiejszy procesor byłby w stanie zasymulować, odwzorować logike takiego procesora kwantowego, na swoim krzemowym układzie xD Problem jest taki, że zestaw kubitów tworzy rejestr kwantowy, który za pomocą kwantowych układów (kwantowym bramek logicznych) dokonuje obliczeń. Obliczenia wykonywane na tradycyjnych bramkach logicznych w procesorze krzemowym koncentrują się na wprowadzonych wartościach oraz wyniku, który jest jedynym prawidłowym wynikiem dla wprowadzonych danych. W przypadku bramek kwantowych, działanie polega na manipulowaniu superpozycjami danych wprowadzonych przy pomocy prawdopodobieństwa oraz wyniku, który jest kolejną superpozycją kwantową. Trudnością okazuje się być odczytywanie wartości przetwarzanych w procesorze kwantowym, gdyż próba odczytania wartości kwantu w stanie superpozycji, powoduje przyjęcie przez niego jednego ze stanów bazowych, a co za tym idzie - zniszczenie
      dotychczasowych obliczeń kwantowych, poprzez wymuszenie na kwancie przejścia ze stanu superpozycji do pozycji bazowej. Rozwiązaniem tego problemu jest doprowadzenie do splątania kwantowego, w które nie wierzył sam A. Einstein, gdyż splątane cząstki komunikują się między sobą szybciej niż prędkość światła. Wykorzystanie splątania kwantowego w procesorze polega na splątaniu dwóch kubitów, który jeden jest wykorzystywany jedynie do odczytywania pomiaru, gdyż jeśli dwie cząstki kwantowe są splątane, to mają wartości przeciwne np. gdy jeden foto posiada polaryzację pionową, to pewne jest, że jego splątany foto będzie posiadał polaryzację odwrotną - poziomą. A więc jest to sposób, którym można odczytać pewne wartości z procesora kwantowego, jedynie za pomocą tzw. kopii danych, czyli kubitów splątanych, bez ingerencji w sam proces zachodzący na kubitach używanych do obliczeń, gdyż każda próba odczytania takiego kubitu powoduje zniszczenie jego superpozycji i w konsekwencji błąd w dalszych obliczeniach, a samo zniszczenie kopii danego kubitu, nie niesie za sobą takiego ryzyka.

      Natomaist jeśli chodzi o sam nośnik to- zestaw tradycyjnych bitów może przechowywać jedną z dostępnych wartości, np. w przypadku 4 bitów, jest to naraz jedna wartość z 16 dostępnych, natomiast 4 kubity mogą naraz przyjmować 16 wartości jednocześnie. Wzrost ilości wartości przechowywanych jednocześnie, w przypadku kubitu rośnie wykładniczo, a już 20 kubitów potrafi przechować ponad milion wartości jednocześnie. Różnica w wydajności względem tradycyjnego procesora rośnie wraz ze wzrostem kubitów, gdyż tradycyjny procesor wykonuje obliczenia po kolei, natomiast komputer kwantowy oblicza na wszystkich wartościach jednocześnie.

      Oraz także to, że do działania komputera kwantowego wymagane jest oprogramowanie oraz algorytmy pozwalające przeprowadzać kwantowe obliczenia, bazując na zasadach mechaniki kwantowej - superpozycji, splątania. Problemem okazuje się jednak charakter wynikowy obliczeń, który bazuje na prawdopodobieństwie, a więc najprawdopodobniej, prawidłowym wynikiem jest ten, którego gęstość prawdopodobieństwa jest największa, lecz nie wyklucza to możliwości, w której prawidłowy wynik znajduje się w obszarze mniejszej gęstości prawdopodobieństwa.

      Więc z całym szacunkiem, ale dlaczego twierdzisz, że moja analogia dotycząca milimetrowego strapona ubieranego przez kobiete jest błędna w odniesieniu do wykorzystywania ograniczonej technologii w postaci procesorów opartych na krzemie, aby zasymulować procesor kwantowy wykorzystujący zupełnie inne zjawiska fizyczne?

      pokaż spoiler N. Gershenfeld, I. Chuang, “Bulk Spin-Resonance Quantum Computation” SCIENCE, 275, , styczeń 1997, 350-356.


      pokaż spoiler N. Gershenfeld, I. Chuang, “Quantum Computing with Molecules” Scientific American June 1998, 66-71.


      pokaż spoiler M. Fuechsle, J.A. Miwa, S. Mahapatra, et al. “A Single-Atom Transistor”, Nature Nanotechnology, 7, luty 2012, 242–246.


      pokaż spoiler S. Boixo, T. F. Rønnow, S.V. Isakov, et al. “Quantum annealing with more than one hundred qubits”, Nature Phys. 10, kwiecień 2013, 218–224.


      pokaż spoiler V. S. Denchev, S. Boixo, S.V. Isakov, et al. “What is the Computational Value of Finite Range Tunneling?”, Physical Review X 6, 031015, sierpień 2016.


      pokaż spoiler “Entanglement = Wormholes”, zasoby Internetu: https://quantumfrontiers.com/2013/06/07/entanglementwormhole / A blog by the Institute for Quantum Information and Matter @ Caltech. Dostęp: 21.10.2017


      pokaż spoiler T. van der Sar, Z. H. Wang, M.S. Blok, et al. “Decoherence protected quantum gates for a hybrid solid-state spin register”, Nature, 484, 4 kwiecień 2012, 82-86.

    •  

      pokaż komentarz

      @jdbc:
      0. Przez symulowanie mam na myśli wykonanie algorytmu, który jest napisany na komputer kwantowy (pełny). Przy czym o ile komputer kwantowy może bezpośrednio wykonać np. odczyt z pamięci to taki symulator musi jakoś udawać, że to robi, tak, by nie dało się odróżnić.
      1. Komputery kwantowe o 20 kubitach, jak sam napisałeś: "już 20 kubitów potrafi przechować ponad milion wartości jednocześnie", co oznacza mniej więcej tyle, że to się mieści w pamięci zwykłej karty graficznej.
      2. Komputer kwantowy to model. Oczywiście fajnie, że korzysta ze splątania itp., ale algorytmy nie wchodzą tak głęboko w szczegóły. Wystarczy, że umiemy zasymulować operacje na tym całym dużym stanie, losowość oraz dziwne własności odczytów pamięci.
      3. Ma probablistyczną naturę. To oznacza, że ewentualna symulacja też takową mieć musi. W przypadku układów krzemowych można użyć generatorów liczb pseudolosowych. Zwykle jest to dobre przybliżenie rozkładu, który pojawiłby się w komputerze kwantowym.
      4. Pierwszy post mówił o niesamowitych możliwościach komputerów kwantowych. Skoro aktualnie istniejące komputery da się symulować przy pomocy układów scalonych to znaczy, że to jest niesamowicie przerysowane. To tak jakby mówić, że skoro mamy rakiety to już zaraz będziemy lecieć do Alfa Centauri.
      5. Wspomniałem o D-Wave w kontekście ogólnego komputera kwantowego, którym D-Wave nie jest. Dalej patrz 0.

  •  

    pokaż komentarz

    Ale by pograł na takim w Mario