•  

    pokaż komentarz

    Astrofizycy z Flatiron Institute's Center for Computational Astrophysics w Nowym Jorku stworzyli model zwany Deep Density Displacement Model (lub w skrócie D^3M). Ale dokładność symulacji ich zaskoczyła. Komputer jest w stanie wymyślić poprawki do Wszechświata obejmujące takie rzeczy jak ciemna materia lub czarne dziury, bez otrzymywania danych treningowych na temat tego, od czego te rzeczy mają się zacząć.

    To jak na przykład nauczyć oprogramowanie rozpoznawać obrazy z dużą ilością zdjęć kotów i psów, jednak potem okaże się że jest ono również w stanie rozpoznać słonie", powiedziała liderka grupy Shirley Ho z Instytutu Flatiron i która jest również adiunktem na Carnegie Mellon University.

    Nikt nie wie, jak AI to robi, i jest to wielka tajemnica do rozwiązania.

    Szybkość i dokładność projektu o nazwie Deep Density Displacement Model, czyli D^3M, nie była największą niespodzianką dla badaczy. Prawdziwym szokiem było to, że D^3M mógł dokładnie symulować, jak wyglądałby Wszechświat, gdyby niektóre jego parametry, takie jak udział procentowy ciemnej materii, zostałyby zmienione.
    Ale podczas treningu algorytm nie uzyskał żadnych danych o tym, co się dzieje, gdy parametry te ulegają zmianie.

    Symulacje komputerowe, takie jak te wykonane przez D^3M stały się niezbędne dla teoretycznej astrofizyki. Naukowcy chcą wiedzieć, jak kosmos może ewoluować w różnych scenariuszach, na przykład, czy ciemna energia rozdzielająca wszechświat zmieniała się w czasie. Takie badania wymagają przeprowadzenia tysięcy symulacji, co sprawia, że szybki jak błyskawica i bardzo dokładny model komputerowy jest jednym z głównych celów współczesnej astrofizyki.

    Naukowcy chcą wiedzieć, w jaki sposób kosmos może rozwijać się w różnych scenariuszach, takich jak zmiany w zakresie ciemnej energii w czasie. Takie badania wymagają tysięcy operacji, a D3M buduje symulacje szybko i dokładnie.
    To czyni go wyjątkowym w swoim rodzaju.

    W szczególności, nowy algorytm może symulować zmianę siły grawitacji. Naukowcy postanowili skupić się tylko na grawitacji, ponieważ jest ona zdecydowanie najważniejszą siłą, jeśli chodzi o ewolucję kosmosu na dużą skalę.

    Najdokładniejsze symulacje Wszechświata obliczają, jak rozkład sił grawitacji przesuwa każdą z miliardów pojedynczych cząstek w ciągu całego okresu istnienia wszechświata. Ten poziom dokładności jest zbyt czasochłonny, wymagający około 300 godzin obliczeniowych na jedną symulację. Szybsze metody mogą zakończyć te same symulacje w ciągu około dwóch minut, ale skrócone terminy skutkują znacznie mniejszą dokładnością.

    Naukowcy udoskonalili głęboką sieć neuronową, która zasila D^3M, dostarczając jej 8 000 różnych symulacji z jednego z dostępnych modeli o najwyższej dokładności. Sieci neuronowe pobierają dane szkoleniowe i przeprowadzają obliczenia na podstawie informacji; naukowcy następnie porównują wynik z oczekiwanym wynikiem.
    Dzięki dalszemu szkoleniu sieci neuronowe dostosowują się w czasie, aby uzyskać szybsze i dokładniejsze wyniki.

    W rezultacie, kiedy badacze uruchomili nowy algorytm, był on w stanie odtworzyć model Wszechświata o średnicy 600 milionów lat świetlnych w ciągu 30 milisekund. A błąd był mniejszy niż 3% w porównaniu z programami, które potrzebowały ponad 300 godzin na ukończenie pracy.

    Jednak pomimo tak imponujących wyników, twórcy D^3M wciąż nie do końca rozumieją, w jaki sposób sieć neuronowa zdołała stworzyć symulację w zaledwie kilka milisekund.

    [Jestem na 100% pewny, że w ciągu 30-45 minut Wykopowi eksperci wyjaśnia tą zagadkę naiwnych hamerykańskich astrofizyków ]

    Algorytm AI D^3M wypracował również bardzo dokładne wyniki. W porównaniu z modelem o wysokiej dokładności, D^3M miało względny błąd 2,8 procent. Wykorzystując to samo porównanie, istniejący model szybki miał względny błąd 9,3 procent.
    Niezwykła zdolność D^3M do radzenia sobie ze zmiennymi parametrami, których nie ma w danych dotyczących szkolenia, czyni z niego szczególnie użyteczne i elastyczne narzędzie, mówi Ho. Oprócz modelowania innych sił, takich jak hydrodynamika, zespół ma nadzieję dowiedzieć się więcej na temat działania modelu pod maską. Mogłoby to przynieść korzyści dla rozwoju sztucznej inteligencji i nauki obsługi maszyn".

    " Dzięki temu możemy być interesującym miejscem do badania możliwości Machine Learning , aby przekonać się, dlaczego ten model tak dobrze się ekstrapoluje, a najważniejsze dlaczego ekstrapoluje na słonie zamiast tylko rozpoznawać koty i psy".

    .

    Jeśli chcesz być na bieżąco z najlepszymi znaleziskami to zapisz się na MikroListę.
    https://mirkolisty.pvu.pl/list/56Bf7jbXdbGvM2NK i dodaj Swój nick do listy #swiatnauki.

    #swiatnauki #gruparatowaniapoziomu #liganauki #ligamozgow #qualitycontent #nauka #sztucznainteligencja #ai #programowanie #informatyka #komputery #astronomia #kosmos

    źródło: 425454557.jpg

    •  

      pokaż komentarz

      @xandra:

      Bez podpisu nie liczy się ! (ง ͠° ͟ل͜ ͡°)ง

    •  

      pokaż komentarz

      [Jestem na 100% pewny, że w ciągu 30-45 minut Wykopowi eksperci wyjaśnia tą zagadkę naiwnych hamerykańskich astrofizyków ]

      Jednak pomimo tak imponujących wyników, twórcy D^3M wciąż nie do końca rozumieją, w jaki sposób sieć neuronowa zdołała stworzyć symulację w zaledwie kilka milisekund.

      @RFpNeFeFiFcL: hm...to ich słowa czy słowa dziennikarza?

      Bo może niech popytają specjalistów od Machine Learnignu tamci im wytłumaczą jak to działa :P

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Ja chciałem tylko podziękować użytkownikowi RFpNeFeFiFcL za świetną robotę.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: No właśnie o to chodzi, że nie wiadomo o co chodzi xDDD

    •  

      pokaż komentarz

      @LowcaG:

      The speed and accuracy of the project, called the Deep Density Displacement Model, or D3M for short, wasn't the biggest surprise to the researchers. The real shock was that D3M could accurately simulate how the universe would look if certain parameters were tweaked—such as how much of the cosmos is dark matter—even though the model had never received any training data where those parameters varied.

      "It's like teaching image recognition software with lots of pictures of cats and dogs, but then it's able to recognize elephants," Ho explains "Nobody knows how it does this, and it's a great mystery to be solved."

      ( On/ona tak się nazywa SHYRLEY HO (dziedzicz HO) ( ͡º ͜ʖ͡º)

      Shirley Ho
      aDepartment of Physics, Carnegie Mellon University, Pittsburgh, PA 15213;bMcWilliams Center for Cosmology, Carnegie Mellon University, Pittsburgh, PA 15213;cCenter for Computational Astrophysics, Flatiron Institute, New York, NY 10010;dBerkeley Center for Cosmological Physics, University of California, Berkeley, CA 94720;ePhysics Division, Lawrence Berkeley National Laboratory, Berkeley, CA 94720;

    •  

      pokaż komentarz

      zapłaciłbym każde pieniądze by miec możliwość zablokowanie możliwości dodawania wpisów pod tagiem #astronomia temu bezbekowi @xandra: No aż mnie ściska jak ją widzę

    •  

      pokaż komentarz

      [Jestem na 100% pewny, że w ciągu 30-45 minut Wykopowi eksperci wyjaśnia tą zagadkę naiwnych hamerykańskich astrofizyków ]

      @RFpNeFeFiFcL ( ͡° ͜ʖ ͡°)

      źródło: Scooby-Dooby-Data.jpg

    •  
      xyz23 via iOS

      +227

      pokaż komentarz

      @RFpNeFeFiFcL: ai podłączyła się do głównego systemu symulującego nasz wszechświat ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      [Jestem na 100% pewny, że w ciągu 30-45 minut Wykopowi eksperci wyjaśnia tą zagadkę naiwnych hamerykańskich astrofizyków ]

      @RFpNeFeFiFcL: Ponad 40 minut na zegarze. Poziom wykopu spada ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @Gusmag:

      Ja chciałem tylko podziękować użytkownikowi RFpNeFeFiFcL za świetną robotę.

      Dzięki :)

      Chciałem jeszcze raz przypomnieć dla wszystkich kolegów i koleżanek że nie tylko ja wykonuję swoją skromną "misjonarską" robotę w dziale Nauka.

      Każdego dnia są tam dodawane świetne znaleziska przez grono osób.

      A w szczególności chciałbym wskazać na takich kolegów i koleżanek jak @sznaps82 , @stanulam , @Czajna_Seczen , @Zwiadowca_Historii @madAlice , @dynx , @Lifelike , @darosoldier , @cieliczka , @RETROWIRUS , @MalyBiolog , @KubaGrom , @BionicA @future21 , @DiveMagBlue , @sropo , @LowcaG , @tomaszs , @LukaszLamza i wiele wiele innych.

      Więc korzystając z okazji chciałem w swoim imieniu i z Waszego pozwolenia w imieniu Waszym podziękować im za świetną i ciężką robotę, ciekawe znaleziska, profesjonalne komentarze, które one dodają każdego dnia.
      Tydzień w tydzień, miesiąc w miesiąc, rok w rok.

      źródło: 655656456.jpg

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: To nie jest tylko błąd 2,8%, to nadal AŻ 2,8%

    •  

      pokaż komentarz

      W rezultacie, kiedy badacze uruchomili nowy algorytm, był on w stanie odtworzyć model Wszechświata o średnicy 600 milionów lat świetlnych w ciągu 30 milisekund. A błąd był mniejszy niż 3% w porównaniu z programami, które potrzebowały ponad 300 godzin na ukończenie pracy.

      Jednak pomimo tak imponujących wyników, twórcy D^3M wciąż nie do końca rozumieją, w jaki sposób sieć neuronowa zdołała stworzyć symulację w zaledwie kilka milisekund.

      @RFpNeFeFiFcL: Bo pewnie nie oni je pisali. Otóż to było pewnie tak że w teamie są spece od machine learning. W skrócie.

      - To żadne zaskoczenie że sieć działa sprawnie, ci co ją zaprojektowali znają jej konstrukcję i opis matematyczny.

      - Długo to trwała na pewno nauka tej sieci. Dwa jak mają superkomputery z jakimiś nvidia czy tpu to się nie ma co dziwić że sieć sobie daje radę.

      - Spece od ML i data scienc na pewno te dane odpowiednio przygotowali(przypomnę że można dodawać szum do danych uczących)

      - Wiadomo trochę zagadką jest już sam proces uczenia i przetwarzania danych przez sieć ale model samej sieci jest im znany.

      Chyba art. pisali fizycy a nie goście od ML.

      edit:
      Każda sieć neuronowa daje jakiś wynik jak jej wprowadzisz dowolne dane ale czy mają sens?. A ten przykład z kotami i psami a identyfikuje słonia pokazuje że jednak coś nie tak w danych uczących.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL Śledzę od dawna Twoje wysiłki i genialne tłumaczenia. Poszedlbym na piwo z Tobą, jeśli Kraków jest Ci po drodze.
      Studiowałem z resztą fizykę, więc wiesz jak doceniam Twój wkład, naturalnie.
      Mam pytanie, co sądzisz o teorii symulacji?

    •  

      pokaż komentarz

      @CukrowyWykop:

      Tam w komentarzu dla @LowcaG dodałem cytat naukowca, który jest jednym z autorów, w którym mówi że on nie rozumie jak to zadziałało.

      "It's like teaching image recognition software with lots of pictures of cats and dogs, but then it's able to recognize elephants," Ho explains "Nobody knows how it does this, and it's a great mystery to be solved."

      Źródło Phys.org w istocie dość solidne, tym bardziej że tez ta jest podana w nagłówku wiadomości.

      The first AI universe sim is fast and accurate—and its creators don't know how it works

      No chyba że to klasyczne " Naukowiec zgwałcił dziennikarza " :( :(

    •  

      pokaż komentarz

      Bo pewnie nie oni je pisali. Otóż to było pewnie tak że w teamie są spece od machine learning.

      @CukrowyWykop: @RFpNeFeFiFcL: Jest udostępniony kod tych sieci, jest to najbardziej klasyczne podejście jakie można zrobić 60 linijek kodu.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Ja również dołączam do podziękowań, śledzę od dawna, ale zwykle samym czytaniem się zadowalam. W sobotę wyjeżdżam do Niemiec ciężko pracować. Mam nadzieję że wieczorami, dla ukojenia, podczas odpoczynku często będę widywał tutaj Twoje wpisy. Mój nick nie jest przypadkowy, lubię to panie RFpNeFeFiFcL ;) Powodzenia w życiu i obyś miał dużo czasu dodawać wpisy na tym portalu ze śmiesznymi obrazkami.

    •  

      pokaż komentarz

      @LowcaG: czyli co zwykły FF z matlaba? Algorytm uczenia?

    •  

      pokaż komentarz

      @LowcaG: czyli nie takie zwykłe 60 linijek a torch :) W każdym razie się nie napracowali :D Pytanie co z danymi. Po prostu na janka wrzucili wszystko czy jednak selekcja była? Bo specjalnego przygotowania tu nie widzę :)

    •  

      pokaż komentarz

      czyli nie takie zwykłe 60 linijek a torch :) W każdym razie się nie napracowali :D Pytanie co z danymi. Po prostu na janka wrzucili wszystko czy jednak selekcja była? Bo specjalnego przygotowania tu nie widzę :)

      @CukrowyWykop: A no tak, chciałem przekazać, że właśnie nie stosowali jakiś własnych udziwnień, z danymi startowymi mają innego githuba i tam już widać większą pracę tam jest program który generuje te dane

    •  

      pokaż komentarz

      @Syntax:

      Dzięki serdeczne za zaproszenie, ale trochę nie po drodze.

      Mam pytanie, co sądzisz o teorii symulacji?

      Jeśli podchodzić z realnej wiedzy którą mamy (wykluczając reptilian, Kapitana Aster Sheran, Krysznę, Allacha i seksowną podglądaczkę Kapitan Marwell z szóstego wymiaru ) to:

      https://cosmosmagazine.com/physics/physicists-find-we-re-not-living-in-a-computer-simulation

      https://www.komputerswiat.pl/aktualnosci/wydarzenia/fizycy-zapewniaja-nie-zyjemy-w-komputerowej-symulacji/4wldhr3

      No i moje dwa grosze które zaprezentowałem w jednym z moich wcześniejszych postów który trochę zredagowałem:

      Dodam jeszcze jeden argument:

      Jako ciekawostkę podam że po powstaniu 3,4 miliardów lat temu prokariotów na Ziemi w ciągu prawie 1,8 miliardów lat nic w rozwoju biologicznym nie zmieniło się zanim nie nastąpiło przejście tego gatunku do eukariontów.

      Po prostu ewolucja zawiesiła się i na Ziemi byli przez prawie dwa miliardy lat, 2 000 000 000 ( !) lat Stwórcy Symulacji obserwowali tylko jednokomórkowe organizmy beż jądra komórkowego i organelli.
      Potem (chyba ocknęli się) ewolucja ruszyła i pojawili się wielokomórkowe eukarionty.

      Dla porównania nasza cywilizacja ma maksymalnie jakieś 15-20 tysięcy lat.

      Więc co robili2 mlrd. lat ci Władcy Matrix-u co nam serwują ten piękny "holograficzny" świat ?
      Zaspali? Zaczpali? Imprezowali ?

      A może stali w kolejce w swoim 6 wymiarze w oddziale Poczty Galaktycznej aby odebrać przesyłkę z Allegro ? : )

      Tylko proszę nie piszcie bez konkretów i najlepiej wyliczeń o dylatacji czasu.

    •  

      pokaż komentarz

      [Jestem na 100% pewny, że w ciągu 30-45 minut Wykopowi eksperci wyjaśnia tą zagadkę naiwnych hamerykańskich astrofizyków ]

      @RFpNeFeFiFcL: mówisz i masz :-)

      W rezultacie, kiedy badacze uruchomili nowy algorytm, był on w stanie odtworzyć model Wszechświata o średnicy 600 milionów lat świetlnych w ciągu 30 milisekund. A błąd był mniejszy niż 3% w porównaniu z programami, które potrzebowały ponad 300 godzin na ukończenie pracy.

      @RFpNeFeFiFcL: ktoś wcześniej wczytał, przez pomyłkę , ten wynik (model) do BD AI. AI, żeby tego nie zdradzić, przez 20 milisekund wprowadzała delikatne zmiany, kolejne 10 milisekund zajęło jego wyświetlenie...
      :-)

    •  

      pokaż komentarz

      @Canis_Majoris:

      Dzięki
      Nick zajebisty zawszę jak byłem po "seppuku zbożowym" w zaświatach wykopowych, to mu zazdrościłem :)

    •  

      pokaż komentarz

      @RFpNeFeFiFcL Macie Patronite? Jeśli nie załozcie. Zatrudnie was na pelnoetatowych tlumaczy ( ͡~ ͜ʖ ͡°)

    •  

      pokaż komentarz

      @LowcaG: @CukrowyWykop: @Nieszkodnik:

      Polegam na Was i ufam, bo moje poznania w informatyce ograniczą się umiejętnością podłączania drukarki do komputera i zmiany czcionek w Word-ie

    •  

      pokaż komentarz

      @Syntax Ja jestem z Krk( ͡° ͜ʖ ͡°) ! *zresztą Studiowałeś fizę, a nie ogarniasz ortografii? xd

    •  

      pokaż komentarz

      @LowcaG machine learning to co innego niż deep learning (sieci neuronowe).

    •  

      pokaż komentarz

      machine learning to co innego niż deep learning (sieci neuronowe).

      @Baryla1m3: ok, kwestia definicji, dla mnie sieci neuronowe są podzbiorem.

      https://pl.wikipedia.org/wiki/Uczenie_maszynowe

      Metody maszynowego uczenia się:
      [..]
      analityczne uczenie (ang. Analytical Learning) – metody uczenia indukcyjnego (wykorzystują sieci neuronowe, drzewa decyzyjne), wymagają pewnej liczby przykładów aby osiągnąć pewien poziom uogólnienia. Analityczne uczenie stosuje wiedzę aprioryczną i wnioskowanie dedukcyjne do powiększania informacji dostarczanej przez przykłady uczące.


      Czepiasz się ;)

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Dzięki za kolejny świetny wpis.

      Może spróbuję nieco rozjaśnić kwestię tej fenomenalnej wydajności AI.

      Algorytmy bazujące na sieciach neuronowych w ogólnym ujęciu są wrażliwe na atraktory, czyli zjawiska/obiekty/modele, które najbardziej "pasują" do poszukiwanego wyniku (i najbardziej pobudzają sieć).
      Sztuczne inteligencje (AI) są jednak dosyć głupie. O ile bowiem doskonale symulują ścieżkę wnioskowania, którą znamy z autopsji (a w każdym razie znają niektórzy z nas :) ), o tyle podatne są na pewne poziomy szumu (często rozłożone nieliniowo), zatruwanie zbiorów uczących (czyli oszustwa) i wiele innych czynników. W tym wypadku programistom udało się najwyraźniej wyeliminować problemy (nie jest to trudne, jeśli wie się czego się oczekuje).

      Jeszcze jednym problemem AI jest brak dokładności. Wynika to z inherentnej cechy zbiegania się rozwiązań w kierunku atraktora. "Prędkość" owego zbiegania musi być skończona (i zwykle dosyć mała), inaczej sieci nie mogłyby działać. Jednocześnie, w pobliżu atraktora mogą, i często zachodzą, oscylacje, których nie da się wyeliminować (lub da się, ale ilość możliwych jest czasowo zbyt duża). Stąd, w przypadku bardziej złożonych problemów da się uzyskać jedynie uśredniony obraz wyników, a nie konkretny wynik. I często nie da się zejść z odsetkiem błędów poniżej kilku procent (z doświadczenia ok. 2% przy wielu próbowanych poziomach szumu).

    •  

      pokaż komentarz

      @LowcaG no może rzeczywiście trochę :p

    •  

      pokaż komentarz

      @atax_bras:

      Dzięki za profesjonalne wyjaśnienie i szacunek za wiedzę.
      Dodałem Twój wpis do powiązanych.

    •  

      pokaż komentarz

      Po prostu ewolucja zawiesiła się i na Ziemi byli przez prawie dwa miliardy lat, 2 000 000 000 ( !) lat Stwórcy Symulacji obserwowali tylko jednokomórkowe organizmy beż jądra komórkowego i organelli.
      Potem (chyba ocknęli się) ewolucja ruszyła i pojawili się wielokomórkowe eukarionty.


      @RFpNeFeFiFcL: dlaczego zakładasz, że symulacja została stworzona, żeby nas podglądać? Może jesteśmy tu tylko przypadkowo. No i co, mają ingerować w nasz świat? To by zaburzyło wyniki. A te 2 mld lat poza symulacją to może być 30 ms.

    •  

      pokaż komentarz

      @DILERIUM:

      dlaczego zakładasz, że symulacja została stworzona, żeby nas podglądać?

      Przeważnie symulacje robi się dla obserwacji.

      A te 2 mld lat poza symulacją to może być 30 ms.

      W jakim Wszechświecie ?

    •  

      pokaż komentarz

      @atax_bras: Jak zawsze, pewnie i ten artykuł jest mocno przesadzony z tą 'dokładnością'. W obecnym świecie "nauki" jak nie ma "ka buuum", to nikt się tym nie zainteresuje. Nie ma w tym artykule odwołań do jakiego konkretnego obiektu kosmicznego, jest tylko odwołanie do 'modelu'. Co samo w sobie wiele nie znaczy. ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: no to sobie obserwują tysiące różnych cywilizacji rozwijających się i ginących we wszechświecie. Albo jest to symulacja analogiczna do tej z artykułu, ale tak wch#? dokładna, że wytworzyły się w niej formy życia.
      No nie wiem, w jakim. W tym, w którym znajduje się komputer przeprowadzający symulację.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Proste organizmy jedno komórkowe szybciej zostały pobrane z dysku, bo są mniej złożone ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Brakuje szczegółów modelu oraz zakresu symulowanej fizyki. Symulację wrzechświata można z powodzeniem wykonać w postaci pieczenia ciasta z rodzynkami i piać z zachwytu nad genialnością jego odwzorowania. Niech AI znajdzie jednocześnie model standardowy i opis czarnej dziury, bedzie to zdecydowany powód do radości.

    •  

      pokaż komentarz

      @LowcaG: @CukrowyWykop: @Nieszkodnik: @atax_bras: @szopa123:

      Hmmm znalazłem twitter jednego z autorów pani astrofizyk Shyrley Ho

      No i ona tam sama linkuje do artykułu w simonsfoundation.org (jednak to już bardzo poważna organizacja) gdzie jak byk jest napisane w zagłówku:

      The First AI Simulation of the Universe Is Fast and Accurateand Even Its Creators Don’t Know How It Works

      https://twitter.com/cosmo_shirley

      źródło: 656554455454.jpg

    •  

      pokaż komentarz

      @szopa123: Nie do końca się zgodzę. Świat nauki był, jest i będzie do pewnego stopnia skorumpowany, tak jak dowolna inna gałąź naszego życia, bo jesteśmy w końcu zwierzakami lubiącymi chodzić na skróty (jak większość zwierząt). Artykuł zatem jest clickbaitowy, bo inaczej by się nie sprzedał.
      Niemniej błąd w okolicach 2% to dobry wynik i jak najbardziej osiągalny w pewnych klasach problemów (tutaj musiałbym walnąć dłuższy wykład, a mi się nie chce).
      Co do konkretnego obiektu... Opis zjawiska powinien być abstrakcyjny, to znaczy abstrahować od konkretnych zjawisk. Tylko wtenczas można go uniwersalnie stosować. Mogę się założyć, że wspomniany model znajdzie zastosowanie w opisie rzeczywistości (jeśli jest poprawny). Jednak w przypadku AI właśnie generalizacja jest wskazana. Wyobraź sobie uczenie AI (lub Cześka spod sklepu) rozpoznawania wyglądu Kowalskiego spod 2B. Zarówno AI, jak i Czesiek osiągną na tym polu znaczne sukcesy, przy czym AI będzie szybsze, bo nie będzie obciążane spowalniającym wpływem C2H6OH.
      Nie wiem, jak to bardziej przystępnie wyjaśnić.

    •  

      pokaż komentarz

      @DILERIUM:

      No nie wiem, w jakim. W tym, w którym znajduje się komputer przeprowadzający symulację.

      W równoległym Wszechświecie myślące istoty stworzyli symulację naszego Wszechświata aby 2 mld lat obserwować jednokomórkowe organizmy.

      Wierzysz w to?

    •  

      pokaż komentarz

      W rezultacie, kiedy badacze uruchomili nowy algorytm, był on w stanie odtworzyć model Wszechświata o średnicy 600 milionów lat świetlnych w ciągu 30 milisekund. A błąd był mniejszy niż 3% w porównaniu z programami, które potrzebowały ponad 300 godzin na ukończenie pracy. Jednak pomimo tak imponujących wyników, twórcy D^3M wciąż nie do końca rozumieją, w jaki sposób sieć neuronowa zdołała stworzyć symulację w zaledwie kilka milisekund.

      [Jestem na 100% pewny, że w ciągu 30-45 minut Wykopowi eksperci wyjaśnia tą zagadkę naiwnych hamerykańskich astrofizyków ]

      @RFpNeFeFiFcL:

      To bardzo proste. Kod musiał wyglądać następująco:

      public function nibySkomplikowaneOperacjeMatematyczne(){

      return file_get_content('/home/root/tenObrazekCoMielismyPokazacDziennikarzom.jpg');

      }

      pokaż spoiler Oczywiście z przymrużeniem oka :)

      źródło: imgs.xkcd.com

    •  

      pokaż komentarz

      and Even Its Creators Don’t Know How It Works

      @RFpNeFeFiFcL: Widzisz, bo problemem jest to, co oznacza "wiedzą jak to działa" i często w kontekście SSN używany jest taki slogan, nawet w branży naukowej.
      Można powiedzieć, że sieć neuronową da się (no z rekurencyjnymi był by problem ale takich nie używali) przestawić w fomie bardzo bardzo skomplikowanego wielomianu. I czy znając ten wzór, wiemy jak to działa? No tak średnio bym powiedział.

      Tym bardziej, twócy danej sieci, najczęściej nie analizują (da się pewne analizy zrobić, ale mijają się one z celem dla ludzkiego umysłu jeśłi chodiz o pełne rozumienie) bo i po co? Czyli działa, ale nie wiedzą jak.

      Dlatego, że SNN jest traktowana jako black box.

      Jednak mechanizmy uczenia SNN są znane, można trochę ją rozkładać i wizualizować (bo wzór naprawdę nikomu nic nie powie) i jakoś tam intepretować, ale to słąbe dla człowieka.

      Czasem są fajne wizualizacje (jeśli chodzi o obrazy) jak sieć fajnie semgentuje po kolei obraż i na podstawie tego uogólnia, jeśli jednak chodzi o nie obrazy już trudniej cokolwiek fajnie pokazać aby to było przejżste dla człowieka.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Z tego co widzę, ten 'model' dotyczy rozkładu masy we znanym Wszechświecie. I w takim przypadku ciężko mówić o symulacji, bo nie jesteśmy w stanie powiedzieć, jak ten model odnosi się do zdarzeń zaszłych jak i przyszłych. Oddał tylko to co widzimy obecnie. Więc jest tak jak myślałem, informacja jest mocno przesadzona. Trzeba by to odnieść do jakiś bliskich galaktyk, zrobić np. symulacje na 30-40 lat naprzód. I za 30-40 lat porównać wyniki z obserwacjami. ( ͡° ͜ʖ ͡°) Wtedy można by mówić, że ta sieć symuluje Wszechświat z dużą dokładnością. (oczywiście jak wyniki by się pokrywały ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @atax_bras: I tak i nie.. ( ͡° ͜ʖ ͡°) Generalnie masz rację, ale... przeczytaj to co napisałem wyżej, bo to wszystko wyjaśnia. ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Niezależnie od powagi podmiotu publikującego to dalej clickbait of sorts.
      Doskonale wiemy "how it works". Wiemy jak działają AI. Możemy zarejestrować ich działanie, wagi które nadają, przebieg wnioskowania.
      Problem jest jednak natury matematycznej. Spróbuję przez analogię.
      Znamy dokładnie prawa opisujące ruch planet (przyjmijmy, że w tych skalach oddziaływania kwantowe są całkowicie nieistotne). Znamy je od bardzo dawna. Potrafimy je rozwiązywać dla dwóch ciał bez problemu. Dla większej ilości - analitycznie już nie. I tu jest sedno problemu. Wiemy, że istnieją rozwiązania analityczne dla wielu ciał, bo te ciała zasuwają sobie po niebie a czas jest ciągły (uproszczenie, bo może istnieje kryterium czasu Plancka, ale tego jeszcze nie wiemy). Tymczasem my musimy, ze względu na mikre możliwości obliczeniowe, posiłkować się cząstkowymi równaniami.
      Zatem, wiemy jak. Możemy to obserwować. Ale nie możemy dać konkretnej odpowiedzi.

    •  

      pokaż komentarz

      @LowcaG: @atax_bras

      Ja tylko chciałem odnieść się do tego że nagłówek nie jest clickbait-em czy tam kaczką dziennikarską i autorzy naukowcy sami potwierdzają jego tezę.

    •  

      pokaż komentarz

      Ja tylko chciałem odnieść się do tego że nagłówek nie jest clickbait-em czy tam kaczką dziennikarską i autorzy naukowcy sami potwierdzają jego tezę.

      @RFpNeFeFiFcL: aa rozumiem, no to zgoda, traktują to jako czarną skrzynkę rozumieć nic nie muszą

    •  

      pokaż komentarz

      @atax_bras: @RFpNeFeFiFcL:

      Minutka podłego rasizmu:

      Widzę że prawie wszyscy autorzy to Azjaci: Siyu He, Yin Li, Yu Feng, Shirley Ho, Siamak Ravanbakhsh, Wei Chen
      Może specjalnie robią taki hype z tym "nierozumieniem tajemniczego AI" że niby są astrofizykami i " pan ja niczego eta AI nie panimaju" ?
      Inaczej ta ich praca nie uzyskała by takiego rozgłosu

      Chociaż z drugiej strony jeden z autorów (jedyny biały) Barnabás Póczos is an assistant professor in the Machine Learning Department at Carnegie Mellon University. raczej nie robiłby z siebie klauna.

      Czytam i sam nie wierze w to co napisałem. (╯°□°)╯︵ ┻━┻

      Jednak wykop to potrafi k??$a totalnie sprać człowiekowi mózg. :(

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Tak jak napisałem powyżej, to jest sposób na zwrócenie uwagi. Niezależnie, czy sprokurował to dziennikarz, czy uczestnik projektu.
      Bez dokładniejszego wyjaśnienia i zrozumienia, jak działają złożone algorytmy, uwaga typu "nie wiemy, jak to działa" wygląda sensacyjnie. I zapewne tak miała wyglądać.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Przede wszystkim, symulacja wszechświata to dość ogólnie powiedziane. Tutaj dokonano dobrej symulacji makroskopowego rozkładu materii na podstawie działania sił grawitacyjnych, a dokładniej nauczono sieć rozwiązywać problem N ciał (przy dużym N). Bardzo wiele zjawisk fizycznych w tej symulacji nie występuje. Notabene wyniki modelu nie były porównane z danymi obserwacyjnymi, tylko z innymi symulacjami.

      Co do ciemnej materii i czarnych dziur to nie wiem do końca o co pani Ho chodziło, bo ten artykuł z linku o nich nie wspomina.

      Ale 'odkryciem' czarnych dziur przez model raczej nie należy być szczególnie zaskoczonym. Możliwość powstania czarnej dziury wynika wprost z postaci siły grawitacji i na ich temat spekulowano już w 18 wieku. Tak więc jeśli sieć nauczyła się symulować siłę grawitacji na podstawie zbioru uczącego, to będzie przy sprzyjających warunkach czarne dziury obliczyć nawet, jeśli w zbiorze uczącym ich nie ma.

    •  

      pokaż komentarz

      @szopa123: Ogólnie zgadzam się z Tobą w kwestii przydatności takich modeli (ponieważ może istnieć ich niskończony zbiór i nie bardzo wiemy, który jest prawidłowy).
      Problemem z modelami Wszechświata jest czas. 30-40 lat, o których wspominasz to rozdzielczość nie dająca nam właściwie żadnej użytecznej informacji w skali odniesienia, którą są miliardy lat.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Jak Tyś to rozczytał?
      (╯°□°)╯︵ ┻━┻
      Szacunek za Twoją wiedzę.
      Pozdrawiam

    •  

      pokaż komentarz

      @Syntax Zresztą piszemy łącznie Rozłącznie piszemy tylko i wyłącznie wtedy, gdy chodzi o resztę np. pieniędzy.

    •  

      pokaż komentarz

      @ja_nie_lubie:

      O ciemnej materii jest napisane w ich autoryzowanym artykule opublikowanym na simonsfoundation.org
      A czarne dziury nie wiem skąd wziąłem, bo czytałem kilka różnych publikacji na ten temat :(

      The speed and accuracy of the project, called the Deep Density Displacement Model, or D3M for short, wasn’t the biggest surprise to the researchers. The real shock was that D3M could accurately simulate how the universe would look if certain parameters were tweaked —such as how much of the cosmos is dark matter— even though the model had never received any training data where those parameters varied.

      “It’s like teaching image recognition software with lots of pictures of cats and dogs, but then it’s able to recognize elephants,” Ho explains. “Nobody knows how it does this, and it’s a great mystery to be solved.”

    •  

      pokaż komentarz

      @atax_bras: Przy w miarę bliskich obiektach, zmiana będzie na tyle wyraźna, że będzie można na jej podstawie ekstrapolować dalsze dane. Przy dalszych to prawda, bo błąd pomiaru w astrofizyce rośnie wraz z odległością. ( ͡° ͜ʖ ͡°)
      Dla przykładu .. zdarzenie GW150914, czyli to sławne z LIGO. Przy określonej odległości ok. 410 Mpc (mega parseków) ma ok +/- 160 Mpc błąd pomiarowy. ( ͡° ͜ʖ ͡°) Czyli rozrzut bo zbóju... ( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°) ͡°)
      https://en.wikipedia.org/wiki/First_observation_of_gravitational_waves

      Tak więc określanie tego jako 'symulacji Wszechświata' jest na pewno mocno przesadzone. Bo raczej nie będziemy mogli tego zweryfikować. ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @TymArt:

      : Jak Tyś to rozczytał? Szacunek za Twoją wiedzę.

      Niestety żadnej specjalistycznej wiedzy (poza wietnamskimi stanikami mama-size) nie mam. (-‸ლ)

      Czytałem popularnonaukowe artykuły opisujące dla laików ich pracę.
      Tak jak ten na Phys.org który cytowałem

      Ale dzięki serdeczne za dobre słowo i wsparcie :)

    •  

      pokaż komentarz

      @szopa123: Czepiasz się. To jest symulacja wszechświata, z tym że niekoniecznie tego.

    •  

      pokaż komentarz

      Czepiasz się. To jest symulacja wszechświata, z tym że niekoniecznie tego.

      @atax_bras: hahaha.. dobre. 12/10 ( ͡~ ͜ʖ ͡°)( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°) ͡°)

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Stary, dzięki za wyróżnienie, ale raczej nie zasługuję na takowe. Po prostu materiał który wrzucam, to akurat taki który mnie interesuje, a nasze dyskusje pod Twoimi artami są tego pochodną. I tyle, także ten, pozdrawiam.

    •  

      pokaż komentarz

      @xandra: zamkniesz w końcu ta tępa mordę?

    •  

      pokaż komentarz

      @atax_bras: Panie atax_bras, czy za rogiem czeka na nas świat rodem z Terminatora lub z "Ja robot", tudzież innej podobnej sci-fi?

    •  

      pokaż komentarz

      @whitewladi: Panie whitewladi - bez wątpienia. Nie wiemy jedynie, jak daleko ten róg się znajduje i która wersja przyszłości przeważy. Właśnie jestem na czasie, bo piszę artykuł w tej tematyce i jak przejdzie recenzje, zostanie opublikowany to trochę później może się nim podzielę (choć to raczej nie będzie popularnonaukowe) i niezastąpiony Pan @RFpNeFeFiFcL go przetłumaczy.
      Obecnie nasze możliwości obliczeniowe są bardzo skromne. Co więcej nastąpił dosyć istotny impas w kwestii postępu w dziedzinie rozwoju nowych urządzeń i technik obliczeniowych. Obecne AI, mimo iż mocno rozreklamowane są prymitywne. Są przydatne ale ich przydatność też jest ograniczona. Komputery kwantowe rozwiążą jedynie część problemów, jednak by były rzeczywiście przydatne musiałyby utrzymywać koherentny stan w milionach kubitów. Chwilowo ta sztuczka czasem wychodzi w kilkunastu. I tak dalej i tak dalej.
      Stąd, jeszcze nie jutro, ale gdzieś ta przyszłość majaczy...

    •  

      pokaż komentarz

      @atax_bras: Dziękuję za obszerną odpowiedź i życzę miłej reszty wieczoru :)

    •  

      pokaż komentarz

      @RFpNeFeFiFcL:

      [Jestem na 100% pewny, że w ciągu 30-45 minut Wykopowi eksperci wyjaśnia tą zagadkę naiwnych hamerykańskich astrofizyków ]
      Lets go (cytuje oryginał, nie tłumaczenie):

      For the first time, astrophysicists have used artificial intelligence techniques to generate complex 3D simulations of the universe. The results are so fast, accurate and robust that even the creators aren't sure how it all works.

      W internecie można znaleźć wcześniejsze prace.

      "We can run these simulations in a few milliseconds, while other 'fast' simulations take a couple of minutes," says study co-author Shirley Ho, a group leader at the Flatiron Institute's Center for Computational Astrophysics in New York City and an adjunct professor at Carnegie Mellon University. "Not only that, but we're much more accurate."

      The speed and accuracy of the project, called the Deep Density Displacement Model, or D3M for short, wasn't the biggest surprise to the researchers. The real shock was that D3M could accurately simulate how the universe would look if certain parameters were tweaked -- such as how much of the cosmos is dark matter -- even though the model had never received any training data where those parameters varied.

      W publikacji jest link do kodu, https://github.com/siyucosmo/ML-Recon.
      W modelu stoi iż wymiarowość to 32x32x32x4, a więc to nie są zbyt imponujące rozmiary, jak na modelowanie w kosmologii. i dalej, output to jeśli dobrze rozumiem, 32x32x32x3. I bardzo upraszczając kosmologię, problem skraca się do przekształcania punktu w 3D posiadającego jednowymiarową wartość na wektor w 3D. (Mam nadzieje że dorbze zrozumiałem, zajmuję się uczeniem maszynowym i fizyką, ale akurat nie kosmologią. Trochę dziwnie dobrali wymiary ale ok).

      It's like teaching image recognition software with lots of pictures of cats and dogs, but then it's able to recognize elephants," Ho explains. "Nobody knows how it does this, and it's a great mystery to be solved."

      To bardziej tak jakby zrobić program do rozpoznawania zdjęć kotów od psów, a potem okazuje się że jest również w stanie rozróżnić tygrysa i wilka.
      To co tutaj się najprawdopodobniej stało to zmiana parametrów tak na prawdę tylko "zaszumiła" odrobinę dane. Model jest w stanie wewnętrznie w swojej strukturze na podstawie danych wejściowych wyliczyć odpowiednie "zmienne".

      Computer simulations like those made by D3M have become essential to theoretical astrophysics. Scientists want to know how the cosmos might evolve under various scenarios, such as if the dark energy pulling the universe apart varied over time. Such studies require running thousands of simulations, making a lightning-fast and highly accurate computer model one of the major objectives of modern astrophysics.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Kłaniam się w pas i to ja dziękuje Tobie za masę czasu jaką poświęcasz na przybliżanie nam często złożonych elementów naszego świata w przystępny naukowy sposób! Rób co robisz, trwaj w tym z osobistą satysfakcją bo odwalasz kawał naprawdę dobrego shitu! [;

    •  

      pokaż komentarz

      @dziobaki_sa_jadowite:

      Dzięki za profesjonalne wytłumaczenie ( chociaż niestety ja i tak słabo rozumiem to całe ML )

      @Zwiadowca_Historii:

      A kto nas uczy Historii i szuka skarbów ?
      Dzięki :)

    •  

      pokaż komentarz

      @RFpNeFeFiFcL:

      W równoległym Wszechświecie myślące istoty stworzyli symulację naszego Wszechświata aby 2 mld lat obserwować jednokomórkowe organizmy.

      Ale jakim równoległym? Jestesmy w komputerze, w symulacji, która może nas wcale nie dotyczyć i pojawilismy się przez przypadek, bo prawa rządzące symulacją na to pozwoliły.

      Albo to wszystko to jakaś gra mmorpg i po śmierci po prostu wrócimy do rzeczywistości, zdejmiemy hełm VR i wrócimy do roboty. To byłby spoko koncept.

    •  

      pokaż komentarz

      Więc co robili2 mlrd. lat ci Władcy Matrix-u co nam serwują ten piękny "holograficzny" świat ?
      Zaspali? Zaczpali? Imprezowali ?


      @RFpNeFeFiFcL: Władcy Matriksa podłożyli ten czas zastoju żeby przetestować naszą wiarę w symulację. ;)

    •  

      pokaż komentarz

      @stooley32: Dokladnie, 2.8% z biliona bilionow to dosyc duza suma.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Ale to jest symulacja (takie jest zalozenie) wiec Ty masz myslec i wierzyc w te miliardy lat zycia na Ziemi. Symulacja mogla rowniez zaczac dzialac godzine temu. Ze wszystkimi Twoimi wspomnieniami i cala historia wszechswiata.
      Sorki za brak polskich znakow i chyba komentarz tez wszedl nie tam gdzie powinien - uzywam orginalnej apki wykopu sprzed dekady.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: A przypadkiem nie sprawdza się to o czym mówił SciFun w jednym z odcinków, że dzięki uczeniu maszynowemu będziemy na takim etapie rozwoju, że będziemy musieli opracować kolejne rozwiązanie które będzie dla nas tłumaczyć to co odkryło, ponieważ sami tego nie będziemy w stanie zrozumieć?

      Ogólnie mega polecam cały film, najlepiej od początku ale od 2:41jest coś takiego co dotyczy w sumie tego artykułu :)

      źródło: youtube.com

    •  

      pokaż komentarz

      @RFpNeFeFiFcL:
      Jeśli chodzi o te 2 mld lat, to przecież w takiej symulacji może być to kilka sekund, tak jak dla tego AI wytworzenie symulacji wszechświata.
      Simsy też miały tryb przyśpiesz ;)

    •  

      pokaż komentarz

      W równoległym Wszechświecie myślące istoty stworzyli symulację naszego Wszechświata aby 2 mld lat obserwować jednokomórkowe organizmy.

      Wierzysz w to?

      @RFpNeFeFiFcL: Może nasze 2 mld lat to ich 2 minuty?

    •  

      pokaż komentarz

      @biskup: @Ziemak: @Lk_hc:

      Pomijając uniwersum Avengers-ów i wujka Thanosa oraz możliwości zmiany kwantowej piany i struktury czasoprzestrzennej przez Ant-Mena, możecie wskazać gdzie w naszym Wszechświecie 2 zegary mogą wg obiektywnego wewnętrznego czasu chodzić z taką różnicą?

      Od razu uprzedzam że chodzi o zegary wewnętrzne a nie skorelowane w innych układach kiedy np ciało spada do czarnej dziury i z naszego systemu odniesienia czas tam prawie zatrzymuje się , ale jego wewnętrzny zegar chodzi prawie tak samo jak nasz.

    •  

      pokaż komentarz

      @meblujdom_pl:

      O ile w ogóle potrafimy go zrozumieć, tak jak jakiś aborygen z dzidą chciałby zrozumieć jak działa LIGO czy tam LHC.

      Przepowiednia N. Bostroma kiedyś się spełni.

      Rewolucja AI, czyli droga do powstania Superinteligencji (część I)

      źródło: wykop.pl

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Chodzi mi o cyfrowy układ, albo o taki, którego pojęcia jeszcze nie mamy. Wątpię, aby cywilizacja potrafiająca stworzyć symulacje naszego świata, używała jeszcze krzemu, a nawet kwantów. Nie jestem specjalistą, jestem interesantem takich zagadnień. Myślę po prostu, że taka technologia wykraczałaby grubo poza nasze rozumowanie i pojmowanie.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: Czyli odpowiednio potężny komputer kwantowy mógłby zasymulować algorytm i stworzyć matrixa?

      źródło: wykop.pl

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: czyli nic nie stoi na przeszkodzie by komputer wygener w symulacji byty, które zaczną zadawać pytania( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @EtaCarinae:

      Własnie.
      Większość zwolenników symulacji nie rozumie, że swoją ideą negują pojęcie rozumu, wolnej woli i w ogóle naszego istnienia.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: najmocniej przepraszam, ale odniosłem się do Twojego komentarza merytorycznie. Przywoływanie "uniwersum Avengers-ów" jest dla mnie obraźliwe. Nie kontynuujmy tego wątku. Zostańmy przy Twojej tezie - symulacji która przez miliardy lat symulowała jednokomórkowce. Pozdrawiam.

    •  

      pokaż komentarz

      @biskup:

      To był żart bez zamiaru obrażania kogokolwiek.
      Jeśli tak się stało, to przepraszam.

    •  

      pokaż komentarz

      @RFpNeFeFiFcL: OKI, nie zrozumiałem żartu. Może zbyt poważnie podszedłem to tematu... może sci-fi za mocno weszło...? a tak na marginesie to mam w pogardzie marvela i wszelkie pochodne. Pozdrawiam!

  •  

    pokaż komentarz

    Co jeśli my też jesteśmy niezamierzonym odpadkiem symulacji i niedługo zaczną nas wszystkich po kolei od

  •  

    pokaż komentarz

    Zabawmy się w wykopowego eksperta. Otóż AI znalazła alternatywną ścieżkę i przypadkiem odkryła zależności i reguły powstawania wszechświatów, o których naukowcy nie mają pojęcia.

    Wariant 2: dziennikarz p$%%%?#i głupoty, niech włączą AI slow motion i sprawdzą co się dzieje ;)

  •  

    pokaż komentarz

    AI tworzy 3D symulację wszechświata, AI rozbiera fotki. Co jeszcze dzisiaj zrobi AI?

    źródło: radiopalacc.pl

  •  

    pokaż komentarz

    Zastanawia mnie czy błędy rzędu kilku procent przy tak dużych i skomplikowanych symulacjach to na pewno wysoka dokładność. Czy nie jest tak, że zmiana rzędu np. 0,00000000001% nie dałaby zupełnie odmiennych efektów?

    •  

      pokaż komentarz

      @arcy81: wydaje mi się, że jest to akceptowalna niedokładność, która nie ma aż tak wielkiego znaczenia i lepiej jest naukowcom poświęcić 30 milisekund na wygenerowanie przez AI Wszechświata niż czekać 300 godzin na zrobienie tego bez owego błędu wynoszącego 3% ;)

    •  

      pokaż komentarz

      @arcy81: Ja to zrozumiałem tak, że właśnie dlatego że zmiana tak małego rzędu daje zupełnie odmienny rezultat, to 3% jest wysoką dokładnością, bo jest to końcowy wynik tej symulacji. Poza tym odniesienie stanowi inny algorytm, więc to pewnie jest więcej niż 3%.

    •  

      pokaż komentarz

      @arcy81: Nawet jeżeli błąd 3% jest duży, to zapewne można go jeszcze znacząco zmniejszyć zwiększając liczbę symulacji. Gdy czas jednej symulacji trwa milisekundy, to generowanie dużej ich ilości w celu niwelowania tego błędu nie powinno być problemem.

    •  

      pokaż komentarz

      Nawet jeżeli błąd 3% jest duży, to zapewne można go jeszcze znacząco zmniejszyć zwiększając liczbę symulacji.
      @DyG121: To tak nie działa, algorytm daje zawsze takie same wyniki, wiec jak masz bład 3% to masz bład 3% nie ważne ile razy go wykonasz.

    •  

      pokaż komentarz

      można go jeszcze znacząco zmniejszyć zwiększając liczbę symulacji.

      @DyG121: To nie jest komputer kwantowy i operacje na prawdopodobieństwie. Ta sama AI z takimi samymi danymi da taki sam wynik. Nie zmienia to jednak faktu, że nadal to imponujące.

    •  

      pokaż komentarz

      @topikPajak: To nie jest prawda. Są układy wrażliwe na warunki początkowe i nawet ich mała zmiana może dać zupełnie inne wyniki. Tzn. małej zmianie warunków początkowych nie odpowiadają małe zmiany wyników końcowych.

    •  

      pokaż komentarz

      @materazzi: dla f(x) =y1 f(x+dx) = y2. Nie ma znaczenia ile to y2 a ile x y1 dla tych samych danych wejsciowych otrzymasz zawsze te samo wyjscie. Nawet w przypadku jesli algorytm jest probabilistyczny i 'zzuca kostka' togenerstory liczb losowych sa przewidywalne i daja takie same wyniki ;) a przynajmniej takiego nym używał przed wynajeciem mainframe na 300h :)

    •  

      pokaż komentarz

      @topikPajak: Dla tak prostych układów równań to tak, ale już np. dla układu Lorenza takie coś nie przejdzie.

    •  

      pokaż komentarz

      @materazzi: To tak nie działa, naprawdę. Komputer zawsze daje te same wyniki i jest absolutnie bez znaczenia jakie funkcje na sprawdzasz.
      Co by czasu nie marnować nawet jeśli f(x) =1e-1000 a f(x+dx) = 1e1000. gdzie dx -> 0. To to f(x) jest zawsze takie samo i f(x+dx) jest zawsze takie samo i bład 3% pozostaje błędem 3 procent.
      Jedyny przypadek w którym możesz mieć racje to rozrzut wyników takiego rzedu, że nie da się ich reprezentować w sensowny sposób na komputerze. Ale to glupi przypadek, bo jeśli danych nie da się zamodelować na komputerze, to nie da się wykonać obliczeń, a że obliczenia wykonano i dały sensowne wyniki, to ten przypadek nie miał miejsca.

1 2 3 4 5 6 7 ... 10 11 następna