•  

    pokaż komentarz

    Nowe demo na Amige 500, ale....

    ... widzę amigusa, daję w ciemno plusa ( ͡° ͜ʖ ͡°)

  •  

    pokaż komentarz

    @robekk1978: Nie mogę uwierzyć że tak słaby procesor to ogarnia.

    •  

      pokaż komentarz

      @majsterV2: bo widzisz, producenci sprzętu nie bawią się w optymalizację kodu tylko Wola co sprzedać nowego kompa, komórkę z nowym, mocniejszym procesorem, większą ilością ramu. A tu wiadomo, że trzeba zrobić coś dobrze, by się pokazać. I robią ludzie cuda, mnie na przykład zawsze rozwalały dema na C64, choć amigowe zawsze robią na mnie większe wrażenie (jednak dźwięk mi się bardzo podoba). Sam pisałem różne rzeczy, na A1200 ale cudami to bym tego nie nazwał. Moja Sio komponowała muzykę i tu bym powiedział, wiele się działo, choć bliżej tej muzyce było do Stockhausena niż tego, co na Amigę obowiązywało (a twórczość Stockhausena poznaliśmy całkiem niedawno, więc o inspiracji nie było mowy).

    •  

      pokaż komentarz

      @majsterV2: Pooglądaj sobie co na C-64 i 6510 procku nadal wyczyniają :)

    •  

      pokaż komentarz

      @majsterV2: Bo procesor zwykle w demkach zbyt wiele nie ma do roboty (no chyba, ze jest jakies 3D to liczy obroty i rzutowania). W Amidze jest blitter, ktory sluzy do wszelkich dzialalnosci zwiazanych z grafika (2D)

    •  

      pokaż komentarz

      bo widzisz, producenci sprzętu nie bawią się w optymalizację kodu tylko Wola co sprzedać nowego kompa, komórkę z nowym, mocniejszym procesorem, większą ilością ramu.

      @Wezmyr: no nie do końca tak. Przede wszystkim we współczesnych systemach operacyjnych jest bardzo duży narzut na działanie procesu. Różne są źródła i powody, ale przede wszystkim, to chęć:

      1. ochrony samego systemu operacyjnego przed procesami użytkowników.
      2. dążenie do separacji procesów od sprzętu.

      W ten sposób nie można już na przykład posortować sobie systemu operacyjnego. Co udawało się na DOSie i niektórych starych linuxach. Dziś, nawet jeżeli w jakiś sposób wyliczysz czy zgadniesz adres w pamięci, gdzie znajdują się dane systemu, to nie uzyskasz do nich dostępu. Podobnie nie uda ci się dobrać do bardziej zaawansowanych poleceń CPU bez odpowiedniego oprogramowania.

      W przypadku Amigi nie było tego typu ograniczeń, dlatego da się zrobić naprawdę dużo przy stosunkowo niskim koszcie.

    •  

      pokaż komentarz

      @Wezmyr:
      A co ma nie ogarniać? Danych jest średnia ilość do zmielenia, niska rozdzielczość, mało kolorów, prosta geometria. Kiedyś był problem, żeby ludzie zrobili grafikę typu Wolf3D, bo nie wiedzieli jak. A dziś algorytmy (w tym ten słynny stworzony nie wiem czy nie przez samego Johna Carmacka) są ogólnie znane. Nie trzeba wymyślać koła na nowo, a szybkie algorytmy dają BARDZO DUŻO. Niestety, cudów nie ma, Amisia obrazu HD nie wytworzy w 50FPS (nawet gdyby jej chip graficzny dał radę narysować tyle piksli), pewne ograniczenia sprzęt ma.

      Wg mnie zrobić takie demo dziś jest bez porównania łatwiej niż w czasach świetności 16-bitowców - głównie właśnie dzięki Internetowi i bardzo dobrej bazie wiedzy na temat algorytmów. Jasne, nie mówię, że to jest proste, ale zawsze łatwiej jak masz masę artykułów na ten temat, masz tutoriale, masz działające przykłady, którymi możesz się bawić i zmieniać. Jak ktoś ma czas, to teraz nie trzeba być geniuszem. Tylko zapalonym hobbystą, który się łatwo nie zniechęca.

      Co do tego, że producenci sprzętu robią tak a nie inaczej - chwała im za to. Dzięki temu technika idzie do przodu. Dzisiaj w durnym JS-ie da się zrobić grafikę lepszą niż gry na PC miały jeszcze kilka lat temu. I to wszystko może robić komp dekodując kilka filmów video na raz, ściągając pliki, sprawdzając aktualki w Internecie itd. Do tego w każdej chwili reaguje na klawiaturę i mysz.

      Jeszcze jedno, jakby dziś każdy program pisać nawet nie w assemblerze, ale w jakimś C czy C++ to by w ogóle nie było tej techniki co jest. Musielibyśmy poczekać 20 lat na powstanie nowinek w dziedzinie software. Chodzi o czasochłonność i pracochłonność pisania nawet prostych programów. Dzięki lepszemu sprzętowi programiści idą na skróty i dzięki temu wydają programy szybciej. Nie zauważamy nawet, jak lecą te kolejne wersje, mogące coraz więcej i pracujące coraz lepiej.

      Dzięki większej mocy sprzętu doczekaliśmy się rewolucji mobilnej. Smartfony i tablety zyskały tak ogromną popularność i dalej napędziły rynek produkcji sprzętu dzięki oprogramowaniu, które można było na Androida robić w Javie. Czyli takim w sumie żółwiu, jeśli chodzi o optymalizację ;) Ale to był strzał Google w 10. Co z tego, że taki nowoczesny smartfon mógłby działać 100 szybciej, jak na powstanie oprogramowania na niego trzeba by czekać 100x dłużej ;)

    •  

      pokaż komentarz

      @majsterV2: tutaj większą część roboty odwal blitter

    •  

      pokaż komentarz

      Bo procesor zwykle w demkach zbyt wiele nie ma do roboty

      @keton123: Wręcz przeciwnie. Ma bardzo dużo do roboty.

      Kiedyś był problem, żeby ludzie zrobili grafikę typu Wolf3D, bo nie wiedzieli jak.

      @the_revenant: Widzieli już w latach 80-tych, tylko nie było na półkach sprzętu, który mógł takie gry pociągnąć. Gry, które wtedy były dostępne miały bardzo niski framerate, np. Castle Master na Commodore 64.

    •  

      pokaż komentarz

      @czarnobiaua: Tylko transformacje wierzcholkow + rzutowanie na 2D, a reszte odwala blitter, bo 68000 jest bardzo malo wydajny przy bitplane'ach, po to wlasnie zastosowano blitter.

    •  

      pokaż komentarz

      @majsterV2 kiedyś fajne podsumowanie widziałem pewnej gry pod win95: identyczna jak na c64, 8-bitowa grafika w rozdzielczości 320x240, te same plansze. Postęp polega na tym, że obecnie wymaga Pentium 120, 8MB RAM i 16MB wolnego miejsca na dysku.

      Dziś nikt się niestety nie przejmuje drobiazgową optymalizacja, a co ciekawsze: próba np upchnięcia programy w jak najmniejszej ilości pamięci skończy się... Spadkiem wydajności. Procesory obecnie lubią wykonywać operację na większych danych, co stoi w sprzeczności z prostą intuicją. Oj, bardzo się zmieniło programowanie nawet to dotykające najniższego poziomu. No i dziś liczy się szybkość i prostota tworzenia, a nie kunszt. Dokładnie jak w każdej innej dziedzinie - hurtowo i tanio ale bezdusznie.

    •  

      pokaż komentarz

      @keton123: blitter ten co jest w Amidze byl dobry na A500, niestety na wyzszych prockach okazywalo sie, ze robienie na procku w szybszej pamieci jest szybsze...

    •  

      pokaż komentarz

      @Kaczus2B: Mowa o A500 czyli 68000. Przy wielu funkcjach logicznych zaden 680x0 nie bylby szybszy szczegolnie w chip-ramie (a tylko ta pamiec moze byc uzyta jako bufor ramki). Blitter wypelnia pamiec korzystajac z kanalow DMA co zupelnie nie angazuje CPU. Z tego wniosek, ze moze on wspomagac inne zadania i w tym samym czasie liczyc 3D itp. Nie mowie tu o chunky2plannar, bo to wiadomo, ze raczej na CPU bedzie realizowane wydajniej (na 68020+). Ale tutaj mamy demko na A500 i nie ma w nim nic co mogloby przyspieszyc szybkie CPU. No moze obliczenia 3D, ale tutaj waskim gardlem jest raczej wypelnianie wielokatow, a nie obliczenia, ktore zwykle nie zajmuja mocno CPU (lookup table, arytmetyka staloprzecinkowa).

    •  

      pokaż komentarz

      @keton123: nie chodzi tylko o to chodzi o c2p. Jak pojawily sie szybsze pamieci i szybsze procki to powstaly nakladki typu fastblit, gdzie czesc pracy blittera wykonywal procesor, bo bylo szybciej. Pamietaj, ze dostep do pamieci w chipsecie jest dzielony (a i sama pamiec tamta wolna, technologia bardzo stara, choc fakt, byly wolniejsze pamieci - slynna pamiec slow dla a500)... A A500 z 030 tez widzialem w latach 90...

    •  

      pokaż komentarz

      @Kaczus2B: slow nie byla wcale wolniejsza, dziala dokladnie jak chip jesli chodzi o CPU, tylko DMA nie mialo do niej dostepu

      pokaż spoiler Mialem 6 roznych Amig w latach 86-96 to troche sie znam :)

    •  

      pokaż komentarz

      @keton123: spoko, w uproszczeniu mozna tak powiedziec, ale jak dzialala jako slow to byla troche inaczej obslugiwana. Ale w przeciwienstwie do fastu byla wolniejsza. Nie dawala tej odczuwalnej roznicy, predkosci, jak pamiec fast.

    •  

      pokaż komentarz

      @majsterV2 bardziej marketing wyparl Amisie niż możliwości techniczne, kiedyś można było zrobić grę na taki sprzęt przy której siedziało się tygodniami i do dziś w pamięci została. Teraz producenci software napędzają producentów hardware i odwrotnie, zrobili z tego biznes a my "musimy" płacić. Wierz mi że znalazl bym wiele tytułów na Amisie i inne platformy nawet 8 bit przy których kozak w Cs a lub inne popularne gry wymiekl by bardzo szybko. Stare gry wymagały logicznego myślenia a te współczesne tylko refleksu i podążania za tutorialem który jest częścią gry. Słabe te czasy ale zawsze można odpalic emulator co też czasami robię :)

    •  

      pokaż komentarz

      @majsterV2: ( ͡° ͜ʖ ͡°)

      źródło: youtube.com

    •  

      pokaż komentarz

      @czarnobiaua:
      Oj, chyba tu się mylisz. Odkąd wyszedł publicznie silnik Wolf-a i Dooma zaczęło się "but can it run Doom?" - zaczęli tę grę odpalać na wszystkim, na wyświetlaczu od drukarki nawet, na wyświetlaczach w samochodach, i to tych niezbyt zaawansowanych. Czyli na sprzęcie wolniejszym od Amigi.

      Metoda z Wolf-a, a po części też z Dooma polega na sprytnym "oszustwie". Tak naprawdę jest to grafika 2D udająca 3D i na tym cały myk polega. Cały obraz jest tworzony z pionowych, skalowanych pasków. Geniusz tego rozwiązania polega na tym, że ma praktycznie żadne wymagania sprzętowe, pójdzie na wszystkim, nawet na C-64.

      Ta i inne metody nie były znane przed Carmackiem, nie mam pewności, ale prawie pewność. Przed Carmackiem i Id Software przykładowo uważano, że nie da się zrobić przewijania całego ekranu na PC, żeby było płynne. Carmack zrobił. Stąd ich pierwsze sukcesy przed Wolf-em, Commander Keen.

      Carmack długo wyprzedzał całą resztę w temacie grafiki. Nawet pierwszy Rage wyprzedzał konkurencję mykami graficznymi, które na swoje czasy "urywały dupę". Geniusz tego gościa polegał na tym, że potrafił przeskoczyć ograniczenia sprzętu w bardzo sprytny sposób.

      Tak na marginesie, gdzieś widziałem grafikę w stylu Wolf-a na C-64 i Atari. Oczywiście dema (i chyba nawet 1 gra) powstały już w czasach emulatorów tych maszynek na PC.

      Ogólnie kod źródłowy Doom-a to kopalnia dziwacznych i skutecznych technik optymalizacyjnych. Weźmy - Doom potrzebował, żeby coś działo się "powiedzmy losowo". Oczywiście nie korzystali z prawdziwego PRNG, bo na te czasy to miałoby konkretne wymagania sprzętowe i zamulałoby grę robiąc ścinki. Więc oszukali używając wstępnie wygenerowanej sekwencji. Miało to później wiele dziwnych skutków ubocznych. I dało się exploitować.

      Z resztą, ta historia ciągnęła się jeszcze dłużej, do czasów prawie nowożytnych. Jeśli chodzi o gry (wszystkie korzystające co najmniej z DirectX lub OpenGL) - wszystko albo próbowało kopiować czy też udawać produkty Id Software, albo... było wolne. Gdziekolwiek chcieli zaszaleć z "efektami" - tam zaraz były ścinki (przynajmniej na kompie dostępnym w PL dla Polaka). Bardzo długo wyjątkiem były produkty Id. Tam potrafili zaszaleć z grafiką i szło bez ścinek. Wydawałoby się, że jak mamy standardy tworzenia grafiki 3D, to już nie ma potrzeby czy możliwości czarowania. Ależ owszem, naturalnie, że jest.

      Drugimi takimi magikami byli koderzy z Rockstar. I serio - wcześniej te techniki nie były znane.

      Owszem, teoria tworzenia grafiki 3D jest starsza niż komputery, ale praktyka szybkiego, zoptymalizowanego tworzenia takiej grafiki nawet na wolnym sprzęcie nie jest aż taka stara.

    •  

      pokaż komentarz

      @the_revenant: Oryginalny Doom nie pójdzie na każdym sprzęcie. Na moim 386 bez koprocesora dało się w miarę wygodnie grać. Ale uruchomienie Dooma na słabszych procesorach, w szczególności na niedosowych platformach, wymagało skalowania grafiki.

      Dotyczy się to również starszego Wolfa, który na innych platformach wcale nie wyglądał tak, jak Dosie, czyli Wofenstein wcale mógł chodzić na C-64, bo sprzęt był na to za słaby. Powstawały więc gry podobne, ale dalekie od pierwowzoru.
      Tak wyglądał Wolf na C64: https://youtu.be/BTxaHYK9cXw
      A tak wyglądał Wolf na C64 po dodaniu SuperCPU: https://youtu.be/Pa9cC6HcgrE

      Czyli jednak nie pójdzie na każdym sprzęcie.

      Tu masz porównanie różnych platform:

      źródło: youtube.com

    •  

      pokaż komentarz

      producenci sprzętu nie bawią się w optymalizację kodu tylko Wola co sprzedać nowego kompa, komórkę z nowym, mocniejszym procesorem, większą ilością ramu

      @Wezmyr: Przede wszystkim za optymalizację kodu odpowiadają koderzy (programiści), a nie producenci sprzętu.

      A zarzut, że producenci chcą sprzedawać więcej jest taki sam, jak że pracownicy chcą zarabiać więcej, albo piekarz chce sprzedawać więcej bułek. Piekarz z przyjemnością obsłuży klienta, który kupi 10 bułek, pomimo tego, że klient jest gruby i nie powinien tyle jeść.

      Zapominasz także, że jeśli chodzi o PC, to na rynku istnieje przeogromna ilość różnych konfiguracji, więc nie ma możliwości odwoływania się bezpośrednio do sprzętu. Wciąż istnieje na PC "demoscena" i robią np. dema wielkości 4KB, które korzystają z bibliotek, ale i tak robią wrażenie.

      No i dziś liczy się szybkość i prostota tworzenia, a nie kunszt. Dokładnie jak w każdej innej dziedzinie - hurtowo i tanio ale bezdusznie.

      @Dzyszla: Ale jak rozumiem, mówisz o grach czy programach (apkach), czyli o biznesie. A biznes polega na tym, aby stworzyć (wyprodukować) jak najtaniej i sprzedać jak najdrożej.

      "Kunszt" o którym piszesz wciąż istnieje w postaci Open Source. A jeśli odpowiesz, że to nisza, to ja na to, że decyduje wolny rynek. Poza tym spójrz na rynek hostingu, jak wiele firm oferuje usługi oparte o Open Source.

      W Open Source każdy jest w stanie wychwycić niewydajny albo podatny na zagrożenie obiekt/funkcję i ją/go naprawić.

      ***

      Do Was obydwu. Nawet gdyby zebrała się grupa pasjonatów i stworzyła na konsole (czyli pomijamy różnorodność pecetów) grę w assemblerze bądź w C, super wydajną. To jaką wydajność maksymalnie by uzyskali? Mniej więcej o 100% lepszą, niż przy użyciu dostępnych narzędzi (silników). I teraz pojawia się pytanie, gdyby ich gra była doskonale zoptymalizowana i działała w tych 60 klatkach na full HD, ale byłaby "gameplayowo" średnia, to czy przeciętny user nie wybrałby gry stworzonej niższym kosztem, czyli działającej np. w 30 klatkach, ale z lepszymi mechanikami, scenariuszem, custcenkami, dubbingiem itp/itd?

      Poza tym wciąż są gry mocno optymalizowane, takie jak np. na dodatek darmowe League of Legends. Jeśli nic się nie zmieniło odkąd grałem kilka lat temu, to na niskich detalach można się świetnie bawić nawet na zintegrowanej karcie graficznej Intela na byle laptoku, bo taki mieli model biznesowy dla początkujących.

      Z drugiej strony producenci gier AAA mają gdzieś ludzi ze słabym sprzętem, bo jeśli nie stać kogoś na przeciętnego PC albo na konsolę, to nie będzie go stać na kupowanie gier AAA.

      Ja przyznaję, że demka na C64 albo Amigę wciąż są dla mnie fajne, bo wywołują nostalgię, ale dorosły człowiek nie zapłaci za ich tworzenie rachunków, czyli hobby. A na rachunki taka osoba zarobi w biznesie, czyli jak pisałem, czy to się komuś podoba czy nie, zrobić szybko i na tyle wydajnie, aby działało na sprzęcie potencjalnych) odbiorców. Tak samo jak wspomniany piekarz, jeden zrobi pieczywo tańsze i gorsze, drugi nieco lepsze i droższe, ale żaden z nich nie będzie się nad nim spuszczał (i całe szczęście ;) ), tylko będzie liczył koszty i przychody, bo chce normalnie żyć.

    •  

      pokaż komentarz

      @Mordeusz: Tak naprawdę zasada dotyczy i gier, i aplikacji biznesowych. Choć w tym pierwszym przypadku jeszcze stara się trzymać standardy (nie dotyczy EA ;) )

    •  

      pokaż komentarz

      nie dotyczy EA ;)

      @Dzyszla: Czyli nie ma żadnych zarzutów do np. Bethesdy albo Epic Store? :)

      Gry to biznes jak każdy inny. Gry tworzone przez pasjonatów wciąż istnieją, ale tak samo jak istnieją górale robiący prawdziwe oscypki, albo twórcy niezależnego kina. Każda z wymienionych branż, czyli gry, spożywka czy kino, opanowane są przez korporacje i w każdej z tych branż gdzieś tam trafi się jakiś pasjonat. Więc zasada dotyczy praktycznie każdej masowej branży, może poza pisaniem wierszy ;)

    •  

      pokaż komentarz

      @polski_cygan:

      Dooma na słabszych procesorach, w szczególności na niedosowych platformach, wymagało skalowania grafiki.

      No dokładnie. Przecież oryginalny Doom i Wolfenstein 3D były napisane, żeby wycisnąć 101% mocy z ówczesnych procków PC średniej klasy.

      Ja jednak pisałem o tym, że wcześniej, przed Carmackiem nikomu się nie śniło, żeby na 16-bitowcu czy innym zabytkowym kompie odpalić ten rodzaj grafiki 3D nawet w najsłabszej obsługiwanej przez urządzenie rozdzielczości, ba, nawet w trybie tekstowym :)

      Po prostu algorytm renderowania pseudo 3D z pionowych pasków nie był jeszcze znany. Wszystko co było wtedy znane było zbyt wolne żeby narysować klatkę obrazu w mniej niż sekundę.

      Przy okazji, Doom na PC to jeszcze muzyka, dźwięk (jak na swoje czasy wysokiej jakości), "sztuczna inteligencja" przeciwników, a nawet... obsługa prostych połączeń sieciowych (P2P po kablu). Tak więc ówczesny PC nie mógł przeznaczyć swojej całej mocy obliczeniowej tylko na grafikę, musiał robić też inne rzeczy, dla których akeleracja sprzętowa również była jak żadna.

    •  

      pokaż komentarz

      bardziej marketing wyparl Amisie niż możliwości techniczne,

      @Je_t: > Amiga zniknęła z rynku dlatego, że już na początku lat 90-tych była słabym komputerem. Boom na przełomie 80. i 90. spowodowany był tym, że mogłeś tanio kupić maszynę, która po podłączeniu do telewizora była gotowym systemem do taniego grania. Z drugiej strony upowszechnianie się na początku lat 90. tanich klonów PC z dalekiego wschodu, kart VGA, spadających cen pamięci spowodowało, że Amigi z 68000, czy 020, bitplanową organizacją obrazu i brakiem możliwości łatwej rozbudowy stały się szybko skansenem. Klienci woleli kupić oddzielnie konsolę do grania i PC lub Maka do pracy, co przełożyło się na spadającą popularność A500/+ i już beznadziejną sprzedaż modeli z 1992 r. Tymczasem 16-bitowego konsole sprzedawały się w dziesiątkach milionów, a PC jeszcze szybciej.

    •  

      pokaż komentarz

      @the_revenant: Bez przesady. Takie algorytmy były już znane w latach 80, najprostszy algorytm renderujący w stylu Wolfa czy Dooma, czyli odczyt dwuwymiarowej mapy i przekształcenie tego w te pionowe paski wyglądające jak trójwymiarowy labirynt to raptem 20 linijek kodu i są to proste funkcje trygonometryczne. Największym problemem jest kwestia wydajności. PC stosując chunky było dosyć szybkie w wypełnianiu ekranu pikselami, w przypadku amigi trzeba było używać konwerterów chunkty2planar bo samo manipulowanie pikselami było cholernie wolne. Do tego jeszcze kwestia obliczeń do renderowania sceny. Funkcje trygonometryczne to jakby nie patrzył operacje zminnoprzecinkowe i tutaj dużo dawała obecność koprocesora w przypadku PC. Proste demko renderujące napisane w AMOSie (tak wiem, nie jest to najlepszy przykład) wykorzystujące wspomniany wyżej algorytm (zdarzyło mi się coś takiego popełnić) po kompilacji na gołej a500 potrzebowało ok 50 sekund na renderowanie jednej klatki. Na gołej 1200 potrzeba około 28-30 sekund. Dopiero użycie emulatora z ustawieniami typu maksymalna szybkość emulowanego procesora + JIT daje jakieś 25FPS.

    •  

      pokaż komentarz

      @Vercingetorix:
      Funkcje trygonometryczne to coś co omijasz szerokim łukiem licząc FPS-y, przynajmniej na słabych maszynach, do tego używa się tablic, chociaż znowu to jest kosztem pamięci. Znając Carmacka pewnie używał tablic, które służyły do kilku różnych rzeczy na raz, a nie miał w nich prostych wyników jednostkowych, tylko przemnożone przez wszystko, co dało się skrócić we wzorach.

      Z resztą, te "paskudne detale" znam tylko z artykułów w necie poświęconym Doomowi (w okrągłe rocznice sporo wyszło), ale... Miałem Amigę 500. O żadnym 3D, poza wypełnianymi wielokątami nie było mowy za moich czasów. A dziś? Widziałem demka (na A500) właśnie z czymś takim jak w Doomie. Oczywiście uproszczone, przeskalowane na wielkie piksle jak woły - ale powiem tak, gdyby za czasów świetności Amigi wyszła taka gra, nawet z tak uproszczoną grafiką to wszystkim Amigowcom by kopary do ziemi opadły, wielu z nich jeszcze długo nie przesiadałaby się na PC, gra rozbiłaby bank i była absolutnie kultowa. Tak, coś tam "aspirującego" powolutku zaczęło powstawać, ale już za czasów kiedy większość ludzi już dawno miała PC.

      Aha, i też bym nie uwierzył, jak bym nie zobaczył ;)

    •  

      pokaż komentarz

      @czarnobiaua:
      Mi się wydaje, że Amiga zbankrutowała przez fatalne zarządzanie. Nie wiem jakim cudem skończyła im się kasa i przestali rozwijać maszynę. Za czasów kiedy amigi ze sklepu miały te 2-3 lata, to PC-ty były jeszcze dość słabe do grania. Serio. W teorii niby lepsze osiągi, w praktyce - gry bardzo długo były słabe. Przede wszystkim - przez spory czas bez dźwięku, potem z tragicznie słabym, gorszym niż na 8-bitowce, dopiero od czasów jakiś Sound Blasterów 16 jakimś sensownym. Dodatkowo DOS i jego tragiczna jednozadaniowość. Siermiężny Windows 3.x jako nakładka na DOS-a. PC-ty miały swoje "spowalniacze" w tych czasach. No ale PC-ty się rozwijały, a amigi nie. Już wcześniej czytałem, że firma upadła, dlatego nic nowego nie będzie.

      Masz też rację jeśli chodzi o rozbudowę. Trzeba było długo czekać, zanim na PC te opcje rozbudowy faktycznie zrobiły się atrakcyjne (w porównaniu z tym, co Amiga dawała z pudełka).

      A tak na marginesie, było coś takiego jak Amiga 2000, w skrzynce jak stare PC, mało tego, pasowały do niej nawet rozszerzenia do PC.

      Już nie pamiętam co oni w tej firmie spierdaczyli, ale pójść z torbami mając tak mocny produkt - to wymaga nie wiem, albo jakiejś bardzo złej woli, albo nieprawdopodobnego pecha.

    •  

      pokaż komentarz

      @the_revenant: Oczywiście, że przechowywanie wyników funkcji trygonometrycznych przyśpieszało obliczenia, zresztą często w językach wysokopoziomowych trygonometria z założenia korzystała z tablic ale nadal mieliśmy tutaj do czynienia z obliczeniami zmiennoprzecinkowymi, co było problemem w przypadku amig które nie miały fpu (przynajmniej nie w podstawowej wersji), a samo dołożenie fpu niewiele zmieniało bo mało który program był skompilowany pod obsługę fpu. Ja tylko twierdzę, że sam algorytm który został wykorzystany w wolfenstein był znany wcześniej, na podobnych zasadach działał chociażby rendering w Real3D czy inne programy do renderowania grafiki 3D. Rewolucja którą zrobił Carmak to wykorzystanie takiego algorytmu do gry i genialna optymalizacja.
      Amigi miały sporo możliwości rozbudowy, amiga 500 miała mi. expansion slot (po lewej stronie) który dawał bezpośredni dostęp np do sygnałów CPU, a nawet umożliwiał obejście CPU i zastosowanie drugiego procesora na karcie rozszerzeń. Amiga 2000 miała sloty zorro2 (to samo co to boczne w a500 wzbogacone o kilka pinów) i sloty ISA (te same co występowały w architekturze PC). Problemem był powszechny brak stertowników, plus nie za bardzo było co wsadzać w te sloty. Po co komu w a2000 karta grafiki cga lub ega czy karty dźwiękowe zgodne z adlib albo nawet wczesne sound blastery skoro natywne układy w amidze było dużo lepsze od tego co można było dostać w formie karty. Te sloty wykorzystywano głównie do urządzeń peryferyjnych (skanery, jakieś profesjonalne i nietypowe kontrolery drukarek itp).
      Problemów dla którego amiga padła jest wiele, natomiast mitem jest to, że to był mocny produkt. Owszem, był to mocny produkt w latach 80 gdzie konkurowała z ośmiobitowcami czy z Atari ale w latach 90 już mocno odstawała pod względem mocy obliczeniowej od PC, 486 miało premierę w 1989 roku, w 92 roku na biednych rynkach typu Polska powszechne były kilku letnie 386sx 40 mhz a Commodore wydaje Amigę 1200 z 14 megahercową motorolą MC68EC020. To nie miało prawa się udać.

    •  

      pokaż komentarz

      @Vercingetorix: Amiga 1000 w dniu premiery praktycznie nie miała konkurencji (jeśli chodzi o cenę) w 1985, ale była jeszcze za droga dla przeciętnego użytkownika. W 1987 kiedy na rynku pojawiła się Amiga 500 (to samo co w A1000 ale w dobrej cenie) gamedev przerzucił się z Atari ST na Amigę. Gry pecetowe pozostawały w tyle pod względem graficznym i dźwiękowym mniej więcej do przełomu 90/91 roku. Teoretycznie były możliwości żeby PC był bardziej multimedialny bo 386 (1985), VGA (1986), Adlib (1987) były dostępne, ale cena widocznie ograniczała rynek. Do około 1992 roku Amiga była jeszcze konkurencyjna pod względem możliwości do ceny. Największą bolączką Amigi były słabe procesory, które kompensowane były przez układy specjalizowane. Widać to szczególnie w niektórych grach na Atari ST które klatkowały i miały mniej kolorów a na Amidze śmigały. W zasadzie na PC bodaj do czasu 3dfx nie było układu który by na prawdę odciążał procesor przy wykonywaniu obliczeń graficznych. Cała grafika była przeliczana przez procesor. Amiga 1000 i amiga 600 mimo 7 lat różnicy nie różniły się diametralnie możliwościami. Cała wina leży po stronie zarządu Commodore który chciał mieć produkt który się sprzedaje, ale żeby koszt jego opracowania i wdrożenia był minimalny. Po latach wyszło że inżynierowie chcieli rozwijali produkt, ale szefostwo "sabotowało" te starania.

    •  

      pokaż komentarz

      Takie algorytmy były już znane w latach 80, najprostszy algorytm renderujący w stylu Wolfa czy Dooma, czyli odczyt dwuwymiarowej mapy i przekształcenie tego w te pionowe paski wyglądające jak trójwymiarowy labirynt to raptem 20 linijek kodu i są to proste funkcje trygonometryczne.

      @Vercingetorix: Dokładnie tak, pisałem to wcześniej, mówiąc o tym, że były dostępne dla 8-bitowców gry "wyglądające jak Wolfenstein".

      Za czasów kiedy amigi ze sklepu miały te 2-3 lata, to PC-ty były jeszcze dość słabe do grania.

      @the_revenant: Bo mało kto grał na PC, ludzie grali na konsolach. Na przykład ponad 30 milionów sprzedanych jednostek samej Sega Genesis / Mega Drive nie wzięło się z niczego. Wszystkich modeli Amig razem wziętych sprzedano kilka razy mniej niż jednej SMD. Kaman.

      Już nie pamiętam co oni w tej firmie spierdaczyli, ale pójść z torbami mając tak mocny produkt

      No napisałem Ci co spierdaczyli. Wszystkie kolejne Amigi po pierwszym modelu z 1985 r. to tak naprawdę ta sama architektura i te same ograniczenia wynikające z dziedzictwa konsoli do gier podłączanej do telewizora. Pod koniec lat 80. to było fajne urządzenie. Kiedy siermiężne, jak napisałeś, PC staniały i dzięki szybkim procesorom i kartom SVGA można było komfortowo grać, okazało się, że Amiga nikomu nie jest potrzebna. Na marginesie - z tym "drogim" PC i "tanią" Amigą też nie było tak do końca. Gdyby takiemu użytkownikowi Amigi 500 zachciało się mieć rzeczy naturalne w świecie PC, to okazuje się, że wcale tak tanio nie było. Dodając monitor, twardy dysk, jakąś kartę przyspieszającą źółwią Motorolę okazywało się, że można sobie za to kupić PC :) I cały czas powstaje problem z ekranem o wysokiej rozdzielczości, którego A500 nie potrafi obsłużyć - tylko w trybie interlace :)

      Największą bolączką Amigi były słabe procesory, które kompensowane były przez układy specjalizowane.

      @detalite: Oraz brak trybów chunky, brak wysokiej rozdzielczości (zwykłego 640x480) obsługiwanego w rozsądnej prędkości przez zwykły monitor ze sklepu. Brak "industry standard" oprogramowania biurowego, brak wsparcia developerów przez zarząd. Długo można wymieniać, Amiga jest wyjątkowo w Polsce mitologizowana.

  •  

    pokaż komentarz

    Kochałem moją amigę 600 a potem 1200 jak miałem 7-8 lat. Potem tato pewnego dnia przyszedł do domu i oznajmił, że ją sprzedał koledze bo kupujemy PC. Nie mógl zrozumieć czemu przez tydzień byłem na niego zły. :v

  •  

    pokaż komentarz

    A to co to za sprzent jest?

    źródło: 559.png

  •  

    pokaż komentarz

    Dzisiaj screenshot Mario zajmuje wiecej niz caly oryginalmy kod w RAMie kiedys

Dodany przez:

avatar robekk1978 dołączył
403 wykopali 2 zakopali 17.1 tys. wyświetleń
Advertisement