Wpis z mikrobloga

#thelastofus #gry #pcmasterrace

Czy mi się tak tylko wydaje czy w ostatnich +/- 2 latach twórcy gier AAA mają totalną wyjebkę na optymalizowanie swoich gier? Co raz więcej wychodzi takich, w których proces optymalizacji przebiega według schematu: "Jeśli działa dobrze na RTX 4090 + i9 13900 i w miarę jako tako na RTX 4080 + i5 13600, to wypuszczamy, a reszcie serdeczny ch...j w plecy".
Calisto Protocol, Gotham Knights, Forspoken, Hogwarts Legacy, teraz The Last of US... albo słaby klatkarz nawet na mocnych przecież kartach (seria rtx 30xx), albo ciągły stuttering, albo crushe, albo memory leak, albo zmiana ustawień pomiędzy ultra i low przynosząca różnicę 10 fps. Ktoś wie o co tu chodzi?
  • 19
@grzysztof: I nie miałeś stutterów? Ja na swoim i5 9600k i RTX 3070 ograłem w miarę płynnie, ale co jakiś czas w niektórych miejscach klatki spadały do 40 lub poniżej bo coś tam się doczytywało (gra na M2). Praktycznie wszyscy na to narzekali i nawet po wszystkich patchach problem nie zniknął.
Czy mi się tak tylko wydaje czy w ostatnich +/- 2 latach twórcy gier AAA mają totalną wyjebkę na optymalizowanie swoich gier?


@Fido2801: wydaje Ci się.

Tak jest od więcej niż dwóch lat. Dodatkowo masa (większość?) gier wychodzi na dobrą sprawę jako beta - i dopiero po kilku miesiącach od premiery zostaje odpowiednio zoptymalizowana (dlatego też może się wydawać, że te ponad dwuletnie gry, to tak tragicznie zoptymalizowane nie są -
@Pabick: Nie no o RT nikt nie narzeka. Jest to tak zasobożerne, że dopiero karty z serii 40xx są w stanie sensownie udźwignąć tę technologię. Większość nie ma pretensji, że gra chodzi słabo z RT, a o to że chodzi słabo nawet z wyłączonym RT. Ba... nawet gry, które w ogóle nie mają RT.
@Fido2801: Ale spójrz na to tak, Cybeprunk 2077 jakoś chodził z RT + DLSS na moim RTX3060ti (w fullHD), spider man + miles morales również nie miał problemu z RT latać w okolicy 60+ fps. Z drugiej strony taki Hogwarts Legacy z RT był kompletnie niegrywalny, a i bez RT klatki ciągle potrafiły dropnąć do 20. The Last of Us jeszcze nie ogrywałem ale z recenzji i gównoburzy na forum pclab
Tak jest od więcej niż dwóch lat. Dodatkowo masa (większość?) gier wychodzi na dobrą sprawę jako beta - i dopiero po kilku miesiącach od premiery zostaje odpowiednio zoptymalizowana


@MrGalosh: Możliwe, że jest tak jak mówisz i to odpowiada za moje wrażenie. Co nie zmienia faktu, że aktualnie branża growa na PC to jest komedia. Pamiętam jak kupiłem RDR2 miesiąc po premierze i na ówczesnej karcie - GTX 1660 Ti (która już
@BornToDie69: co był kijowo zoptymalizowany pod CPU, na i7 3770 gra była na tyle mało komfortowa 18-25 fps w mieście że sobie odpuściłem do czasu jak nie kupiłem i5-11600k
@BornToDie69: Ten twój ryzen jest na poziomie i7-3770, 40-50 fps na minimum miałem w budynkach, a na mieście podczas jazdy i chodzenia fpsy spadały do 18-22 fps i też tak samo u Ciebie to wyglądało, a grafa to RTX 2070 S. Wszędzie 50-60 fps miałem dopiero na i5-11600k.
Też miałem WOW jak zobaczyłem te 40-50 fps podczas pierwszej wtępnej misji jako nomad i później z Jackim gdzie pojawia się traumateam, entuzjazm
@Pabick: No właśnie o dziwo nie. Miałem go podkręconego do 3.9Ghz + 16gb ram. Jak miałem 8 to się cięło dużo mocniej. I serio przeszedłem na tym grę. Gdybym miał mniej niż 30 fps nawet bym się nie katował
@BornToDie69: ja miałem 32gb ramu, widziałem testy podkręconego r3 1200 i nie podkręconego i7 3770 i to w zasadzie wydajnościowo te same procki, więc mi tu kitu nie wciskaj. Widocznie nie zwracałeś uwagi na te spadki, bo mi to bardzo przeszkadzało.
No chyba że z ciekawości sobie znowu instalne cp na starym kompie z i7 3770 z GTX 970 i sprawdzę znowu te minimum czy to nie wina systemu była.