Wpis z mikrobloga

@Lemartez: Hej, dzieki. Widzialem tego KBka juz ;) Macierz EMC VNX5400. Sprawdzilem z esxtop i widze ze wartosc DQLEN jest 30. ESXi sa na bladach (HP Gen9), blade'y siedza w C7000 i z tego co pamietam sa podpiete do switchy Brocade, a pozniej do samej macierzy. I tutaj sie zastanawiam czy przy ustawianiu tej wartosci brac pod uwage tego switcha sanowego.
@rogal7: Z HPkami niewiele wspolnego niestety. Co bym sprawdził przed zmiana - jak od strony switchy SAN wyglada utylizacja portów - bo być może tutaj już robi się waskie gardło (które co prawda prędzej by się abortami i dropami kończyło ...)

Niejaki Frank Denneman wspomniał że zwiększanie QD bez całościowej analizy (czyli kolejki na poziomie OSu VMki, potem Kernel Esxi, karty HBA, switche, macierz + LUNy) jest często strzałem w ciemno
@rogal7: Switche, i też patrzyłbym na sama macierz, typu na ile % chodza CPU ... bo kolejka moze byc spowodowana tez tam wlasnie .. potem dalej, jakie raidy, jakie dyski, jak szybkie, jak duza pojemnosc, jakie raid grupy etc etc. Daj znać plz co udało się dowiedzieć, bo aż ciekaw jestem :)
@Lemartez: Sporo tego ;) Widze, ze tez trzeba wziac pod uwage ilosc hosotow ESX, ilosc LUNow, ilosc VM per LUN. Moze sprawdze to na srodowisku non prod (8 x ESXi + EMC CX4-480) najpierw. Zastanawia mnie tez czy gra jest serio warta swieczki ;-)
@rogal7: 64 :) I tak trochę się polepszyło. Na twoim miejscu jeżeli masz testowe środowisko, odpaliłbym tam jakieś IOMetery na VMkach testowych i rzeczy typu VMMark. Przy IOmeterze mozesz sobie typ operacji IO poustawiac - więc np na bazie produkcji coś uśrednionego i na swoim organizmie sprawdzić bezpośrednio. Tak byłoby chyba najkoszerniej.

A ze storage`em to tak jak mówie nie jest taka łatwa sprawa ... wiekszość środowisk leci na domyślnym konfigu
@Lemartez: Zastanawiam sie czy naklad pracy w moim przypadku moze nie byc wiekszy niz zysk ;-) Zmienilem dyski dla kilku maszyn na eager-zero i jest zauwazalna poprawa. W sumie nie wiem dlaczego akurat byly na Lazy ;)
@rogal7: A idz z w #!$%@? z tymi RDMami ... i z klastrami MS również ;) RDMy były kiedyś fajne, kiedy VMFSy były <2 TB ... teraz jak możesz je robic wieksze, RDMy sa useless. Inna kwestia czy powinno robić się mozliwie największe Datastorey ... bo znowu będziesz miał masę operacji I/O na jednym fizycznym urzadzeniu.

Osobiście to chyba pomału będzie można z FC schodzić ... posiadanie dedykowanej infrastruktury SAN
@rawilson: Poczytaj na Reddit VSAN Horror Stories :P

Imho VSAN ready nodes to pomyłka .... a robienie jakiś upgradeów FW/Driverów (Pozdrawiam Cisco) to jest przejście bez asekuracji nad przełęczą z pętla na szyi ... :)

Teraz za to VXRail
e (czyli opakowanie VCE + Serwery Quanta + VSAN) może zaszaleć, bo i cena niska, no i masz WSZYSTKO u jednego vendora ... nic tylko instalować :) Szkoda że Cisco nie
@rawilson: Mam nadzieje, ze jednak nie vSAN bo to jest taka troche... niezbyt to to ;)
@Lemartez: CiSCO i UCS moim zdaniem pojdzie bardzo do przodu. Bardzo teraz cisna na software defined data center. Staraja sie. Moze mi sie wydawalo, ale to Cisco za kazdym razem np wypuszczalo custom image dla ESXi jako pierwsze ;-) HPE cos sie ostatnio opuszcza.
@rogal7: Nie no, UCSy sa bardzo wporzo - logika fajna, zarzadzanie fajne tylko niestety jest dużo bugów. I o ile w przypadku blade`ów i jednolitej konfiguracji nie stanowi to aż tak wielkiego problemu, tak w przypadku Racków imho jest dramat ... a najlepszym rozwiazaniem supportu zawsze jest upgrade FW... :)