•  

    pokaż komentarz

    skończy się jak z licencją na ram

    •  

      pokaż komentarz

      @d0k0p: Chyba sobie nie zdają sobie sprawy, że nie są już samotnym liderem wirtualizacji.

    •  

      pokaż komentarz

      @videon i konkurencja jest na b. wysokim poziomie już, a nie jak kiedys: ovirt, rhev, oracle vm, proxmox, xpc-ng, citrix xen, hyper-v, openstack (chociaz, to bardziej konteneryzacja), kvm...

    •  

      pokaż komentarz

      @patefoniq Korzystałeś z Oracle VM? To się nie nadaje do poważnej pracy. Bug na bugu łącznie z tym że na produkcji siadła live migracja i maszyny zamiast się migrowac stawały w rozkroku między dwoma nodami. Vendor rozłożył ręce i stwierdził że bez crash dumpa całej produkcji nie pomoże. Zresztą nowe wydanie będzie na KVM a nie XEN.

    •  

      pokaż komentarz

      @snake_take: następcą OVM jest Ovirt, niedługo biorę się za testowanie aby zmigrowac z OVM. Plus Ovirta jest taki że Oracle uznaje na nim hard partitioning

    •  

      pokaż komentarz

      @terve Możliwe ja już tego nie wspieram ale dobrego zdania nie mam.

    •  

      pokaż komentarz

      @snake_take: ja to wprost nienawidzę OVM, ale że względów kosztowych już w drugiej firmie z tym gównem mam do czynienia :(

    •  

      pokaż komentarz

      @terve Wiem tańsze licencje na Oracle Database ¯\(ツ)/¯. Ale z tego co wiem u mnie przy migracji na Vmware trafili na problem z wydajnością dysków.

    •  

      pokaż komentarz

      @snake_take: z licencjami Oracle DB na VMware problem jest taki, że od wersji vsphere 6.0 gdzie jest możliwe migration across vcenter, Oracle każe sobie licencjonować wszystkie hosty we wszystkich vcenter w przedsiębiorstwie

    •  

      pokaż komentarz

      @d0k0p: Po prostu maja swoich klientów za idiotów i traktują jak krowy dojne.
      Tak samo jak producencki oprogramowania do liczenia grafiki sieciowo.

      7 lat temu V RAY udostępniał 10 Render node na licencji, później do licencji workstation można było podpiąć 3 render node
      Teraz podstawowa licencji umożliwia podpięcie jednej render maszyny i każda lkolejna licencja kosztuke 150 Euro na rok.
      nie jest to jakaś zaawansowana technologia. Niiestety inne silniki rendrujaćęi wtym blender jest zbyt małym zagrozeniem dla Vraya.
      Red shift też robi ograniczenia co do GPU. Kiedyś mogłeś po instalować 10 kart w serwerze render node teraz jest ograniczenie do max 3 i musisz dokupować licencje.
      Ogólnie idzie to w bardzo złym kierunku. Bo w optymalizacji silników renderujących nic sie nie zmienia sa coraz droższe a wydajność jest głownie nadrabiana dzieki wyższej mocy obliczeniowej CPU. ]
      Adobiemu i chaso group to juz sie w dupach poprzewracało do tego grona dołacza VMware które tym ruchem pewnie zostanie w instytucjach. i powoli bedzie skansenem technologicznym serwerowni.

    •  

      pokaż komentarz

      @terve W sumie nie głupie. ( ͡€ ͜ʖ ͡€)( ͡€ ͜ʖ ͡€) Jak by Oracle zaczęło pisać poważny soft to by mogli ugryźć torta. Nic pożyjemy zobaczymy ( ͡º ͜ʖ͡º)

    •  

      pokaż komentarz

      @1234AQ: na chwilę obecną nie mam konkurencji dla VMware, jak Project Pacific wypali i nie dowalą horrendalnych cen licencji to nadal długo będą ma 1. miejscu

    •  

      pokaż komentarz

      @ziemniaczor: k8s to nie Docker, Docker to nie jedyny sposób na kontenery w Linuksie (osobiście uważam, że to jeden z gorszych sposobów), a kontenery to nie wirtualizacja. Ogarnij się koleś.

    •  

      pokaż komentarz

      @Hauleth: Bo siła dockera nie jest w tym, że to kontener. Jakbyś chciał mieć sam kontener to da się to ogarnąć inaczej.

      Siła dockera leży w tym, że bardzo łatwo to postawić, rozszerzyć, żonglować obrazami - czy też, że możesz ot tak postawic sobie 20 instancji (bo np. testujesz load balancing) tego samego bez zmieniania konfiguracji.

      Dodatkowo - cały docker hub. To jest coś pięknego.

      Bo faktycznie jakby miał rozpatrywać dockera tylko w kontekście kontenryzacji - to jest to po prostu zwykły chroot z wirtualnym interfejsem sieciowym i kilkoma regułami firewalla i routingu. Czyli coś, co chyba każdy admin linuxa od ręki zrobi w kilka(naście) minut.

    •  

      pokaż komentarz

      @zzapal: docker i cala ta idea to cos pieknego. Uzywam i wdrazam od okolo 3 lat.
      Vmware to badziew dla januszy od windowsa co klikac tylko potrafia

    •  

      pokaż komentarz

      @snake_take: polowa bliskiego wschodu i duza czesc usa uzywa ovm, ovirta i kvm. Piszemy soft do backupu, z ktorego korzysta ibm, czy dell i przy supporcie czesto mierze sie z ovm. Fakt, zarządzanie nfs to padaka ;-)

    •  

      pokaż komentarz

      @Hauleth: dzięki, ale doskonale wiem czym są kontenery, docker czy kubernetes. Skrót myślowy był taki, że Kubernetes i Docker są dobrą alternatywą do tradycyjnej wirtualizacji, która w sumie myślałem, że raczej powoli odchodzi w zapomnienie.

    •  

      pokaż komentarz

      Siła dockera leży w tym, że bardzo łatwo to postawić, rozszerzyć, żonglować obrazami - czy też, że możesz ot tak postawic sobie 20 instancji (bo np. testujesz load balancing) tego samego bez zmieniania konfiguracji.

      @zzapal: ale tak samo można zrobić z dowolnym innym runtime czy z samym chrootem. To nie jest jakaś wyjątkowa cecha Dockera.

      Kubernetes i Docker są dobrą alternatywą do tradycyjnej wirtualizacji

      Nie są, nawet w najmniejszym stopniu nie są. Tak samo jak fat JARy nie są alternatywą dla VMek tak Docker nie jest alternatywą.

      w sumie myślałem, że raczej powoli odchodzi w zapomnienie

      A jak myślisz, jak są te wszystkie hosty k8s odpalane? Przecież to wszystko działa w zwirtualizowanych maszynach. Kontenery to tylko kolejna warstwa (cieknącej i IMHO często zbędnej) abstrakcji.

    •  

      pokaż komentarz

      @terve: dobrze że nikt im nie powiedział że do można w locie dodać hosta do klastra vcenter.

    •  

      pokaż komentarz

      @patefoniq Kwestia skali u nas było dociśnięte na 95% spore produkcyjne środowisko baz Oracla i zaczęły się bardzo absurdalne problemy których sam Oracle nie potrafi rozwiązać ani odtworzyć. Wszystko wyglądało na problemy Xena być może dlatego też zmieniają engine.

    •  

      pokaż komentarz

      @d0k0p skonczy sie ze ludzie przejda na proxmoxa i inne..

    •  

      pokaż komentarz

      @d0k0p: jest coraz gorzej zaczęło się od windowsa 2016 server licencje na rdzenie a od win 8.1 bodajże musisz mieć licencje VDI jeżeli więcej użytkowników łączy się zdalnie do maszyny (win10) czy z niej korzysta choćby w celu sprawdzenia poczty. Wtedy to istna masakra bo jeszcze win 10 pro na enterprise musisz przekształcić z VDA - Windows Software Assurance czy coś a kupić można bodajże od 5 użytkowników po 100$ subskrypcja roczna za prawo jebanego logowania się do VM wielu użytkowników. Ciekawe czy w zusach czy urzędach skarbowych o tym wiedzą

    •  

      pokaż komentarz

      Korzystałeś z Oracle VM?

      @snake_take: korzystam i nie mam żadnych problemów :o

    •  

      pokaż komentarz

      i konkurencja jest na b. wysokim poziomie już, a nie jak kiedys: ovirt, rhev, oracle vm, proxmox, xpc-ng, citrix xen, hyper-v, openstack (chociaz, to bardziej konteneryzacja), kvm...

      @patefoniq: openstack to w pierwszej kolejności wirtualizacja

      Wtedy to istna masakra bo jeszcze win 10 pro na enterprise musisz przekształcić z VDA - Windows Software Assurance czy coś a kupić można bodajże od 5 użytkowników po 100$ subskrypcja roczna za prawo j?@#nego logowania się do VM wielu użytkowników. Ciekawe czy w zusach czy urzędach skarbowych o tym wiedzą

      @zerohedge: A czy to aż takie istotne, przecież to z ich kieszeni nie ubędzie ...

      Po prostu maja swoich klientów za idiotów i traktują jak krowy dojne.

      @1234AQ: Tak to jest jak się wpadnie w vendor locking:

      źródło: houseofbrick.com

    •  

      pokaż komentarz

      @videon: z moich doświadczeń wynika, że (nie)stety są

    •  

      pokaż komentarz

      @zerohedge: Pomieszałeś trochę. 1) WinSrv 2016 licencjonuje fizyczne rdzenie, ale cena "minimalna" jest taka sama jak na 2012 i wcześniej. Dla dużych serwerów proporcjonalnie rośnie, no ale moc procesora rosła zazwyczaj z ilością rdzeni, a nie socketów.
      Do Windowsa licencja VDA obowiązywała od dawna. Jeśli desktop jest dostępny tylko zdalnie, użytkownicy muszą mieć VDA rights w ten czy inny sposób - SA na Windowsa to jedno z rozwiązań. Wersja Windows z SA daje prawa do Enterprise jak i do VDA. Normalny use case licencyjny ¯\_(ツ)_/¯

    •  

      pokaż komentarz

      @videon: Ze niby co? A kto jest i h konkurentem?
      Hyper-V ? XenServer? - te rozwiazania nie nadaja sie do wysoko profesjonalnych zastosowan.

      VMware jest lata swietlne przed konkurencja jesli chodzi o wirtualizacje serwerow.

      Microsoft od dawna przestal rozwijac Hyper-V i Wszystkie sily przrzucil na chmure Azure (ma tam specjalna wersje Hyper-V ktora rozwija)

    •  

      pokaż komentarz

      @terve: ooo ktos zna Project Pacific... :)

    • więcej komentarzy(19)

  •  

    pokaż komentarz

    Dell / VMWare coraz silniej motywują do szukania alternatyw:
    1 Horendalne ceny oprogramowania
    2 Model licencjonowania nastawiony na darcie kasy z klienta.

    Nic dziwnego, że rośnie zainteresowanie alternatywami oraz usługami chmurowymi.

  •  

    pokaż komentarz

    Ciekawe czy Intel coś posmarował pod stołem? ( ͡° ͜ʖ ͡°)

  •  

    pokaż komentarz

    Dlatego u mnie w korpo migrują wszystko do chmury . Exchange, Sharepoint,SfB już tylko w chmurze. Większość usług do końca 2020 zostanie przeniesiona na rozwiązania chmurowe. 3/4 DataCenter posiadanych przez firmę jest przeznaczonych do likwidacji/sprzedaży. (DC starsze niż 10 lat są kompletnie nie przystosowane do obecnych wymagać jeżeli chodzi o zasilanie/chłodzenie etc.)

    •  

      pokaż komentarz

      @DesBatory share pointa to takie gówno... Używanie Excela lub woda on line w kooperacji z innymi to jakaś porazka. W porównaniu do Google docs to jakiś muł

    •  

      pokaż komentarz

      @ShpxLbh: Wszystko zależy od łącza. Zgadza się że czasami muli ale to w 90% przypadków wina zamulonej sieci. Jak masz expressrouta to wtedy nie ma problemu ( ͡° ͜ʖ ͡°)

    •  

      pokaż komentarz

      @DesBatory: to nie sieć, on muli bo tak ma, czasami nie da się używać Outlooka, czasami Sharepointa, a Office 365 to masakra... Dawniej restartowało się codziennie desktopy i Window$ Servery, żeby odmuliły, a teraz w chmurze to co niby mamy restartować!?

    •  

      pokaż komentarz

      @DesBatory: Mój ABI wyrwał by wszystkie kłaki z głowy gdybym przyszedł z takim pomysłem.

    •  

      pokaż komentarz

      @DesBatory: chmura = server
      Chyba że mówisz office 2019 na 365
      Co moim zdaniem wychodzi drożej.

    •  

      pokaż komentarz

      Dlatego u mnie w korpo migrują wszystko do chmury . Exchange, Sharepoint,SfB już tylko w chmurze. Większość usług do końca 2020 zostanie przeniesiona na rozwiązania chmurowe.

      @DesBatory: tendencja jest jednak do powrotów do własnych serwerów (wynajmowanie bare-metal), ew. rozwiązania hybrydowe - wypychanie tylko części do 'chmury' i łączenie tego L2.

    •  

      pokaż komentarz

      @dave8: O365 i Azure AD w środowisku hybrydowym, to przyjemność zarządzania a wiele ich narzędzi przyśpiesza pracę.
      OneDrive z ochroną PC parę razy uratowała nam tyłek a mulenie rzeczywiście jest odczuwalne, ale bardzo sporadycznie najwięcej w SharePoint'cie.

    •  

      pokaż komentarz

      Dlatego u mnie w korpo migrują wszystko do chmury .

      @DesBatory: a chmury wcale nie napędza vmware czy inny hyper-v lub kvm XDDD

    •  

      pokaż komentarz

      share pointa to takie gówno... Używanie Excela lub woda on line w kooperacji z innymi to jakaś porazka. W porównaniu do Google docs to jakiś muł

      @ShpxLbh: Jedyna zaleta sharepointa jest w firmach, gdzie jest duże przywiązanie do pracy offline i plików doc/docx. Wspólna praca nad tym samym plikiem jest możliwa, ale jest to bardzo upierdliwe. Jeśli nie musi być pracy offline, to google docs zawsze jest lepsze niż sharepoint.

    •  

      pokaż komentarz

      @DesBatory: Gratuluję takiej korpo która trzyma swoje kluczowe biznesowe dane w chmurze. Czekam tylko kiedy nastąpi jakiś fuck-up takiej chmury i firma będzie w czarnej dupie. Jeśli ktoś wierzy w zapewnienia, że chmura daje pełne bezpieczeństwo to życzę powodzenia z takim myśleniem. Wystarczy awaria Internetu - szczur zeżre światłowód albo ktoś go uszkodzi. I leżymy i kwiczymy na całej linii - ale tak wiem.. oszczędności.

    •  

      pokaż komentarz

      @rolf_ed chmura działa w chmurze i napędzana jest stadem unicornow :D

    •  

      pokaż komentarz

      @DesBatory usługi MS pchane są wszędzie do chmury bo przestaje się opłacać trzymać je u siebie. Office 365 wychodzi po prostu taniej niż serwery w firmie i utrzymanie ich. Natomiast ułamek firm decyduje się na migracje swoich wewnętrznych systemów.

    •  

      pokaż komentarz

      @brokenik: Ale przecież robisz offsite backupy dokładnie jak przy onprem, masz secondary i tertiary DC z livebackup... nie ma szans na utratę danych.
      A co do fakapów samych w sobie - to widziałem już chyba wszystko co rozwala DC nawet Tier 4, od pożarów, poprzez zalania, odpalenie systemu gaśniczego bez pożaru(stare DC - system jeszcze pianowy), katastrofy budowlanej, przecięcie całej wiązki światłowodów na rożnych budowach, po globalna awarie zasilania... (paliwo dowozili na bieżąco cysternami (ʘ‿ʘ)). Przy chmurze odpada tobie 80% zmartwień....

      @rolf_ed: A co mnie interesuję jaka wirtualizacja jest? Mam to gdzieś :)

    •  

      pokaż komentarz

      @ShpxLbh: @DesBatory: @d4ny: Jeszcze was głowa od tych kloudów zaboli, przyczyną w kloudach zamulenia głownie śa niewystarczajce zasoby przypisane do użytkownika. z 8 rdzeniowego CPU roobisz 8 użytkowników, zasoby 1 rdzenia sa współdzielone na innych użytkowników.

    •  

      pokaż komentarz

      @brokenik: @1234AQ: ale zacofanie i pierdziele nie farmazonów.

      Prawda jest taka że dzisiaj trzeba patrzeć przez pryzmat kosztów.

      1) możesz mieć chmurę prywatną.
      2) w chmurze np. Azure kupujesz gwarancję zasobow więc masz gdzieś ilość uzytkownikow. Twoje zasoby są skalowalne adhoc
      3) kupujesz geolokalizację chmury więc twoje dane są replikowane i zachowują się jak w serwerowni tier4.
      4) jak już korzystasz z rozwiązań enterprise to masz kilka łącz i najczęściej mpls
      5) w klasycznym rozwiązaniu masz kosmiczne koszty żeby wszystko utrzymać na poziomie na którym jest chmura. W końcu odpada martwienie się o sprzęt. Usterki. Klimę. P.poz. UPS. Agregaty itd.
      6) w klasycznym rozwiązaniu też może paść łącze i zezrec go szczur.
      7) Internet jest wszędzie. VPN przez GSM i zium każdy użytkownik ma wlot do zasobów chmurowych a do klasycznej serwerowni niekoniecznie.

      Radze poczytać czym są obiekty tier4. Albo je zwiedzić. Generalnie po końcu świata zostaną one i karaluchy.

    •  

      pokaż komentarz

      @DesBatory:

      Kolego mój miły. Jak ktoś wie jak korzystać z rozwiązań dedykowanych to sobie poradzi. Problem w tym, że w chwili obecnej bardzo dużo firm myśli, że rozwiązania w chmurze to jest rozwiązanie wszystkich ich problemów. Począwszy od dbania o kopie bezpieczeństwa po bezpieczeństwo informatyczne ich przedsiębiorstwa. Znam sporo przykładów w których firmy składujące swoje dane krytyczne czyt. projekty nowych rozwiązań umieszczali w chmurze a konkretniej na dropboxie xD Znam też instytucje finansowe które przechowywały dane swoich klientów też na tego typu serwisach lub trzymajcie się krzesła - na Google Docs. xD Problem z chmurą jest taki, że nie masz kontroli nad tym gdzie znajdują się twoje dane i czy ktoś/coś nie skopiowało ich w inne miejsce. To jest główny problem - i tak wiem - można szyfrować dane, można je zabezpieczać w taki czy inny sposób - i co z tego że odpada Ci kwestia utrzymywania serwerowni i całego "inwentarza" - tu często chodzi o być albo nie być.

      @Ekso:

      No właśnie jeśli trzeba patrzeć przez pryzmat kosztów to tym bardziej rozwiązania chmurowe dają złudne przeświadczenie o rozwiązaniu pewnych problemów - aczkolwiek niekoniecznie muszą one te koszty ograniczać. Taki prosty "case study" z ostatnich tygodni. Robiłem projekt dla pewnej drukarni i modernizowaliśmy im sieć. Firma dziennie przyjmuje jakieś 10-20GB danych z projektami do druku. Przechowuje też sporo danych własnych (projekty graficzne, elementy wyjściowe do naświetlarek i posiada zautomatyzowaną obsługę przetwarzania plików graficznych które bezpośrednio trafiają do druku). Przeniesienie wszystkich serwerów (8 maszyn fizycznych) do cloud'a byłoby owszem częściowo możliwe (problem byłby z licencją za oprogramowanie Fuji oraz z migracją kontroli dostępu - klucze sprzętowe). Ale tutaj pojawia się kluczowe pytanie - koszty. Koszt utrzymania już wybudowanej serwerowni to średnio licząc ok. 1000zł netto miesięcznie. (koszty energii, serwisu PPOŻ, klimatyzacji). Koszt budowy serwerowni pochłonął ok. 25000zł netto (pomieszczenie 15m2). I teraz tak. Chcąc to przenieść do chmury obliczyliśmy, że koszt utrzymania VPSów utrzymujących to wszystko - to lekką ręką jakieś 300-500zł netto miesięcznie. Do tego dochodzi jeszcze fakt, że firma nie może sobie pozwolić na jakąkolwiek przerwę w działaniu więc utrzymanie 2 niezależnych łączy o przepustowości 1Gbit po to aby uzyskać dostęp do chmury z zadowalającą płynnością - to koszt ok. 2500zł netto. Do tego dochodzą w/w problemy z migracją.

      1) Co dokładnie rozumiesz przez "chmurę prywatną"? Bo ja się spotkałem z wieloma pojęciami o tej samej nazwie. Jedni rozumowali to jako hostowanie VPSów na Azure i na Amazonie ;D A inni o tym, żeby ich maszyny był w dwóch różnych wykupionych lokalizacjach DC.
      2) Ale mi nie chodzi o "skalowanie" - nic nie stoi na przeszkodzie aby skalować sobie własne zasoby. Chmura nie rozwiązuje tego problemu - nawet więcej - bardziej go komplikuje.

      3) Za replikację trzeba płacić dodatkowo. To w przy dużej ilości produkowanych danych kosztuje.
      4) A łącza są za darmo czy za pół darmo? Przy dużych graczach gdzie dostęp do danych jest na wagę złota łącza potrafią kosztować dziesiątki tysięcy złotych. Sam obsługuję firmę produkcyjną gdzie spinamy im zakłady własną siecią światłowodową - koszt - spory. Gdyby mieli to samo wypychać w "chmurę" to płaciliby kilkanaście tysięcy złotych miesięcznie (średnio 1-2TB danych na dobę).
      5) Napisałem Ci wyżej - koszty w niektórych przypadkach wcale się nie kalkulują. Pomijam już kwestię, że jak ktoś ma trochę oleju w głowie to jest w stanie spokojnie zapewnić nadmiarowość w każdych warunkach i nie musi korzystać z chmury.
      6) Ale jak trzymasz dane u siebie często za ścianą. Po sieci lokalnej się do niej dostaniesz.
      7) Mówisz o jakieś abstrakcji kompletnie - to, że sobie możesz proste dane poprzerzucać po LTE to spoko. Ale tutaj chodzi mi o profesjonalne rozwiązania gdzie danych są dziesiątki TB i one muszą być przetworzone już tu i teraz. Wyobrażasz sobie sterowanie giętarkami, laserami tnącymi czy naświetlarką z poziomu chmury przez jakiś GSMowy VPN? Litości. Dostęp do zasobów czy w serwerowni czy w chmurze powinien być chroniony dokładnie tam samo.

    •  

      pokaż komentarz

      @brokenik: 8 serwerów. Proszę cię. Rozwiązanie chmurowe działaja głównie przy efekcie skali k w rozproszonych systemach. 8 serwerów to właściwie nic i zyski finansowe są marne. 25k za serwerownie? Tyle to kosztuje przegląd upsa w małym DC w korpo. Czyli Grosze. Koszty jednej serwerowni korpo: baterie 40k. UPS. 150k. Klima 50k. Systemy automatyki klimy 15k. Podłoga i wyposażenie 30k. Agregat z podłączeniem k automatyka 70k. System suchego gaszenia 60k. Dodatkowo alarmy. Monitoring. Kontrola dostępu. System monitoringu środowiska. A jeszcze nie zaczęliśmy kupować serwerów. Czy nawet szaf lub sieci. Na to potrzeba taki zgrabny 1kk. Wymiana co max 5 lat bo koszt serwisu w 4 roku rośnie niesamowicie.

      1) chmura prywatna. Przez lata definicja się zmieniała. Dzisiaj jest to dedykowany sprzęt w jakimś DC lub wydzielone zasoby w rozwiązaniu chmurowym. Bo chmura to architektura a nie rozwiązanie...

      2) no właśnie nie. W chmurce mogę ograniczać zasoby. W nocy mieć inne i w dzień inne. Place za obliczenia. Procesy. Transfer danych. W klasycznej architekturze a nawet własnej chmurze opartej na hostach VMware i blejdach choćby skały stały nie mogłeś zmienić parametrów bez niedostępności. Już nie mówiąc o kosztach zakupu i utrzymania które szły w miliony.

      3) Zależy jakie rozwiązanie wybierasz. System backup i DRC też kosztuje i gwarantuje że jest znacznie droższe niż replikacja.

      4) koszty światła nie są takie wysokie. Kwestia dostawcy. Mam łącza od kilku mega do 1Gbit. Wszystko zależy od dostawcy. W dodatku cześć zasobów można zostawić lokalnie a resztę pchać.

      5) Nadmiarowość. hmmm. Siedzisz w tej branży to wiesz ile kosztuje Nadmiarowość. Zwłaszcza w klasie enterprise.

      6) super. Tylko to za ścianą może spłonąć. Wierz mi że już poznałem takie historie. W dodatku jak masz kilka zakładów to musiałbyś mieć kilka serwerowni. Albo i tak trzymać mega łączą do punktu centralnego który może się posypać. A jak się posypie to stoją wszyscy. Nie jeden zakład tylko wszyscy. W chmura to tier4 więc masz uniezależnione zakłady. Jeden pada reszta działa.

      7) nie. Mówię o dostępie dla użytkowników a ty na siłę próbujesz udowodnić swoją teorię że chmura to zło. Terabajty danych. O maj gad. Ile firm pcha terabajty danych? A jak już pchają to mają świadomość że potrzebują więcej niż jedno łącze i to z sensownym SLA.
      A w przypadku dostępu użyłem skrótu myślowego. Chodziło mi że w przypadku awarii lacza do chmury dostaniesz się przez VPN a do lokalnej serwerowni nie. Ale to temat rzeka.

      Jesteś zafiksowany na jednym i trudno z tobą dyskutować. Nie chcę wiedzieć dlaczego...

    •  

      pokaż komentarz

      @Ekso: Wszystko zależy od skali rozwiązania. Adaptację problematycznego pomieszczenia 25m2 wyceniono, jakiś czas temu, w obecnych standardach ( np. od podłóg tech. się już odchodzi ) na około 200-300k bez agregatu. Ze względu na taki wysoki koszt ( a potrzeba 1 lub 2 szaf) wybrano kolokację w dedykowanych szafach DC. Dzisiaj "DC in the box" powoduje że koszt ogranicza się do zakupu samej szafy IP55 za 50-60k i znalezienia kawałka podłogi lub w droższej opcji placu.

      Duże projekty to duża ilość zatrudnionych specjalistów, a chmura pozwala zredukować ich liczbę. Stąd to całe podniecenie w korporacjach.

      Chmura jest fajna ale trzeba do niej podchodzić na chłodno i biznesowo, pozatym własna infrastruktura nie rozlicza cię z każdego IOPS i GB przesłanych danych. Ponadto jak już będziemy w większości w chmurze i rynek dojrzeje ( spadnie konkurencja) to myślisz że nie czekają nas coroczne podwyżki ?

    •  

      pokaż komentarz

      @exferis: si. Ja napisałem że zależy to od skali rozwiązania oraz budowy przedsiębiorstwa. Nie można jednak mówić że chmura jest zła.

      I wiem doskonale czym jest tzw. Safe rack. Jednak koszty jego utrzymania nie są super niskie. Trzeba założyć awarie. Redundantnosc. Drc bo backup nic nie daje jeśli nie masz sprzętu. Itd. Należy rozważnie podchodzić do problemu lokalizacji i wykorzystania sprzętu i przeliczyć wszystko. Nie tylko kasę ale też inne mniej policzalne benefity i ryzyka.

      I zgadzam się z tobą. Dlatego rozwaga. w wielu przypadkach można zoptymalizować system albo wybrać plan który będzie oplacalny. Czekaj nas podwyżki. Możliwe jednak znów rozwaga i stworzenie infra ktora łatwo można przenieść. Jednak jak narazie wielcy gracze biją się o klienta i ewentualne migracje robią za darmo (np. MS do Azure). Trzeba z tego korzystać. Testować i zawsze mieć otwartą drogę na inne możliwości.

    •  

      pokaż komentarz

      @Ekso: Mówisz o projektach które ciężko znaleźć w rodzimych warunkach. Firm które potrzebują takie zasoby o których wspomniałeś w Polsce można policzyć na palcach jednej ręki lub ewentualnie dwóch. Patrząc na fakt, że 80% biznesu w Polsce to małe i średnie przedsiębiorstwa - to sorry ale raczej mówienie tu o ilości k serwerów jest raczej śmieszne. Są segmenty rynku IT w którym nikt nie pozwoli Ci na wynoszenie jakiejkolwiek infrastruktury poza obszar własnej kontroli - np. bankowość. Rzucasz marketingowym bełkotem o wymianie sprzętu co 5 lat - tak jakby każda serwerownia oraz systemy informatyczne były zobligowane do tego - bo tak trzeba. Skąd ty bierzesz informację o wzroście kosztów serwisu po 4 latach? Proszę o konkretne dane do których można się odnieść.

      W chmurce mogę ograniczać zasoby. W nocy mieć inne i w dzień inne. Place za obliczenia. Procesy. Transfer danych. W klasycznej architekturze a nawet własnej chmurze opartej na hostach VMware i blejdach choćby skały stały nie mogłeś zmienić parametrów bez niedostępności

      Możesz. Na VMWare świat się nie kończy. We własnej infrastrukturze płacisz tylko za prąd - który i tak możesz optymalizować tak jak chcesz - podobnie jak za transfer nic nie musisz płacić. A jak masz wystarczająco dużą infrastrukturę to niezużytą moc obliczeniową możesz odsprzedawać - kwestia skali.

      Może i jestem zafiksowany na temat tego czym jest chmura. Ale mam również większe realne podejście do tego co rzeczywiście chcą klienci. I tutaj jest zgoła odmienna idea - to że dzisiaj "chmura" stała się modna i każdy chce ją wciskać mimo, że nie wiele to z prawdziwą chmurą obliczeniową ma cokolwiek wspólnego. Narzędzia do budowania swojej własnej infrastruktury IT są dostępne zasadniczo od ręki i średnio ogarnięty administrator może je wykorzystać.

      Działam w branży IT od grubo 15 lat i o chmurze słucham już od dekady. Problem w tym, że połowa ludzi z IT nie ma bladego pojęcia nawet jak działa Internet i jakie zagrożenia ze sobą niesie przenoszenie infrastruktury IT poza obszar który możemy kontrolować. W środowisku telco do którego mi najbliżej - również wszędzie wciskane są rozwiązania oparte na "chmurze" - które w wielu wypadkach okazało się przyczynkiem do wielu problemów w przypadku awarii takiej chmury lub jej częściowej niedostępności.

      Chmura w chwili obecnej ma o tyle dobrą zaletę, że pozwala na "wystartowanie" z wysokiego C jeśli chodzi o hostowanie różnego rodzaju usług w samym internecie. I tutaj w grę wchodzi cała zabawa w serwisy WWW różnego kalibru - skalowanie w tym wypadku jest olbrzymie i co do tego nie mam wątpliwości, że budowanie własnej rozproszonej infrastruktury jest kosztowne, czasochłonne i w przypadku małych albo raczkujących projektów praktycznie nieopłacalne. I tutaj widzę przyszłość tych rozwiązań i główne zastosowanie. Nigdzie indziej - no może poza robienie backupów w rozproszonym środowisku. Tyle i aż tyle.

    •  

      pokaż komentarz

      @brokenik: co ty mówisz. W samym poznaniu nalicze cii ze sto firm które mają serwerownie tych wielkości. Nie mówiąc o większych jak PGNiG Eurocash cz aquanet. To są dopiero molochy mające lekko ponad 500 serwerów.

      Tak.. tylko że dzisiaj bez wyniesienia swoich rzeczy w chmurę nie będziesz mógł prowadzić biznesu. Exchange teams I podobne usługi działają tylko na chmurze lub hybrydzie. Jeśli nie wejdziesz w to to właściwie nie masz połowy funkcjonalności.

      Marketingowym bełkotem? Nie. To doswiadczenie. Wyobraź sobie że pracuje w tej branży i widzę ile place za serwery. Wyobraź sobie że taki hpe masz gwarancję na 3 lata. W 4 roku musisz wykupić już gwarancję typu extended support a w 5 i 6 nie dość że extended support jest już kosmicznie drogi (1/3 wartości nowego sprzętu) to jeszcze nie obejmuje wszystkiego bo oficjalnie sprzęt nie jest już wspierany. I tak. Np. HP d2d i storeonce choćby skały stały nie zostanie naprawiony.
      Tak więc mówię ci jak jest.

      Chwila chwila. Przed chwilą mówiłeś o.bezpieczenstwie a teraz chcesz odsprzedawać moc obliczeniowa? Co ty pleciesz...

      Chmura jest modna od dobrych 5 lat jak nie więcej. Są jednak klienci i ludzie z przeszłości którzy zafiksowalj się na starej technologi. Ja od ponad 10 lat mam wszystko na virtualkach a w tym roku uświadamiałem automatyka z produkcji że zamiast płacić tone za sprzęt to warto zwirtualizowac to co mają i postawić vdi. Jak mu pokazałem jak to działa to zrozumiał że to tylko zysk. Oczywiście zatwardziały koledzy dopiero 6 miesięcy później przyznają mu z bólem rację. Ale to tylko w jednym zakładzie taka rewolucja....

      Widzisz. A ja pracuję w mpls też od ponad 5 lat i mogę mówić o tym rozwiązaniu w samych superlatywach.

      Nic nie zrobię. Mamy zgoła odmienne zdania. Ja idę z duchem czasu i jestem otwarty na nowe rozwiązania tam gdzie można je zastosować z rozsądkiem. Uniezalezniam się od dostawców hardwareu, napraw, fizczego zapezbieczania i ryzyk. Śpię spokojnie za niższą cenę. Znacznie niższą cenę. Trzeba iść do przodu i pokazywać klientom alternatywy do obecnych rozwiązań.

    • więcej komentarzy(12)