• 1
@psiversum:

A linuksowy ZFS nie jest przypadkiem ciągle w wersji deweloperskiej?

Ma 15 lat już i jest min. oficjalnie wspierany przez Canonical na Ubuntu. Oryginalny ZFS jest z Solarisa, wersja z BSD jest z tylko rok młodsza od tej linuksowej. Trudno to nazwać nowym niestabilnym systemem.
Po prostu programisty spartoliły robotę.

bardziej nawet klastrach

Zależy jak patrzeć. To jest polecany system na single node. Dobra alternatywa dla fizycznego kontrolera dysków. Może
Rozumiem, że piszesz o ZFS? Bo Ext4 jest np. szybszy od Ext3, co jest zaletą także na desktopie.

@psiversum: tak, w tamtym zdaniu chodziło o ZFS.

ZFS jest fajny, ale mam wrażenie, że ludzie się nim bardziej jarają w necie niż rzeczywiście używają :)

@psiversum: to jak z dużą ilością nowości, czy technologicznych zachciewajek. Fajna rzecz, ale aby używać na co dzień - to trudne, nie ergonomiczne.
Tak jak wspomniany
@dzyndzla: snapshoty. Można przez lvm2 ale to będzie jak proteza, a w zfs nawet mamy dostęp do tych snapshotów przez system plikow

generalnie zfs zrobi wszystko bez dłutowania 5 poziomów w /dev/mapper - szyfrowanie, software raid, snapshoty, pliki. Łatwo zrobić różne dataset i dla każdego dać np. inna quote

btrfs generalnie chce być takim zfs, ale zfs już jest i działa doskonale, a btrfs jeszcze rok temu mi z dupy zgubił
Pytanie do koksów odnośnie #proxmox oraz #zfs. Czyli wszyscy #servermasterrace ( ͡° ͜ʖ ͡°)

Załóżmy, że mam dwa RAIDy 1 - pierwszy raid składa się z dwóch dysków 500 GB a drugi raid z dwóch dysków 1 TB. Teraz tworzę sobie jedną pulę i ta pula po dodaniu tych dwóch raidów do siebie ma pojemność 1,5 TB. Tak jak na tym filmiku (tylko pojemności dysków inne) ->
No cóż, stało się, nie doszło co prawda do utraty danych, ale nie mogę zwolnić miejsca na dysku i dziwne rzeczy się dzieją, #btrfs zawiódł... a więc czas zmierzyć się z #zfs. Pierwsze pytanie, jakiś dobry i przystępny poradnik tłumaczący koncepcje ZFS? Ktoś może coś polecić?

Druga rzecz, to czy się da... Mam trzy dyski, jeden SSD 128G, drugi SDD 180G, i HDD 1T, chciałbym aby mój system (root) był na
chciałbym aby mój system (root) był na wszystkich trzech dyskach, tak samo home, resztę przestrzeni na dużym HDD chciałbym przeznaczyć na rzeczy, które nie są krytyczne, gdyby się utraciły... Ale nie chciałbym tracić na wydajności, w mdadm można oznaczyć dyski w macierzy raid1 jako write-mostly i dodać parametr write-behind co powoduje że macierz nie czeka na wolne dyski, czy jest możliwe coś takiego? #linux #unix #opensource


@keny-keczuloki-anuloki: nie wiem, ale jest
#linux #zfs

Zainstalowałem Ubuntu, odpaliłem kontenery LXD. Na potrzeby kontenerów utworzyłem storage poole oparte o ZFS. Jak znaleźć, gdzie są przetrzymywane dane, skoro zfs list pokazuje coś takiego:

NAME USED AVAIL REFER MOUNTPOINT
default 2,99G 1,83G 24K none
default/containers 2,82G 1,83G 24K none
default/containers/kontener1 2,76G 1,83G 2,89G /var/lib/lxd/storage-pools/default/containers/kontener1
default/containers/kontener2 257K 1,83G 252M /var/lib/lxd/storage-pools/default/containers/kontener2
default/containers/kontener3 59,9M 1,83G 294M /var/lib/lxd/storage-pools/default/containers/kontener3
default/containers/kontenerX 150K 1,83G 252M /var/lib/lxd/storage-pools/default/containers/kontenerX
default/custom 24K 1,83G 24K none
default/deleted 24K 1,83G 24K
@lis6502: Ok, po prostu przy tworzeniu pooli dla LXD wskazałem nie dedykowane urządzenie blokowe a użycie istniejącej przestrzeni i się zastanawiałem nad tym, czy będzie to jakiś plik, katalog czy coś innego...

@a231: W mount widoczne są tylko punkty montowania kontenerów w stanie running, jak poniżej

admin@lxd1server:~$ mount | grep default
default/containers/kontener1 on /var/lib/lxd/storage-pools/default/containers/kontener1 type zfs (rw,relatime,xattr,noacl)
default/containers/kontener2 on /var/lib/lxd/storage-pools/default/containers/kontener2 type zfs (rw,relatime,xattr,noacl)
admin@lxd1server:~$
kojarzy ktos jakies protipy na udemy? dzieki wpisowi kolegi @lig76 odbosnie wchodzebia przez private session juz mam 132zl zamiast 199 o.O nice. #nauka #programowanie #it #kursyudemy #udemy

roznica z apki a Firefox portable, gdzie kupilem raz jeden kurs za 80i ciagle czasu brak,ale tak przegladam co jakos czas... :)

also #homelab dziewczyna zaraz wraca z pracy i mnie zabije pewnie xD za kilka godz sprawdze czy useragent daje znaczenie, bo w sumie
  • 0
przynajmniej ramtest bedzie dobry, kostki z losowych aukcji z ostatbiego kwartału, cholerne ddr3-ecc unbuff dostac w dobrej cenie to trzeba sie naczekac, ale przez kwartal 6*4 po 70+70,50+50,45 i jedna 40 :) a na storage leci t110ii lub fujitsu tx100s2 zobacze ile pradu bedzie zrec :)
czy #zfs na linuxie jest jest już wystarczająco stabilny żeby używać go produkcyjnie? Jak badałem temat kilka lat temu to czytałem same horror-stories na temat tego jak można stracić przez to dane.

Pytam bo riserczuję wirtualizację na dedyku i #proxmox oficjalnie wspiera soft-raid tylko przy użyciu ZFS jako systemu plików a nie wiem czy chce się w to pakować

#linux #serwery
@olewales: jeśli go poznasz dobrze, to spokojnie sobie poradzisz.
W przypadku ZFSa warto poćwiczyć sobie gdzieś najpierw, popatrzeć jak się zachowuje, a potem do poważnych zastosowań.
Głównym wrogiem ZFSa jest duże zapełnienie (>80%), dopóki będziesz trzymać porządek powinno być OK. :)
@olewales: sprzetaowy nad programowym ma ta przwage ze.
1. Awaria dysku nie unieruchomi ci systemu (w soft system moze marnowac nadal czas na proby odczytu z bezuzytecznego ale wciaz dzialajacego dysu).
2. Uwalnia cie od glupot z ktorymi probojesz tutaj walczyc (ze pronox wspiera raid tylko na slabym zfs). Masz po prostu lun i dzialasz na nim jak na jednym dysku.
3. Lepsze kontrolery maja bbwc ktore potrafi dac ogromnego kopa
action: Wait for the resilver to complete.
scan: resilver in progress since Fri Aug 5 14:19:19 2016
420G scanned out of 7,92T at 27,3M/s, 79h59m to go

Ehh strasznie to powoli działa, zwłaszcza że od spodu 128GB ram, 2 cpui E5 v3, 38 dysków sata 3 + 6ssd na l2ark
Jakieś Mirkowe wskazówki dlaczego to tak wolno resilveruje po wymianie padniętego dysku?

#linux #komputery #zfs
scan: scrub in progress since Wed Feb 4 02:31:22 2015
61.7G scanned out of 4.97T at 43.1M/s, 33h10m to go
0 repaired, 1.21% done
#zfs #linux ()

swoją drogą, zastanawiam się w jaki sposób dodać więcej dysków. Łącznie zmieści mi się 6, 4 dyski już mam (2x2 tb + 2x4 tb). ALE, mam je ustawione w formie dwóch mirrorów, tj. raid1 na 2x2 (łącznie 2tb)