Desktop jako serwer plików i bazy danych

Mala firma: 3 PC biurowe i mały serwer DEll (T110) z bardzo wolnymi dyskami SATA. Ktoś 5 lat temu zainstalował na tym W2012 Server R2 Foundation i postawił domenę/serwer plików. Użytkownicy korzystają z współdzielonych zasobów - dokumentów (pewnie będzie tego z max. 10 GB danych) oraz softu który łączy się z bazą firebirda zainstalowaną także na serwerze - ok. 4 GB danych.
Jakiś czas temu był crash systemu (temat na osobny wątek) i trzeba było od nowa stawiać system (notabene odzyskanie z kopii bezpieczeństwa robionej przez windows backup nie udało się!), domenę etc. Trwało to bardzo, bardzo długo bo m.in. problemem, przy instalacji, okazał się nierozpoznawalny przez instalatora Windows 2012 kontroler RAID; przy n-tej próbie trafiliśmy w końcu na właściwe sterowniki brrr…
Od pewnego czasu wychodzi kwestia wydajności softu/bazy danych i rozważania czy nie zmienić sprzętu-serwera. W związku z tym crashem pojawił się pomysł, żeby zamiast serwera z dziwnymi kontrolerami i systemem serwerowym, kupić dobry PC z np. I7, dyskiem SSD i zainstalować na tym Windows 10, Firebird, udostępnić 3 użytkownikom jakiś zasób.
Zalety wg mnie:

  • dużo szybsze przywrócenie systemu w razie awarii; kopie danych są robione na zewnętrznych nośnikach - więc wystarczy zainstalować na nowo W10, przywrócić dane z kopii i już.
  • dużo łatwiejsza obsługa; brak konieczności specjalistycznej wiedzy odnośnie systemu serwerowego itd.; nie jestem geekiem komputerowym, chociaż sporo rzeczy potrafię zrobić i nie chcemy też płacić jakiś kokosów za dodatkowe wsparcie firm zewnętrznych,
  • w przypadku awarii sprzętu łatwiejszy dostęp do części - bez konieczności wyszukiwania jakiś dedykowanych serwerowych kart, pamięci, zasilaczy etc.
    Problemy i wady:
  • mniejsza stabilność systemu desktopowego (?),
  • niemożność korzystania z różnych rozwiązań domenowych typu profile, polisy etc. ale przy 3 użytkownikach skóra wydaje się, nie warta wyprawki,
  • prawdopodobieństwo awarii wyższe, przy czym kopie danych są robione codziennie i zgodziliśmy się, że powrót do danych nawet sprzed kilku dni (gdyby okazało się że jakaś kopia z danego dnia uszkodzona) nie jest krytyczny dla działania firmy; także nawet zastosowanie dysku SSD, z jego potencjalnym wyższym ryzykiem awarii, nie powinno być jakąś super wadą, pod warunkiem że dyski nie będą padać co chwilę…

Dodatkowo, jest pomysł zastosowania jakiegoś darmowego wirtualizatora, nie wiem czy np. vmware ma coś darmowego, do zwirtualizowania desktopowego “serwera”, robienia jego kopii i w razie awarii przywrócenie systemu, a to już powinno się zamknąć w kilkunastu minutach… Tutaj jednak trzeba by się podszkolić i potestować takie rozwiązanie.

Co myślicie o takim pomyśle? Czy są jakieś modele dysków SSD które będą się nadawać do takich celów? Słyszałem o specjalistycznych dedykowanych serwerowych SSD ale one są bardzo drogie i nie o takie mi chodzi.

Pomysł w ogóle użycia desktopa jako serwera wziął się z tego, że jakiś czas pracowałem w firmie, w której właśnie zwykły PC z W7 albo XP (nie pamiętam) pracował bez żadnej awarii 24h/dobę przez ileś tam lat jako dedykowany serwer dla jakiegoś konkretnego zastosowania.

pozdrawiam
G.

Czy CPU jest rzeczywiście tak obciążony, że trzeba i7? 3 użytkowników, wymiana plików, serwer firebird - to nawet Raspberry Pi 4 uciągnie :slight_smile: Tam musi być coś nie tak raczej z siecią albo konfiguracją, jeśli wydajność jest niska. Druga sprawa to kwestia bazy, w zaprzyjaźnionej hurtowni (niewielkiej) okazało się, że mimo wszystko przesyłanie przez bazę danych kilkuset MB w celu załadowania jakiejś tabelki w programie, pomimo GbE i porządnego switcha Cisco zajmuje na tyle dużo czasu, że wygodniej pracuje się przez RDP bezpośrednio na serwerze. Może to byłoby rozwiązanie Waszego problemu?
Czyli serwer, Windows 2012, dodatkowa licencja CAL (bo w pakiecie są tylko 2) a komputery użytkowników robią za zwykłe terminale, wystarczy cokolwiek, pewnie to co mają teraz też się nada.

Przy rozwiązywaniu problemów z wydajnością namierz najpierw wąskie gardło, bo może problem leży gdzie indziej.

To wszystko zależy jaki serwer i jaki PC. Dobry PC oczywiście będzie bez problemu pracował latami bez błędów.
Serwery mogą jednak kilka cech, których PC nie mają:

  1. Redundantne części. Możesz mieć np. 2 zasilacze i móc wymienić jeden na żywca.
  2. Niskopoziomowy dostęp zdalny przez iLO lub coś podobnego - możesz się przez sieć dostać do maszyny nawet jak padnie.
  3. Pamięć ECC
  4. Gwarancje serwisowe, np. NBD on-site

Itd. Generalnie serwery są budowane pod kątem długiej pracy.

Jeśli jest to małe biuro i to, że komputer np. raz na pół roku padnie nie jest mega problemem można oczywiście również zbudować serwer w oparciu o zwykłe, dobrej jakości, części PC.

Wiadomo, że za te same pieniądze dostanie się o wiele szybszy hardware. W miarę budżetowy serwer sprzed 5 lat, jest pewnie wolniejszy od nowego laptopa za 3000zł.

Po pierwsze, problem wydajności aplikacji pracujące na serwerowej bazie Firebird nie jest jakiś dramatyczny.
Po drugie pracując na serwerze aplikacja działa (mam wrażenie bo nie robiłem dokładnych pomiarów) wolniej niż na PC-tach; PC-ty są nowsze i mają SSD vs SATA na serwerze.
Po trzecie, testowałem całą instalację (baza + aplikacja) na wirtualce (właśnie na PC z SSD) - jest naprawdę szybciej i to właściwie przeważyło, żeby się poważnie zastanowić nad zmianą sprzętu; można teoretycznie dopiąć SSD do obecnego serwera, tylko nie wiem czy na tym da się postawić W10.
I faktycznie, masz rację, że pewnie to nie kwestia procesora, ale bardziej dysku.

Ogólnie wizja jest OK.

Cos na MLC w raidzie (kopie lustrzane na 2 dysku). Plus kopie codzienne jak piszesz, ale raczej na dwóch innych dyskach naprzemiennie- ransomware - i raczej dane masz bezpieczne.

Tak dla sprostowania - domyślam się, że chodziło Ci o SSD vs HDD (SSD też prawdopodobnie masz podpięte pod SATA :wink: )

Skoro wina jest dysku to czemu nie wywalisz kontrolera RAID i nie podepniesz SSD bezpośrednio do kontrolera płyty głównej? Jeśli dobrze sprawdziłem, T110 ma kontroler SATA 2, więc nie musisz kupować super-szybkich dysków SSD. A skoro macie już sterowniki do kontrolera, to można od razu skorzystać z SSD w RAID (np. RAID1 - bo rozumiem, że więcej z bazy czytacie niż do niej piszecie?).

Kolejny argument to wielkość danych. Nie macie 200GB bazy danych, nie macie tony dokumentów, zdjęć czy filmów. 2x240GB to koszt 300 zł (np. ADATA SU650), reinstall i będziecie wiedzieli czy to wina dysków czy jednak cały serwer muli. A jak okaże się, że serwer muli, to cóż - dyski do nowego komputera już masz :wink:

  1. Tanie nie mają

  2. To może być plus, ale często jest to rozwiązanie dodatkowo płatne, ewentualnie w tańszych modelach nie ma.

  3. Zależy od sprzętu, w przypadku ryzena powinno być wsparcie ECC, u intela trzeba wybrać odpowiedni procesor wspierający ECC (seria xeon) i czipset z nim zgodny.

  4. Ze względu na NBD warto rozważyć zakup gotowca, na zwykły desktop też można dostać taką gwarancję.

Jeśli masz tylko Firebird, to bez sensu stawiać to na W10. Problemy z restartami po aktualizacji itp. Postaw na tym CentOS, zainstaluj FB, a pliki udostepniasz z Samby.

Nie musisz obawiać się Linuksa. CentOS ma webowy Cockpit, wszystko wyklikasz.

To jest myśl. Muszę przetestować.
Pytanie dodatkowe, czy jeśli obecny HDD, który jest w macierzy RAID1 sklonuje (narzędziem typu Aomei Backuper lub podobnym) na SSD to czy takie coś będzie działać? Ewentualnie jest jakiś sposób żeby przenieść system który działa w RAID1 HDD->SSD?

Da się to zrobić ale nie jest zalecane, lepiej mimo wszystko przeinstalować system od zera. A dla testu możesz odpiąć HDD, wpiąć dyski SSD, postawić system od zera, wgrać bazę (z backupu), wgrać pliki i sprawdzić jak to działa.

Jak wydajność się nie poprawi to wpinasz z powrotem HDD i działasz jakby nic się nie stało, a nowe dyski zostawiasz do nowego kompa za którym możesz zacząć się rozglądać (albo wkładasz do kompów biurowych, jeśli jeszcze ich tam nie ma)

Niby tak, ale z czasem może pojawić się kolejna aplikacja której już pod Linucha nie będzie i robota podwójna z przenoszeniem na okienka… A system już mają.

To jest też myśl. Muszę przetestować. W domu od kilku lat używam prywatnie na laptopie Linux Mint także jakieś minimalne doświadczenie z tym środowiskiem jest.
Polecasz jakąś konkretną dystrybucję Centos?

Miej tylko na uwadze, że poza Toba ktoś musi mieć tez minimalne pojęcie o Linuksie, inaczej:

Urlop, piękne widoki, dzwoni komórka
“Galaretka, ten Twój serwer, no wyłączył się, włączyliśmy, ale krzyczy, żeby cos skonfigurować! Pomocy!”

To bardzo rozgarnięta ekipa musiałaby być. Zazwyczaj jest:

“No coś mi wyskoczyło ale zamknęłam i teraz nie działa, co mam zrobić?!” :smiley:

Najnowszą. Osobiście serwery mam pod Gentoo. Jeśli masz chociaż minimalne doświadczenie, to może i Cockpit nie będzie Ci potrzebny, po co dodatkowo obciążać system.

Powiem tak. System powinieneś zaprojektować zgodnie z planami firmy, w której go wdrażasz. Jeśli wiesz, że pojawi się coś Windows only, wiesz że Linux odpada. Jeśli nie będzie nic takiego to czemu nie.

Moim skromnym zdaniem kombinujesz lekko od tyłu.
Po pierwsze - jaką wartość mają dane siedzące na serwerze? Jeśli firma bez nich przeżyje, to faktycznie desktop, poleasingowy serwer, albo łatanie dyskami SSD tego co masz.
Jeśli dane są krytyczne, to prezes zrozumie, jakie zagrożenie może stanowić pad takiego systemu i wybierze coś ze wsparciem/aktualizacjami i pewnością działania.
Jak już wiesz, że ma mieć wsparcie, to warto wybrać serwer. I dopiero teraz kombinujemy co on ma mieć:

  • redundantne zasilanie - fajna rzecz, jak padnie zasilacz, albo ktoś wyrwie kabel, albo coś się stanie z torem zasilającym - to serwer przeżyje (idealnie by było wpiąć 1 linię do sieci, a 2 do UPS, ale to już kolejne koszty)
  • redundancja na dyskach (to jak rozumiem już masz)
  • dyski SSD (i przy bazie to da największego kopa, więc w talerze nie ma co się bawić). Jeśli coś więcej, niż mirror, to kontroler koniecznie z pamięcią cache i podtrzymaniem bateryjnym.
  • Procesor Xeon/Ryzen o mocy… wystarczającej - porównaj z tym co masz i oszacuj
  • Pamięć ECC - dla bezpieczeństwa
  • iLO/iDRAC/IMM - to ratuje, jak jesteś na urlopie/wyjeździe/w domu - bardzo ratuje.

A to dopiero początek. Warto pomyśleć o backupie - kolejny temat rzeka :slight_smile:
Migracja na HDD->SSD - możesz po prostu zasymulować awarię (odpiąć jeden dysk HDD) i odbudować (wsadzić w to miejsce SSD), po czym podmienić drugi dysk.
Dwa warunki: SSD taki sam albo większy, niż HDD i koniecznie backup przed taką operacją.

2 polubienia

Podpisuję się pod tym rękami i nogami :wink:

Dane są krytyczne ale jak napisałem w pierwszym poście - po pierwsze: backup danych jest robiony, na 2 niezależnych nośnikach (właściwie to nawet 3) i regularnie kopie są sprawdzane na innej maszynie, żeby mieć pewność(to jest pokłosie crasha który był jakiś czas temu i przyprawił firmę o palpitacje ale jakoś się udało); po drugie czas na przywrócenie działania nie jest liczony w minutach, tylko dniach (niepotrzebne nam redundantne serwery itp.) - w tym sensie system nie jest krytyczny. Więc to nie kwestia krytyczności danych tylko łatwości obsługi/szybkości/niezawodności/jakości… działania systemu. Po prostu pomyślałem, że zamiast “męczyć” się z trudniejszym(?) systemem serwerowym, nie użyć - przy kolejnej wymianie sprzętu - do naszych zastosowań PC plus system desktopowy, z dyskiem SSD. Krótkie testy pokazują, że to będzie szybciej działać niż obecny zestaw, który ma 5 lat, gwarancja minęła i jeśli jakikolwiek komponent poleci, nie kupie raczej części zamiennej w sklepie.
Z drugiej strony ta maszyna może jeszcze działać latami, więc faktycznie spróbujemy przenieść wpierw system na SSD a jak coś poleci albo będzie decyzja o wymianie sprzętu, zmienimy na zwykłego PC.

W sklepie może nie, ale na Allegro części do serwerów trochę jest - https://allegro.pl/kategoria/serwery-i-akcesoria-podzespoly-serwerowe-9062?string=dell%20t110&bmatch=baseline-cl-dict43-ele-1-1-1127

Czy te dyski są cały czas podłączone?
I dodatkowa informacja - ransom nie zawsze od razu zaczyna szyfrowanie, więc nawet w takim przypadku może się okazać, że nie do końca zdrowe pliki są backupowane - ale to jak już pisałem, kompletnie odrębna historia i robisz dla backupowania więcej (znacznie więcej!), niż przeciętny admin tego typu środowisk.

Z systemem desktopowym nie tak lekko (jeśli piszemy o Windows) - nie możesz używać desktopa jako serwer - o ile pamiętam EULA nie pozwala. W domu to jeszcze przejdzie, w firmie bym nie ryzykował.

Powiem Ci, że jesteś odważnym adminem. Ja bym wolał prezesa przekonać do serwera, niż później mówić “to nie moja wina”. Życie mnie nauczyło, że przy większym wypadku szuka się winnych, a osoba wybierająca sprzęt tańszy od lepszego - jest doskonałą ofiarą. Prawa Murphiego niestety działają częściej, niż nam się wydaje :slight_smile:

Wystarczy postawić krzesełko i monitor przed serwerem i będzie to nie do zweryfikowania. Windows Server ma przede wszystkim zalety w możliwościach konfiguracji, ustawień polityki, możliwościami dokupienia licencji CAL itd.