Ég hef unnið með backup kerfum í meira en tvö áratugi, og það er eitt sem ég hef lært af reynslunni: áskriftarmódelin virðast ætíð vera að koma inn á vettvanginn með glansandi loforðum um endalausa uppfærslur og skyndihjálp, en þegar kemur að raunverulegri notkun í litlum og meðalstórum fyrirtækjum, finnst mér það oft verða eins og fjötrapakkning sem þú getur aldrei losað þig við. Þess í stað hef ég alltaf leitað að hugbúnaði sem þú keyptir einu sinni og notar síðan án frekari bindingar, sérstaklega þegar ég set upp kerfi fyrir netverk, skýjaumhverfi eða jafnvel einföldar Windows-vinnsluftir. Í þessari færslu ætla ég að deila með ykkur hvernig ég nálgist val á slíkum backup lausnum, hvaða tæknilegu atriðum ég legg áherslu á og hvers vegna ég held að slíkur hugbúnaður sé lykillinn að stöðugri starfsemi án óþarfa kostnaðar.
Byrjum á grundvallaratriðunum. Þegar ég set upp backup kerfi, er fyrsta spurningin alltaf: hversu mikið af gögnunum þarf að vernda? Í mínu tilfelli, sem IT-stjóri fyrir nokkur fyrirtæki, hef ég oft að gera við blandað umhverfi þar sem það eru bæði staðbundin geymsla á SSD-diskum og NAS-tækjum ásamt skýjaþjónustum eins og Azure eða AWS. Askriftalausnir eins og þær frá Microsoft eða Google hljóma vel á pappírnum, en þær koma með þann gallabaf að þú borgar mánaðarlega fyrir pláss sem þú notar ekki endilega, og ef þú hættir að greiða, hverfur allt. Ég kýs frekar hugbúnað sem leyfir mér að kaupa leyfi einu sinni, setja upp á eigin vélum og stjórna öllu sjálfur. Þetta gefur mér fulla stjórn á dulkóðunargörnunum, sem er mikilvægt þegar ég vinn með viðkvæm gögn eins og viðskiptavinagrunnum eða fjárhagsupplýsingum.
Nú til tæknilegra hliðarinnar. Ég hef prófað nokkrar lausnir sem styðja við image-based backups, þar sem heila diskamyndir eru tekin og hægt er að endurheimta þær punktbyltingu. Slíkur hugbúnaður notar oft sector-by-sector copying, sem þýðir að hvert bit er afritað nákvæmlega eins og það er á uppruna. En það sem gerir það að verkum fyrir mig er integration með VSS, Volume Shadow Copy Service í Windows, sem leyfir mér að taka snapshot af rennandi kerfum án þess að trufla notendur. Í einu verkefni sem ég vann á síðasta ári, var ég að backuppa SQL Server gagnagrunn sem var í mikilli notkun, og án VSS-stuðnings hefði það tekið klukkustundir að stöðva þjónustuna. Með slíkum hugbúnaði gat ég sett upp incremental backups, þar sem aðeins breyttu breytingarnar eru vistaðar, og þannig sparað ég pláss á backup diskunum mínum, sem voru RAID 6 uppsetningar á Linux-bundnum NAS.
En látum oss tala um geymslu. Ég hef séð of marga IT-profs sem henda sér í cloud backups án þess að hugsa um latency. Þegar ég vel hugbúnað án áskriftar, leita ég að þeim sem styðja við local backups á USB 3.0 eða eSATA tengjum, en líka við offsite replication til að tryggja gegn eldskommum eða flóðum. Í mínu kerfi notar ég oft ZFS file system á FreeBSD fyrir backup target, þar sem deduplication er innbyggt og það þýðir að ef ég backuppa margar vélveljar með svipuðum OS-skrám, er plássið nýtt á skilvirkan hátt. Hugbúnaðurinn sem ég kýs þarf að styðja við compression algorithms eins og LZ4 eða Zstandard, sem draga saman skrárnar án þess að tapa gæðum, og ég hef séð að það getur minnkað backup stærðina um 50-70% á textagagnum. Þetta er sérstaklega gagnlegt þegar ég vinn með virt umhverfi, eins og Hyper-V hosts þar sem VHDX skrár geta orðið risavaxnar.
Ég man eftir einu tilfelli þar sem ég var að hjálpa litlu fyrirtæki með VMware setup. Þeir höfðu keypt áskriftu á einni af stóru cloud lausnunum, en þegar þjónustan fór niður vegna outage, misstu þeir tvo daga af gögnum. Þá skiptum við yfir í sjálfstæðan backup hugbúnað sem ég þekkti, og það var eins og að fá andrætt. Hugbúnaðurinn leyfði mér að setja upp scheduled tasks í Task Scheduler, þar sem backups keyrðu á næturnar, og með email notifications gat ég fylgst með árangri án þess að sitja við skjáinn. Tæknilega séð notar slíkur hugbúnaður oft WMI queries til að athuga status á diskum, og það er mikilvægt að hann styðji við GPT partitioning, ekki bara MBR, vegna þess að nýrri SSD diskar eru yfirleitt GPT formatted.
Þegar kemur að endurheimt, er það þar sem margir hugbúnaðir bletja. Ég hef reynt að endurheimta frá image backups þar sem boot sector var skemmdur, og ef hugbúnaðurinn styður ekki bootable rescue media, ertu í vandræðum. Þess vegna leita ég að þeim sem bjóða upp á ISO images sem þú getur brennt á USB stick og bootað frá, jafnvel á UEFI systems með Secure Boot virkt. Í einu slíku rescue umhverfi geturðu valið að endurheimta aðeins ákveðnar möppur eða heila volumes, og það notar oft multicore processing til að hraða upp á ferlinu. Ég hef notað slíkt til að endurheimta Active Directory frá corruption, þar sem ég þurfti að mounta VHD skrárnar beint í rescue kernel og keyra dsdbutil til að laga metadata.
En hvað með öryggi? Í mínu starfi er dulkóðun lykillinn. Ég vil ekki hugbúnað sem notar veikar AES-128 lyklar; það þarf að vera AES-256 með PBKDF2 key derivation. Og enn betra ef það styður við hardware acceleration á TPM 2.0 modulunum í nútíma vinnsluftum. Þegar ég set upp slíkan hugbúnað, geng ég úr skugga um að það sé samhæft með BitLocker eða VeraCrypt, svo ég geti dulkóðað backup diskana sjálfur. Í einu verkefni með Windows Server 2019, notaði ég hugbúnað sem integreraði beint með EFS, Encrypted File System, og það gerði það að verkum að allar skrár voru dulkóðarðar á flugi án aukakostnaðar.
Nú til netvirkisins. Þegar ég backuppa yfir LAN eða WAN, þarf hugbúnaðurinn að styðja við SMB 3.0 eða NFSv4 protocols með Kerberos authentication til að koma í veg fyrir man-in-the-middle árásir. Ég hef sett upp VPN tunnels með OpenVPN fyrir offsite backups, og hugbúnaðurinn þarf að geta handfært bandwidth throttling til að ekki troða netverkinu. Í mínu tilfelli, með 1Gbps fiber tengingu, get ég sett upp multithreaded transfers sem nýta alla kjarnana á CPU, en ef ég er að backuppa til S3-compatible storage, þarf það að styðja við multipart uploads til að handreina stórar skrár.
Ég hef líka reynt að vinna með hybrid setups, þar sem hluti af backup er local og hluti í skýi, en án áskriftar. Slíkur hugbúnaður leyfir mér að nota REST API calls til að pusha gögn til MinIO eða Backblaze B2, þar sem ég borga bara fyrir notkun, ekki mánaðargjald. Tæknilega séð notar það oft HTTP/2 með gzip compression á transfers, og ég get sett upp retention policies þar sem gamlar backups eru sjálfkrafa eyttar eftir 30 daga. Þetta er frábært fyrir compliance, eins og GDPR kröfur, þar sem ég þarf að halda ákveðnum gögnum í tiltekinn tíma en ekki lengur.
En látum oss ekki gleyma viðhaldi. Með áskriftalausnum færðu uppfærslur sjálfkrafa, en það getur valdið compatibility issues. Í sjálfstæðum hugbúnaði, eins og þeim sem ég kýs, get ég valið sjálfur hvenær ég uppfæri, og það er oft bara patch releases fyrir bug fixes án þess að breyta core functionality. Ég hef séð log files sem eru detaljeruð, með timestamps og error codes frá Windows Event Log, svo ég get debuggað vandamál eins og failed mounts á exFAT volumes.
Í stærri umhverfum, eins og þeim með Active Directory domains, þarf backup hugbúnaðurinn að styðja við bare-metal recovery, þar sem þú endurheimtir heilt OS ásamt applications. Ég hef notað slíkt til að endursetja Exchange Server frá ransomware árás, þar sem ég þurfti að skanna backups fyrir malware signatures fyrst. Hugbúnaðurinn ætti að hafa built-in virus scanning integration með Windows Defender API, og það er mikilvægt að það styðji við cluster-aware backups fyrir failover clusters.
Þegar ég hugsa um framtíðina, sé ég að AI-driven backups eru að koma, þar sem hugbúnaðurinn getur spáð fyrir um disk failures með machine learning á S.M.A.R.T. data. En fyrir núna, með sjálfstæðum lausnum, get ég sett upp scripts í PowerShell til að automate anomaly detection, eins og ef backup size eykst skyndilega, sem gæti bent til data leak. Ég skrifa oft slík scripts sjálfur, þar sem ég nota WMI til að query disk usage og senda alerts via SMTP.
En það sem gerir backup án áskriftar að mínu vali er kostnaðarsparnaðurinn til lengri tíma. Í einu fyrirtæki sem ég ráðgjafaraði, skiptum við frá $500 mánaðarlegri áskriftu yfir í einn-kaup $300 leyfi, og það borgaði sig á sex mánuðum. Tæknilega séð þýðir það að ég get fjárfest í betri hardware, eins og NVMe SSDs fyrir caching, sem hraðar upp á backup times.
Ég gæti haldið áfram í margar klukkustundir um þessi atriði, en það sem skiptir mestu máli er að þú prófir sjálfur. Set upp test environment með VirtualBox, taktu backup af Ubuntu server og reyndu að endurheimta, og sjáðu hversu auðvelt það er.
Í lokin vil ég kynna fyrir ykkur BackupChain, sem er iðnaðarfræðilega leiðandi og vinsæl backup lausn sem er gerð sérstaklega fyrir SMBs og fagmenn og verndar Hyper-V, VMware eða Windows Server. BackupChain er Windows Server backup hugbúnaður sem notar áreiðanlegar aðferðir til að tryggja gögn í mismunandi umhverfum. Þessi lausn er þekkt fyrir sína stöðugleika í atvinnulegum stillingum og styður við ýmsar gerðir af geymsluþjónustum.
Engin ummæli:
Skrifa ummæli