post backups
continuous-integration/drone/push Build is passing
Details
continuous-integration/drone/push Build is passing
Details
This commit is contained in:
parent
82c3b0e34f
commit
667c6c4e4e
|
@ -14,3 +14,11 @@ python3 -m http.server 4000
|
||||||
```
|
```
|
||||||
|
|
||||||
http://localhost:4000
|
http://localhost:4000
|
||||||
|
|
||||||
|
# Drafts
|
||||||
|
|
||||||
|
Usar directorio `_drafts` y para ver el doc usar:
|
||||||
|
|
||||||
|
```shell
|
||||||
|
docker run -it --rm --volume="$PWD:/srv/jekyll:Z" -p 4000:4000 jekyll/jekyll jekyll serve --drafts
|
||||||
|
```
|
||||||
|
|
|
@ -0,0 +1,65 @@
|
||||||
|
---
|
||||||
|
layout: post
|
||||||
|
title: "Mi plan de backups"
|
||||||
|
tags: [backup, linux, windows, cloud, storage]
|
||||||
|
---
|
||||||
|
|
||||||
|
Digamos que todo lo que hice con ordenadores hasta mis 20ymedios, lo perdí. Por entonces no me preocupaba mucho perder cosas que hacía, no le daba valor, y hoy en día me arrepiento. Por eso desde hace casi 10 años, una de mis obsesiones es no perder información. Información útil, claro. Documentos, imágenes, etc. A día de hoy guardo casi todo, y de una forma ordenada.
|
||||||
|
|
||||||
|
En este mundillo hay una cosa que se llama la regla del 3-2-1:
|
||||||
|
|
||||||
|
- Hacer al menos 2 copias de los datos.
|
||||||
|
- Tener esas copias en diferentes medios.
|
||||||
|
- Al menos 1 de las copias tenerla offsite.
|
||||||
|
|
||||||
|
Esto yo lo veo orientativo más que como algo mandatorio. En mi caso es todo muy manual y casero.
|
||||||
|
|
||||||
|
# De qué hago backup
|
||||||
|
|
||||||
|
### Servidores
|
||||||
|
|
||||||
|
Tengo unos cuantos VPS y Dedicados para diferentes finalidades, la mayoría no son cosas mias sino proyectos de amigos o conocidos. Hay cosas como las bases de datos que mejor hacer dump en vez de copiar los archivos internos. Mantengo documentando y versionado en gran medida todo.
|
||||||
|
|
||||||
|
### Cacharritos
|
||||||
|
|
||||||
|
RaspberryPis, NASes, incluso una retro consola portátil hecha con un NUC. Todos con su backup.
|
||||||
|
|
||||||
|
### Equipos
|
||||||
|
|
||||||
|
Principalmente el PC de casa y el portátil del curro. No hago copia de tooodo el equipo en este caso, solo de las _homes_ y algún directorio suelto (vease, `/etc`).
|
||||||
|
|
||||||
|
### Servicios
|
||||||
|
|
||||||
|
Aunque ya uso Google Drive para hacer backup de ciertas cosas, a su vez hago backup de Google Drive. SI, YA SÉ, Google no va a perder datos, pero si que puedo perder la cuenta, o que la cierren el día del juicio final (esto da para otro post).
|
||||||
|
|
||||||
|
Backup de Google Drive, Gmail, y mis correos de dominios personales (no los tengo en Gmail). Al igual que tengo servidores de otra gente, también sus dominios con sus correos. También hago backup de otros servicios de almacenamiento que uso para cosas secundarias, como box.com, OneDrive o Yandex Disk.
|
||||||
|
|
||||||
|
# Cómo hago los backups
|
||||||
|
|
||||||
|
Scripts. Si, hay software que hace ya las copias incluso luego te permite recuperar, pero es mayor el dolor de cabeza cuando falla o lo actualizan y cambian el funcionamiento. Así que con el tiempo he terminado haciéndome mis scripts, versionados y distribuidos por cada equipo. Esta medida me ha resultado siempre menos dolorosa.
|
||||||
|
|
||||||
|
Cada uno tiene si script/configuración, aunque algunos se parezcan o compartan funcionamiento. Todos van de forma similar, con un cron que por las noches (o varias veces al día) copian en la propia máquina lo que me interesa.
|
||||||
|
|
||||||
|
Luego, una vez al día envían esa copia a un sitio común. Aquí tenemos la doble copia ya, y en la mayoría de casos el offsite.
|
||||||
|
|
||||||
|
En la propia máquina solo tengo **la copia más reciente**.
|
||||||
|
|
||||||
|
Para servicios en la nube uso [`rclone`](https://rclone.org/) con el módulo crypt y para el correo [`imap-backup`](https://github.com/joeyates/imap-backup).
|
||||||
|
|
||||||
|
> Algún día escribiré sobre `rclone` porque es una maravilla. [Union](https://rclone.org/union/)FS es pura magia, y puedes tener teras por la cara usando esto.
|
||||||
|
|
||||||
|
# A donde mando los backups y qué hago con ellos
|
||||||
|
|
||||||
|
La copia de cada backup va a un pozo sin fondo de almacenamiento que puede contener todo. Todo entra aquí. En este pozo sin fondo tengo solo **1 semana de copias** de todo. Básicamente es un [Storage Box de Hetzner](https://www.hetzner.com/storage/storage-box). Antes usaba S3 de AWS y Glacier, pero me salía un poco más caro y era más coñazo de mantener desde fuera.
|
||||||
|
|
||||||
|
Mantengo sincronizado este almacenamiento a [Backblaze](https://backblaze.com) y a un raid físico en un búnker. Bueno, igual es exagerado, pero no anda lejos.
|
||||||
|
|
||||||
|
De nuevo tengo ya una tercera copia en 2 offsites adicionales. Backblaze cuesta dos duros el _tera_, y los discos del raid son grandes y lentos, espero que no fallen NUNCA. Y si fallan pues los reeamplazo por otro disco grande y lento, que valen otros dos duros.
|
||||||
|
|
||||||
|
En estos dos almacenamientos finales guardo **historicos variables, desde solo 1 mes, a infinito**. Depende del qué. El 90% de las copias es solo 1 mes, unos pocos 1 años, y algún caso MUY concreto, infinito.
|
||||||
|
|
||||||
|
# El desastre
|
||||||
|
|
||||||
|
Ok, y cuando algo falla, se pierde, o quiero recuperarlo, qué? A manita. Da igual que pueda recuperarlo de la copia _in situ_ a que tenga que traerla del almacenamiento final. Me la traigo de vuelta y recupero lo que sea.
|
||||||
|
|
||||||
|
Si es un equipo completo lleva más tiempo, porque hay más detallitos, pero no es mucho lio. En 1-2h lo tengo listo y volviedo a funcionar.
|
Loading…
Reference in New Issue