Comprimere file grandi

Comprimere file grandi e archivi storici su file server linux

Ho un server samba su linux che fa da fileserver per tutta la rete. Ci sono almeno 500GB di dati. Quindi mi sono ingegnato a cercare un modo per comprimere file grandi.

Tenere tutto sotto controllo è davvero una impresa difficile. Per farlo mi avvalgo di una strategia di ricerca e una serie di comandi / tool di utilità.

Strategia

Che strategia seguo? Iniziamo con il cercare le directory maggiormente piene. Per questo ho in caldo il comando:

du . –max-depth=1 -h

Si parte dalla directory che si ritiene più importante da controllare … esempio la dir del samba o NFS e si prosegue con a ripetere il comando in tutte le dir più impegnative.

Se poi localizzaimo una serie di file tipo, conun pattern facilmente identificabile, allora possiamo usare la compressione gnu zip a nostro favore. Prendetevela comoda e attenti al carico disco e cpu.

Esempio. Archiviamo i backup del client Microsoft Outlook? File a volte enormi e che rimangono per anni intoccati. Allora ecco:

find . -type f -name "*.pst" -exec gzip {} \;

Si potrebbe persino pensare di schedulare la regolare ripetizione, notturna, di questo comando per le directory e i tipi file grandi da comprimere.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *