sistema de backup

Iniciado por jacson_braga, 28 de Junho de 2016, 22:11

tópico anterior - próximo tópico

jacson_braga

Amigos,
Onde eu trabalho, utilizamos o servidor Ldap/Samba4, rodando como AD.

Gostaria de saber se alguém poderia me ajudar a utilizar algum script no qual eu rode para compactar a pasta /home/*.*, compactado todos usuários, porém cada um em arquivo individual .tar para não gerar somente um arquivo de 60gb, do diretorio completo home.

Gostaria de uma forma que ele capturasse todos os nomes dentro da pasta home e gerasse um arquivo compactado para cada diretorio, assim seria mais fácil de gerenciar isto.

Obrigado a todos.

jacson_braga

Pessoal, obrigado pela atenção de todos, consegui achar o script através do site https://www.vivaolinux.com.br/script/Script-simples-de-Backup-para-os-diretorios-listados-abaixo-do - qual funcionou perfeitamente, somente necessita ajeitar quais as pastas e os destinos, como segue abaixo:

#!/bin/bash
# script simples de backup

# formatação da Data no nome do arquivo .tar.gz
DATA_BKP=$(date "+%d/%m/%y")
export DATA_BKP

# listagem dos diretórios em formato 'single-column' única coluna
DIR_BARRA=$(ls / --format='single-column')
export DIR_BARRA

# Baner exibido no inicio do Backup
clear_console
for i in $(seq 1 3)
do
   echo -e '\t\t\t\e[44;37m ###########################################\e[0m'
   sleep 1s
done

   echo -e '\t\t\t\e[36m Inicializando Backup automático de todo FileSystem ...\e[0m'
   echo $'\t\t Listando os Diretórios atuais abaixo do FileSystem Principal (/).. '
   echo $DIR_BARRA
   echo ""
   echo " Aguarde enquanto o backup é inicializado...."
   sleep 1
   echo ""

# Variavel auxiliar que ira receber o nome de cada do diretório a cada interação do loop for
aux=1
export aux

# backup propiamente dito
# realiza um loop enquanto o comando ls / --format='single-column'
   for i in  $(ls / --format='single-column')
   do

         # atribui a variavel aux o nome do diretorio corrente no loop
         aux=$i
         # compacta o diretório que listado, atribuindo a ale o nome do diretório
         # com a data atual, exemplo etc_14_05_2012.tar.gz e salva no diretório corrente
         # Caso haja algum erro na execução do backup a saida padrão de erro STDERROR
         # é jogada para dentro de um arquivo. (arq.erro)
         # e um arquivo chamado info_backup.log é criado com as informações do ocorrido.
         tar -cvzf ${i}`date +%Y_%m_%d`.tar.gz /$i 2>> arq.erro
         if [ $? != 0 ];then
            echo "Erro ao realizar backup do FileSystem $i ,rodar novamente" >> info_backup.log
         else
            echo "Backup do FileSystem $i realizado com sucesso na data $(date)"
         fi

   done

# fim


Ele é show de bola.

Agora basta implementar para ele capturar a data do backup e jogar todos os arquivos para um servidor FTP remoto, com toda segurança necessária, e após dar um comando rm *.tar para não ficar com disco cheio no servidor.


Boa noite a todos.


selvaking

60 GiB? Para um servidor FTP remoto?

Cassetada!!!!
Dê-me um computador com o Tux que movo o mundo!

Linux User #323049

jacson_braga

Citação de: selvaking online 28 de Junho de 2016, 23:18
60 GiB? Para um servidor FTP remoto?

Cassetada!!!!

Pois é meu amigo, instituição pública, 600 users, este samba 4 é um dos servidores, ainda falta o sistema tributário que roda em CENTOS o banco ORACLE, com mais 25 gb de dados, mais o banco ORACLE da SAÚDE, mais os bancos internos rodando em mysql (Licitação, consultas, assistencia social etc...), VOIP, logs do proxy/squid/firewall, servidor de e-mails, domínio, Total diario uns 150 gb compactados, replicado para NAS e mais dois backups... E assim segue o baile.

O ftp é remoto, rsrs, rodando na mesma rede, somente por questões de segurança para não compartilhar a pasta e baixar pelo samba.


druidaobelix

Citação de: jacson_braga online 28 de Junho de 2016, 23:31
Citação de: selvaking online 28 de Junho de 2016, 23:18
60 GiB? Para um servidor FTP remoto?

Cassetada!!!!
Total diario uns 150 gb compactados, replicado para NAS e mais dois backups... E assim segue o baile.
O ftp é remoto, rsrs, rodando na mesma rede, somente por questões de segurança para não compartilhar a pasta e baixar pelo samba.

Quanto desses 150GB mudam de fato diariamente?

Algo desse tamanho certamente vale a pena investir numa solução de backup incremental e sem compactação.

Vai fazer numa fração de tempo e carga computacional.


www.arredondar.org.br
Vencedor Desafio de Impacto Social Google 2016!
Você também pode participar e fazer a diferença.

zekkerj

Jackson, me desculpa o mau jeito, mas isso não é backup, é "bacalhau".
A galera tem mania de querer implementar backup com scriptzinho personalizado... eu só te pergunto o seguinte: o que acontece se vc precisar restaurar um arquivo de seis meses atrás? Ou se você precisar descobrir onde está o arquivo que contém um dado específico que vc precisa?
Pois é, muito provavelmente teu script joga as cópias umas por cima das outras, e você não tem um catálogo do que e quando foi copiado.

Cara, vc tem 60GB de dados. Faça um favor a si mesmo... use um sistema de backup de verdade, não um "script".
Informe-se sobre o Amanda e sobre o Bacula.
Pesquise antes de perguntar, sua dúvida pode já ter sido respondida.
Não respondo dúvidas por MP, coloque sua dúvida no fórum onde ela pode ser pesquisada pelos seus colegas!
Não venha ao fórum apenas para perguntar. Se você sabe a resposta de um problema, porque não ajudar seu colega? ;D

cpaynes

Boa tarde.

Eu indico o Bácula. Atenderá tuas expectativas e da instituição.

Abraços.