上一篇說過兩臺服務器間大數據文件傳輸,利用rsync、scp等神奇命令便能解決,這次站在巨人的肩膀上咱們基于上述命令之一做個超簡單的剛需應用~本地備份服務器!動心不,請繼續看~

咱們以備份線上數據庫文件為例(各種log文件也可以),本地系統是Ubuntu:
一。假設已經有一個數據庫,且是自建的跟服務器同一臺主機,每天會有定時腳本備份并壓縮保存到固定文件夾(如寶塔的定時任務,保存到/www/backup/database 文件夾),但是硬盤空間有限,選擇保存份數時就不能選很多份了,那么其他保存日期的db文件就由本地服務器保存,既達到了多重備份的目的又節省了服務器硬盤空間;對于備份對象是每天增長飛快的各種log文件,尤為合適。
二。
1)確定好備份對象和線上文件目錄后,咱們開始動工了。文件目錄和對象暫設/www/backup/database下以.gz結尾的打包過的數據庫文件。
2)編寫本地定時命令,例,每天一點半備份線上IP為x.x.x.x的目錄/www/backup/database 到本地的 /www/backup 目錄下,過程輸出咱們以追加的方式寫入到/www/wwwlogs/db_backup.log里面,錯誤信息也寫入到/www/wwwlogs/db_backup_error.log里面,命令如下:
crontab -e #打開linux定時器編輯界面
30 1 * * * rsync -tvzr 用戶名@線上IP :/www/backup/database /www/backup >> /www/wwwlogs/db_backup.log 2>>/www/wwwlogs/db_backup_error.log
note:rsync如果是ssh模式的,建議把本地公鑰提前放入到線上服務器的.ssh/authorized_keys文件內,就不用輸入密碼了;如果線上服務器是ubuntu,最好查看一下遠程機器是否安裝ssh服務(ubuntu 沒有默認安裝ssh) 命令:ssh host ,如果顯示
ssh: Could not resolve hostname host: Name or service not known
就是沒裝的
安裝ssh 命令 sudo apt-get install openssh-server
然后關閉ubuntu的防火墻 ufw disable
3)運行過后,如無意外,本地已經有 www/backup/database/n個.gz開頭的壓縮文件,到這任務已經完成了一大半了,是不是很簡單?不過有個小問題?本地的數據如果可以刪,我可以控制保留份數么?份數的功能線上的寶塔面板,準確說是線上的腳本已經有了,問題是,線上空間有限啊,我又想多留幾份,以備不測呢?那就自己寫一個腳本控制唄!
說到這,這種小小的運維任務就不勞煩各大編程語言了,我的習慣是用php搞定它,shell和Python嘛,你愛用哪個用哪個,在下覺得PHP搞簡單運維還是挺適合的,非常穩定,簡單,沒有煩人的縮進和突如其來的運行時錯誤,哈哈~
貼上一段小腳本,文件名:manage_db_backup.php
<?php
$conf_len = 18;
$file_arr = glob( "/www/backup/database/*.gz" );
if(count( $file_arr)> $conf_len ){
foreach( $file_arr as $v ){
$time_cut_line = date('Ymd',strtotime('-'.$conf_len.'days'));
$v_time = substr( end(explode('/',$v)) ,16,8 );
$v_time<$time_cut_line && unlink($v);
}
}else{
echo 'no delete files',PHP_EOL;
}
$file_arr2 = glob( "/www/backup/database/*.gz" );
echo 'delete,';
print_r( array_diff($file_arr,$file_arr2) );
echo PHP_EOL;
?>
以上腳本加入Linux定時器,命令:
30 2 * * * php manage_db_backup.php >> /www/server/manage_db_backup.log 2>&1
運行結果類似于

大功告成!是不是很簡單?