dup: support backups to Amazon S3 buckets
authorintrigeri <intrigeri@boum.org>
Sat, 9 Jan 2010 22:14:17 +0000 (23:14 +0100)
committerintrigeri <intrigeri@boum.org>
Sat, 9 Jan 2010 22:14:17 +0000 (23:14 +0100)
Thanks to stefan <s.freudenberg@jpberlin.de> for the patch.
This fixes Redmine bug #658.

AUTHORS
ChangeLog
README
examples/example.dup
handlers/dup.helper.in
handlers/dup.in

diff --git a/AUTHORS b/AUTHORS
index 89b505fd340f4e68f1fc136e63dfc631c1522d7e..c8686eb00f333e0fbc74bbf1bb357a026b839ab7 100644 (file)
--- a/AUTHORS
+++ b/AUTHORS
@@ -30,4 +30,5 @@ Matthew Palmer <mpalmer@debian.org> -- halt loglevel feature
 dan@garthwaite.org -- reportspace bugfix
 Tuomas Jormola <tj@solitudo.net> -- "when = manual" option
 Ian Beckwith <ianb@erislabs.net> -- dup bandwidthlimit fix
-Olivier Berger <oberger@ouvaton.org> -- dup debug output bugfix, reportinfo option
\ No newline at end of file
+Olivier Berger <oberger@ouvaton.org> -- dup debug output bugfix, reportinfo option
+stefan <s.freudenberg@jpberlin.de> -- dup support for Amazon S3 buckets
index 12c143633e65f6148cdf2cb29c0c37ec1b1e7392..f4009d729f8da2b02035399d6de255f24f8a8378 100644 (file)
--- a/ChangeLog
+++ b/ChangeLog
@@ -59,6 +59,7 @@ version 0.9.7 -- UNRELEASED
         . Report duplicity output as "info" so that it can be included in
           report e-mail when reportinfo is on (Closes: #563734)
         . Fix include/exclude paths with spaces
+        . Support backups to Amazon S3 buckets, thanks to stefan for the patch.
     helper changes
        dup:
         . Do not propose to exclude /home/*/.gnupg twice anymore
diff --git a/README b/README
index 03d96fe931ea217149793c53f7ab97b2c8ab4002..04eda2f3210427f4c9132a35a82ad4adb1698db9 100644 (file)
--- a/README
+++ b/README
@@ -182,6 +182,16 @@ blank by hitting return.
 The included helper program "ninjahelper" will walk you through creating
 an rdiff-backup configuration, and will set up the ssh keys for you.
 
+
+Amazon Simple Storage Service (S3)
+==================================
+
+Duplicity can store backups on Amazon S3 buckets, taking care of encryption.
+Since it performs incremental backups it minimizes the number of request per
+operation therefore reducing the costs. The boto Python interface to Amazon
+Web Services is needed to use duplicity with S3 (Debian package: python-boto).
+
+
 INSTALLATION
 ============
    
index 2b59fe5ed7c9e3ee96cd38892f0110edc7dc5912..ea4d66e468e87228827efc5a9169d787eddfedfd 100644 (file)
@@ -8,6 +8,8 @@
 
 ## passed directly to duplicity, e.g. to increase verbosity set this to:
 ## options = --verbosity 8
+## when using the Amazon S3 backend to create buckets in Europe:
+## options = --s3-european-buckets --s3-use-new-style
 ##
 ## Default:
 # options = 
@@ -158,11 +160,21 @@ exclude = /home/*/.gnupg
 ## examples include:
 ## desturl = file:///usr/local/backup
 ## desturl = rsync://user@other.host//var/backup/bla
+## desturl = s3+http://
 ## the default value of this configuration option is not set:
 ##
 ## Default:
 # desturl = 
 
+## Amazon Web Services Access Key ID and Secret Access Key, needed for backups
+## to S3 buckets.
+## awsaccesskeyid = YOUR_AWS_ACCESS_KEY_ID
+## awssecretaccesskey = YOUR_AWS_SECRET_KEY
+##
+## Default:
+# awsaccesskeyid = 
+# awssecretaccesskey = 
+
 ## bandwith limit, in kbit/s ; default is 0, i.e. no limit an example
 ## setting would be:
 ## bandwidthlimit = 128
index 2fafb99dbcbf9a10790a6c5dbeda99cdd5248fac..ae48e4cdd147c0b81b28ed7c7f414d1a4d82c759 100644 (file)
@@ -403,6 +403,12 @@ keep = $dup_keep
 # bandwithlimit. For details, see duplicity manpage, section "URL FORMAT".
 #desturl = file:///usr/local/backup
 #desturl = rsync://user@other.host//var/backup/bla
+#desturl = s3+http://your_bucket
+
+# Amazon Web Services Access Key ID and Secret Access Key, needed for backups
+# to S3 buckets.
+#awsaccesskeyid = YOUR_AWS_ACCESS_KEY_ID
+#awssecretaccesskey = YOUR_AWS_SECRET_KEY
 
 # bandwith limit, in kbit/s ; default is 0, i.e. no limit
 #bandwidthlimit = 128
index 2f55b9c07668ac0b63680f9599b9d96f96032149..ffae48c1bece695bcd2462f4bcc33e4929d34783 100644 (file)
@@ -26,6 +26,8 @@ setsection dest
 getconf incremental yes
 getconf keep 60
 getconf desturl
+getconf awsaccesskeyid
+getconf awssecretaccesskey
 getconf sshoptions
 getconf bandwidthlimit 0
 getconf desthost
@@ -38,6 +40,9 @@ destdir=${destdir%/}
 [ -n "$desturl" -o -n "$destdir" ]  || fatal "The destination directory (destdir) must be set when desturl is not used."
 [ -n "$include" -o -n "$vsinclude" ]  || fatal "No source includes specified"
 [ -n "$password" ] || fatal "The password option must be set."
+if [ "`echo $desturl | @AWK@ -F ':' '{print $1}'`" == "s3+http" ]; then
+   [ -n "$awsaccesskeyid" -a -n "$awssecretaccesskey" ]  || fatal "AWS access keys must be set for S3 backups."
+fi
 
 ### VServers
 # If vservers are configured, check that the ones listed in $vsnames do exist.
@@ -227,6 +232,12 @@ set +o noglob
 
 execstr_source=${execstr_source//\\*/\\\\\\*}
 
+### If desturl is an S3 URL export the AWS environment variables
+if [ "`echo $desturl | @AWK@ -F ':' '{print $1}'`" == "s3+http" ]; then
+   export AWS_ACCESS_KEY_ID="$awsaccesskeyid"
+   export AWS_SECRET_ACCESS_KEY="$awssecretaccesskey"
+fi
+
 ### Cleanup commands (duplicity >= 0.4.4)
 
 # cleanup