bitbucketから、pipeline経由でAWS s3にアップロードする
bitbucketで差分管理しているリソースを、AWS s3にpipeline経由でアップロードする。
(静的htmlのみ使用するアクセスが少ないwebサイトをs3のhosting機能で運営することにした。)
リポジトリの設定からEnable Pipelinesをonにして、bitbucket-pipelines.ymlを設置する。
今回は、masterへのcommitのみ、s3にアップロードする。
# This is a sample build configuration for Other.
# Check our guides at https://confluence.atlassian.com/x/5Q4SMw for more examples.
# Only use spaces to indent your .yml configuration.
# -----
# You can specify a custom docker image from Docker Hub as your build environment.
image: atlassian/default-image:2
pipelines:
default:
- step:
# set AWS_ACCESS_KEY_ID and AWS_SECRET_ACCESS_KEY as environment variables
name: Deploy to S3
deployment: test # set to test, staging or production
# trigger: manual # uncomment to have a manual step
image: atlassian/pipelines-awscli
script:
- aws s3 sync --delete . s3://<bucket_name>
AWS側に、s3にアクセスできるユーザを作成する。
今回は、ユーザ、bitbucketを作成して、s3accessにフルでアクセスできるグループに所属させた
アクセスキーを、リポジトリの設定→Repository variablesに設定する
AWS_ACCESS_KEY_ID アクセスキーID
AWS_DEFAULT_REGION デフォルトリージョン
AWS_SECRET_ACCESS_KEY 対応するキー
アップロードに成功
アクセスキーなどを設定しないと、unable to locate credentials
Author And Source
この問題について(bitbucketから、pipeline経由でAWS s3にアップロードする), 我々は、より多くの情報をここで見つけました https://qiita.com/rei-ta/items/17552babf8c62a2f205b著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .