EC2 cloudFormationTemplate: различия между версиями
Sirmax (обсуждение | вклад) |
Sirmax (обсуждение | вклад) |
||
(не показано 28 промежуточных версий этого же участника) | |||
Строка 1: | Строка 1: | ||
+ | [[Категория:Amazon EC2]] |
||
=EC2 Cloud Formation Template= |
=EC2 Cloud Formation Template= |
||
− | Весь |
+ | Весь темплейт тут: http://wiki.sirmax.noname.com.ua/index.php/EC2_cloudFormationTemplate_Example<BR> |
Ниже разбор "По частям", насколько я сам за это время смог разобраться.<BR> |
Ниже разбор "По частям", насколько я сам за это время смог разобраться.<BR> |
||
<BR> |
<BR> |
||
==Задача== |
==Задача== |
||
− | Требуется установить и настроить кластер из N машин. На |
+ | Требуется установить и настроить кластер из N машин. На кластере установить тестовое java-приложение. Настроить балансировку нагрузки. Число машин N в кластере должно изменяться динамически в зависимости от нагрузки. Для установки использовать средства амазона - CloudFormationTemplate. Т.к. задача тестовая то применить chef-solo и puppet для разворачивания сервисов. puppet-сервер имеется - настроенный и сконфигурированный. |
==CloudFormationTemplate== |
==CloudFormationTemplate== |
||
− | Это такая штука - позволяет описать конфигурацию стека машин (т.е. как я понимаю - группы машин! а не отдельного инстанса) в формате json |
+ | Это такая штука - позволяет описать конфигурацию стека машин (т.е. как я понимаю - группы машин! а не отдельного инстанса) в формате json (см. ссылку в начале). Формат довольно замороченный и для понимания не так уж и прост. |
+ | |||
+ | ==Подготовка управляющей ноды== |
||
+ | Все действия будем производить с управляющей ноды. Опишу ее конфигурацию. |
||
+ | ===rpm=== |
||
+ | я поставил следующий набор пакетов для работы с амазоном: |
||
+ | <PRE> |
||
+ | aws-amitools-ec2.noarch |
||
+ | aws-apitools-cfn.noarch |
||
+ | aws-apitools-common.noarch |
||
+ | aws-apitools-iam.noarch |
||
+ | aws-apitools-as.noarch |
||
+ | aws-apitools-ec2.noarch |
||
+ | aws-apitools-elb.noarch |
||
+ | aws-apitools-mon.noarch |
||
+ | aws-apitools-rds.noarch |
||
+ | aws-cfn-bootstrap.noarch |
||
+ | aws-scripts-ses.noarch |
||
+ | </PRE> |
||
+ | ==Окружение== |
||
+ | как я уже писал:<BR> |
||
+ | http://wiki.sirmax.noname.com.ua/index.php/EC2 |
||
+ | <BR> |
||
+ | нужно сконфигурировать окружение. |
||
+ | <BR> Принципиальной разницы нет - тот же набор ключей и сертификатов. Переменные окружение выглядят так: |
||
+ | <PRE> |
||
+ | |||
+ | export EC2_PRIVATE_KEY=$HOME/keys/pk-nocrypt-XXXXXXXXXXXXXXX.pem |
||
+ | export EC2_CERT=$HOME/keys/cert-XXXXXXXXXXXXXXX.pem |
||
+ | export AWS_PRIVATE_KEY=$HOME/keys/pk-nocrypt-XXXXXXXXXXXXXXX.pem |
||
+ | export AWS_CERT=$HOME/keys/cert-XXXXXXXXXXXXXXX.pem |
||
+ | export JAVA_HOME=/usr/lib/jvm/jre-1.6.0-openjdk.x86_64/ |
||
+ | |||
+ | export AWS_CLOUDFORMATION_HOME=/opt/aws/apitools/cfn-1.0.11/ |
||
+ | export EC2_HOME=/opt/aws |
||
+ | AWS_CREDENTIAL_FILE=$HOME/keys/aws_cred |
||
+ | |||
+ | export PATH=${EC2_HOME}:${AWS_CLOUDFORMATION_HOME}:${PATH} |
||
+ | |||
+ | </PRE> |
||
+ | aws_cred - файл с логином и паролем. т.е. с ключем и id что впрочем одно и то же. |
||
+ | <PRE> |
||
+ | AWSAccessKeyId=XXXXXXXXXXXXXXXXX |
||
+ | AWSSecretKey=YYYYYYYYYYYYYYYYYYYYYYYYYYYYY |
||
+ | </PRE> |
||
+ | ==Темплейт (по шагам)== |
||
+ | Разбираем по шагам. В следующей секции JSON будет не совсем валидный - т.к. разбит на разные секции. Копировать внимательно. |
||
+ | ===Parameters=== |
||
+ | Секция параметры - это собственно параметры которые можно переопределить при создании стека. Довольно удобно. Я определил для всех дефолтные значение - и в реальности их не переопределяю. но это делает темплейт более легко переносимым. |
||
+ | <BR> |
||
+ | Секция начинаеся, собственно, с ключевого слова: |
||
+ | <PRE> |
||
+ | "Parameters" : { |
||
+ | </PRE> |
||
+ | ХостНейм - тот хлостнейм который я хочу иметь на ВСЕХ нодах кластера. Это важно для паппета - что бы отработал сертификат, привязанный к хостнейму. Других причин назначать одинаковый хостнейм нет. |
||
+ | <PRE> |
||
+ | "HostName": { |
||
+ | "Description" : "Local Host Name (for puppet auth)", |
||
+ | "Type": "String", |
||
+ | "Default": "testtomcatnode.test.com" |
||
+ | }, |
||
+ | </PRE> |
||
+ | Параметры паппет-сервера - днс-имя и ip адрес. Нужны для того что бы стянуть с паппет-сервера конфигурацию. Т.к. на паппет-сервере сертификат тоже привязан к его хостнейму а ip может меняться (например при изменении типа инстанса) то храню оба параметра. Ниже - добавляю запись в /etc/hosts |
||
+ | <PRE> |
||
+ | "PuppetMasterDNSName": { |
||
+ | "Description" : "The PuppetMaster DNS name", |
||
+ | "Type": "String", |
||
+ | "Default": "ip-10-117-81-201.ec2.internal" |
||
+ | }, |
||
+ | </PRE> |
||
+ | <PRE> |
||
+ | "PuppetMasterIPAddress": { |
||
+ | "Description" : "The PuppetMaster IP address", |
||
+ | "Type": "String", |
||
+ | "Default": "10.XX.XX.XX" |
||
+ | }, |
||
+ | </PRE> |
||
+ | Ключ - ссылка на пре-конфигурированный ssh-ключ. Собственно это видно в комментарии. |
||
+ | <PRE> |
||
+ | "KeyName" : { |
||
+ | "Description" : "Name of an existing EC2 KeyPair to enable SSH access to the instances", |
||
+ | "Type" : "String", |
||
+ | "Default" : "hp" |
||
+ | }, |
||
+ | </PRE> |
||
+ | Пароль базы данных - т.к. это тестовая инсталляция для демонстрации то кроме томкета я ставлю апач php mysql. В качестве источника вдохновения я использовал LAMP Template. |
||
+ | <PRE> |
||
+ | "DBRootPassword": { |
||
+ | "NoEcho": "true", |
||
+ | "Description" : "Root password for MySQL", |
||
+ | "Default" : "admin", |
||
+ | "Type": "String", |
||
+ | "MinLength": "1", |
||
+ | "MaxLength": "41", |
||
+ | "AllowedPattern" : "[a-zA-Z0-9]*", |
||
+ | "ConstraintDescription" : "must contain only alphanumeric characters." |
||
+ | }, |
||
+ | </PRE> |
||
+ | Тип инстанса - у меня самый простой т.к. это тест. |
||
+ | <PRE> |
||
+ | "InstanceType" : { |
||
+ | "Description" : "WebServer EC2 instance type", |
||
+ | "Type" : "String", |
||
+ | "Default" : "t1.micro", |
||
+ | "AllowedValues" : [ "t1.micro","m1.small","m1.medium","m1.large","m1.xlarge","m2.xlarge","m2.2xlarge","m2.4xlarge","c1.medium","c1.xlarge","cc1.4xlarge","cc2.8xlarge","cg1.4xlarge"], |
||
+ | "ConstraintDescription" : "must be a valid EC2 instance type." |
||
+ | } |
||
+ | </PRE> |
||
+ | Это аппендикс закрывающий секцию параметров. |
||
+ | <PRE> |
||
+ | }, |
||
+ | </PRE> |
||
+ | ===Mapping=== |
||
+ | Маппинг - по сути описание какой образ брать за основу для разных регионов. Насколько я могу судить эта секция более-менее одинаковая, и пока что не вижу причин изменять. |
||
+ | <PRE> |
||
+ | "Mappings" : { |
||
+ | "AWSInstanceType2Arch" : { |
||
+ | "t1.micro" : { "Arch" : "64" }, |
||
+ | "m1.small" : { "Arch" : "64" }, |
||
+ | "m1.medium" : { "Arch" : "64" }, |
||
+ | "m1.large" : { "Arch" : "64" }, |
||
+ | "m1.xlarge" : { "Arch" : "64" }, |
||
+ | "m2.xlarge" : { "Arch" : "64" }, |
||
+ | "m2.2xlarge" : { "Arch" : "64" }, |
||
+ | "m2.4xlarge" : { "Arch" : "64" }, |
||
+ | "c1.medium" : { "Arch" : "64" }, |
||
+ | "c1.xlarge" : { "Arch" : "64" }, |
||
+ | "cc1.4xlarge" : { "Arch" : "64HVM" }, |
||
+ | "cc2.8xlarge" : { "Arch" : "64HVM" }, |
||
+ | "cg1.4xlarge" : { "Arch" : "64HVM" } |
||
+ | }, |
||
+ | </PRE> |
||
+ | <PRE> |
||
+ | "AWSRegionArch2AMI" : { |
||
+ | "us-east-1" : { "32" : "ami-31814f58", "64" : "ami-1b814f72", "64HVM" : "ami-0da96764" }, |
||
+ | "us-west-2" : { "32" : "ami-38fe7308", "64" : "ami-30fe7300", "64HVM" : "NOT_YET_SUPPORTED" }, |
||
+ | "us-west-1" : { "32" : "ami-11d68a54", "64" : "ami-1bd68a5e", "64HVM" : "NOT_YET_SUPPORTED" }, |
||
+ | "eu-west-1" : { "32" : "ami-973b06e3", "64" : "ami-953b06e1", "64HVM" : "NOT_YET_SUPPORTED" }, |
||
+ | "ap-southeast-1" : { "32" : "ami-b4b0cae6", "64" : "ami-beb0caec", "64HVM" : "NOT_YET_SUPPORTED" }, |
||
+ | "ap-northeast-1" : { "32" : "ami-0644f007", "64" : "ami-0a44f00b", "64HVM" : "NOT_YET_SUPPORTED" }, |
||
+ | "sa-east-1" : { "32" : "ami-3e3be423", "64" : "ami-3c3be421", "64HVM" : "NOT_YET_SUPPORTED" } |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | |||
+ | ===Resources=== |
||
+ | В секции описываются ресурсы, что бы это ни значило. |
||
+ | <PRE> |
||
+ | "Resources" : { |
||
+ | </PRE> |
||
+ | ====User, Key==== |
||
+ | Пользователь? (100% понимания нет - секция из примера) |
||
+ | <PRE> |
||
+ | "CfnUser" : { |
||
+ | "Type" : "AWS::IAM::User", |
||
+ | "Properties" : { |
||
+ | "Path": "/", |
||
+ | "Policies": [{ |
||
+ | "PolicyName": "root", |
||
+ | "PolicyDocument": { "Statement":[{ |
||
+ | "Effect":"Allow", |
||
+ | "Action":"cloudformation:DescribeStackResource", |
||
+ | "Resource":"*" |
||
+ | }]} |
||
+ | }] |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | Аналогично предыдущей. |
||
+ | <PRE> |
||
+ | "HostKeys" : { |
||
+ | "Type" : "AWS::IAM::AccessKey", |
||
+ | "Properties" : { |
||
+ | "UserName" : {"Ref": "CfnUser"} |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | ====ElasticLoadBalancer==== |
||
+ | Описание балансера - с моей точки зоения все секции более-менее очевидные. |
||
+ | На коком порту слушать, на какой порт форвардить, какой протокол использовать, "Fn::GetAZs" - насколько я понимаю настроит на текущие зоны. |
||
+ | <PRE> |
||
+ | "ElasticLoadBalancer" : { |
||
+ | "Type" : "AWS::ElasticLoadBalancing::LoadBalancer", |
||
+ | "Properties" : { |
||
+ | "AvailabilityZones" : { "Fn::GetAZs" : "" }, |
||
+ | "Listeners" : [ { |
||
+ | "LoadBalancerPort" : "80", |
||
+ | "InstancePort" : "8080", |
||
+ | "Protocol" : "HTTP" |
||
+ | } ], |
||
+ | "HealthCheck" : { |
||
+ | "Target" : "HTTP:80/", |
||
+ | "HealthyThreshold" : "3", |
||
+ | "UnhealthyThreshold" : "5", |
||
+ | "Interval" : "30", |
||
+ | "Timeout" : "5" |
||
+ | } |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | ====WebServerAutoScailingGroup==== |
||
+ | <PRE> |
||
+ | "WebServerAutoScailingGroup" : { |
||
+ | "Type" : "AWS::AutoScaling::AutoScalingGroup", |
||
+ | "Properties" : { |
||
+ | "AvailabilityZones" : { "Fn::GetAZs" : ""}, |
||
+ | "LaunchConfigurationName" : { "Ref" : "WebServerLaunchConfig" }, |
||
+ | "MinSize" : "1", |
||
+ | "MaxSize" : "3", |
||
+ | "LoadBalancerNames" : [ { "Ref" : "ElasticLoadBalancer" } ] |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | |||
+ | ====Web Server Scale Policy==== |
||
+ | <PRE> |
||
+ | "WebServerScaleUpPolicy" : { |
||
+ | "Type" : "AWS::AutoScaling::ScalingPolicy", |
||
+ | "Properties" : { |
||
+ | "AdjustmentType" : "ChangeInCapacity", |
||
+ | "AutoScalingGroupName" : { "Ref" : "WebServerAutoScailingGroup" }, |
||
+ | "Cooldown" : "60", |
||
+ | "ScalingAdjustment" : "1" |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | |||
+ | <PRE> |
||
+ | "WebServerScaleDownPolicy" : { |
||
+ | "Type" : "AWS::AutoScaling::ScalingPolicy", |
||
+ | "Properties" : { |
||
+ | "AdjustmentType" : "ChangeInCapacity", |
||
+ | "AutoScalingGroupName" : { "Ref" : "WebServerAutoScailingGroup" }, |
||
+ | "Cooldown" : "60", |
||
+ | "ScalingAdjustment" : "-1" |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | ====Alarms==== |
||
+ | <PRE> |
||
+ | "CPUAlarmHigh": { |
||
+ | "Type": "AWS::CloudWatch::Alarm", |
||
+ | "Properties": { |
||
+ | "AlarmDescription": "Scale-up if CPU > 90% for 60 sec", |
||
+ | "MetricName": "CPUUtilization", |
||
+ | "Namespace": "AWS/EC2", |
||
+ | "Statistic": "Average", |
||
+ | "Period": "60", |
||
+ | "EvaluationPeriods": "2", |
||
+ | "Threshold": "90", |
||
+ | "AlarmActions": [ { "Ref": "WebServerScaleUpPolicy" } ], |
||
+ | "Dimensions": [ |
||
+ | { |
||
+ | "Name": "AutoScalingGroupName", |
||
+ | "Value": { "Ref": "WebServerAutoScailingGroup" } |
||
+ | } |
||
+ | ], |
||
+ | "ComparisonOperator": "GreaterThanThreshold" |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | <PRE> |
||
+ | "CPUAlarmLow": { |
||
+ | "Type": "AWS::CloudWatch::Alarm", |
||
+ | "Properties": { |
||
+ | "AlarmDescription": "Scale-down if CPU < 70% for 1 minutes", |
||
+ | "MetricName": "CPUUtilization", |
||
+ | "Namespace": "AWS/EC2", |
||
+ | "Statistic": "Average", |
||
+ | "Period": "60", |
||
+ | "EvaluationPeriods": "2", |
||
+ | "Threshold": "70", |
||
+ | "AlarmActions": [ { "Ref": "WebServerScaleDownPolicy" } ], |
||
+ | "Dimensions": [ |
||
+ | { |
||
+ | "Name": "AutoScalingGroupName", |
||
+ | "Value": { "Ref": "WebServerAutoScailingGroup" } |
||
+ | } |
||
+ | ], |
||
+ | "ComparisonOperator": "LessThanThreshold" |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | |||
+ | ====LaunchConfig==== |
||
+ | По сути в этом примере - это описание сервера который надо поднять. Т.е. "взять амазоновский образ, проделать с ним список действий, запустить пол лоад балансером" |
||
+ | <PRE> |
||
+ | "WebServerLaunchConfig": { |
||
+ | "Type" : "AWS::AutoScaling::LaunchConfiguration", |
||
+ | "Metadata" : { |
||
+ | "Comment1" : "this is test config", |
||
+ | </PRE> |
||
+ | |||
+ | |||
+ | <PRE> |
||
+ | "AWS::CloudFormation::Init" : { |
||
+ | "config" : { |
||
+ | </PRE> |
||
+ | =====Пакеты===== |
||
+ | гемы и рпм: |
||
+ | <PRE> |
||
+ | "packages" : { |
||
+ | "rubygems" : { |
||
+ | "chef" : [ "0.10.2" ] |
||
+ | }, |
||
+ | </PRE> |
||
+ | <PRE> |
||
+ | "yum" : { |
||
+ | "puppet" : [], |
||
+ | "mc" : [], |
||
+ | "tomcat7" : [], |
||
+ | "nginx" : [], |
||
+ | "mysql" : [], |
||
+ | "mysql-server" : [], |
||
+ | "mysql-libs" : [], |
||
+ | "httpd" : [], |
||
+ | "php" : [], |
||
+ | "php-mysql" : [], |
||
+ | "gcc-c++" : [], |
||
+ | "ruby-devel" : [], |
||
+ | "make" : [], |
||
+ | "autoconf" : [], |
||
+ | "automake" : [], |
||
+ | "rubygems" : [] |
||
+ | |||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | =====Файлы===== |
||
+ | Т.к. задача тестовая - взять с амазона пример PHP-странички |
||
+ | <PRE> |
||
+ | "sources" : { |
||
+ | "/var/www/html" : "https://s3.amazonaws.com/cloudformation-examples/CloudFormationPHPSample.zip" |
||
+ | }, |
||
+ | </PRE> |
||
+ | =====Конфиг chef===== |
||
+ | <PRE> |
||
+ | "files" : { |
||
+ | "/etc/chef/solo.rb" : { |
||
+ | "content" : { "Fn::Join" : ["", [ |
||
+ | "log_level :info\n", |
||
+ | "log_location STDOUT\n", |
||
+ | "file_cache_path \"/var/chef-solo\"\n", |
||
+ | "cookbook_path \"/var/chef-solo/cookbooks\"\n", |
||
+ | "json_attribs \"/etc/chef/node.json\"\n" |
||
+ | ]] }, |
||
+ | "mode" : "000644", |
||
+ | "owner" : "root", |
||
+ | "group" : "root" |
||
+ | }, |
||
+ | </PRE> |
||
+ | =====Наcтройка MySQL===== |
||
+ | <PRE> |
||
+ | "/tmp/setup.mysql" : { |
||
+ | "content" : "CREATE DATABASE lampdb;\n", |
||
+ | "mode" : "000644", |
||
+ | "owner" : "root", |
||
+ | "group" : "root" |
||
+ | }, |
||
+ | </PRE> |
||
+ | |||
+ | =====Включить epel===== |
||
+ | <PRE> |
||
+ | "/etc/yum.repos.d/epel.repo" : { |
||
+ | "source" : "https://s3.amazonaws.com/cloudformation-examples/enable-epel-on-amazon-linux-ami", |
||
+ | "mode" : "000644", |
||
+ | "owner" : "root", |
||
+ | "group" : "root" |
||
+ | }, |
||
+ | </PRE> |
||
+ | =====Настройка puppet-клиента===== |
||
+ | <PRE> |
||
+ | "/etc/puppet/puppet.conf" : { |
||
+ | "content" : { "Fn::Join" : ["", [ |
||
+ | "[main]\n", |
||
+ | " logdir=/var/log/puppet\n", |
||
+ | " rundir=/var/run/puppet\n", |
||
+ | " ssldir=$vardir/ssl\n", |
||
+ | " pluginsync=true\n", |
||
+ | "[agent]\n", |
||
+ | " classfile=$vardir/classes.txt\n", |
||
+ | " localconfig=$vardir/localconfig\n", |
||
+ | " server=",{ "Ref" : "PuppetMasterDNSName" },"\n" |
||
+ | ]] }, |
||
+ | "mode" : "000644", |
||
+ | "owner" : "root", |
||
+ | "group" : "root" |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | |||
+ | =====Список сервисов для включения===== |
||
+ | tomcat СПЕЦИАЛЬНО включается с помощью chef что бы показать такую возможность! |
||
+ | <PRE> |
||
+ | "services" : { |
||
+ | "sysvinit" : { |
||
+ | "mysqld" : { |
||
+ | "enabled" : "true", |
||
+ | "ensureRunning" : "true" |
||
+ | }, |
||
+ | "httpd" : { |
||
+ | "enabled" : "true", |
||
+ | "ensureRunning" : "true" |
||
+ | } |
||
+ | } |
||
+ | } |
||
+ | } |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | =====Properties===== |
||
+ | <PRE> |
||
+ | "Properties": { |
||
+ | "ImageId" : { "Fn::FindInMap" : [ "AWSRegionArch2AMI", { "Ref" : "AWS::Region" }, |
||
+ | { "Fn::FindInMap" : [ "AWSInstanceType2Arch", { "Ref" : "InstanceType" }, "Arch" ] } ] }, |
||
+ | "InstanceType" : { "Ref" : "InstanceType" }, |
||
+ | "KeyName" : { "Ref" : "KeyName" }, |
||
+ | "SecurityGroups" : [ {"Ref" : "WebServerSecurityGroup"} ], |
||
+ | </PRE> |
||
+ | * ImageId - ссылка на базовый образ с учетом региона. Очевидно можно использовать свой. |
||
+ | * InstanceType - тип инстанса (t1.micro) |
||
+ | * SecurityGroups - не требует пояснения, я думаю |
||
+ | * KeyName |
||
+ | ======UserData====== |
||
+ | Пользовательская часть - достаточно важная. <BR> |
||
+ | Ниже секции отмечу части которые мне до сих пор не ясны |
||
+ | <PRE> |
||
+ | "UserData" : { "Fn::Base64" : { "Fn::Join" : ["", [ |
||
+ | "#!/bin/bash -v\n", |
||
+ | "yum update -y aws-cfn-bootstrap\n", |
||
+ | |||
+ | "# Helper function\n", |
||
+ | "function error_exit\n", |
||
+ | "{\n", |
||
+ | " /opt/aws/bin/cfn-signal -e 1 -r \"$1\" '", { "Ref" : "WaitHandle" }, "'\n", |
||
+ | " exit 1\n", |
||
+ | "}\n", |
||
+ | |||
+ | "# Install LAMP packages\n", |
||
+ | "#/opt/aws/bin/cfn-init -s ", { "Ref" : "AWS::StackName" }, " -r WebServer ", "--access-key ", { "Ref" : "HostKeys" }, " --secret-key ", {"Fn::GetAtt": ["HostKeys", "SecretAccessKey"]}, " --region ", { "Ref" : "AWS::Region" }, " || error_exit 'Failed to run cfn-init'\n", |
||
+ | " /opt/aws/bin/cfn-init -s ", { "Ref" : "AWS::StackName" }, " -r WebServerLaunchConfig ", "--access-key ", { "Ref" : "HostKeys" }, " --secret-key ", {"Fn::GetAtt": ["HostKeys", "SecretAccessKey"]}, " --region ", { "Ref" : "AWS::Region" }, " || error_exit 'Failed to run cfn-init'\n", |
||
+ | |||
+ | |||
+ | "# Setup MySQL, create a user and a database\n", |
||
+ | "mysqladmin -u root password '", { "Ref" : "DBRootPassword" }, "' || error_exit 'Failed to initialize root password'\n", |
||
+ | "mysql -u root --password='", { "Ref" : "DBRootPassword" }, "' < /tmp/setup.mysql || error_exit 'Failed to initialize database'\n", |
||
+ | |||
+ | "# Configure the PHP application - in this case, fixup the page with the right references to the database\n", |
||
+ | "sed -i \"s/REPLACE_WITH_DATABASE/localhost/g\" /var/www/html/index.php\n", |
||
+ | "sed -i \"s/REPLACE_WITH_DBUSER/root/g\" /var/www/html/index.php\n", |
||
+ | "sed -i \"s/REPLACE_WITH_DBPASSWORD/", { "Ref" : "DBRootPassword" }, "/g\" /var/www/html/index.php\n", |
||
+ | |||
+ | "echo interface \"eth0\" > /etc/dhcp/dhclient-eth0.conf \n", |
||
+ | "sed -i \"s/localhost.localdomain/", { "Ref" : "HostName" }, "/g\" /etc/sysconfig/network\n", |
||
+ | "/bin/hostname ", { "Ref" : "HostName" }, "\n", |
||
+ | "echo " , { "Ref" : "PuppetMasterIPAddress" }," ", { "Ref" : "PuppetMasterDNSName" }, ">> /etc/hosts\n", |
||
+ | "rm -rf /var/lib/puppet/ \n", |
||
+ | "/usr/bin/wget http://", { "Ref" : "PuppetMasterDNSName" },"/puppet/puppet_cert/puppet.tar.gz -O /puppet.tar.gz \n", |
||
+ | "tar -xvf puppet.tar.gz \n", |
||
+ | "chown puppet:puppet /var/lib/puppet/ -Rc \n", |
||
+ | "/usr/sbin/puppetd --server ", { "Ref" : "PuppetMasterDNSName" }, " --verbose --test --no-daemonize --debug \n", |
||
+ | " sleep 60 \n", |
||
+ | "/usr/bin/chef-solo -l debug -c /etc/chef/solo.rb -j /etc/chef/run_list.syslog-ng.json \n", |
||
+ | " sleep 10 \n", |
||
+ | "/usr/bin/chef-solo -l debug -c /etc/chef/solo.rb -j /etc/chef/run_list.tomcat.json \n", |
||
+ | |||
+ | "# All is well so signal success\n", |
||
+ | "/opt/aws/bin/cfn-signal -e 0 -r \"LAMP Stack setup complete\" '", { "Ref" : "WaitHandle" }, "'\n" |
||
+ | ]]}} |
||
+ | } |
||
+ | }, |
||
+ | |||
+ | </PRE> |
||
+ | Как я понимаю, устанавливаем утилиты для бутстрапа - т.е. что бы "говорить" с клаудом, сообщать о том что сервер стартован, и т.п. |
||
+ | <PRE>yum update -y aws-cfn-bootstrap\n",</PRE> |
||
+ | ======WaitHandle====== |
||
+ | Изучаю. Очевидно задержка перед тем как запускать что - то - уточняю! |
||
+ | Если верить документации - то нужно для проверки стартовал ли клауд, как я понял. Если например за 5 минут не поднялся - считать что fail о чем будет запись в логах, стек будет rollback |
||
+ | <PRE> |
||
+ | /opt/aws/bin/cfn-signal -e 1 -r \"$1\" '", { "Ref" : "WaitHandle" }, "'\n", |
||
+ | </PRE> |
||
+ | |||
+ | ======Регистрация инстанса====== |
||
+ | Важный момент, однако подробности мне тоже на 100% пока не ясны. |
||
+ | Эта часть есть в любом примере - насколько я понимаю в моем случае это нужно что бы стек "знал" о том что инстанс запущен и работает. |
||
+ | <PRE> |
||
+ | /opt/aws/bin/cfn-init -s ", { "Ref" : "AWS::StackName" }, " -r WebServerLaunchConfig ", "--access-key ", { "Ref" : "HostKeys" }, " --secret-key ", {"Fn::GetAtt": ["HostKeys", "SecretAccessKey"]}, " --region ", { "Ref" : "AWS::Region" }, " || error_exit 'Failed to run cfn-init'\n", |
||
+ | </PRE> |
||
+ | |||
+ | Еще одна не до конца понятная секция |
||
+ | <PRE> |
||
+ | "WaitHandle" : { |
||
+ | "Type" : "AWS::CloudFormation::WaitConditionHandle" |
||
+ | }, |
||
+ | </PRE> |
||
+ | |||
+ | ====WebServerSecurityGroup ==== |
||
+ | Эта секция комментариев не требует - секюрити групы описаны достаточно подробно |
||
+ | <PRE> |
||
+ | "WebServerSecurityGroup" : { |
||
+ | "Type" : "AWS::EC2::SecurityGroup", |
||
+ | "Properties" : { |
||
+ | "GroupDescription" : "Enable HTTP access via port 80, ssh via 22", |
||
+ | "SecurityGroupIngress" : [ |
||
+ | {"IpProtocol" : "tcp", "FromPort" : "80", "ToPort" : "80", "CidrIp" : "0.0.0.0/0"}, |
||
+ | {"IpProtocol" : "tcp", "FromPort" : "8080", "ToPort" : "8080", "CidrIp" : "0.0.0.0/0"}, |
||
+ | {"IpProtocol" : "tcp", "FromPort" : "22", "ToPort" : "22", "CidrIp" : "0.0.0.0/0"} |
||
+ | ] |
||
+ | } |
||
+ | } |
||
+ | }, |
||
+ | </PRE> |
||
+ | |||
+ | ====Outputs==== |
||
+ | <PRE> |
||
+ | "Outputs" : { |
||
+ | "WebsiteURL" : { |
||
+ | "Value" : { "Fn::Join" : [ "", [ "http://", { "Fn::GetAtt" : [ "ElasticLoadBalancer", "DNSName" ]}]]}, |
||
+ | "Description" : "Application URL" |
||
+ | } |
||
+ | } |
||
+ | |||
+ | } |
||
+ | </PRE> |
||
==Ссылки== |
==Ссылки== |
Текущая версия на 16:34, 28 февраля 2013
EC2 Cloud Formation Template
Весь темплейт тут: http://wiki.sirmax.noname.com.ua/index.php/EC2_cloudFormationTemplate_Example
Ниже разбор "По частям", насколько я сам за это время смог разобраться.
Задача
Требуется установить и настроить кластер из N машин. На кластере установить тестовое java-приложение. Настроить балансировку нагрузки. Число машин N в кластере должно изменяться динамически в зависимости от нагрузки. Для установки использовать средства амазона - CloudFormationTemplate. Т.к. задача тестовая то применить chef-solo и puppet для разворачивания сервисов. puppet-сервер имеется - настроенный и сконфигурированный.
CloudFormationTemplate
Это такая штука - позволяет описать конфигурацию стека машин (т.е. как я понимаю - группы машин! а не отдельного инстанса) в формате json (см. ссылку в начале). Формат довольно замороченный и для понимания не так уж и прост.
Подготовка управляющей ноды
Все действия будем производить с управляющей ноды. Опишу ее конфигурацию.
rpm
я поставил следующий набор пакетов для работы с амазоном:
aws-amitools-ec2.noarch aws-apitools-cfn.noarch aws-apitools-common.noarch aws-apitools-iam.noarch aws-apitools-as.noarch aws-apitools-ec2.noarch aws-apitools-elb.noarch aws-apitools-mon.noarch aws-apitools-rds.noarch aws-cfn-bootstrap.noarch aws-scripts-ses.noarch
Окружение
как я уже писал:
http://wiki.sirmax.noname.com.ua/index.php/EC2
нужно сконфигурировать окружение.
Принципиальной разницы нет - тот же набор ключей и сертификатов. Переменные окружение выглядят так:
export EC2_PRIVATE_KEY=$HOME/keys/pk-nocrypt-XXXXXXXXXXXXXXX.pem export EC2_CERT=$HOME/keys/cert-XXXXXXXXXXXXXXX.pem export AWS_PRIVATE_KEY=$HOME/keys/pk-nocrypt-XXXXXXXXXXXXXXX.pem export AWS_CERT=$HOME/keys/cert-XXXXXXXXXXXXXXX.pem export JAVA_HOME=/usr/lib/jvm/jre-1.6.0-openjdk.x86_64/ export AWS_CLOUDFORMATION_HOME=/opt/aws/apitools/cfn-1.0.11/ export EC2_HOME=/opt/aws AWS_CREDENTIAL_FILE=$HOME/keys/aws_cred export PATH=${EC2_HOME}:${AWS_CLOUDFORMATION_HOME}:${PATH}
aws_cred - файл с логином и паролем. т.е. с ключем и id что впрочем одно и то же.
AWSAccessKeyId=XXXXXXXXXXXXXXXXX AWSSecretKey=YYYYYYYYYYYYYYYYYYYYYYYYYYYYY
Темплейт (по шагам)
Разбираем по шагам. В следующей секции JSON будет не совсем валидный - т.к. разбит на разные секции. Копировать внимательно.
Parameters
Секция параметры - это собственно параметры которые можно переопределить при создании стека. Довольно удобно. Я определил для всех дефолтные значение - и в реальности их не переопределяю. но это делает темплейт более легко переносимым.
Секция начинаеся, собственно, с ключевого слова:
"Parameters" : {
ХостНейм - тот хлостнейм который я хочу иметь на ВСЕХ нодах кластера. Это важно для паппета - что бы отработал сертификат, привязанный к хостнейму. Других причин назначать одинаковый хостнейм нет.
"HostName": { "Description" : "Local Host Name (for puppet auth)", "Type": "String", "Default": "testtomcatnode.test.com" },
Параметры паппет-сервера - днс-имя и ip адрес. Нужны для того что бы стянуть с паппет-сервера конфигурацию. Т.к. на паппет-сервере сертификат тоже привязан к его хостнейму а ip может меняться (например при изменении типа инстанса) то храню оба параметра. Ниже - добавляю запись в /etc/hosts
"PuppetMasterDNSName": { "Description" : "The PuppetMaster DNS name", "Type": "String", "Default": "ip-10-117-81-201.ec2.internal" },
"PuppetMasterIPAddress": { "Description" : "The PuppetMaster IP address", "Type": "String", "Default": "10.XX.XX.XX" },
Ключ - ссылка на пре-конфигурированный ssh-ключ. Собственно это видно в комментарии.
"KeyName" : { "Description" : "Name of an existing EC2 KeyPair to enable SSH access to the instances", "Type" : "String", "Default" : "hp" },
Пароль базы данных - т.к. это тестовая инсталляция для демонстрации то кроме томкета я ставлю апач php mysql. В качестве источника вдохновения я использовал LAMP Template.
"DBRootPassword": { "NoEcho": "true", "Description" : "Root password for MySQL", "Default" : "admin", "Type": "String", "MinLength": "1", "MaxLength": "41", "AllowedPattern" : "[a-zA-Z0-9]*", "ConstraintDescription" : "must contain only alphanumeric characters." },
Тип инстанса - у меня самый простой т.к. это тест.
"InstanceType" : { "Description" : "WebServer EC2 instance type", "Type" : "String", "Default" : "t1.micro", "AllowedValues" : [ "t1.micro","m1.small","m1.medium","m1.large","m1.xlarge","m2.xlarge","m2.2xlarge","m2.4xlarge","c1.medium","c1.xlarge","cc1.4xlarge","cc2.8xlarge","cg1.4xlarge"], "ConstraintDescription" : "must be a valid EC2 instance type." }
Это аппендикс закрывающий секцию параметров.
},
Mapping
Маппинг - по сути описание какой образ брать за основу для разных регионов. Насколько я могу судить эта секция более-менее одинаковая, и пока что не вижу причин изменять.
"Mappings" : { "AWSInstanceType2Arch" : { "t1.micro" : { "Arch" : "64" }, "m1.small" : { "Arch" : "64" }, "m1.medium" : { "Arch" : "64" }, "m1.large" : { "Arch" : "64" }, "m1.xlarge" : { "Arch" : "64" }, "m2.xlarge" : { "Arch" : "64" }, "m2.2xlarge" : { "Arch" : "64" }, "m2.4xlarge" : { "Arch" : "64" }, "c1.medium" : { "Arch" : "64" }, "c1.xlarge" : { "Arch" : "64" }, "cc1.4xlarge" : { "Arch" : "64HVM" }, "cc2.8xlarge" : { "Arch" : "64HVM" }, "cg1.4xlarge" : { "Arch" : "64HVM" } },
"AWSRegionArch2AMI" : { "us-east-1" : { "32" : "ami-31814f58", "64" : "ami-1b814f72", "64HVM" : "ami-0da96764" }, "us-west-2" : { "32" : "ami-38fe7308", "64" : "ami-30fe7300", "64HVM" : "NOT_YET_SUPPORTED" }, "us-west-1" : { "32" : "ami-11d68a54", "64" : "ami-1bd68a5e", "64HVM" : "NOT_YET_SUPPORTED" }, "eu-west-1" : { "32" : "ami-973b06e3", "64" : "ami-953b06e1", "64HVM" : "NOT_YET_SUPPORTED" }, "ap-southeast-1" : { "32" : "ami-b4b0cae6", "64" : "ami-beb0caec", "64HVM" : "NOT_YET_SUPPORTED" }, "ap-northeast-1" : { "32" : "ami-0644f007", "64" : "ami-0a44f00b", "64HVM" : "NOT_YET_SUPPORTED" }, "sa-east-1" : { "32" : "ami-3e3be423", "64" : "ami-3c3be421", "64HVM" : "NOT_YET_SUPPORTED" } } },
Resources
В секции описываются ресурсы, что бы это ни значило.
"Resources" : {
User, Key
Пользователь? (100% понимания нет - секция из примера)
"CfnUser" : { "Type" : "AWS::IAM::User", "Properties" : { "Path": "/", "Policies": [{ "PolicyName": "root", "PolicyDocument": { "Statement":[{ "Effect":"Allow", "Action":"cloudformation:DescribeStackResource", "Resource":"*" }]} }] } },
Аналогично предыдущей.
"HostKeys" : { "Type" : "AWS::IAM::AccessKey", "Properties" : { "UserName" : {"Ref": "CfnUser"} } },
ElasticLoadBalancer
Описание балансера - с моей точки зоения все секции более-менее очевидные. На коком порту слушать, на какой порт форвардить, какой протокол использовать, "Fn::GetAZs" - насколько я понимаю настроит на текущие зоны.
"ElasticLoadBalancer" : { "Type" : "AWS::ElasticLoadBalancing::LoadBalancer", "Properties" : { "AvailabilityZones" : { "Fn::GetAZs" : "" }, "Listeners" : [ { "LoadBalancerPort" : "80", "InstancePort" : "8080", "Protocol" : "HTTP" } ], "HealthCheck" : { "Target" : "HTTP:80/", "HealthyThreshold" : "3", "UnhealthyThreshold" : "5", "Interval" : "30", "Timeout" : "5" } } },
WebServerAutoScailingGroup
"WebServerAutoScailingGroup" : { "Type" : "AWS::AutoScaling::AutoScalingGroup", "Properties" : { "AvailabilityZones" : { "Fn::GetAZs" : ""}, "LaunchConfigurationName" : { "Ref" : "WebServerLaunchConfig" }, "MinSize" : "1", "MaxSize" : "3", "LoadBalancerNames" : [ { "Ref" : "ElasticLoadBalancer" } ] } },
Web Server Scale Policy
"WebServerScaleUpPolicy" : { "Type" : "AWS::AutoScaling::ScalingPolicy", "Properties" : { "AdjustmentType" : "ChangeInCapacity", "AutoScalingGroupName" : { "Ref" : "WebServerAutoScailingGroup" }, "Cooldown" : "60", "ScalingAdjustment" : "1" } },
"WebServerScaleDownPolicy" : { "Type" : "AWS::AutoScaling::ScalingPolicy", "Properties" : { "AdjustmentType" : "ChangeInCapacity", "AutoScalingGroupName" : { "Ref" : "WebServerAutoScailingGroup" }, "Cooldown" : "60", "ScalingAdjustment" : "-1" } },
Alarms
"CPUAlarmHigh": { "Type": "AWS::CloudWatch::Alarm", "Properties": { "AlarmDescription": "Scale-up if CPU > 90% for 60 sec", "MetricName": "CPUUtilization", "Namespace": "AWS/EC2", "Statistic": "Average", "Period": "60", "EvaluationPeriods": "2", "Threshold": "90", "AlarmActions": [ { "Ref": "WebServerScaleUpPolicy" } ], "Dimensions": [ { "Name": "AutoScalingGroupName", "Value": { "Ref": "WebServerAutoScailingGroup" } } ], "ComparisonOperator": "GreaterThanThreshold" } },
"CPUAlarmLow": { "Type": "AWS::CloudWatch::Alarm", "Properties": { "AlarmDescription": "Scale-down if CPU < 70% for 1 minutes", "MetricName": "CPUUtilization", "Namespace": "AWS/EC2", "Statistic": "Average", "Period": "60", "EvaluationPeriods": "2", "Threshold": "70", "AlarmActions": [ { "Ref": "WebServerScaleDownPolicy" } ], "Dimensions": [ { "Name": "AutoScalingGroupName", "Value": { "Ref": "WebServerAutoScailingGroup" } } ], "ComparisonOperator": "LessThanThreshold" } },
LaunchConfig
По сути в этом примере - это описание сервера который надо поднять. Т.е. "взять амазоновский образ, проделать с ним список действий, запустить пол лоад балансером"
"WebServerLaunchConfig": { "Type" : "AWS::AutoScaling::LaunchConfiguration", "Metadata" : { "Comment1" : "this is test config",
"AWS::CloudFormation::Init" : { "config" : {
Пакеты
гемы и рпм:
"packages" : { "rubygems" : { "chef" : [ "0.10.2" ] },
"yum" : { "puppet" : [], "mc" : [], "tomcat7" : [], "nginx" : [], "mysql" : [], "mysql-server" : [], "mysql-libs" : [], "httpd" : [], "php" : [], "php-mysql" : [], "gcc-c++" : [], "ruby-devel" : [], "make" : [], "autoconf" : [], "automake" : [], "rubygems" : [] } },
Файлы
Т.к. задача тестовая - взять с амазона пример PHP-странички
"sources" : { "/var/www/html" : "https://s3.amazonaws.com/cloudformation-examples/CloudFormationPHPSample.zip" },
Конфиг chef
"files" : { "/etc/chef/solo.rb" : { "content" : { "Fn::Join" : ["", [ "log_level :info\n", "log_location STDOUT\n", "file_cache_path \"/var/chef-solo\"\n", "cookbook_path \"/var/chef-solo/cookbooks\"\n", "json_attribs \"/etc/chef/node.json\"\n" ]] }, "mode" : "000644", "owner" : "root", "group" : "root" },
Наcтройка MySQL
"/tmp/setup.mysql" : { "content" : "CREATE DATABASE lampdb;\n", "mode" : "000644", "owner" : "root", "group" : "root" },
Включить epel
"/etc/yum.repos.d/epel.repo" : { "source" : "https://s3.amazonaws.com/cloudformation-examples/enable-epel-on-amazon-linux-ami", "mode" : "000644", "owner" : "root", "group" : "root" },
Настройка puppet-клиента
"/etc/puppet/puppet.conf" : { "content" : { "Fn::Join" : ["", [ "[main]\n", " logdir=/var/log/puppet\n", " rundir=/var/run/puppet\n", " ssldir=$vardir/ssl\n", " pluginsync=true\n", "[agent]\n", " classfile=$vardir/classes.txt\n", " localconfig=$vardir/localconfig\n", " server=",{ "Ref" : "PuppetMasterDNSName" },"\n" ]] }, "mode" : "000644", "owner" : "root", "group" : "root" } },
Список сервисов для включения
tomcat СПЕЦИАЛЬНО включается с помощью chef что бы показать такую возможность!
"services" : { "sysvinit" : { "mysqld" : { "enabled" : "true", "ensureRunning" : "true" }, "httpd" : { "enabled" : "true", "ensureRunning" : "true" } } } } } },
Properties
"Properties": { "ImageId" : { "Fn::FindInMap" : [ "AWSRegionArch2AMI", { "Ref" : "AWS::Region" }, { "Fn::FindInMap" : [ "AWSInstanceType2Arch", { "Ref" : "InstanceType" }, "Arch" ] } ] }, "InstanceType" : { "Ref" : "InstanceType" }, "KeyName" : { "Ref" : "KeyName" }, "SecurityGroups" : [ {"Ref" : "WebServerSecurityGroup"} ],
- ImageId - ссылка на базовый образ с учетом региона. Очевидно можно использовать свой.
- InstanceType - тип инстанса (t1.micro)
- SecurityGroups - не требует пояснения, я думаю
- KeyName
UserData
Пользовательская часть - достаточно важная.
Ниже секции отмечу части которые мне до сих пор не ясны
"UserData" : { "Fn::Base64" : { "Fn::Join" : ["", [ "#!/bin/bash -v\n", "yum update -y aws-cfn-bootstrap\n", "# Helper function\n", "function error_exit\n", "{\n", " /opt/aws/bin/cfn-signal -e 1 -r \"$1\" '", { "Ref" : "WaitHandle" }, "'\n", " exit 1\n", "}\n", "# Install LAMP packages\n", "#/opt/aws/bin/cfn-init -s ", { "Ref" : "AWS::StackName" }, " -r WebServer ", "--access-key ", { "Ref" : "HostKeys" }, " --secret-key ", {"Fn::GetAtt": ["HostKeys", "SecretAccessKey"]}, " --region ", { "Ref" : "AWS::Region" }, " || error_exit 'Failed to run cfn-init'\n", " /opt/aws/bin/cfn-init -s ", { "Ref" : "AWS::StackName" }, " -r WebServerLaunchConfig ", "--access-key ", { "Ref" : "HostKeys" }, " --secret-key ", {"Fn::GetAtt": ["HostKeys", "SecretAccessKey"]}, " --region ", { "Ref" : "AWS::Region" }, " || error_exit 'Failed to run cfn-init'\n", "# Setup MySQL, create a user and a database\n", "mysqladmin -u root password '", { "Ref" : "DBRootPassword" }, "' || error_exit 'Failed to initialize root password'\n", "mysql -u root --password='", { "Ref" : "DBRootPassword" }, "' < /tmp/setup.mysql || error_exit 'Failed to initialize database'\n", "# Configure the PHP application - in this case, fixup the page with the right references to the database\n", "sed -i \"s/REPLACE_WITH_DATABASE/localhost/g\" /var/www/html/index.php\n", "sed -i \"s/REPLACE_WITH_DBUSER/root/g\" /var/www/html/index.php\n", "sed -i \"s/REPLACE_WITH_DBPASSWORD/", { "Ref" : "DBRootPassword" }, "/g\" /var/www/html/index.php\n", "echo interface \"eth0\" > /etc/dhcp/dhclient-eth0.conf \n", "sed -i \"s/localhost.localdomain/", { "Ref" : "HostName" }, "/g\" /etc/sysconfig/network\n", "/bin/hostname ", { "Ref" : "HostName" }, "\n", "echo " , { "Ref" : "PuppetMasterIPAddress" }," ", { "Ref" : "PuppetMasterDNSName" }, ">> /etc/hosts\n", "rm -rf /var/lib/puppet/ \n", "/usr/bin/wget http://", { "Ref" : "PuppetMasterDNSName" },"/puppet/puppet_cert/puppet.tar.gz -O /puppet.tar.gz \n", "tar -xvf puppet.tar.gz \n", "chown puppet:puppet /var/lib/puppet/ -Rc \n", "/usr/sbin/puppetd --server ", { "Ref" : "PuppetMasterDNSName" }, " --verbose --test --no-daemonize --debug \n", " sleep 60 \n", "/usr/bin/chef-solo -l debug -c /etc/chef/solo.rb -j /etc/chef/run_list.syslog-ng.json \n", " sleep 10 \n", "/usr/bin/chef-solo -l debug -c /etc/chef/solo.rb -j /etc/chef/run_list.tomcat.json \n", "# All is well so signal success\n", "/opt/aws/bin/cfn-signal -e 0 -r \"LAMP Stack setup complete\" '", { "Ref" : "WaitHandle" }, "'\n" ]]}} } },
Как я понимаю, устанавливаем утилиты для бутстрапа - т.е. что бы "говорить" с клаудом, сообщать о том что сервер стартован, и т.п.
yum update -y aws-cfn-bootstrap\n",
WaitHandle
Изучаю. Очевидно задержка перед тем как запускать что - то - уточняю! Если верить документации - то нужно для проверки стартовал ли клауд, как я понял. Если например за 5 минут не поднялся - считать что fail о чем будет запись в логах, стек будет rollback
/opt/aws/bin/cfn-signal -e 1 -r \"$1\" '", { "Ref" : "WaitHandle" }, "'\n",
Регистрация инстанса
Важный момент, однако подробности мне тоже на 100% пока не ясны. Эта часть есть в любом примере - насколько я понимаю в моем случае это нужно что бы стек "знал" о том что инстанс запущен и работает.
/opt/aws/bin/cfn-init -s ", { "Ref" : "AWS::StackName" }, " -r WebServerLaunchConfig ", "--access-key ", { "Ref" : "HostKeys" }, " --secret-key ", {"Fn::GetAtt": ["HostKeys", "SecretAccessKey"]}, " --region ", { "Ref" : "AWS::Region" }, " || error_exit 'Failed to run cfn-init'\n",
Еще одна не до конца понятная секция
"WaitHandle" : { "Type" : "AWS::CloudFormation::WaitConditionHandle" },
WebServerSecurityGroup
Эта секция комментариев не требует - секюрити групы описаны достаточно подробно
"WebServerSecurityGroup" : { "Type" : "AWS::EC2::SecurityGroup", "Properties" : { "GroupDescription" : "Enable HTTP access via port 80, ssh via 22", "SecurityGroupIngress" : [ {"IpProtocol" : "tcp", "FromPort" : "80", "ToPort" : "80", "CidrIp" : "0.0.0.0/0"}, {"IpProtocol" : "tcp", "FromPort" : "8080", "ToPort" : "8080", "CidrIp" : "0.0.0.0/0"}, {"IpProtocol" : "tcp", "FromPort" : "22", "ToPort" : "22", "CidrIp" : "0.0.0.0/0"} ] } } },
Outputs
"Outputs" : { "WebsiteURL" : { "Value" : { "Fn::Join" : [ "", [ "http://", { "Fn::GetAtt" : [ "ElasticLoadBalancer", "DNSName" ]}]]}, "Description" : "Application URL" } } }