forked from pierront/but3-iac
.
This commit is contained in:
90
iam-step.md
Normal file
90
iam-step.md
Normal file
@@ -0,0 +1,90 @@
|
|||||||
|
# TP : Gestion des Identités (IAM) et Accès SSH
|
||||||
|
|
||||||
|
Dans cette partie, vous allez configurer les accès pour que Terraform puisse interagir avec le projet et pour que vous puissiez vous connecter aux futures machines virtuelles.
|
||||||
|
|
||||||
|
## Objectifs
|
||||||
|
1. Créer une identité machine (Service Account).
|
||||||
|
2. Lui donner des droits sur le projet.
|
||||||
|
3. Configurer votre propre clé SSH via le service **OS Login** de GCP.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## Étape 1 : Créer l'identité machine
|
||||||
|
**Objectif :** Créer un compte de service (Service Account) qui sera utilisé par nos scripts d'automatisation.
|
||||||
|
|
||||||
|
* **Ressource à utiliser :** `google_service_account`
|
||||||
|
* **Consignes :**
|
||||||
|
* Donnez-lui l'ID `terraform`.
|
||||||
|
* Ajoutez un `display_name` explicite pour qu'on le reconnaisse dans la console GCP.
|
||||||
|
|
||||||
|
## Étape 2 : Générer une clé d'accès
|
||||||
|
**Objectif :** Pour utiliser ce compte de service depuis l'extérieur (ou via Terraform), nous avons besoin d'une clé.
|
||||||
|
|
||||||
|
* **Ressource à utiliser :** `google_service_account_key`
|
||||||
|
* **Consignes :**
|
||||||
|
* Vous devez lier cette ressource au compte de service créé à l'étape 1 via son attribut `name` (ex: `google_service_account.votre_nom.name`).
|
||||||
|
* Définissez le type de clé publique sur `"TYPE_X509_PEM_FILE"`.
|
||||||
|
|
||||||
|
## Étape 3 : Donner des droits (IAM)
|
||||||
|
**Objectif :** Un compte de service naît sans aucun droit. Vous devez lui donner le rôle de "Viewer" sur le projet pour qu'il puisse lire les ressources.
|
||||||
|
|
||||||
|
* **Ressource à utiliser :** `google_project_iam_binding`
|
||||||
|
* **Consignes :**
|
||||||
|
* **Project :** Utilisez votre variable `var.project_id`.
|
||||||
|
* **Role :** Le rôle cible est `"roles/viewer"`.
|
||||||
|
* **Members :** C'est une liste. Attention à la syntaxe spécifique GCP pour désigner un membre : `"serviceAccount:..."`. Vous devez concaténer ce préfixe avec l'email du service account créé à l'étape 1 (`.email`).
|
||||||
|
|
||||||
|
## Étape 4 : Récupérer votre identité
|
||||||
|
**Objectif :** Terraform doit savoir "qui" lance le script actuellement pour associer la clé SSH à la bonne personne.
|
||||||
|
|
||||||
|
* **Data Source à utiliser :** `data "google_client_openid_userinfo"`
|
||||||
|
* **Consignes :**
|
||||||
|
* Déclarez simplement ce bloc `data` avec le nom `me`. Il n'a pas besoin d'arguments à l'intérieur. Il servira juste à récupérer votre email dynamiquement.
|
||||||
|
|
||||||
|
## Étape 5 : Ajouter votre clé SSH (OS Login)
|
||||||
|
**Objectif :** Uploader votre clé publique SSH locale vers GCP pour permettre la connexion aux VMs sans gestion manuelle.
|
||||||
|
|
||||||
|
* **Ressource à utiliser :** `google_os_login_ssh_public_key`
|
||||||
|
* **Consignes :**
|
||||||
|
* **User :** Utilisez l'email récupéré grâce au data source de l'étape 4 (`.email`).
|
||||||
|
* **Key :** Vous devez lire le contenu de votre fichier de clé publique locale.
|
||||||
|
* **Fonction Terraform :** Utilisez la fonction `file("chemin/vers/la/clé")`.
|
||||||
|
* **Chemin recommandé :** `~/.ssh/id_ed25519.pub`.
|
||||||
|
|
||||||
|
> **Attention :** Vérifiez impérativement que vous avez bien généré une clé SSH sur votre poste local avant de lancer le `terraform apply`. Sinon, Terraform ne trouvera pas le fichier et plantera.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
### Résumé des liens entre ressources
|
||||||
|
Assurez-vous que vos ressources se référencent correctement :
|
||||||
|
* La **Clé** référencie le **Service Account**.
|
||||||
|
* L'**IAM Binding** référencie le **Service Account**.
|
||||||
|
* L'**OS Login** référencie le **Data User Info**.
|
||||||
|
|
||||||
|
Voici la suite du document Markdown (MD) à ajouter à la suite de l'étape 5.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## Étape 6 : Exposer les résultats (Outputs)
|
||||||
|
|
||||||
|
**Objectif :** Une fois le déploiement terminé, Terraform masque par défaut certaines informations. Nous devons définir explicitement quelles valeurs nous voulons voir ou récupérer (notamment pour les utiliser dans d'autres scripts).
|
||||||
|
|
||||||
|
* **Fichier à utiliser :** `outputs.tf` (c'est une bonne pratique de séparer les outputs du `main.tf`).
|
||||||
|
|
||||||
|
### Consigne A : L'email du Service Account
|
||||||
|
|
||||||
|
Nous aurons besoin de connaître l'adresse email complète générée par Google pour ce compte.
|
||||||
|
|
||||||
|
* Créez un output nommé `service_account_email`.
|
||||||
|
* Dans la valeur (`value`), référencez l'attribut `.email` de la ressource créée à l'**Étape 1**.
|
||||||
|
|
||||||
|
### Consigne B : La Clé Privée (Attention Sécurité)
|
||||||
|
|
||||||
|
Nous devons récupérer la clé privée générée pour pouvoir authentifier des applications externes.
|
||||||
|
|
||||||
|
* Créez un output nommé `service_account_key`.
|
||||||
|
* Dans la valeur, référencez l'attribut `.private_key` de la ressource créée à l'**Étape 2**.
|
||||||
|
* **Important :** Terraform refusera d'afficher cette valeur ou l'affichera en clair dans vos logs si vous ne faites pas attention. Vous **devez** ajouter l'argument suivant dans ce bloc output pour masquer la valeur dans le terminal :
|
||||||
|
```hcl
|
||||||
|
sensitive = true
|
||||||
|
```
|
||||||
@@ -1,9 +1,3 @@
|
|||||||
# À vous de :
|
|
||||||
# 1. Configurer le provider google
|
|
||||||
# 2. Appeler les trois modules avec les bonnes variables
|
|
||||||
# 3. Créer le fichier de configuration Ansible (template)
|
|
||||||
|
|
||||||
|
|
||||||
terraform {
|
terraform {
|
||||||
required_providers {
|
required_providers {
|
||||||
google = {
|
google = {
|
||||||
@@ -26,14 +20,5 @@ module "network" {
|
|||||||
backend_cidr = var.backend_cidr
|
backend_cidr = var.backend_cidr
|
||||||
database_cidr = var.database_cidr
|
database_cidr = var.database_cidr
|
||||||
ssh_source_ranges = var.ssh_source_ranges
|
ssh_source_ranges = var.ssh_source_ranges
|
||||||
}
|
|
||||||
|
|
||||||
module "compute" {
|
|
||||||
source = "../../modules/compute"
|
|
||||||
|
|
||||||
instance_type = var.instance_type
|
|
||||||
zone = var.zone
|
|
||||||
frontend_subnet_id = module.network.subnet_ids["frontend"]
|
|
||||||
backend_subnet_id = module.network.subnet_ids["backend"]
|
|
||||||
database_subnet_id = module.network.subnet_ids["database"]
|
|
||||||
}
|
}
|
||||||
@@ -1,12 +1,13 @@
|
|||||||
|
# Commentaire
|
||||||
variable "project_name" {
|
variable "project_name" {
|
||||||
description = "Nom du projet cidr"
|
|
||||||
type = string
|
type = string
|
||||||
default = "My Firdt Project"
|
description = "but3-iac"
|
||||||
|
default = "Automaticsearch"
|
||||||
}
|
}
|
||||||
|
|
||||||
variable "region" {
|
variable "region" {
|
||||||
description = "region du cidr"
|
|
||||||
type = string
|
type = string
|
||||||
|
description = "Région dans laquelle déployer les ressources"
|
||||||
default = "europe-west9"
|
default = "europe-west9"
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -29,9 +30,10 @@ variable "database_cidr" {
|
|||||||
}
|
}
|
||||||
|
|
||||||
variable "ssh_source_ranges" {
|
variable "ssh_source_ranges" {
|
||||||
description = "ssh_source_range du projet cidr"
|
|
||||||
type = string
|
type = string
|
||||||
|
description = "Plages d’adresses autorisées à se connecter en SSH"
|
||||||
default = "0.0.0.0/0"
|
default = "0.0.0.0/0"
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
@@ -39,18 +41,6 @@ variable "project_id" {
|
|||||||
description = "id du projet"
|
description = "id du projet"
|
||||||
type = string
|
type = string
|
||||||
default = "plenary-plane-478713-q1"
|
default = "plenary-plane-478713-q1"
|
||||||
}
|
|
||||||
|
|
||||||
|
|
||||||
variable "instance_type" {
|
|
||||||
description = "type d'instance de vm"
|
|
||||||
type = string
|
|
||||||
default = "e2-micro"
|
|
||||||
}
|
|
||||||
|
|
||||||
|
|
||||||
variable "zone" {
|
|
||||||
description = "zone du projet"
|
|
||||||
type = string
|
|
||||||
default = "europe-west9-b"
|
|
||||||
}
|
}
|
||||||
@@ -1,29 +1,5 @@
|
|||||||
# resource "google_compute_instance" "vm" {
|
|
||||||
# name = "ma-vm"
|
|
||||||
# machine_type = "e2-medium"
|
|
||||||
# zone = "europe-west1-b"
|
|
||||||
|
|
||||||
# boot_disk {
|
|
||||||
# initialize_params {
|
|
||||||
# image = "debian-cloud/debian-11"
|
|
||||||
# size = 10
|
|
||||||
# }
|
|
||||||
# }
|
|
||||||
|
|
||||||
# network_interface {
|
|
||||||
# access_config {} # IP publique
|
|
||||||
# subnetwork = google_compute_subnetwork.subnet.id
|
|
||||||
# }
|
|
||||||
|
|
||||||
# tags = ["web", "app"]
|
|
||||||
|
|
||||||
# metadata = {
|
|
||||||
# enable-oslogin = "TRUE"
|
|
||||||
# }
|
|
||||||
# }
|
|
||||||
|
|
||||||
resource "google_compute_instance" "vm_frontend" {
|
resource "google_compute_instance" "vm_frontend" {
|
||||||
name = "frontend"
|
name = "frontend-instance"
|
||||||
machine_type = var.instance_type
|
machine_type = var.instance_type
|
||||||
zone = var.zone
|
zone = var.zone
|
||||||
|
|
||||||
@@ -34,9 +10,11 @@ resource "google_compute_instance" "vm_frontend" {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
network_interface {
|
network_interface {
|
||||||
access_config {} # IP publique
|
|
||||||
subnetwork = var.frontend_subnet_id
|
subnetwork = var.frontend_subnet_id
|
||||||
|
|
||||||
|
access_config {}
|
||||||
}
|
}
|
||||||
|
|
||||||
tags= ["frontend", "ssh"]
|
tags= ["frontend", "ssh"]
|
||||||
@@ -46,10 +24,8 @@ resource "google_compute_instance" "vm_frontend" {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
resource "google_compute_instance" "vm_backend" {
|
resource "google_compute_instance" "vm_backend" {
|
||||||
name = "backend"
|
name = "backend-instance"
|
||||||
machine_type = var.instance_type
|
machine_type = var.instance_type
|
||||||
zone = var.zone
|
zone = var.zone
|
||||||
|
|
||||||
@@ -60,8 +36,10 @@ resource "google_compute_instance" "vm_backend" {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
network_interface {
|
network_interface {
|
||||||
subnetwork = var.backend_subnet_id
|
subnetwork = var.backend_subnet_id
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
tags = ["backend", "ssh"]
|
tags = ["backend", "ssh"]
|
||||||
@@ -71,13 +49,12 @@ resource "google_compute_instance" "vm_backend" {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
resource "google_compute_instance" "vm_database" {
|
resource "google_compute_instance" "vm_database" {
|
||||||
name = "database"
|
name = "database-instance"
|
||||||
machine_type = var.instance_type
|
machine_type = var.instance_type
|
||||||
zone = var.zone
|
zone = var.zone
|
||||||
|
|
||||||
|
|
||||||
boot_disk {
|
boot_disk {
|
||||||
initialize_params {
|
initialize_params {
|
||||||
image = "debian-cloud/debian-11"
|
image = "debian-cloud/debian-11"
|
||||||
@@ -85,8 +62,10 @@ resource "google_compute_instance" "vm_database" {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
network_interface {
|
network_interface {
|
||||||
subnetwork = var.database_subnet_id
|
subnetwork = var.database_subnet_id
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
tags = ["database", "ssh"]
|
tags = ["database", "ssh"]
|
||||||
|
|||||||
@@ -1,9 +1,4 @@
|
|||||||
# output "instance_ip" {
|
output "ip_internes" {
|
||||||
# value = google_compute_instance.main.network_interface[0].access_config[0].nat_ip
|
|
||||||
# }
|
|
||||||
|
|
||||||
output "instance_internal_ips" {
|
|
||||||
description = "IPs internes de toutes les instances"
|
|
||||||
value = {
|
value = {
|
||||||
frontend = google_compute_instance.vm_frontend.network_interface[0].network_ip
|
frontend = google_compute_instance.vm_frontend.network_interface[0].network_ip
|
||||||
backend = google_compute_instance.vm_backend.network_interface[0].network_ip
|
backend = google_compute_instance.vm_backend.network_interface[0].network_ip
|
||||||
@@ -11,13 +6,11 @@ output "instance_internal_ips" {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
output "frontend_public_ip" {
|
output "ip_public_frontend" {
|
||||||
description = "IP publique de l'instance frontend"
|
|
||||||
value = google_compute_instance.vm_frontend.network_interface[0].access_config[0].nat_ip
|
value = google_compute_instance.vm_frontend.network_interface[0].access_config[0].nat_ip
|
||||||
}
|
}
|
||||||
|
|
||||||
output "instance_names" {
|
output "nom_instances" {
|
||||||
description = "Noms de toutes les instances"
|
|
||||||
value = {
|
value = {
|
||||||
frontend = google_compute_instance.vm_frontend.name
|
frontend = google_compute_instance.vm_frontend.name
|
||||||
backend = google_compute_instance.vm_backend.name
|
backend = google_compute_instance.vm_backend.name
|
||||||
|
|||||||
@@ -1,36 +1,26 @@
|
|||||||
# variable "project_id" {
|
|
||||||
# description = "ID du projet GCP"
|
|
||||||
# type = string
|
|
||||||
# default = "mon-projet"
|
|
||||||
# }
|
|
||||||
|
|
||||||
variable "instance_type" {
|
variable "instance_type" {
|
||||||
description = "Nom du projet cidr"
|
description = "Type de machine à utiliser pour les instances"
|
||||||
type = string
|
type = string
|
||||||
}
|
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
variable "zone" {
|
variable "zone" {
|
||||||
description = "Nom du projet cidr"
|
description = "Zone où déployer les instances"
|
||||||
type = string
|
type = string
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
variable "frontend_subnet_id" {
|
variable "frontend_subnet_id" {
|
||||||
description = "Nom du projet cidr"
|
description = "ID du sous-réseau frontend"
|
||||||
type = string
|
type = string
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
variable "backend_subnet_id" {
|
variable "backend_subnet_id" {
|
||||||
description = "Nom du projet cidr"
|
description = "ID du sous-réseau backend"
|
||||||
type = string
|
type = string
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
variable "database_subnet_id" {
|
variable "database_subnet_id" {
|
||||||
description = "Nom du projet cidr"
|
description = "ID du sous-réseau database"
|
||||||
type = string
|
type = string
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|||||||
@@ -1,5 +0,0 @@
|
|||||||
# À vous de créer :
|
|
||||||
# 1. Un compte de service pour Terraform
|
|
||||||
# 2. Une clé pour ce compte de service
|
|
||||||
# 3. Les rôles IAM nécessaires
|
|
||||||
# 4. La configuration OS Login avec votre clé SSH
|
|
||||||
@@ -1,3 +1,10 @@
|
|||||||
# À vous d'exposer :
|
output "service_account_email"{
|
||||||
# 1. L'email du compte de service
|
description = "Service account email"
|
||||||
# 2. La clé du compte de service (sensitive = true)
|
value = google.service.account.myaccount.email
|
||||||
|
}
|
||||||
|
|
||||||
|
output "service_account_key"{
|
||||||
|
description = "Service key"
|
||||||
|
sensitive = true
|
||||||
|
value = google.service.account.mykey.private_key
|
||||||
|
}
|
||||||
@@ -1,2 +0,0 @@
|
|||||||
# À vous de définir :
|
|
||||||
# - project_id (string)
|
|
||||||
@@ -1,54 +1,44 @@
|
|||||||
# # VPC
|
|
||||||
# resource "google_compute_network" "vpc" {
|
|
||||||
# name = "mon-vpc"
|
|
||||||
# auto_create_subnetworks = false
|
|
||||||
# }
|
|
||||||
resource "google_compute_network" "vpc" {
|
resource "google_compute_network" "vpc" {
|
||||||
name = "mon-vpc"
|
name = "mon-vpc"
|
||||||
auto_create_subnetworks = false
|
auto_create_subnetworks = false
|
||||||
}
|
}
|
||||||
|
|
||||||
# # Sous-réseau
|
# Sous-réseau
|
||||||
# resource "google_compute_subnetwork" "subnet" {
|
resource "google_compute_subnetwork" "frontend_network" {
|
||||||
# name = "mon-subnet"
|
|
||||||
# network = google_compute_network.vpc.id
|
|
||||||
# ip_cidr_range = "10.0.1.0/24"
|
|
||||||
# region = "europe-west1"
|
|
||||||
# }
|
|
||||||
|
|
||||||
resource "google_compute_subnetwork" "frontend" {
|
|
||||||
name = "mon-frontend"
|
name = "mon-frontend"
|
||||||
network = google_compute_network.vpc.id
|
network = google_compute_network.vpc.id
|
||||||
ip_cidr_range = var.frontend_cidr
|
ip_cidr_range = var.frontend_cidr
|
||||||
region = var.region
|
region = var.region
|
||||||
}
|
}
|
||||||
|
|
||||||
resource "google_compute_subnetwork" "backend" {
|
resource "google_compute_subnetwork" "backend_network" {
|
||||||
name = "mon-backend"
|
name = "mon-backend"
|
||||||
network = google_compute_network.vpc.id
|
network = google_compute_network.vpc.id
|
||||||
ip_cidr_range = var.backend_cidr
|
ip_cidr_range = var.backend_cidr
|
||||||
region = var.region
|
region = var.region
|
||||||
}
|
}
|
||||||
|
|
||||||
resource "google_compute_subnetwork" "database" {
|
resource "google_compute_subnetwork" "database_network" {
|
||||||
name = "ma-database"
|
name = "mon-database"
|
||||||
network = google_compute_network.vpc.id
|
network = google_compute_network.vpc.id
|
||||||
ip_cidr_range = var.database_cidr
|
ip_cidr_range = var.database_cidr
|
||||||
region = var.region
|
region = var.region
|
||||||
}
|
}
|
||||||
|
|
||||||
# resource "google_compute_firewall" "allow_http" {
|
resource "google_compute_firewall" "ssh_firewall" {
|
||||||
# name = "allow-http"
|
name = "mon-ssh"
|
||||||
# network = google_compute_network.vpc.id
|
network = google_compute_network.vpc.id
|
||||||
|
|
||||||
# allow {
|
allow {
|
||||||
# protocol = "tcp"
|
protocol = "tcp"
|
||||||
# ports = ["80", "443"]
|
ports = ["22"]
|
||||||
# }
|
}
|
||||||
|
|
||||||
|
source_ranges = ["0.0.0.0/0"]
|
||||||
|
target_tags = ["ssh"]
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
# source_ranges = ["0.0.0.0/0"]
|
|
||||||
# target_tags = ["web"]
|
|
||||||
# }
|
|
||||||
|
|
||||||
resource "google_compute_firewall" "frontend_firewall" {
|
resource "google_compute_firewall" "frontend_firewall" {
|
||||||
name = "frontend"
|
name = "frontend"
|
||||||
@@ -61,8 +51,8 @@ resource "google_compute_firewall" "frontend_firewall" {
|
|||||||
|
|
||||||
source_ranges = ["0.0.0.0/0"]
|
source_ranges = ["0.0.0.0/0"]
|
||||||
target_tags = ["frontend"]
|
target_tags = ["frontend"]
|
||||||
}
|
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
resource "google_compute_firewall" "backend_firewall" {
|
resource "google_compute_firewall" "backend_firewall" {
|
||||||
name = "backend"
|
name = "backend"
|
||||||
@@ -75,6 +65,7 @@ resource "google_compute_firewall" "backend_firewall" {
|
|||||||
|
|
||||||
source_tags = ["frontend"]
|
source_tags = ["frontend"]
|
||||||
target_tags = ["backend"]
|
target_tags = ["backend"]
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
resource "google_compute_firewall" "database_firewall" {
|
resource "google_compute_firewall" "database_firewall" {
|
||||||
@@ -88,17 +79,9 @@ resource "google_compute_firewall" "database_firewall" {
|
|||||||
|
|
||||||
source_tags = ["backend"]
|
source_tags = ["backend"]
|
||||||
target_tags = ["database"]
|
target_tags = ["database"]
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
resource "google_compute_firewall" "ssh_firewall" {
|
|
||||||
name = "ssh"
|
|
||||||
network = google_compute_network.vpc.id
|
|
||||||
|
|
||||||
allow {
|
|
||||||
protocol = "tcp"
|
|
||||||
ports = ["22"]
|
|
||||||
}
|
|
||||||
|
|
||||||
source_ranges = ["0.0.0.0/0"]
|
|
||||||
target_tags = ["ssh"]
|
|
||||||
}
|
|
||||||
|
|||||||
@@ -1,19 +1,17 @@
|
|||||||
# output "instance_ip" {
|
|
||||||
# value = google_compute_instance.main.network_interface[0].access_config[0].nat_ip
|
|
||||||
# }
|
|
||||||
|
|
||||||
output "vpc_terraform" {
|
output "vpc_terraform" {
|
||||||
description = "ID du VPC créé"
|
description = "ID du VPC créé"
|
||||||
value = google_compute_network.vpc.id
|
value = google_compute_network.vpc.id
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
output "subnet_ids" {
|
output "subnet_ids" {
|
||||||
description = "Map des IDs des sous-réseaux"
|
description = "Map des IDs des sous-réseaux"
|
||||||
value = {
|
value = {
|
||||||
|
|
||||||
frontend = google_compute_subnetwork.frontend.id
|
frontend = google_compute_subnetwork.frontend_network.id
|
||||||
backend = google_compute_subnetwork.backend.id
|
backend = google_compute_subnetwork.backend_network.id
|
||||||
database = google_compute_subnetwork.database.id
|
database = google_compute_subnetwork.database_network.id
|
||||||
}
|
}
|
||||||
|
|
||||||
}
|
}
|
||||||
@@ -1,37 +1,36 @@
|
|||||||
# variable "project_id" {
|
|
||||||
# description = "ID du projet GCP"
|
|
||||||
# type = string
|
|
||||||
# default = "mon-projet"
|
|
||||||
# }
|
|
||||||
|
|
||||||
variable "project_name" {
|
variable "project_name" {
|
||||||
description = "Nom du projet cidr"
|
|
||||||
type = string
|
type = string
|
||||||
|
description = "but3-iac"
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
variable "region" {
|
variable "region" {
|
||||||
description = "region du cidr"
|
|
||||||
type = string
|
type = string
|
||||||
|
description = "Région dans laquelle déployer les ressources"
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
variable "frontend_cidr" {
|
variable "frontend_cidr" {
|
||||||
description = "CIDR for frontend subnet"
|
description = "CIDR for frontend subnet"
|
||||||
type = string
|
type = string
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
variable "backend_cidr" {
|
variable "backend_cidr" {
|
||||||
description = "CIDR for backend subnet"
|
description = "CIDR for backend subnet"
|
||||||
type = string
|
type = string
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
variable "database_cidr" {
|
variable "database_cidr" {
|
||||||
description = "CIDR for database subnet"
|
description = "CIDR for database subnet"
|
||||||
type = string
|
type = string
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
variable "ssh_source_ranges" {
|
variable "ssh_source_ranges" {
|
||||||
description = "ssh_source_range du projet cidr"
|
description = "Plages d’adresses autorisées à se connecter en SSH"
|
||||||
type = string
|
type = string
|
||||||
|
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
|
|||||||
Reference in New Issue
Block a user