This commit is contained in:
James Boutaric
2025-12-04 10:03:07 +01:00
parent a1aee0dd84
commit 540fb6c634
13 changed files with 184 additions and 177 deletions

BIN
.DS_Store vendored

Binary file not shown.

90
iam-step.md Normal file
View File

@@ -0,0 +1,90 @@
# TP : Gestion des Identités (IAM) et Accès SSH
Dans cette partie, vous allez configurer les accès pour que Terraform puisse interagir avec le projet et pour que vous puissiez vous connecter aux futures machines virtuelles.
## Objectifs
1. Créer une identité machine (Service Account).
2. Lui donner des droits sur le projet.
3. Configurer votre propre clé SSH via le service **OS Login** de GCP.
---
## Étape 1 : Créer l'identité machine
**Objectif :** Créer un compte de service (Service Account) qui sera utilisé par nos scripts d'automatisation.
* **Ressource à utiliser :** `google_service_account`
* **Consignes :**
* Donnez-lui l'ID `terraform`.
* Ajoutez un `display_name` explicite pour qu'on le reconnaisse dans la console GCP.
## Étape 2 : Générer une clé d'accès
**Objectif :** Pour utiliser ce compte de service depuis l'extérieur (ou via Terraform), nous avons besoin d'une clé.
* **Ressource à utiliser :** `google_service_account_key`
* **Consignes :**
* Vous devez lier cette ressource au compte de service créé à l'étape 1 via son attribut `name` (ex: `google_service_account.votre_nom.name`).
* Définissez le type de clé publique sur `"TYPE_X509_PEM_FILE"`.
## Étape 3 : Donner des droits (IAM)
**Objectif :** Un compte de service naît sans aucun droit. Vous devez lui donner le rôle de "Viewer" sur le projet pour qu'il puisse lire les ressources.
* **Ressource à utiliser :** `google_project_iam_binding`
* **Consignes :**
* **Project :** Utilisez votre variable `var.project_id`.
* **Role :** Le rôle cible est `"roles/viewer"`.
* **Members :** C'est une liste. Attention à la syntaxe spécifique GCP pour désigner un membre : `"serviceAccount:..."`. Vous devez concaténer ce préfixe avec l'email du service account créé à l'étape 1 (`.email`).
## Étape 4 : Récupérer votre identité
**Objectif :** Terraform doit savoir "qui" lance le script actuellement pour associer la clé SSH à la bonne personne.
* **Data Source à utiliser :** `data "google_client_openid_userinfo"`
* **Consignes :**
* Déclarez simplement ce bloc `data` avec le nom `me`. Il n'a pas besoin d'arguments à l'intérieur. Il servira juste à récupérer votre email dynamiquement.
## Étape 5 : Ajouter votre clé SSH (OS Login)
**Objectif :** Uploader votre clé publique SSH locale vers GCP pour permettre la connexion aux VMs sans gestion manuelle.
* **Ressource à utiliser :** `google_os_login_ssh_public_key`
* **Consignes :**
* **User :** Utilisez l'email récupéré grâce au data source de l'étape 4 (`.email`).
* **Key :** Vous devez lire le contenu de votre fichier de clé publique locale.
* **Fonction Terraform :** Utilisez la fonction `file("chemin/vers/la/clé")`.
* **Chemin recommandé :** `~/.ssh/id_ed25519.pub`.
> **Attention :** Vérifiez impérativement que vous avez bien généré une clé SSH sur votre poste local avant de lancer le `terraform apply`. Sinon, Terraform ne trouvera pas le fichier et plantera.
---
### Résumé des liens entre ressources
Assurez-vous que vos ressources se référencent correctement :
* La **Clé** référencie le **Service Account**.
* L'**IAM Binding** référencie le **Service Account**.
* L'**OS Login** référencie le **Data User Info**.
Voici la suite du document Markdown (MD) à ajouter à la suite de l'étape 5.
---
## Étape 6 : Exposer les résultats (Outputs)
**Objectif :** Une fois le déploiement terminé, Terraform masque par défaut certaines informations. Nous devons définir explicitement quelles valeurs nous voulons voir ou récupérer (notamment pour les utiliser dans d'autres scripts).
* **Fichier à utiliser :** `outputs.tf` (c'est une bonne pratique de séparer les outputs du `main.tf`).
### Consigne A : L'email du Service Account
Nous aurons besoin de connaître l'adresse email complète générée par Google pour ce compte.
* Créez un output nommé `service_account_email`.
* Dans la valeur (`value`), référencez l'attribut `.email` de la ressource créée à l'**Étape 1**.
### Consigne B : La Clé Privée (Attention Sécurité)
Nous devons récupérer la clé privée générée pour pouvoir authentifier des applications externes.
* Créez un output nommé `service_account_key`.
* Dans la valeur, référencez l'attribut `.private_key` de la ressource créée à l'**Étape 2**.
* **Important :** Terraform refusera d'afficher cette valeur ou l'affichera en clair dans vos logs si vous ne faites pas attention. Vous **devez** ajouter l'argument suivant dans ce bloc output pour masquer la valeur dans le terminal :
```hcl
sensitive = true
```

View File

@@ -1,9 +1,3 @@
# À vous de :
# 1. Configurer le provider google
# 2. Appeler les trois modules avec les bonnes variables
# 3. Créer le fichier de configuration Ansible (template)
terraform {
required_providers {
google = {
@@ -26,14 +20,5 @@ module "network" {
backend_cidr = var.backend_cidr
database_cidr = var.database_cidr
ssh_source_ranges = var.ssh_source_ranges
}
module "compute" {
source = "../../modules/compute"
instance_type = var.instance_type
zone = var.zone
frontend_subnet_id = module.network.subnet_ids["frontend"]
backend_subnet_id = module.network.subnet_ids["backend"]
database_subnet_id = module.network.subnet_ids["database"]
}

View File

@@ -1,12 +1,13 @@
# Commentaire
variable "project_name" {
description = "Nom du projet cidr"
type = string
default = "My Firdt Project"
description = "but3-iac"
default = "Automaticsearch"
}
variable "region" {
description = "region du cidr"
type = string
description = "Région dans laquelle déployer les ressources"
default = "europe-west9"
}
@@ -29,9 +30,10 @@ variable "database_cidr" {
}
variable "ssh_source_ranges" {
description = "ssh_source_range du projet cidr"
type = string
description = "Plages dadresses autorisées à se connecter en SSH"
default = "0.0.0.0/0"
}
@@ -39,18 +41,6 @@ variable "project_id" {
description = "id du projet"
type = string
default = "plenary-plane-478713-q1"
}
variable "instance_type" {
description = "type d'instance de vm"
type = string
default = "e2-micro"
}
variable "zone" {
description = "zone du projet"
type = string
default = "europe-west9-b"
}

View File

@@ -1,29 +1,5 @@
# resource "google_compute_instance" "vm" {
# name = "ma-vm"
# machine_type = "e2-medium"
# zone = "europe-west1-b"
# boot_disk {
# initialize_params {
# image = "debian-cloud/debian-11"
# size = 10
# }
# }
# network_interface {
# access_config {} # IP publique
# subnetwork = google_compute_subnetwork.subnet.id
# }
# tags = ["web", "app"]
# metadata = {
# enable-oslogin = "TRUE"
# }
# }
resource "google_compute_instance" "vm_frontend" {
name = "frontend"
name = "frontend-instance"
machine_type = var.instance_type
zone = var.zone
@@ -34,9 +10,11 @@ resource "google_compute_instance" "vm_frontend" {
}
}
network_interface {
access_config {} # IP publique
subnetwork = var.frontend_subnet_id
access_config {}
}
tags= ["frontend", "ssh"]
@@ -46,10 +24,8 @@ resource "google_compute_instance" "vm_frontend" {
}
}
resource "google_compute_instance" "vm_backend" {
name = "backend"
name = "backend-instance"
machine_type = var.instance_type
zone = var.zone
@@ -60,8 +36,10 @@ resource "google_compute_instance" "vm_backend" {
}
}
network_interface {
subnetwork = var.backend_subnet_id
}
tags = ["backend", "ssh"]
@@ -71,13 +49,12 @@ resource "google_compute_instance" "vm_backend" {
}
}
resource "google_compute_instance" "vm_database" {
name = "database"
name = "database-instance"
machine_type = var.instance_type
zone = var.zone
boot_disk {
initialize_params {
image = "debian-cloud/debian-11"
@@ -85,8 +62,10 @@ resource "google_compute_instance" "vm_database" {
}
}
network_interface {
subnetwork = var.database_subnet_id
}
tags = ["database", "ssh"]

View File

@@ -1,9 +1,4 @@
# output "instance_ip" {
# value = google_compute_instance.main.network_interface[0].access_config[0].nat_ip
# }
output "instance_internal_ips" {
description = "IPs internes de toutes les instances"
output "ip_internes" {
value = {
frontend = google_compute_instance.vm_frontend.network_interface[0].network_ip
backend = google_compute_instance.vm_backend.network_interface[0].network_ip
@@ -11,13 +6,11 @@ output "instance_internal_ips" {
}
}
output "frontend_public_ip" {
description = "IP publique de l'instance frontend"
output "ip_public_frontend" {
value = google_compute_instance.vm_frontend.network_interface[0].access_config[0].nat_ip
}
output "instance_names" {
description = "Noms de toutes les instances"
output "nom_instances" {
value = {
frontend = google_compute_instance.vm_frontend.name
backend = google_compute_instance.vm_backend.name

View File

@@ -1,36 +1,26 @@
# variable "project_id" {
# description = "ID du projet GCP"
# type = string
# default = "mon-projet"
# }
variable "instance_type" {
description = "Nom du projet cidr"
description = "Type de machine à utiliser pour les instances"
type = string
}
}
variable "zone" {
description = "Nom du projet cidr"
description = "Zone où déployer les instances"
type = string
}
variable "frontend_subnet_id" {
description = "Nom du projet cidr"
description = "ID du sous-réseau frontend"
type = string
}
variable "backend_subnet_id" {
description = "Nom du projet cidr"
description = "ID du sous-réseau backend"
type = string
}
variable "database_subnet_id" {
description = "Nom du projet cidr"
description = "ID du sous-réseau database"
type = string
}

View File

@@ -1,5 +0,0 @@
# À vous de créer :
# 1. Un compte de service pour Terraform
# 2. Une clé pour ce compte de service
# 3. Les rôles IAM nécessaires
# 4. La configuration OS Login avec votre clé SSH

View File

@@ -1,3 +1,10 @@
# À vous d'exposer :
# 1. L'email du compte de service
# 2. La clé du compte de service (sensitive = true)
output "service_account_email"{
description = "Service account email"
value = google.service.account.myaccount.email
}
output "service_account_key"{
description = "Service key"
sensitive = true
value = google.service.account.mykey.private_key
}

View File

@@ -1,2 +0,0 @@
# À vous de définir :
# - project_id (string)

View File

@@ -1,54 +1,44 @@
# # VPC
# resource "google_compute_network" "vpc" {
# name = "mon-vpc"
# auto_create_subnetworks = false
# }
resource "google_compute_network" "vpc" {
name = "mon-vpc"
auto_create_subnetworks = false
}
# # Sous-réseau
# resource "google_compute_subnetwork" "subnet" {
# name = "mon-subnet"
# network = google_compute_network.vpc.id
# ip_cidr_range = "10.0.1.0/24"
# region = "europe-west1"
# }
resource "google_compute_subnetwork" "frontend" {
# Sous-réseau
resource "google_compute_subnetwork" "frontend_network" {
name = "mon-frontend"
network = google_compute_network.vpc.id
ip_cidr_range = var.frontend_cidr
region = var.region
}
resource "google_compute_subnetwork" "backend" {
resource "google_compute_subnetwork" "backend_network" {
name = "mon-backend"
network = google_compute_network.vpc.id
ip_cidr_range = var.backend_cidr
region = var.region
}
resource "google_compute_subnetwork" "database" {
name = "ma-database"
resource "google_compute_subnetwork" "database_network" {
name = "mon-database"
network = google_compute_network.vpc.id
ip_cidr_range = var.database_cidr
region = var.region
}
# resource "google_compute_firewall" "allow_http" {
# name = "allow-http"
# network = google_compute_network.vpc.id
resource "google_compute_firewall" "ssh_firewall" {
name = "mon-ssh"
network = google_compute_network.vpc.id
# allow {
# protocol = "tcp"
# ports = ["80", "443"]
# }
allow {
protocol = "tcp"
ports = ["22"]
}
source_ranges = ["0.0.0.0/0"]
target_tags = ["ssh"]
}
# source_ranges = ["0.0.0.0/0"]
# target_tags = ["web"]
# }
resource "google_compute_firewall" "frontend_firewall" {
name = "frontend"
@@ -61,8 +51,8 @@ resource "google_compute_firewall" "frontend_firewall" {
source_ranges = ["0.0.0.0/0"]
target_tags = ["frontend"]
}
}
resource "google_compute_firewall" "backend_firewall" {
name = "backend"
@@ -75,6 +65,7 @@ resource "google_compute_firewall" "backend_firewall" {
source_tags = ["frontend"]
target_tags = ["backend"]
}
resource "google_compute_firewall" "database_firewall" {
@@ -88,17 +79,9 @@ resource "google_compute_firewall" "database_firewall" {
source_tags = ["backend"]
target_tags = ["database"]
}
resource "google_compute_firewall" "ssh_firewall" {
name = "ssh"
network = google_compute_network.vpc.id
allow {
protocol = "tcp"
ports = ["22"]
}
source_ranges = ["0.0.0.0/0"]
target_tags = ["ssh"]
}

View File

@@ -1,19 +1,17 @@
# output "instance_ip" {
# value = google_compute_instance.main.network_interface[0].access_config[0].nat_ip
# }
output "vpc_terraform" {
description = "ID du VPC créé"
value = google_compute_network.vpc.id
}
output "subnet_ids" {
description = "Map des IDs des sous-réseaux"
value = {
frontend = google_compute_subnetwork.frontend.id
backend = google_compute_subnetwork.backend.id
database = google_compute_subnetwork.database.id
frontend = google_compute_subnetwork.frontend_network.id
backend = google_compute_subnetwork.backend_network.id
database = google_compute_subnetwork.database_network.id
}
}

View File

@@ -1,37 +1,36 @@
# variable "project_id" {
# description = "ID du projet GCP"
# type = string
# default = "mon-projet"
# }
variable "project_name" {
description = "Nom du projet cidr"
type = string
description = "but3-iac"
}
variable "region" {
description = "region du cidr"
type = string
description = "Région dans laquelle déployer les ressources"
}
variable "frontend_cidr" {
description = "CIDR for frontend subnet"
type = string
}
variable "backend_cidr" {
description = "CIDR for backend subnet"
type = string
}
variable "database_cidr" {
description = "CIDR for database subnet"
type = string
}
variable "ssh_source_ranges" {
description = "ssh_source_range du projet cidr"
description = "Plages dadresses autorisées à se connecter en SSH"
type = string
}