Compare commits

...

22 Commits

Author SHA1 Message Date
818299afef Add: Add terraform show 2025-12-04 11:35:31 +01:00
3f804d21c2 Suite 2025-12-04 11:16:22 +01:00
857a7f0e8d Suite 2025-12-04 11:15:09 +01:00
ac6770b6c6 Suite 2025-12-04 11:12:23 +01:00
1b306a4ede Suite 2025-12-04 11:10:32 +01:00
be5dec853b Suite 2025-12-04 11:07:39 +01:00
a280f67196 Suite 2025-12-04 11:03:58 +01:00
4530087cd1 Suite 2025-12-04 11:02:25 +01:00
68790cf2d1 Add: Output 2025-12-04 10:15:43 +01:00
b2e56cbc88 Add: Add IAM 2025-12-04 09:58:02 +01:00
aa28319166 Add: Compute in modules 2025-12-04 08:57:19 +01:00
bd69138c68 Add: Compute in modules 2025-12-04 08:57:06 +01:00
b18e0ec5a2 Suite 2025-12-03 17:29:15 +01:00
1f344183f8 Suite 2025-12-03 17:02:35 +01:00
e3ff9de93e Suite 2025-12-03 16:58:37 +01:00
ea215256e1 Suite 2025-12-03 16:49:31 +01:00
df9d025406 Suite 2025-12-03 16:44:13 +01:00
2bc66b21b3 Suite 2025-12-03 16:37:22 +01:00
1a83d45b66 Suite 2025-12-03 16:33:28 +01:00
242459b5b5 Suite 2025-12-03 16:29:34 +01:00
42dd3fb11c Suite 2025-12-03 16:21:37 +01:00
c4e88b89e3 Suite 2025-12-03 16:20:03 +01:00
14 changed files with 949 additions and 19 deletions

90
iam-step.md Normal file
View File

@@ -0,0 +1,90 @@
# TP : Gestion des Identités (IAM) et Accès SSH
Dans cette partie, vous allez configurer les accès pour que Terraform puisse interagir avec le projet et pour que vous puissiez vous connecter aux futures machines virtuelles.
## Objectifs
1. Créer une identité machine (Service Account).
2. Lui donner des droits sur le projet.
3. Configurer votre propre clé SSH via le service **OS Login** de GCP.
---
## Étape 1 : Créer l'identité machine
**Objectif :** Créer un compte de service (Service Account) qui sera utilisé par nos scripts d'automatisation.
* **Ressource à utiliser :** `google_service_account`
* **Consignes :**
* Donnez-lui l'ID `terraform`.
* Ajoutez un `display_name` explicite pour qu'on le reconnaisse dans la console GCP.
## Étape 2 : Générer une clé d'accès
**Objectif :** Pour utiliser ce compte de service depuis l'extérieur (ou via Terraform), nous avons besoin d'une clé.
* **Ressource à utiliser :** `google_service_account_key`
* **Consignes :**
* Vous devez lier cette ressource au compte de service créé à l'étape 1 via son attribut `name` (ex: `google_service_account.votre_nom.name`).
* Définissez le type de clé publique sur `"TYPE_X509_PEM_FILE"`.
## Étape 3 : Donner des droits (IAM)
**Objectif :** Un compte de service naît sans aucun droit. Vous devez lui donner le rôle de "Viewer" sur le projet pour qu'il puisse lire les ressources.
* **Ressource à utiliser :** `google_project_iam_binding`
* **Consignes :**
* **Project :** Utilisez votre variable `var.project_id`.
* **Role :** Le rôle cible est `"roles/viewer"`.
* **Members :** C'est une liste. Attention à la syntaxe spécifique GCP pour désigner un membre : `"serviceAccount:..."`. Vous devez concaténer ce préfixe avec l'email du service account créé à l'étape 1 (`.email`).
## Étape 4 : Récupérer votre identité
**Objectif :** Terraform doit savoir "qui" lance le script actuellement pour associer la clé SSH à la bonne personne.
* **Data Source à utiliser :** `data "google_client_openid_userinfo"`
* **Consignes :**
* Déclarez simplement ce bloc `data` avec le nom `me`. Il n'a pas besoin d'arguments à l'intérieur. Il servira juste à récupérer votre email dynamiquement.
## Étape 5 : Ajouter votre clé SSH (OS Login)
**Objectif :** Uploader votre clé publique SSH locale vers GCP pour permettre la connexion aux VMs sans gestion manuelle.
* **Ressource à utiliser :** `google_os_login_ssh_public_key`
* **Consignes :**
* **User :** Utilisez l'email récupéré grâce au data source de l'étape 4 (`.email`).
* **Key :** Vous devez lire le contenu de votre fichier de clé publique locale.
* **Fonction Terraform :** Utilisez la fonction `file("chemin/vers/la/clé")`.
* **Chemin recommandé :** `~/.ssh/id_ed25519.pub`.
> **Attention :** Vérifiez impérativement que vous avez bien généré une clé SSH sur votre poste local avant de lancer le `terraform apply`. Sinon, Terraform ne trouvera pas le fichier et plantera.
---
### Résumé des liens entre ressources
Assurez-vous que vos ressources se référencent correctement :
* La **Clé** référencie le **Service Account**.
* L'**IAM Binding** référencie le **Service Account**.
* L'**OS Login** référencie le **Data User Info**.
Voici la suite du document Markdown (MD) à ajouter à la suite de l'étape 5.
---
## Étape 6 : Exposer les résultats (Outputs)
**Objectif :** Une fois le déploiement terminé, Terraform masque par défaut certaines informations. Nous devons définir explicitement quelles valeurs nous voulons voir ou récupérer (notamment pour les utiliser dans d'autres scripts).
* **Fichier à utiliser :** `outputs.tf` (c'est une bonne pratique de séparer les outputs du `main.tf`).
### Consigne A : L'email du Service Account
Nous aurons besoin de connaître l'adresse email complète générée par Google pour ce compte.
* Créez un output nommé `service_account_email`.
* Dans la valeur (`value`), référencez l'attribut `.email` de la ressource créée à l'**Étape 1**.
### Consigne B : La Clé Privée (Attention Sécurité)
Nous devons récupérer la clé privée générée pour pouvoir authentifier des applications externes.
* Créez un output nommé `service_account_key`.
* Dans la valeur, référencez l'attribut `.private_key` de la ressource créée à l'**Étape 2**.
* **Important :** Terraform refusera d'afficher cette valeur ou l'affichera en clair dans vos logs si vous ne faites pas attention. Vous **devez** ajouter l'argument suivant dans ce bloc output pour masquer la valeur dans le terminal :
```hcl
sensitive = true
```

582
terraform-show.txt Normal file

File diff suppressed because one or more lines are too long

View File

@@ -0,0 +1,40 @@
# Commentaire
terraform {
required_providers {
google = {
source = "hashicorp/google"
version = "~> 6.12.0"
}
}
}
provider "google" {
project = var.project_id
region = var.region
}
module "network" {
source = "../../modules/network"
project_name = var.project_name
region = var.region
frontend_cidr = var.frontend_cidr
backend_cidr = var.backend_cidr
database_cidr = var.database_cidr
ssh_source_ranges = var.ssh_source_ranges
}
module "compute" {
source = "../../modules/compute"
instance_type = var.instance_type
zone = var.zone
frontend_subnet_id = module.network.subnet_ids.frontend
backend_subnet_id = module.network.subnet_ids.backend
database_subnet_id = module.network.subnet_ids.database
}
module "iam" {
source = "../../modules/iam"
project_id = var.project_id
}

View File

@@ -0,0 +1,31 @@
output "ip_internes" {
value = module.compute.ip_internes
}
output "ip_public_frontend" {
value = module.compute.ip_public_frontend
}
output "nom_instances" {
value = module.compute.nom_instances
}
output "service_account_email"{
value = module.iam.service_account_email
}
output "service_account_key"{
sensitive = true
value = module.iam.service_account_key
}
output "vpc_terraform" {
value = module.network.vpc_terraform
}
output "subnet_ids" {
value = module.network.subnet_ids
}

View File

@@ -1,3 +1,4 @@
# Commentaire
variable "project_name" {
type = string
description = "but3-iac"
@@ -7,7 +8,7 @@ variable "project_name" {
variable "region" {
type = string
description = "Région dans laquelle déployer les ressources"
default = "europe-west9-b"
default = "europe-west9"
}
variable "frontend_cidr" {
@@ -42,4 +43,21 @@ variable "project_id"{
default = "automaticsearch-477610"
}
}
variable "instance_type" {
description = "Type de machine à utiliser pour les instances"
type = string
default = "e2-small"
}
variable "zone" {
description = "Zone où déployer les instances"
type = string
default = "europe-west9-b"
}

View File

@@ -0,0 +1,76 @@
resource "google_compute_instance" "vm_frontend" {
name = "frontend-instance"
machine_type = var.instance_type
zone = var.zone
boot_disk {
initialize_params {
image = "debian-cloud/debian-11"
size = 10
}
}
network_interface {
subnetwork = var.frontend_subnet_id
access_config {}
}
tags= ["frontend", "ssh"]
metadata = {
enable-oslogin = "TRUE"
}
}
resource "google_compute_instance" "vm_backend" {
name = "backend-instance"
machine_type = var.instance_type
zone = var.zone
boot_disk {
initialize_params {
image = "debian-cloud/debian-11"
size = 10
}
}
network_interface {
subnetwork = var.backend_subnet_id
}
tags = ["backend", "ssh"]
metadata = {
enable-oslogin = "TRUE"
}
}
resource "google_compute_instance" "vm_database" {
name = "database-instance"
machine_type = var.instance_type
zone = var.zone
boot_disk {
initialize_params {
image = "debian-cloud/debian-11"
size = 20
}
}
network_interface {
subnetwork = var.database_subnet_id
}
tags = ["database", "ssh"]
metadata = {
enable-oslogin = "TRUE"
}
}

View File

@@ -0,0 +1,19 @@
output "ip_internes" {
value = {
frontend = google_compute_instance.vm_frontend.network_interface[0].network_ip
backend = google_compute_instance.vm_backend.network_interface[0].network_ip
database = google_compute_instance.vm_database.network_interface[0].network_ip
}
}
output "ip_public_frontend" {
value = google_compute_instance.vm_frontend.network_interface[0].access_config[0].nat_ip
}
output "nom_instances" {
value = {
frontend = google_compute_instance.vm_frontend.name
backend = google_compute_instance.vm_backend.name
database = google_compute_instance.vm_database.name
}
}

View File

@@ -0,0 +1,27 @@
variable "instance_type" {
description = "Type de machine à utiliser pour les instances"
type = string
}
variable "zone" {
description = "Zone où déployer les instances"
type = string
}
variable "frontend_subnet_id" {
description = "ID du sous-réseau frontend"
type = string
}
variable "backend_subnet_id" {
description = "ID du sous-réseau backend"
type = string
}
variable "database_subnet_id" {
description = "ID du sous-réseau database"
type = string
}

View File

@@ -0,0 +1,32 @@
resource "google_service_account" "myaccount" {
account_id = "terraform"
display_name = "terraform"
}
resource "google_service_account_key" "mykey" {
service_account_id = google_service_account.myaccount.name
public_key_type = "TYPE_X509_PEM_FILE"
}
resource "google_project_iam_binding" "project_iam" {
project = var.project_id
role = "roles/viewer"
members = [
"serviceAccount:${google_service_account.myaccount.email}",
]
}
data "google_client_openid_userinfo" "me" {
}
resource "google_os_login_ssh_public_key" "cache" {
user = data.google_client_openid_userinfo.me.email
project = var.project_id
key = file("~/.ssh/id_ed25519.pub")
}

View File

@@ -0,0 +1,10 @@
output "service_account_email"{
description = "Service account email"
value = google_service_account.myaccount.email
}
output "service_account_key"{
description = "Service key"
sensitive = true
value = google_service_account_key.mykey.private_key
}

View File

@@ -0,0 +1,5 @@
variable "project_id" {
description = "Le projet ID"
type = string
}

View File

@@ -4,29 +4,29 @@ resource "google_compute_network" "vpc" {
}
# Sous-réseau
resource "google_compute_subnetwork" "frontend" {
resource "google_compute_subnetwork" "frontend_network" {
name = "mon-frontend"
network = google_compute_network.vpc.id
ip_cidr_range = "10.0.1.0/24"
ip_cidr_range = var.frontend_cidr
region = var.region
}
resource "google_compute_subnetwork" "backend" {
resource "google_compute_subnetwork" "backend_network" {
name = "mon-backend"
network = google_compute_network.vpc.id
ip_cidr_range = "10.0.2.0/24"
ip_cidr_range = var.backend_cidr
region = var.region
}
resource "google_compute_subnetwork" "database" {
resource "google_compute_subnetwork" "database_network" {
name = "mon-database"
network = google_compute_network.vpc.id
ip_cidr_range = "10.0.3.0/24"
ip_cidr_range = var.database_cidr
region = var.region
}
resource "google_compute_firewall" "ssh_firewall" {
name = "mon_ssh"
name = "mon-ssh"
network = google_compute_network.vpc.id
allow {
@@ -41,7 +41,7 @@ resource "google_compute_firewall" "ssh_firewall" {
resource "google_compute_firewall" "frontend_firewall" {
name = "allow-http"
name = "frontend"
network = google_compute_network.vpc.id
allow {
@@ -55,7 +55,7 @@ resource "google_compute_firewall" "frontend_firewall" {
}
resource "google_compute_firewall" "backend_firewall" {
name = "allow-http"
name = "backend"
network = google_compute_network.vpc.id
allow {
@@ -63,13 +63,13 @@ resource "google_compute_firewall" "backend_firewall" {
ports = ["8000"]
}
source_ranges = ["frontend"]
source_tags = ["frontend"]
target_tags = ["backend"]
}
resource "google_compute_firewall" "database_firewall" {
name = "allow-http"
name = "database"
network = google_compute_network.vpc.id
allow {
@@ -77,7 +77,7 @@ resource "google_compute_firewall" "database_firewall" {
ports = ["3306"]
}
source_ranges = ["backend"]
source_tags = ["backend"]
target_tags = ["database"]
}

View File

@@ -1,6 +1,6 @@
output "vpc_terraform" {
description = "ID du VPC créé"
value = google_compute_instance.vpc.id
value = google_compute_network.vpc.id
}
@@ -9,9 +9,9 @@ output "subnet_ids" {
description = "Map des IDs des sous-réseaux"
value = {
frontend = google_compute_subnetwork.frontend.id
backend = google_compute_subnetwork.backend.id
database = google_compute_subnetwork.database.id
frontend = google_compute_subnetwork.frontend_network.id
backend = google_compute_subnetwork.backend_network.id
database = google_compute_subnetwork.database_network.id
}
}

View File

@@ -29,8 +29,8 @@ variable "database_cidr" {
}
variable "ssh_source_ranges" {
type = string
description = "Plages dadresses autorisées à se connecter en SSH"
type = string
}