Compare commits

24 Commits
main ... main

Author SHA1 Message Date
d59f5631e4 mja 2025-12-04 12:09:35 +01:00
40c821d127 mja 2025-12-04 12:07:04 +01:00
42438b6071 mja 2025-12-04 12:03:52 +01:00
00534f10a7 mja 2025-12-04 11:47:36 +01:00
aa9d456986 mja 2025-12-04 11:44:25 +01:00
54688e8824 mja 2025-12-04 11:42:29 +01:00
ef62a01416 mja 2025-12-04 11:41:53 +01:00
6deea01994 mja 2025-12-04 11:37:45 +01:00
5a01e0a712 mja 2025-12-04 11:29:34 +01:00
d5ea1ab431 mja 2025-12-04 11:15:55 +01:00
35e353dbc5 mja 2025-12-04 11:13:08 +01:00
25df816020 mja 2025-12-04 09:56:08 +01:00
82ca17bf26 mja 2025-12-04 09:52:28 +01:00
bbadd936ce mja 2025-12-04 09:51:00 +01:00
8c201c5232 mja 2025-12-04 09:49:24 +01:00
265525a4c5 mja 2025-12-04 09:34:25 +01:00
61860ed31b maj 2025-12-03 16:57:53 +01:00
bce256fe2b maj 2025-12-03 16:53:58 +01:00
731ebd0ee2 maj 2025-12-03 16:51:48 +01:00
cce2ff9060 maj 2025-12-03 16:48:52 +01:00
9f94daf6f4 maj 2025-12-03 16:47:20 +01:00
ff6d6e1733 maj 2025-12-03 16:36:54 +01:00
b24c7af9f0 maj 2025-12-03 16:35:39 +01:00
35d6692ead maj 2025-12-03 16:29:13 +01:00
15 changed files with 1061 additions and 0 deletions

575
contenue-terraform-show Normal file

File diff suppressed because one or more lines are too long

90
iam-step.md Normal file
View File

@@ -0,0 +1,90 @@
# TP : Gestion des Identités (IAM) et Accès SSH
Dans cette partie, vous allez configurer les accès pour que Terraform puisse interagir avec le projet et pour que vous puissiez vous connecter aux futures machines virtuelles.
## Objectifs
1. Créer une identité machine (Service Account).
2. Lui donner des droits sur le projet.
3. Configurer votre propre clé SSH via le service **OS Login** de GCP.
---
## Étape 1 : Créer l'identité machine
**Objectif :** Créer un compte de service (Service Account) qui sera utilisé par nos scripts d'automatisation.
* **Ressource à utiliser :** `google_service_account`
* **Consignes :**
* Donnez-lui l'ID `terraform`.
* Ajoutez un `display_name` explicite pour qu'on le reconnaisse dans la console GCP.
## Étape 2 : Générer une clé d'accès
**Objectif :** Pour utiliser ce compte de service depuis l'extérieur (ou via Terraform), nous avons besoin d'une clé.
* **Ressource à utiliser :** `google_service_account_key`
* **Consignes :**
* Vous devez lier cette ressource au compte de service créé à l'étape 1 via son attribut `name` (ex: `google_service_account.votre_nom.name`).
* Définissez le type de clé publique sur `"TYPE_X509_PEM_FILE"`.
## Étape 3 : Donner des droits (IAM)
**Objectif :** Un compte de service naît sans aucun droit. Vous devez lui donner le rôle de "Viewer" sur le projet pour qu'il puisse lire les ressources.
* **Ressource à utiliser :** `google_project_iam_binding`
* **Consignes :**
* **Project :** Utilisez votre variable `var.project_id`.
* **Role :** Le rôle cible est `"roles/viewer"`.
* **Members :** C'est une liste. Attention à la syntaxe spécifique GCP pour désigner un membre : `"serviceAccount:..."`. Vous devez concaténer ce préfixe avec l'email du service account créé à l'étape 1 (`.email`).
## Étape 4 : Récupérer votre identité
**Objectif :** Terraform doit savoir "qui" lance le script actuellement pour associer la clé SSH à la bonne personne.
* **Data Source à utiliser :** `data "google_client_openid_userinfo"`
* **Consignes :**
* Déclarez simplement ce bloc `data` avec le nom `me`. Il n'a pas besoin d'arguments à l'intérieur. Il servira juste à récupérer votre email dynamiquement.
## Étape 5 : Ajouter votre clé SSH (OS Login)
**Objectif :** Uploader votre clé publique SSH locale vers GCP pour permettre la connexion aux VMs sans gestion manuelle.
* **Ressource à utiliser :** `google_os_login_ssh_public_key`
* **Consignes :**
* **User :** Utilisez l'email récupéré grâce au data source de l'étape 4 (`.email`).
* **Key :** Vous devez lire le contenu de votre fichier de clé publique locale.
* **Fonction Terraform :** Utilisez la fonction `file("chemin/vers/la/clé")`.
* **Chemin recommandé :** `~/.ssh/id_ed25519.pub`.
> **Attention :** Vérifiez impérativement que vous avez bien généré une clé SSH sur votre poste local avant de lancer le `terraform apply`. Sinon, Terraform ne trouvera pas le fichier et plantera.
---
### Résumé des liens entre ressources
Assurez-vous que vos ressources se référencent correctement :
* La **Clé** référencie le **Service Account**.
* L'**IAM Binding** référencie le **Service Account**.
* L'**OS Login** référencie le **Data User Info**.
Voici la suite du document Markdown (MD) à ajouter à la suite de l'étape 5.
---
## Étape 6 : Exposer les résultats (Outputs)
**Objectif :** Une fois le déploiement terminé, Terraform masque par défaut certaines informations. Nous devons définir explicitement quelles valeurs nous voulons voir ou récupérer (notamment pour les utiliser dans d'autres scripts).
* **Fichier à utiliser :** `outputs.tf` (c'est une bonne pratique de séparer les outputs du `main.tf`).
### Consigne A : L'email du Service Account
Nous aurons besoin de connaître l'adresse email complète générée par Google pour ce compte.
* Créez un output nommé `service_account_email`.
* Dans la valeur (`value`), référencez l'attribut `.email` de la ressource créée à l'**Étape 1**.
### Consigne B : La Clé Privée (Attention Sécurité)
Nous devons récupérer la clé privée générée pour pouvoir authentifier des applications externes.
* Créez un output nommé `service_account_key`.
* Dans la valeur, référencez l'attribut `.private_key` de la ressource créée à l'**Étape 2**.
* **Important :** Terraform refusera d'afficher cette valeur ou l'affichera en clair dans vos logs si vous ne faites pas attention. Vous **devez** ajouter l'argument suivant dans ce bloc output pour masquer la valeur dans le terminal :
```hcl
sensitive = true
```

View File

@@ -0,0 +1,3 @@
[ZoneTransfer]
ZoneId=3
HostUrl=https://cdn.discordapp.com/attachments/1147915657250361444/1446056666750652489/iam-step.md?ex=693298b7&is=69314737&hm=27aee217f680fca0a8242129cafcd02eeabbc150ccffe7e71ed08fc3143c496c&

View File

@@ -0,0 +1,38 @@
terraform {
required_providers {
google = {
source = "hashicorp/google"
version = "~> 6.12.0"
}
}
}
provider "google" {
project = var.project_id
region = var.region
}
module "network" {
source = "../../modules/network"
project_name = var.project_name
project_id = var.project_id
region = var.region
frontend_cidr = var.frontend_cidr
backend_cidr = var.backend_cidr
database_cidr = var.database_cidr
ssh_source_ranges = var.ssh_source_ranges
}
module "compute" {
source = "../../modules/compute"
instance_type = var.instance_type
zone = var.zone
frontend_subnet_id = module.network.subnet_ids["frontend"]
backend_subnet_id = module.network.subnet_ids["backend"]
database_subnet_id = module.network.subnet_ids["database"]
}
module "iam" {
source = "../../modules/iam"
project_id = var.project_id
}

View File

@@ -0,0 +1,28 @@
output "instance_ip" {
value = module.compute.instance_ip
}
output "private_ip_frontend" {
value = module.compute.private_ip_frontend
}
output "name_instance" {
value = module.compute.name_instance
}
output "service_account_email" {
value = module.iam.service_account_email
}
output "service_account_key" {
value = module.iam.service_account_key
sensitive = true
}
output "vpc_id" {
value = module.network.vpc_id
}
output "subnet_ids" {
value = module.network.subnet_ids
}

View File

@@ -0,0 +1,53 @@
variable "project_name" {
description = "project name"
type = string
default = "nom de projet"
}
variable "project_id" {
description = "project id"
type = string
default = "dazzling-alpha-477917-q9"
}
variable "region" {
description = "region "
type = string
default = "europe-west9"
}
variable "frontend_cidr" {
description = "CIDR for frontend subnet"
type = string
default = "10.0.1.0/24"
}
variable "backend_cidr" {
description = "CIDR for backend subnet"
type = string
default = "10.0.2.0/24"
}
variable "database_cidr" {
description = "CIDR for database subnet"
type = string
default = "10.0.3.0/24"
}
variable "ssh_source_ranges" {
description = "ssh"
type = string
default = "0.0.0.0/0"
}
variable "zone" {
description = "zone"
type = string
default = "europe-west9-b"
}
variable "instance_type" {
description = "instance_type"
type = string
default = "e2-small"
}

View File

@@ -0,0 +1,69 @@
resource "google_compute_instance" "instance_frontend" {
name = "instance-de-frontend"
machine_type = var.instance_type
zone = var.zone
boot_disk {
initialize_params {
image = "debian-cloud/debian-11"
size = 10
}
}
network_interface {
access_config {} # IP publique
subnetwork = var.frontend_subnet_id
}
tags = ["frontend", "ssh"]
metadata = {
enable-oslogin = "TRUE"
}
}
resource "google_compute_instance" "instance_backend" {
name = "instance-de-backend"
machine_type = var.instance_type
zone = var.zone
boot_disk {
initialize_params {
image = "debian-cloud/debian-11"
size = 10
}
}
network_interface {
subnetwork = var.backend_subnet_id
}
tags = ["backend", "ssh"]
metadata = {
enable-oslogin = "TRUE"
}
}
resource "google_compute_instance" "instance_database" {
name = "instance-de-database"
machine_type = var.instance_type
zone = var.zone
boot_disk {
initialize_params {
image = "debian-cloud/debian-11"
size = 10
}
}
network_interface {
subnetwork = var.database_subnet_id
}
tags = ["database", "ssh"]
metadata = {
enable-oslogin = "TRUE"
}
}

View File

@@ -0,0 +1,19 @@
output "instance_ip" {
value = {
frontend =google_compute_instance.instance_frontend.network_interface[0].network_ip
backend =google_compute_instance.instance_backend.network_interface[0].network_ip
database =google_compute_instance.instance_database.network_interface[0].network_ip
}
}
output "private_ip_frontend" {
value = google_compute_instance.instance_frontend.network_interface[0].access_config[0].nat_ip
}
output "name_instance" {
value = {
frontend = google_compute_instance.instance_frontend.name
backend = google_compute_instance.instance_backend.name
database = google_compute_instance.instance_database.name
}
}

View File

@@ -0,0 +1,19 @@
variable "instance_type" {
type = string
}
variable "zone" {
type = string
}
variable "frontend_subnet_id" {
type = string
}
variable "backend_subnet_id" {
type = string
}
variable "database_subnet_id" {
type = string
}

View File

@@ -0,0 +1,26 @@
resource "google_service_account" "service_account" {
account_id = "terraform"
display_name = "service-account-terraform"
}
resource "google_service_account_key" "mykey" {
service_account_id = google_service_account.service_account.name
public_key_type = "TYPE_X509_PEM_FILE"
}
resource "google_project_iam_binding" "project" {
project = var.project_id
role = "roles/viewer"
members = [
"serviceAccount:${google_service_account.service_account.email}",
]
}
data "google_client_openid_userinfo" "me" {}
resource "google_os_login_ssh_public_key" "cache" {
project = var.project_id
user = data.google_client_openid_userinfo.me.email
key = file("~/.ssh/id_ed25519.pub")
}

View File

@@ -0,0 +1,8 @@
output "service_account_email" {
value = google_service_account.service_account.email
}
output "service_account_key" {
value = google_service_account_key.mykey.private_key
sensitive = true
}

View File

@@ -0,0 +1,4 @@
variable "project_id" {
description = "project id"
type = string
}

View File

@@ -0,0 +1,85 @@
# VPC
resource "google_compute_network" "vpc" {
name = "mon-vpc"
auto_create_subnetworks = false
}
# Sous-réseau
resource "google_compute_subnetwork" "frontend" {
name = "mon-frontend"
network = google_compute_network.vpc.id
ip_cidr_range = var.frontend_cidr
region = var.region
}
resource "google_compute_subnetwork" "backend" {
name = "mon-backend"
network = google_compute_network.vpc.id
ip_cidr_range = var.backend_cidr
region = var.region
}
resource "google_compute_subnetwork" "database" {
name = "mon-database"
network = google_compute_network.vpc.id
ip_cidr_range = var.database_cidr
region = var.region
}
# Pare-Feu
resource "google_compute_firewall" "frontend_http" {
name = "frontend-http"
network = google_compute_network.vpc.id
allow {
protocol = "tcp"
ports = ["80", "443"]
}
source_ranges = ["0.0.0.0/0"]
target_tags = ["frontend"]
}
resource "google_compute_firewall" "ssh" {
name = "ssh"
network = google_compute_network.vpc.id
allow {
protocol = "tcp"
ports = ["22"]
}
source_ranges = [var.ssh_source_ranges]
target_tags = ["ssh"]
}
resource "google_compute_firewall" "front_back" {
name = "front-back"
network = google_compute_network.vpc.id
allow {
protocol = "tcp"
ports = ["8000"]
}
source_tags = ["frontend"]
target_tags = ["backend"]
}
resource "google_compute_firewall" "back_data" {
name = "back-data"
network = google_compute_network.vpc.id
allow {
protocol = "tcp"
ports = ["3306"]
}
source_tags = ["backend"]
target_tags = ["database"]
}

View File

@@ -0,0 +1,11 @@
output "vpc_id" {
value = google_compute_network.vpc.id
}
output "subnet_ids" {
value = {
frontend = google_compute_subnetwork.frontend.id
backend = google_compute_subnetwork.backend.id
database = google_compute_subnetwork.database.id
}
}

View File

@@ -0,0 +1,33 @@
variable "project_name" {
description = "project name"
type = string
}
variable "project_id" {
description = "project id"
type = string
}
variable "region" {
description = "region"
type = string
}
variable "frontend_cidr" {
description = "CIDR for frontend subnet"
type = string
}
variable "backend_cidr" {
description = "CIDR for backend subnet"
type = string
}
variable "database_cidr" {
description = "CIDR for database subnet"
type = string
}
variable "ssh_source_ranges" {
description = "ssh"
type = string
}