Kubernetes-operators: CRD, controllerpatroon en operator SDK
Hoe beheer je een PostgreSQL-cluster in productie? Je moet de primaire monitoren, detecteren fouten op te lossen, een replica te promoten, configuraties bij te werken, back-ups uit te voeren het plannen en beheren van de rotatie van certificaten. Dit zijn werkzaamheden die door een deskundige DBA worden uitgevoerd weet hoe het uit het hoofd moet, maar die elke keer dat er iets misgaat uren handarbeid vergen krom om 3 uur 's nachts.
Het patroon Kubernetes-operator stelt u in staat deze kennis te codificeren operationeel in Kubernetes-native software: een controller die de status van het cluster observeert, vergelijkt het met de gewenste staat en onderneemt de nodige acties om deze te verzoenen. Automatisch. Continu. Zonder menselijke tussenkomst. In dit artikel gaan we bouwen een complete Operator die Operator SDK en Kubebuilder gebruikt, waarbij hij de controller grondig begrijpt patroon en de verzoeningslus.
Wat je gaat leren
- Wat is een Kubernetes Operator en wanneer is het zinvol om er een te bouwen?
- Aangepaste resourcedefinitie (CRD): schema, versiebeheer, validatie
- Het controllerpatroon en de verzoeningslus
- Operator SDK versus Kubebuilder: verschillen en wanneer welke te gebruiken
- Implementeer een complete Operator met Kubebuilder
- Operator Hub en Operator Lifecycle Manager (OLM)
- Operatortesten met envtest
- Productieoperator: Zalando Postgres Operator, Strimzi voor Kafka
Wat is een Kubernetes-operator
De term "Operator" werd in 2016 door CoreOS geïntroduceerd om een patroon te beschrijven: software die de operationele knowhow van een specifieke toepassing omvat, zoals een set Kubernetes-controllers. De formele definitie van Google:
Een Operator en een methode voor het verpakken, implementeren en beheren van een Kubernetes-applicatie. Een Operator implementeert en automatiseert veel voorkomende taken van een menselijke operator bij het beheren dat type applicatie: implementatie, updates, back-up, failover, schaling.
Een Operator breidt het declaratieve model van Kubernetes uit naar specifieke domeinen. In plaats van “geef me een Pod”, kun je zeggen “geef me een PostgreSQL-cluster met 3 replica's, dagelijkse back-up op S3, automatische failover en TLS-certificaten". De Operator weet dit te transformeren specificatie op hoog niveau in concrete Kubernetes-bronnen.
Operator volwassenheidsmodel
Het Operator Capability Model definieert 5 niveaus van toenemende volwassenheid:
| Niveau | Naam | Capaciteit |
|---|---|---|
| 1 | Basisinstallatie | Geautomatiseerde applicatie-inrichting |
| 2 | Naadloze upgrades | Patches en kleine versie-upgrades |
| 3 | Volledige levenscyclus | Back-up, herstel van fouten, herconfiguratie |
| 4 | Diepe inzichten | Metrieken, waarschuwingen, logverwerking, analyse van de werklast |
| 5 | Automatische piloot | Automatisch schalen, automatisch configureren, detectie van afwijkingen |
Aangepaste resourcedefinitie (CRD)
Een CRD breidt de Kubernetes API uit met aangepaste resourcetypen. In plaats van alleen maar te gebruiken
systeemeigen bronnen (Pod, Implementatie, Service), kunt u specifieke domeinbronnen definiëren
hoe PostgresCluster, KafkaTopic, MLModel.
Definieer een CRD
# postgres-cluster-crd.yaml
apiVersion: apiextensions.k8s.io/v1
kind: CustomResourceDefinition
metadata:
name: postgresclusters.database.example.com
spec:
group: database.example.com
scope: Namespaced
names:
plural: postgresclusters
singular: postgrescluster
kind: PostgresCluster
shortNames:
- pgc
versions:
- name: v1alpha1
served: true
storage: true
# Schema di validazione OpenAPI v3
schema:
openAPIV3Schema:
type: object
properties:
spec:
type: object
required:
- replicas
- version
properties:
replicas:
type: integer
minimum: 1
maximum: 5
description: "Numero di repliche PostgreSQL"
version:
type: string
enum: ["14", "15", "16"]
description: "Versione PostgreSQL"
storage:
type: object
properties:
size:
type: string
pattern: "^[0-9]+Gi$"
default: "10Gi"
storageClass:
type: string
default: "fast-ssd"
backup:
type: object
properties:
enabled:
type: boolean
default: false
schedule:
type: string
description: "Cron expression per backup schedulato"
s3Bucket:
type: string
resources:
type: object
properties:
requests:
type: object
properties:
memory:
type: string
cpu:
type: string
limits:
type: object
properties:
memory:
type: string
cpu:
type: string
status:
type: object
properties:
phase:
type: string
enum: ["Pending", "Creating", "Running", "Degraded", "Failed"]
readyReplicas:
type: integer
primaryEndpoint:
type: string
conditions:
type: array
items:
type: object
properties:
type:
type: string
status:
type: string
reason:
type: string
message:
type: string
lastTransitionTime:
type: string
format: date-time
# Stampa colonne aggiuntive in kubectl get
additionalPrinterColumns:
- name: Replicas
type: integer
jsonPath: .spec.replicas
- name: Version
type: string
jsonPath: .spec.version
- name: Status
type: string
jsonPath: .status.phase
- name: Age
type: date
jsonPath: .metadata.creationTimestamp
# Subresource status (necessario per UpdateStatus)
subresources:
status: {}
Een aangepaste bron in actie
# my-postgres-cluster.yaml
apiVersion: database.example.com/v1alpha1
kind: PostgresCluster
metadata:
name: myapp-db
namespace: production
spec:
replicas: 3
version: "16"
storage:
size: "100Gi"
storageClass: fast-ssd
backup:
enabled: true
schedule: "0 2 * * *" # ogni notte alle 2:00
s3Bucket: "my-postgres-backups"
resources:
requests:
memory: "2Gi"
cpu: "1000m"
limits:
memory: "4Gi"
cpu: "2000m"
Het controllerpatroon en de verzoeningslus
Het hart van een Operator is de controleur: een proces dat continu observeert de huidige staat van bronnen in het cluster en vergelijkt deze met de gewenste staat gedeclareerd in de aangepaste resource. Als er een verschil is (drift), wordt de controller uitgevoerd de acties die nodig zijn om de twee staten met elkaar te verzoenen. Deze cyclus wordt genoemd verzoenen lus.
// Pseudocodice del reconcile loop
for {
desiredState = getDesiredState(customResource)
currentState = getCurrentState(cluster)
if currentState != desiredState {
actions = computeActions(desiredState, currentState)
execute(actions)
}
// Attendi il prossimo trigger (evento API server o requeueing)
waitForTrigger()
}
De controller maakt geen gebruik van een ‘pure gebeurtenisgestuurde’ aanpak (waarbij elke gebeurtenis een actie activeert specificatie) maar een aanpak op niveau gebaseerd: observeer de totale staat en de verzoenen. Dit maakt controllers robuuster: als gebeurtenissen (crash, herstart) ontbreken, de controller zal toch opnieuw opstarten en naar de juiste status convergeren.
Kubebuilder: een operator bouwen
Kubebuilder is het officiële CNCF-framework voor het bouwen van Operator in Go. Genereer de projectsteigers, beheert de communicatie met de API-server en levert helpers voor de verzoeningslus. Operator SDK is gebaseerd op Kubebuilder en voegt ondersteuning toe voor Helm- en Ansible-operators.
Projectopstelling
# Installa Kubebuilder
curl -L -o kubebuilder "https://go.kubebuilder.io/dl/latest/$(go env GOOS)/$(go env GOARCH)"
chmod +x kubebuilder
sudo mv kubebuilder /usr/local/bin/
# Crea un nuovo progetto Operator
mkdir postgres-operator && cd postgres-operator
kubebuilder init \
--domain database.example.com \
--repo github.com/myorg/postgres-operator
# Genera l'API e il controller per PostgresCluster
kubebuilder create api \
--group database \
--version v1alpha1 \
--kind PostgresCluster \
--resource \
--controller
# Struttura generata:
# api/v1alpha1/
# postgrescluster_types.go <- Definizione della struct CRD
# groupversion_info.go
# internal/controller/
# postgrescluster_controller.go <- Logica del reconcile loop
# config/crd/ <- Manifest YAML della CRD
Definieer het API-type
// api/v1alpha1/postgrescluster_types.go
package v1alpha1
import (
metav1 "k8s.io/apimachinery/pkg/apis/meta/v1"
corev1 "k8s.io/api/core/v1"
)
// PostgresClusterSpec definisce lo stato desiderato
type PostgresClusterSpec struct {
// +kubebuilder:validation:Minimum=1
// +kubebuilder:validation:Maximum=5
Replicas int32 `json:"replicas"`
// +kubebuilder:validation:Enum={"14","15","16"}
Version string `json:"version"`
Storage PostgresStorageSpec `json:"storage,omitempty"`
Backup PostgresBackupSpec `json:"backup,omitempty"`
Resources corev1.ResourceRequirements `json:"resources,omitempty"`
}
type PostgresStorageSpec struct {
// +kubebuilder:default="10Gi"
Size string `json:"size,omitempty"`
StorageClass string `json:"storageClass,omitempty"`
}
type PostgresBackupSpec struct {
Enabled bool `json:"enabled,omitempty"`
Schedule string `json:"schedule,omitempty"`
S3Bucket string `json:"s3Bucket,omitempty"`
}
// PostgresClusterStatus descrive lo stato osservato
type PostgresClusterStatus struct {
Phase string `json:"phase,omitempty"`
ReadyReplicas int32 `json:"readyReplicas,omitempty"`
PrimaryEndpoint string `json:"primaryEndpoint,omitempty"`
Conditions []metav1.Condition `json:"conditions,omitempty"`
}
// +kubebuilder:object:root=true
// +kubebuilder:subresource:status
// +kubebuilder:printcolumn:name="Replicas",type=integer,JSONPath=".spec.replicas"
// +kubebuilder:printcolumn:name="Status",type=string,JSONPath=".status.phase"
// +kubebuilder:printcolumn:name="Age",type=date,JSONPath=".metadata.creationTimestamp"
type PostgresCluster struct {
metav1.TypeMeta `json:",inline"`
metav1.ObjectMeta `json:"metadata,omitempty"`
Spec PostgresClusterSpec `json:"spec,omitempty"`
Status PostgresClusterStatus `json:"status,omitempty"`
}
De verzoeningslus: implementatie
// internal/controller/postgrescluster_controller.go
package controller
import (
"context"
"fmt"
appsv1 "k8s.io/api/apps/v1"
corev1 "k8s.io/api/core/v1"
"k8s.io/apimachinery/pkg/api/errors"
metav1 "k8s.io/apimachinery/pkg/apis/meta/v1"
"k8s.io/apimachinery/pkg/runtime"
ctrl "sigs.k8s.io/controller-runtime"
"sigs.k8s.io/controller-runtime/pkg/client"
"sigs.k8s.io/controller-runtime/pkg/log"
databasev1alpha1 "github.com/myorg/postgres-operator/api/v1alpha1"
)
type PostgresClusterReconciler struct {
client.Client
Scheme *runtime.Scheme
}
// +kubebuilder:rbac:groups=database.example.com,resources=postgresclusters,verbs=get;list;watch;create;update;patch;delete
// +kubebuilder:rbac:groups=database.example.com,resources=postgresclusters/status,verbs=get;update;patch
// +kubebuilder:rbac:groups=apps,resources=statefulsets,verbs=get;list;watch;create;update;patch;delete
// +kubebuilder:rbac:groups=core,resources=services,verbs=get;list;watch;create;update;patch;delete
func (r *PostgresClusterReconciler) Reconcile(
ctx context.Context,
req ctrl.Request,
) (ctrl.Result, error) {
logger := log.FromContext(ctx)
// 1. Ottieni la Custom Resource
pgCluster := &databasev1alpha1.PostgresCluster{}
if err := r.Get(ctx, req.NamespacedName, pgCluster); err != nil {
if errors.IsNotFound(err) {
// CR eliminata, pulizia gia gestita dai finalizer
return ctrl.Result{}, nil
}
return ctrl.Result{}, err
}
logger.Info("Reconciling PostgresCluster",
"name", pgCluster.Name,
"namespace", pgCluster.Namespace,
"replicas", pgCluster.Spec.Replicas)
// 2. Reconcilia il Service headless
if err := r.reconcileHeadlessService(ctx, pgCluster); err != nil {
return ctrl.Result{}, fmt.Errorf("failed to reconcile headless service: %w", err)
}
// 3. Reconcilia lo StatefulSet
sts, err := r.reconcileStatefulSet(ctx, pgCluster)
if err != nil {
return ctrl.Result{}, fmt.Errorf("failed to reconcile statefulset: %w", err)
}
// 4. Aggiorna lo status della CR
pgCluster.Status.ReadyReplicas = sts.Status.ReadyReplicas
pgCluster.Status.PrimaryEndpoint = fmt.Sprintf(
"%s-0.%s.%s.svc.cluster.local:5432",
pgCluster.Name,
pgCluster.Name,
pgCluster.Namespace,
)
if sts.Status.ReadyReplicas == pgCluster.Spec.Replicas {
pgCluster.Status.Phase = "Running"
} else if sts.Status.ReadyReplicas > 0 {
pgCluster.Status.Phase = "Degraded"
} else {
pgCluster.Status.Phase = "Creating"
}
if err := r.Status().Update(ctx, pgCluster); err != nil {
return ctrl.Result{}, fmt.Errorf("failed to update status: %w", err)
}
logger.Info("Reconciliation complete",
"phase", pgCluster.Status.Phase,
"readyReplicas", pgCluster.Status.ReadyReplicas)
return ctrl.Result{}, nil
}
func (r *PostgresClusterReconciler) reconcileStatefulSet(
ctx context.Context,
pgCluster *databasev1alpha1.PostgresCluster,
) (*appsv1.StatefulSet, error) {
desired := r.buildStatefulSet(pgCluster)
// Imposta il owner reference per la garbage collection automatica
if err := ctrl.SetControllerReference(pgCluster, desired, r.Scheme); err != nil {
return nil, err
}
existing := &appsv1.StatefulSet{}
err := r.Get(ctx, client.ObjectKeyFromObject(desired), existing)
if errors.IsNotFound(err) {
// StatefulSet non esiste: crealo
if err := r.Create(ctx, desired); err != nil {
return nil, fmt.Errorf("failed to create StatefulSet: %w", err)
}
return desired, nil
}
if err != nil {
return nil, err
}
// StatefulSet esiste: aggiornalo se necessario
existing.Spec.Replicas = desired.Spec.Replicas
existing.Spec.Template = desired.Spec.Template
if err := r.Update(ctx, existing); err != nil {
return nil, fmt.Errorf("failed to update StatefulSet: %w", err)
}
return existing, nil
}
func (r *PostgresClusterReconciler) buildStatefulSet(
pgCluster *databasev1alpha1.PostgresCluster,
) *appsv1.StatefulSet {
image := fmt.Sprintf("postgres:%s", pgCluster.Spec.Version)
return &appsv1.StatefulSet{
ObjectMeta: metav1.ObjectMeta{
Name: pgCluster.Name,
Namespace: pgCluster.Namespace,
},
Spec: appsv1.StatefulSetSpec{
Replicas: &pgCluster.Spec.Replicas,
ServiceName: pgCluster.Name,
Selector: &metav1.LabelSelector{
MatchLabels: map[string]string{"app": pgCluster.Name},
},
Template: corev1.PodTemplateSpec{
ObjectMeta: metav1.ObjectMeta{
Labels: map[string]string{"app": pgCluster.Name},
},
Spec: corev1.PodSpec{
Containers: []corev1.Container{
{
Name: "postgres",
Image: image,
Resources: pgCluster.Spec.Resources,
},
},
},
},
VolumeClaimTemplates: []corev1.PersistentVolumeClaim{
{
ObjectMeta: metav1.ObjectMeta{
Name: "data",
},
Spec: corev1.PersistentVolumeClaimSpec{
AccessModes: []corev1.PersistentVolumeAccessMode{
corev1.ReadWriteOnce,
},
StorageClassName: &pgCluster.Spec.Storage.StorageClass,
Resources: corev1.VolumeResourceRequirements{
Requests: corev1.ResourceList{
corev1.ResourceStorage: pgCluster.Spec.Storage.ParsedSize(),
},
},
},
},
},
},
}
}
// SetupWithManager registra il controller con il manager
func (r *PostgresClusterReconciler) SetupWithManager(
mgr ctrl.Manager,
) error {
return ctrl.NewControllerManagedBy(mgr).
For(&databasev1alpha1.PostgresCluster{}).
Owns(&appsv1.StatefulSet{}). // Reconcilia quando cambia lo StatefulSet owned
Owns(&corev1.Service{}).
Complete(r)
}
Finalizer: Opschonen van bronnen
Met Finalizers kunt u opruimbewerkingen uitvoeren voordat een bron wordt vrijgegeven geëlimineerd. Zonder finalizer zou het verwijderen van een PostgresCluster CR de CR verwijderen, maar niet noodzakelijkerwijs de gegevens op S3 of back-ups. Met finalizers kunt u deze opschoning beheren:
// Aggiungi finalizer handling al Reconcile
const pgClusterFinalizer = "database.example.com/finalizer"
func (r *PostgresClusterReconciler) Reconcile(ctx context.Context, req ctrl.Request) (ctrl.Result, error) {
pgCluster := &databasev1alpha1.PostgresCluster{}
if err := r.Get(ctx, req.NamespacedName, pgCluster); err != nil {
return ctrl.Result{}, client.IgnoreNotFound(err)
}
// Gestione eliminazione
if !pgCluster.DeletionTimestamp.IsZero() {
if controllerutil.ContainsFinalizer(pgCluster, pgClusterFinalizer) {
// Esegui cleanup
if err := r.cleanupExternalResources(ctx, pgCluster); err != nil {
return ctrl.Result{}, err
}
// Rimuovi il finalizer
controllerutil.RemoveFinalizer(pgCluster, pgClusterFinalizer)
if err := r.Update(ctx, pgCluster); err != nil {
return ctrl.Result{}, err
}
}
return ctrl.Result{}, nil
}
// Aggiungi finalizer se non presente
if !controllerutil.ContainsFinalizer(pgCluster, pgClusterFinalizer) {
controllerutil.AddFinalizer(pgCluster, pgClusterFinalizer)
if err := r.Update(ctx, pgCluster); err != nil {
return ctrl.Result{}, err
}
}
// ... resto della logica di reconcile
return ctrl.Result{}, nil
}
Operatortesten met envtest
Kubebuilder biedt envtest, een testframework dat een API-server lanceert Echte Kubernetes (zonder kubelets en knooppunten) om controllers geïntegreerd te testen:
// internal/controller/postgrescluster_controller_test.go
package controller
import (
"context"
"time"
. "github.com/onsi/ginkgo/v2"
. "github.com/onsi/gomega"
appsv1 "k8s.io/api/apps/v1"
metav1 "k8s.io/apimachinery/pkg/apis/meta/v1"
"k8s.io/apimachinery/pkg/types"
databasev1alpha1 "github.com/myorg/postgres-operator/api/v1alpha1"
)
var _ = Describe("PostgresCluster Controller", func() {
const (
timeout = time.Second * 10
interval = time.Millisecond * 250
)
Context("Quando crea un PostgresCluster", func() {
It("Deve creare lo StatefulSet corrispondente", func() {
ctx := context.Background()
pgCluster := &databasev1alpha1.PostgresCluster{
ObjectMeta: metav1.ObjectMeta{
Name: "test-postgres",
Namespace: "default",
},
Spec: databasev1alpha1.PostgresClusterSpec{
Replicas: 1,
Version: "16",
Storage: databasev1alpha1.PostgresStorageSpec{
Size: "10Gi",
StorageClass: "standard",
},
},
}
Expect(k8sClient.Create(ctx, pgCluster)).Should(Succeed())
// Verifica che lo StatefulSet venga creato
stsLookupKey := types.NamespacedName{
Name: "test-postgres",
Namespace: "default",
}
createdSts := &appsv1.StatefulSet{}
Eventually(func() bool {
err := k8sClient.Get(ctx, stsLookupKey, createdSts)
return err == nil
}, timeout, interval).Should(BeTrue())
// Verifica le specifiche dello StatefulSet
Expect(*createdSts.Spec.Replicas).Should(Equal(int32(1)))
Expect(createdSts.Spec.Template.Spec.Containers[0].Image).
Should(Equal("postgres:16"))
// Cleanup
Expect(k8sClient.Delete(ctx, pgCluster)).Should(Succeed())
})
})
})
Operator bouwen en implementeren
# Build dell'immagine
make docker-build docker-push IMG="myregistry/postgres-operator:v0.1.0"
# Deploy dell'Operator nel cluster
make deploy IMG="myregistry/postgres-operator:v0.1.0"
# Verifica il deployment
kubectl get pods -n postgres-operator-system
kubectl logs -n postgres-operator-system deployment/postgres-operator-controller-manager
# Applica una CR
kubectl apply -f my-postgres-cluster.yaml
kubectl get postgresclusters -n production
kubectl describe postgrescluster myapp-db -n production
Productieoperator: echte voorbeelden
Het is niet nodig om voor elke veel voorkomende toepassing een Operator te bouwen. Het ecosysteem Kubernetes biedt volwassen operators voor grote stateful applicaties:
Zalando Postgres-operator
# Installa il Postgres Operator di Zalando (level 5 maturity)
helm repo add postgres-operator-charts \
https://opensource.zalando.com/postgres-operator/charts/postgres-operator
helm install postgres-operator \
postgres-operator-charts/postgres-operator \
-n postgres-operator --create-namespace
# Crea un cluster PostgreSQL con HA e backup su S3
apiVersion: "acid.zalan.do/v1"
kind: postgresql
metadata:
name: myapp-postgres
namespace: production
spec:
teamId: "myteam"
volume:
size: 100Gi
storageClass: fast-ssd
numberOfInstances: 3
users:
myapp:
- superuser
- createdb
databases:
myapp: myapp
postgresql:
version: "16"
parameters:
shared_buffers: "1GB"
max_connections: "200"
resources:
requests:
cpu: 1000m
memory: 2Gi
limits:
cpu: 2000m
memory: 4Gi
patroni:
failsafe_mode: false
# Backup automatico su S3 con WAL-G
enableLogicalBackup: true
logicalBackupSchedule: "00 02 * * *"
Strimzi: Kafka op Kubernetes
# Kafka cluster con Strimzi (level 5 maturity)
apiVersion: kafka.strimzi.io/v1beta2
kind: Kafka
metadata:
name: production-cluster
namespace: kafka
spec:
kafka:
version: 3.7.0
replicas: 3
listeners:
- name: plain
port: 9092
type: internal
tls: false
- name: tls
port: 9093
type: internal
tls: true
config:
offsets.topic.replication.factor: 3
transaction.state.log.replication.factor: 3
transaction.state.log.min.isr: 2
default.replication.factor: 3
min.insync.replicas: 2
inter.broker.protocol.version: "3.7"
storage:
type: jbod
volumes:
- id: 0
type: persistent-claim
size: 200Gi
class: fast-ssd
deleteClaim: false
resources:
requests:
memory: 4Gi
cpu: 2000m
limits:
memory: 8Gi
cpu: 4000m
zookeeper:
replicas: 3
storage:
type: persistent-claim
size: 10Gi
class: fast-ssd
deleteClaim: false
entityOperator:
topicOperator: {}
userOperator: {}
Operator Lifecycle Manager (OLM)
De OLM beheert de installatie, upgrade en levenscyclusbeheer van de Operator in het cluster. En het mechanisme dat OperatorHub.io gebruikt om Operators te distribueren.
# Installa OLM nel cluster
curl -sL https://github.com/operator-framework/operator-lifecycle-manager/releases/download/v0.28.0/install.sh | bash -s v0.28.0
# Installa un Operator da OperatorHub tramite OLM
kubectl create -f https://operatorhub.io/install/postgres-operator.yaml
# Verifica gli Operator installati
kubectl get csv -n operators # ClusterServiceVersion
kubectl get subscription -n operators
Beste praktijken voor operators
Checklist voor productie-operators
- Gebruik finalizer: Altijd voor bronnen die externe bijwerkingen hebben (S3-bucket, DNS-records, etc.)
- Statusvoorwaarden implementeren: Volg het Kubernetes-voorwaardepatroon (type, status, reden, bericht)
- Idempotentie: De afstemmingslus moet veilig meerdere keren kunnen worden uitgevoerd met hetzelfde resultaat
- Fouten afhandelen door opnieuw proberen: VS
ctrl.Result{RequeueAfter: time.Minute}voor tijdelijke fouten - Voer geen blokkeerbewerkingen uit: De verzoening mag niet blokkeren; gebruik goroutines voor lange operaties
- Minimale RBAC: Gebruik alleen de strikt noodzakelijke rechten in de annotaties
+kubebuilder:rbac - Testen met envtest: Schrijf integratietests voor elk afstemmingsscenario
- Versiebeheer-API: Gebruik versiebeheer (v1alpha1 -> v1beta1 -> v1) en conversie-webhooks voor migraties
Wanneer mag je GEEN operator bouwen?
Operators hebben aanzienlijke ontwikkelings- en onderhoudskosten. Bouw er een het heeft alleen zin als: (1) er een volwassen Operator op OperatorHub is voor de applicatie die dat doet jij beheert, gebruik het; (2) de applicatie is complex, stateful en vereist kennis gespecialiseerde handelingen die moeten worden geautomatiseerd; (3) je hebt toegewijde teams die ze kunnen onderhouden Ga coderen in de loop van de tijd. Voor eenvoudige inzet is dit niet nodig.
Conclusies en volgende stappen
Het Kubernetes Operator-patroon is de natuurlijke uitbreiding van de declaratieve filosofie van Kubernetes tot complexe applicatiedomeinen. In plaats van databases handmatig te beheren, messaging-systemen en stateful services codificeer je operationele kennis in een controller die 24/7 werkt om het systeem in de gewenste staat te houden.
Kubebuilder en Operator SDK zorgen voor de basis: projectsteigers, beheer van de server-API, verzoen het raamwerk. Maar bedrijfslogica – hoe beheer je een PostgreSQL failover, hoe u een Kafka-cluster kunt schalen, hoe u TLS-certificaten kunt roteren - moet worden geïmplementeerd met diepgaande kennis van de specifieke toepassing.
Aankomende artikelen in de Kubernetes at Scale-serie
Gerelateerde bronnen en series
- Kubernetes-netwerken: CNI, Cilium met eBPF
- Persistente opslag in Kubernetes
- MLOps: ML op Kubernetes schalen — Exploitant van de trainingspijpleiding







