KI-basiertes Tool zur prädiktiven Kubernetes-Autoskalierung

Gratiszugang
Holen Sie sich eine persönliche 20-minütige technische Beratung darüber, wie Ihre Infrastruktur vom unbegrenzten kostenlosen Zugang zu PredictKube profitieren kann.
kompatibel mit:

Geben Sie die Daten ein für 1+ Woche und nutzen Sie proaktives Autoscaling in Kubernetes für bis zu 6 Stunden Horizont basierend auf KI-Vorhersage

Holen Sie das Beste aus dem KI-basierten Kubernetes-Autoscaler heraus

Startschuss
Unser KI-Modell kann beginnen, zwei Wochen lang mit den Verkehrsdaten zu arbeiten, um Ihnen eine zuverlässige Prognose für Kubernetes-Autoscaling-Knoten zu liefern.
Proaktive Skalierung
Mit PredictKube können Sie das Autoscaling in Kubernetes abschließen, bevor die Last steigt. Dies ist auf Prognosen unseres KI-Modells zurückzuführen, das in das Cluster-Autoscaling-Tool integriert ist.
Skalierung der Automatisierung
Das Predictive Autoscaling Kubernetes-Tool optimiert die Anzahl der aktiven Knoten präventiv, und wenn der Traffic zunimmt, sind alle Ihre Knoten bereit.
Fallstudie PreditKube x Google Cloud: Wie wir 90% der Traffic-Spitzen bei PancakeSwap genau vorhergesagt, die Kosten um 30% gesenkt und die Reaktionszeit bei Spitzenzeiten um das 62,5-Fache reduziert haben.
Lesen Sie den Fall

Probleme, die PredictKube löst

Überbereitstellung und hohe Cloud-Rechnungen

Sie zahlen zu viel, um den Verkehrsbedarf zu decken, den Sie möglicherweise benötigen, um Verkehrsverluste zu vermeiden. Das ist ineffizient.

Ausfallzeiten und hohe Latenz

Die Infrastruktur wird überlastet und Ihre Benutzer können keine Verbindung zu Ihrem Produkt/Ihrer Dienstleistung herstellen. Sie verlieren Traffic.

Problematisches Projektwachstum

Machen Sie Ihre Infrastruktur für Sie transparent und sichtbar, verwalten Sie sie effizient und verhindern Sie Fehler.
Stärken Sie Ihre K8s-Infrastruktur mit wegweisendem KI-Autoscaler und lösen Sie Infrastrukturprobleme während eines kostenlosen Telefonats mit den Dysnix-Technikern
Daniel Yavorovych
Mitbegründer und CTO bei und Dysnix

Es ist einfach, jetzt mit der Verwendung von Kubernetes Cluster Autoscaler zu beginnen

Installieren Sie PredictKube und lösen Sie das Problem der Überversorgung. Holen Sie sich in wenigen Schritten Ihren intelligentesten Kubernetes-Cluster-Autoscaler:
1.Normaler Zustand
Helm-Repo füge Kedacore hinzu https://kedacore.github.io/charts
2.Helm Repo aktualisieren
Helm Repo-Aktualisierung
3.Installieren Sie keda Helm chart
kubectl erstellen Namespace Keda
Helm installieren kedakedacore/keda --namespace keda
4.Create PredictKube Credentials Secret
API_KEY=„<change-me>“
kubectl geheime generische Predictkube-Secrets erstellen --from-literal=APIKEY=$ {API_KEY}
5.Holen Sie sich den API-Schlüssel
Damit unser KI-Modell auf Ihre Daten zugreift und darauf basierend eine Prognose trifft, verwenden Sie bitte den API-Schlüssel, den wir an Ihre E-Mail senden.
Anzahl der Knoten:
Danke
Wir werden so schnell wie möglich mit Ihnen in Verbindung setzen
Hoppla! Beim Absenden des Formulars ist etwas schief gelaufen.
6.Predict Autoscaling konfigurieren
von scaleobject.yaml << EOF
API-Version: keda.sh/v1alpha1
Kunst: TriggerAuthentication
Metadaten:
Name: keda-trigger-auth-predictkube-secret
spezifikation:
Geheime Zielreferenz:
- Parameter: ApiKey
Nickname: predictkube-secrets
Key: APIKey
---
API-Version: keda.sh/v1alpha1
Kunst: ScaledObject
Metadaten:
Name: Beispiel-App-Scaler
spezifikation:
Zielreferenz skalieren:
Nome: Beispiel-App
Abfrageintervall:
60
Abklingzeit:
300
Min. replicate number:
3
Max. Anzahl Replicates:
50
löst aus:
-
typ: Prediktkube
Metadaten:
Horizont vorhersagen:
„2 hours“
HistoryTimewindow: „7 x“ # We recommend to use an time window of minimum 7 to 14 days as historical data
Prometheus US Address: http://kube-prometheus-stack-prometheus.monitoring:9090
Abkürzung: sum (irate (http_requests_total {pod=~"example-app-.* „} [2m])))
QueryStep: „2m“ # Hinweis: Duration des Abfrageschritts for Range-Prometheus-Abfragen
Schwellenwert: '2000' # value, for the will started with the scale
Reference for Authentication:
Name: keda-trigger-auth-predictkube-secret
EOF

Unter der Haube: Werkzeuge im Inneren

PredictKube is official as KEDA-Scaler
Read the KEDA article

FAQ: Alles, was du über Kubernetes Autoscaling und unsere Autoscaler wissen musst

Was ist Kubernetes Autoscaling?

Kubernetes Autoscaling passt die Ressourcen für Ihre Anwendungen automatisch an den Bedarf an.

Stellen Sie sich eine E-Commerce-Website wie Amazon vor. In den Hauptverkehrszeiten kommt es dort zu einem Anstieg des Verkehrs. Mit Autoscaling kann Kubernetes automatisch mehr Ressourcen (z. B. zusätzliche Pods) bereitstellen, um die erhöhte Last zu bewältigen, genau wie Amazon seine Server hochskaliert. Dies gewährleistet eine reibungslose Benutzererfahrung, vermeidet die Zunahme der Latenz und minimiert Verzögerungen und Fehler.

Umgekehrt kann Autoscaling in langsameren Phasen Ressourcen verkleinern, um die Kosten zu senken. Aber nicht für jedes Projekt ist eine automatische Skalierung erforderlich. Dennoch funktioniert die manuelle Skalierung für viele Unternehmen mit einem einfachen Muster der Verkehrsbelastung einwandfrei.

Welche Arten von Autoscaling sind in Kubernetes verfügbar?

Kubernetes unterstützt drei Haupttypen von Autoscaling:

  • Horizontal Pod Autoscaler (HPA): Fügt Pods basierend auf Metriken wie CPU- oder Speicherauslastung hinzu oder entfernt sie. (z. B. automatische Skalierung von Webservern während einer Verkehrsspitze)
  • Vertical Pod Autoscaler (VPA): Passt Ressourcenanforderungen und Limits für einzelne Pods an. (z. B. dynamische Zuweisung von mehr CPU zu einem Datenverarbeitungs-Pod)
  • Cluster Autoscaler: Fügt ganze Knoten im Cluster hinzu oder entfernt sie je nach Gesamtressourcenanforderungen. (z. B. Inbetriebnahme von mehr Servern in der Hochsaison für ein Einzelhandelsunternehmen)

Wir bei Dysnix haben einen weiteren Typ entwickelt: den Predictive Autoscaler für k8s, ein KI-basiertes Produkt namens PredictKube, das Ressourcen im Voraus skaliert und auf der Grundlage historischer und geschäftlicher Kennzahlen arbeitet.

Wie funktioniert Horizontal Pod Autoscaling (HPA)?

Mit HPA können Sie beispielsweise sicherstellen, dass Ihre Spieleserver mit den schwankenden Spielerzahlen Schritt halten. HPA skaliert Ihre Server automatisch, indem es Pods hinzufügt, wenn ein Ansturm von Spielern zuschlägt, z. B. während einer neuen Spielveröffentlichung, um ein reibungsloses Spielerlebnis zu gewährleisten. Es kann jedoch anfällig für eine Überskalierung sein, wenn es mit übermäßig aggressiven Metriken konfiguriert wird, wodurch Ressourcen verschwendet werden. Darüber hinaus reagiert HPA möglicherweise nicht schnell genug auf plötzliche Spitzen, was zu einer vorübergehenden Verzögerung führt, bis neue Pods hochgefahren werden.

Aus diesen Gründen ist es wichtig, HPA-Metriken sorgfältig zu konfigurieren und sie als Teil einer umfassenden Autoscaling-Strategie zu betrachten.

Welche Metriken können mit HPA verwendet werden?

HPA kann verschiedene Arten von Metriken verwenden, darunter:

Indikatoren für Ressourcen

  • CPU-Auslastung: Misst, wie viel Rechenleistung Ihre Pods verbrauchen.
  • Speichernutzung: Verfolgt, wie viel Speicher Ihre Pods verwenden.

Benutzerdefinierte Metriken

Sie können benutzerdefinierte anwendungsspezifische Metriken definieren, die ein detaillierteres Bild des Zustands Ihrer Workloads vermitteln.

  • Länge der Anforderungswarteschlange: Überwacht die Anzahl der Anfragen, die darauf warten, von Ihrer Anwendung verarbeitet zu werden.
  • Parallelitätsstufe: Verfolgt die Anzahl der gleichzeitigen Anfragen, die Ihre Anwendung verarbeitet.

Externe Indikatoren

Wenn Ihre Anwendung mit externen Diensten interagiert, können Sie Metriken dieser Dienste verwenden, um Skalierungsereignisse auszulösen.

  • Datenbankverbindungen: Skaliert basierend auf der Anzahl der Verbindungen zu Ihrer Datenbank.
  • Externe API-Aufrufe: Passt Pods an das Volumen der Aufrufe an eine externe API an.

Wie funktioniert Vertical Pod Autoscaling (VPA)?

Vertical Pod Autoscaler (VPA) ist wie ein automatisch anpassbares Budget für Ihre Cloud-Ressourcen.

Stellen Sie sich vor, Ihr Marketingteam führt Werbekampagnen durch. Mit HPA (Horizontal Pod Autoscaler) würden Sie bei Verkehrsspitzen einfach mehr Server hinzufügen (z. B. mehr Werbeflächen mieten). VPA ist genauer. Es überwacht die Ressourcennutzung jeder Kampagne (wie Werbeausgaben) und weist leistungsfähigen Kampagnen mehr Ressourcen (Budget) zu, während weniger effektive Kampagnen reduziert werden.

Dies optimiert Ihre Ausgaben und stellt sicher, dass jede Kampagne die Ressourcen erhält, die sie für ihren Erfolg benötigt, ohne dass es zu einem unnötigen Überlauf kommt.

Was ist Cluster-Autoscaling?

Cluster Autoscaler fungiert als dynamischer Ressourcenmanager und stellt sicher, dass Ihr Kubernetes-Cluster über die richtige Menge an Muskelmasse (Knoten) verfügt, um schwankende Workloads kostengünstig zu bewältigen. Hier ist ein Beispiel:

Ein Unternehmen betreibt eine Anwendung für maschinelles Lernen auf Kubernetes. Während der Trainingsphase benötigt die Anwendung viele CPU- und Speicherressourcen. Cluster Autoscaler erkennt diesen Anstieg der Nachfrage automatisch und skaliert den Cluster durch Hinzufügen neuer Knoten. Dadurch wird sichergestellt, dass der Trainingsprozess schnell und ohne Ressourcenengpässe abgeschlossen wird.

Sobald das Training abgeschlossen ist, geht die Anwendung in eine Prognosephase über, in der der Ressourcenverbrauch erheblich sinkt. Cluster Autoscaler erkennt dies und skaliert den Cluster herunter, indem nicht benötigte Knoten entfernt werden. Dadurch spart das Unternehmen Geld für Cloud-Kosten, die mit ungenutzten Ressourcen verbunden sind.

Was ist prädiktives Autoscaling von Kubernetes?

Kubernetes selbst hat kein integriertes prädiktives Autoscaling, aber es kann durch externe Tools und Integrationen erreicht werden. PredictKube gilt als eines der effizientesten Tools für prädiktives Autoscaling, das derzeit auf dem Markt erhältlich ist. So funktioniert es, erklärt in einem vereinfachten Beispiel:

Stellen Sie sich eine Nachrichtenwebsite vor, die an jedem Wahltag einen Anstieg des Traffics erlebt. Ein Tool zur prädiktiven Autoskalierung wie PredictKube würde Daten vom vergangenen Wahltag analysieren und die Ressourcen der Website entsprechend dem geschätzten Volumen des bevorstehenden Traffic-Anstiegs skalieren. Somit sorgt es für einen reibungslosen Ablauf während der Veranstaltung und verhindert Verzögerungen oder Abstürze.

Dieser proaktive Ansatz hilft, Verkehrsspitzen effizient zu bewältigen und potenzielle Engpässe zu vermeiden. Es erfordert jedoch eine zusätzliche Einrichtung und Integration mit externen Tools wie KEDA (Kubernetes Event-driven Autoscaling) oder speziellen Prognose-Engines. Aber wir von Dysnix können uns für Sie darum kümmern. Kontaktiere uns für mehr.

Wie unterscheidet sich prädiktives Autoscaling von herkömmlichem Autoscaling in Kubernetes?

Traditionelles Autoscaling in Kubernetes, wie Horizontal Pod Autoscaler (HPA), ist reaktiv. HPA überwacht Ressourcenmetriken wie die CPU- oder Speicherauslastung und skaliert Pods (Anwendungsinstanzen) auf der Grundlage vordefinierter Schwellenwerte nach oben oder unten. Dadurch wird sichergestellt, dass Ihre Anwendung über genügend Ressourcen verfügt, um reibungslos zu funktionieren, aber zukünftige Anforderungen werden nicht berücksichtigt. Es kann also vorkommen, dass Ihre Ressourcen noch nicht eingetroffen sind, aber der Bedarf ist gerade hier und jetzt extrem groß.

Predictive Autoscaling ist dagegen proaktiv. Es nutzt maschinelles Lernen oder statistische Modelle, um historische Daten wie Verkehrsmuster oder saisonale Trends zu analysieren. Durch die Identifizierung dieser Muster kann es den zukünftigen Ressourcenbedarf vorhersagen und Maßnahmen ergreifen, bevor es zu einer Überlastung kommt.

In die Zwischenablage kopiert
Fügen Sie es ein, wo immer Sie möchten