KI-basiertes Tool zur prädiktiven Kubernetes-Autoskalierung

Gratiszugang
Holen Sie sich eine persönliche 20-minütige technische Beratung darüber, wie Ihre Infrastruktur vom unbegrenzten kostenlosen Zugang zu PredictKube profitieren kann.
kompatibel mit:

Geben Sie die Daten ein für 1+ Woche und nutzen Sie proaktives Autoscaling in Kubernetes für bis zu 6 Stunden Horizont basierend auf KI-Vorhersage

Holen Sie das Beste aus dem KI-basierten Kubernetes-Autoscaler heraus

Startschuss
Unser KI-Modell kann beginnen, zwei Wochen lang mit den Verkehrsdaten zu arbeiten, um Ihnen eine zuverlässige Prognose für Kubernetes-Autoscaling-Knoten zu liefern.
Proaktive Skalierung
Mit PredictKube können Sie das Autoscaling in Kubernetes abschließen, bevor die Last steigt. Dies ist auf Prognosen unseres KI-Modells zurückzuführen, das in das Cluster-Autoscaling-Tool integriert ist.
Skalierung der Automatisierung
Das Predictive Autoscaling Kubernetes-Tool optimiert die Anzahl der aktiven Knoten präventiv, und wenn der Traffic zunimmt, sind alle Ihre Knoten bereit.
Fallstudie PreditKube x Google Cloud: Wie wir 90% der Traffic-Spitzen bei PancakeSwap genau vorhergesagt, die Kosten um 30% gesenkt und die Reaktionszeit bei Spitzenzeiten um das 62,5-Fache reduziert haben.
Lesen Sie den Fall

Probleme, die PredictKube löst

Überbereitstellung und hohe Cloud-Rechnungen

Sie zahlen zu viel, um den Verkehrsbedarf zu decken, den Sie möglicherweise benötigen, um Verkehrsverluste zu vermeiden. Das ist ineffizient.

Ausfallzeiten und hohe Latenz

Die Infrastruktur wird überlastet und Ihre Benutzer können keine Verbindung zu Ihrem Produkt/Ihrer Dienstleistung herstellen. Sie verlieren Traffic.

Problematisches Projektwachstum

Machen Sie Ihre Infrastruktur für Sie transparent und sichtbar, verwalten Sie sie effizient und verhindern Sie Fehler.
Stärken Sie Ihre K8s-Infrastruktur mit wegweisendem KI-Autoscaler und lösen Sie Infrastrukturprobleme während eines kostenlosen Telefonats mit den Dysnix-Technikern
Daniel Yavorovych
Mitbegründer und CTO bei und Dysnix

Es ist einfach, jetzt mit der Verwendung von Kubernetes Cluster Autoscaler zu beginnen

Installieren Sie PredictKube und lösen Sie das Problem der Überversorgung. Holen Sie sich in wenigen Schritten Ihren intelligentesten Kubernetes-Cluster-Autoscaler:
1.Normaler Zustand
Helm-Repo füge Kedacore hinzu https://kedacore.github.io/charts
2.Helm Repo aktualisieren
Helm Repo-Aktualisierung
3.Installieren Sie keda Helm chart
kubectl erstellen Namespace Keda
Helm installieren kedakedacore/keda --namespace keda
4.Create PredictKube Credentials Secret
API_KEY=„<change-me>“
kubectl geheime generische Predictkube-Secrets erstellen --from-literal=APIKEY=$ {API_KEY}
5.Holen Sie sich den API-Schlüssel
Damit unser KI-Modell auf Ihre Daten zugreift und darauf basierend eine Prognose trifft, verwenden Sie bitte den API-Schlüssel, den wir an Ihre E-Mail senden.
Anzahl der Knoten:
Danke
Wir werden so schnell wie möglich mit Ihnen in Verbindung setzen
Hoppla! Beim Absenden des Formulars ist etwas schief gelaufen.
6.Predict Autoscaling konfigurieren
von scaleobject.yaml << EOF
API-Version: keda.sh/v1alpha1
Kunst: TriggerAuthentication
Metadaten:
Name: keda-trigger-auth-predictkube-secret
spezifikation:
Geheime Zielreferenz:
- Parameter: ApiKey
Nickname: predictkube-secrets
Key: APIKey
---
API-Version: keda.sh/v1alpha1
Kunst: ScaledObject
Metadaten:
Name: Beispiel-App-Scaler
spezifikation:
Zielreferenz skalieren:
Nome: Beispiel-App
Abfrageintervall:
60
Abklingzeit:
300
Min. replicate number:
3
Max. Anzahl Replicates:
50
löst aus:
-
typ: Prediktkube
Metadaten:
Horizont vorhersagen:
„2 hours“
HistoryTimewindow: „7 x“ # We recommend to use an time window of minimum 7 to 14 days as historical data
Prometheus US Address: http://kube-prometheus-stack-prometheus.monitoring:9090
Abkürzung: sum (irate (http_requests_total {pod=~"example-app-.* „} [2m])))
QueryStep: „2m“ # Hinweis: Duration des Abfrageschritts for Range-Prometheus-Abfragen
Schwellenwert: '2000' # value, for the will started with the scale
Reference for Authentication:
Name: keda-trigger-auth-predictkube-secret
EOF

Unter der Haube: Werkzeuge im Inneren

PredictKube is official as KEDA-Scaler
Read the KEDA article

FAQ: Alles, was du über Kubernetes Autoscaling und unsere Autoscaler wissen musst

Was ist ein Horizontal Pod Autoscaler?

Ein horizontaler Pod-Autoscaler ist ein innerer Autoscaler, den Kubernetes implementiert hat. Er skaliert Pods horizontal, was bedeutet, dass der HorizontalPodAutoscaler dem aktuellen nur weitere Pods zufügt. Es ist nicht für alle Fälle die beste Lösung, aber für kleinere Projekte mit einem erwarteten Verkehrsmuster kann es eine umfassende Lösung sein. Aber denk daran, dass es hier keine prädiktive Option gibt. This function is first started, when the load deutlich steigt. PredictKube funciert dank des KI-Modells, das den Mustertrend analysiert und prognostiziert, sodass Ihre Pods rechtzeitig bereitgestellt werden. Im Kubernetes-Cluster-Autoscaler von Dysnix wird die horizontale Skalierung automatisch auf der Grundlage von KI-Prognosemodellen angewendet.

Skaliert GKE automatisch?

GKE Autoscaling is an standard option for Google Cloud customers and offers you possible to set the configuration for the high and reduced scale of the knotenpopulation your clusters. Kurz gesagt, es ist eine Möglichkeit, den niedrigsten und höchsten Meilenstein für Ihren Cluster einzurichten. Je nach Arbeitslast nimmt die Anzahl Ihrer Infrastruktur innerhalb dieser Grenzen zu oder ab. This is not mainly the problem of the supply, but it is one of the helpful tools for users of Google Kubernetes Engine — until you perform PredictKube.

Wie skaliert man einen Microservice?

Um Auto-Scaling-Microservices aufzubauen, müssen sie von Beginn der Entwicklung an die Prinzipien der Partitionierung und Parallelität anwenden. This on microservices based infrastructure is scalable, you must ensure that all processes can be parallelized and atomized. With this approach your app can do all extensive processes mühelos and distributed tasks on the productive areas. A other possible, scale functions to install, there contains to containerized any microservice and k8s for management and scalization this container.

Wie aktiviere ich EKS-Cluster Autoscaler?

Cluster Autoscaler is a tool, that is responsible for the high and download scale of cloud providers for users managed Kubernetes-Cluster. Speziell für AWS-Benutzer gibt es eine weitere Lösung wie Carpenter: Sie bieten dieselben Funktionen wie Cluster-Autoscaler, können jedoch aufgrund der direkten Kommunikation mit der AWS EC2-API die Skalierungsgeschwindigkeiten drastisch erhöhen. With PredictKube can you can reach a more speed by the automatic scaling using his predictive KI models.

Was ist AWS EKS Autoscaling?

Kubernetes AWS-Autoscaling is used in Elastic Kubernetes Service (EKS), das für den AWS-Cloud-Anbieter gilt. AWS übernimmt die Verwaltung Ihrer Kubernetes-Cluster-Steuerungsebene und Ihrer Rechenknoten gegen eine Gebühr. What the autoscaling, you can configure the min-max number of nodes and managed or self-managed groups your nodes. Anschliessend wird EC2 mit Autoscaling-Gruppen verbunden, wobei alles von der Steuerungsebene verwaltet wird.

Skaliert DigitalOcean automatisch?

Ja, Ihr Projekt in der DigitalOcean-Umgebung kann manuell und automatisch skaliert werden. The autoscaling by DigitalOcean Kubernetes based on CA, Cluster Autoscaler. It is used for automatic add or reduce of Kubernetes nodes, to adjust the cluster capacity to the current requirements.

Wie skaliere ich meinen Prometheus-Server?

Der beste Weg, einen Prometheus-Server zu skalieren, besteht darin, mehrere Prometheus-Instances zu haben, die verschiedenen Sätze von Metriken von verschiedenen Knoten scrapen, anstatt eine Instanz zu besitzen, die alle Metriken scrapt. Es kann leicht überlastet werden und Daten gehen verloren. The automatic scalation of Prometheus can only then efficient, when the metrics, the scale decision, correct and in full scope.

Wie verwende ich den Cluster-Autoscaler in Azure Kubernetes Service?

It is very easy: create a AKS cluster and activate the autoscaling function. Unter der Haube beobachtet der Cluster-Autoscaler die Kapazitätsanforderungen ihrer Workloads und erhöht die Anzahl der Knoten, um die berechneten Ressourcen an die angeforderte Kapazität anzupassen. A Horizontal Pod Autoscaler (HPA) does same, but to workload level. Sie können mehrere Optionen angeben, z. B. die Min/Max-Anzahl der Pods, das Verhalten beim Hoch- und Herunterskalieren und angeben, auf welche Metriken beim Autoscaling geachtet werden sollen. If the last takes, reduces HPA the number of pods and the AKS-cluster-autoscaler removed nodes, which are not available enough.

In die Zwischenablage kopiert
Fügen Sie es ein, wo immer Sie möchten