Outil de dimensionnement automatique Kubernetes prédictif basé sur l'IA

Bénéficiez d'un accès gratuit
Bénéficiez d'une consultation technique personnalisée de 20 minutes sur la manière dont votre infrastructure peut bénéficier d'un accès gratuit et illimité à PredictKube.
Compatible avec :

Entrez les données pour Plus d'une semaine et bénéficiez d'une mise à l'échelle automatique proactive dans Kubernetes jusqu'à 6 heures horizon basé sur les prévisions de l'IA

Tirez le meilleur parti de l'autoscaler Kubernetes basé sur l'IA

Coup d'envoi
Notre modèle d'IA peut commencer à utiliser les données de trafic pendant deux semaines afin de vous fournir une prévision fiable pour les nœuds de mise à l'échelle automatique de Kubernetes.
Mise à l'échelle proactive
Avec PredictKube, vous pouvez terminer la mise à l'échelle automatique dans Kubernetes avant que la charge n'augmente, grâce aux prévisions réalisées par notre modèle d'IA intégré à l'outil de dimensionnement automatique du cluster.
Automatisation du dimensionnement
L'outil Kubernetes de dimensionnement automatique prédictif optimise le nombre de nœuds actifs de manière préventive, et lorsque le trafic augmente, tous vos nœuds sont prêts.
Étude de cas PreditKube x Google Cloud: Comment nous avons prévu avec précision 90 % des pics de trafic de PancakeSwap, réduit les coûts de 30 % et réduit le temps de réponse de pointe de 62,5 fois.
Lisez l'affaire

Problèmes résolus par PredictKube

Surprovisionnement et factures cloud élevées

Vous payez trop cher pour couvrir tous les besoins en matière de trafic que vous pourriez avoir afin d'éviter les pertes de trafic. C'est inefficace.

Temps d'arrêt et latence élevée

L'infrastructure est surchargée et vos utilisateurs ne peuvent pas se connecter à votre produit/service. Vous perdez du trafic.

Croissance problématique des projets

Rendez votre infrastructure transparente et visible pour vous, gérez-la efficacement et évitez les erreurs.
Renforcez votre infrastructure K8s grâce à un autoscaler IA révolutionnaire et résolvez les problèmes d'infrastructure lors d'un appel gratuit avec les ingénieurs de Dysnix
Daniel Yavorovych
Cofondateur et directeur technique de Dand Dysnix

Il est facile de commencer à utiliser l'autoscaler de cluster Kubernetes dès maintenant

Installez PredictKube et résolvez le problème de surprovisionnement. Obtenez votre autoscaler de cluster Kubernetes le plus intelligent en quelques étapes :
1.État normal
helm repo ajoute kedacore https://kedacore.github.io/charts
2.Mettre à jour Helm Repo
barre mise à jour du dépôt
3.Installez keda Helm chart
kubectl créer espace de noms keda
barre installer kedakedacore/keda --namespace keda
4.Créer un secret d'identification PredictKube
CLÉ_API =« <change-me>»
kubectl créer des secrets génériques predictkube-secrets --from-literal=APIKey=$ {API_KEY}
5.Obtenir la clé API
Pour que notre modèle d'IA accède à vos données et fasse une prédiction sur la base de celles-ci, veuillez utiliser la clé API que nous vous enverrons par e-mail.
Nombre de nœuds :
Merci
Nous vous contacterons dès que possible
Oups ! Une erreur s'est produite lors de l'envoi du formulaire.
6.Configurer Predict Autoscaling
tee scaleobject.yaml << EOF
Version de l'API : keda.sh/v1alpha1
type : TriggerAuthentication
métadonnées :
nom : keda-trigger-auth-predictkube-secret
spécification :
Référence secrète de la cible :
- paramètre : APIKey
nom : predictkube-secrets
clé : ApiKey
---
Version de l'API : keda.sh/v1alpha1
type : ScaledObject
métadonnées :
nom : example-app-scaler
spécification :
Référence de la cible d'échelle :
nom : example-app
Intervalle entre les bureaux de vote :
60
Période de refroidissement :
300
Nombre minimal de répliques :
3
Nombre maximum de répliques :
50
déclencheurs :
-
type : predictkube
métadonnées :
Horizon de prévision :
« 2 heures »
l'histoireFenêtre horaire : « 7e jour » # Nous recommandons d'utiliser une fenêtre temporelle de 7 à 14 jours au minimum comme données historiques
Adresse Prometheus : http://kube-prometheus-stack-prometheus.monitoring :9090
requête : sum (irate (http_requests_total {pod=~"example-app-.* "} [2m]))
QueryStep : « 2m » # Remarque : durée de l'étape de requête pour les requêtes Range Prometheus
seuil : '2000' # Valeur pour laquelle commencer la mise à l'échelle
Référence d'authentification :
nom : keda-trigger-auth-predictkube-secret
EOF

Sous le capot : outils à l'intérieur

PredictKube est officiellement reconnu comme un scaler KEDA
Consultez l'article de KEDA

FAQ : Tout ce que vous devez savoir sur l'autoscaling de Kubernetes et notre autoscaler

Qu'est-ce qu'un autoscaler Horizontal Pod ?

Un autoscaler à pod horizontal est un autoscaler interne que Kubernetes a implémenté. Il redimensionne les pods horizontalement, ce qui signifie que le HorizontalPodAutoscaler ajoute simplement plus de pods au courant. Ce n'est pas la meilleure solution dans tous les cas, mais pour les petits projets dont le trafic est prévisible, il peut s'agir d'une solution complète. Mais n'oubliez pas qu'il n'y a pas d'option prédictive ici. Cette fonction ne sera lancée que lorsque la charge augmentera de manière significative. PredictKube fonctionne à l'avance grâce au modèle d'IA qui analyse et prévoit la tendance du modèle, de sorte que vos pods seront déployés à temps. Dans l'autoscaler de cluster Kubernetes de Dysnix, la mise à l'échelle horizontale est appliquée automatiquement en fonction de modèles d'IA de prédiction.

Est-ce que GKE est redimensionné automatiquement ?

La mise à l'échelle automatique de GKE est une option standard pour les clients de Google Cloud qui vous permet de configurer la configuration pour augmenter et réduire la population de nœuds de votre cluster. En résumé, il s'agit d'un moyen de définir le jalon le plus bas et le plus élevé pour votre cluster. En fonction de la charge de travail, le nombre de votre infrastructure augmentera ou diminuera dans ces limites. D'un point de vue pratique, il ne résout pas principalement le problème du surprovisionnement, mais c'est l'un des outils les plus utiles pour les utilisateurs de Google Kubernetes Engine, jusqu'à ce qu'ils essaient PredictKube.

Comment faire évoluer un microservice ?

Pour créer des microservices à mise à l'échelle automatique, vous devez appliquer les principes de partitionnement et de simultanéité dès le début du développement. Pour que votre infrastructure basée sur des microservices puisse évoluer, vous devez vous assurer que tous les processus peuvent être parallélisés et atomisés. Grâce à cette approche, votre application peut gérer facilement tous les processus volumineux, en répartissant les tâches entre les parties les plus productives. Une autre méthode d'installation des fonctionnalités de dimensionnement consiste à conteneuriser chaque microservice et à utiliser k8s pour gérer et dimensionner ces conteneurs.

Comment activer Autoscaler du cluster EKS ?

Cluster Autoscaler est un outil responsable de l'augmentation et de la réduction des ressources de calcul des fournisseurs de cloud pour les utilisateurs de clusters Kubernetes gérés. Spécifiquement pour les utilisateurs d'AWS, il existe une autre solution telle que Karpenter : elle gère les mêmes fonctionnalités que Cluster Autoscaler, mais elle peut augmenter considérablement les vitesses de mise à l'échelle grâce à une communication directe avec l'API AWS EC2. Grâce à PredictKube, vous pouvez atteindre une vitesse de mise à l'échelle automatique encore plus élevée à l'aide de ses modèles d'IA prédictifs.

Qu'est-ce que la mise à l'échelle automatique AWS EKS ?

La mise à l'échelle automatique Kubernetes AWS est utilisée dans Elastic Kubernetes Service (EKS), applicable au fournisseur de cloud AWS. AWS se chargera de la gestion du plan de contrôle et des nœuds de calcul de votre cluster Kubernetes moyennant des frais. En ce qui concerne la mise à l'échelle automatique, vous pouvez configurer le nombre min-max de nœuds et créer des groupes gérés ou autogérés de vos nœuds, puis EC2 est connecté à des groupes de mise à l'échelle automatique, tout étant géré par le plan de contrôle.

Est-ce que DigitalOcean est redimensionné automatiquement ?

Oui, votre projet situé dans l'environnement DigitalOcean peut être redimensionné manuellement et automatiquement. La mise à l'échelle automatique de DigitalOcean Kubernetes est basée sur CA, Cluster Autoscaler. Il est utilisé pour l'ajout ou la réduction automatique de nœuds Kubernetes afin d'adapter la capacité du cluster aux besoins actuels.

Comment dimensionner mon serveur Prometheus ?

La meilleure façon de faire évoluer un serveur Prometheus est de disposer de plusieurs instances de Prometheus qui extraient différents ensembles de métriques à partir de différents nœuds au lieu de posséder une seule instance qui extrait toutes les métriques. Il peut être facilement surchargé et des données seront perdues. La mise à l'échelle automatique de Prometheus ne peut être efficace que si les indicateurs qui influencent la décision de mise à l'échelle sont correctement extraits et dans leur intégralité.

Comment utiliser l'autoscaler du cluster dans Azure Kubernetes Service ?

C'est assez simple : créez un cluster AKS et activez la fonction de mise à l'échelle automatique. Sous le capot, l'autoscaler du cluster surveillera les demandes de capacité provenant de vos charges de travail et augmentera le nombre de nœuds pour adapter les ressources calculées à la capacité demandée. Un autoscaler à pod horizontal (HPA) fera de même, mais au niveau de la charge de travail. Vous pouvez spécifier plusieurs options, telles que le nombre min/max de pods, le comportement à la hausse et à la baisse d'échelle et spécifier les mesures à surveiller pour la mise à l'échelle automatique. Lorsque la charge diminue, HPA diminue le nombre de pods et l'autoscaler du cluster AKS supprime les nœuds sous-utilisés.

Copié dans le presse-papiers
Collez-le où vous voulez