Freigeben über


Kubernetes-gehostete Clientanwendung mit azure Managed Redis

Clientverbindungen von mehreren Pods

Wenn von mehreren Pods eine Verbindung mit einem Redis-Server hergestellt wird, stellen Sie sicher, dass die neuen Verbindungen von den Pods gestaffelt erstellt werden. Wenn innerhalb kurzer Zeit mehrere Pods gleichzeitig gestartet werden, führt dies zu einer plötzlichen Spitze in der Anzahl erstellter Clientverbindungen. Die hohe Anzahl von Verbindungen führt zu einer hohen Belastung des Redis-Servers und kann Timeouts verursachen.

Vermeiden Sie dasselbe Szenario, das durch gleichzeitiges Herunterfahren mehrerer Pods entsteht. Wenn das Herunterfahren nicht gestaffelt wird, kann dies zu einem erheblichen Abfall der Anzahl von Verbindungen und somit zur CPU-Auslastung führen.

Ausreichende Podressourcen

Stellen Sie sicher, dass dem Pod, auf dem Ihre Clientanwendung ausgeführt wird, genügend CPU- und Arbeitsspeicherressourcen zur Verfügung stehen. Wenn die Clientanwendung bis an die Grenzen ihrer Ressourcen ausgeführt wird, kann dies zu Timeouts führen.

Ausreichende Knotenressourcen

Andere Pods, die auf demselben Knoten ausgeführt werden, können den Pod, auf dem die Clientanwendung ausgeführt wird beeinträchtigen. Dies kann zur Drosselung von Redis-Verbindungen oder E/A-Vorgänge führen. Stellen Sie immer sicher, dass der Knoten, auf dem Ihre Clientanwendungs-Pods ausgeführt werden, über genügend Arbeitsspeicher, CPU und Netzwerkbandbreite verfügen. Wenn eine dieser Ressourcen nicht verfügbar ist, kann dies zu Konnektivitätsproblemen führen.

Unter Linux gehostete Clientanwendungen und TCP-Einstellungen

Wenn Ihre Azure Managed Redis-Clientanwendung auf einem Linux-basierten Container ausgeführt wird, empfehlen wir, einige TCP-Einstellungen zu aktualisieren. Diese Einstellungen werden unter TCP-Einstellungen für unter Linux gehostete Clientanwendungen ausführlicher erläutert.