kubernetes-health-check

    0热度

    1回答

    我已经为Kubernetes部署中的容器定义了准备就绪和活性探测。当这些失败时,我希望看到他们的输出包含在吊舱的事件中。但是我没有看到这样的事件。我确实看到了同一个吊舱的其他事件。 我在GKE上运行,使用Kubernetes v1.6.4。 应该产生事件的代码在这里:https://github.com/kubernetes/kubernetes/blob/v1.6.4/pkg/kubelet/p

    0热度

    1回答

    是否可以将运行在一个数据中心内的mysql k8s部署的流量与其存储中运行的部署故障切换到另一个数据中心内部署的部署? 如果是,我们是否需要在多个数据中心上传播相同的k8s集群,或者我们必须在每个数据中心运行单独的k8s集群? k8s将如何发布或管理整个数据中心的存储卷?我们是否需要特殊类型的云存储? 注意:我只是将mysql作为需要存储某些数据的应用程序的一个示例,它可以是任何需要传递其数据量的

    1热度

    1回答

    如果Kubernetes杀死一个容器并且出于何种原因,我想要通知Web服务器,例如DEADLINE_EXCEEDED或OOM。 Kubernetes是否具有这种Webhook功能或一些其他机制,我可以告诉它什么时候做什么。

    0热度

    1回答

    守望者: private final class CustomKubeWatcher implements Watcher<Pod> { ... } 添加使用: kubeClient.pods().inNamespace(kubeNamespace).watch(customKubeWatcher); 如何停止的守望者?当我的客户端实例是GC'd时它会被清理吗? https://githu

    1热度

    1回答

    关于gRPC Health Checking,如果gRPC服务与同样需要健康检查的其他HTTP服务托管在相同的端口上,那么对grpc.health.v1.Health.Check的响应应该仅针对提供的gRPC服务,还是应该将其他服务回答为好?如果是后者,应该使用什么样的服务名称? 我部分问,因为那里已经是一个/healthz model for Kubernetes health checking

    0热度

    1回答

    在Kubernetes内部署一个点火群集,我找到了阻止群集成员加入群组的问题。如果我使用readinessProbe和livenessProbe,即使延迟低至10秒,它们的节点也不会互相连接。如果我删除这些探针,他们发现对方很好。 所以,我的问题是:你可以使用这些探测器来监视节点的健康状况,如果是的话,什么是适当的设置。最重要的是,无论如何,对Ignite来说,快速健康检查会有什么好处?

    0热度

    1回答

    我有一个用例来优雅地终止容器,在那里我有一个脚本,通过使用命令“kill PID”从容器内优雅地终止进程(它将发送TERM信号) 但我有活性探测器也配置好。 当前生命力探测器配置为以60秒间隔进行探测。因此,如果在发送正常终止信号后不久发生活性探测,则当终止仍在进行时,容器的整体健康状况可能变得非常关键。 在这种情况下,活性探测将失败,容器将立即终止。 所以我想知道kubelet是否用TERM或K

    1热度

    2回答

    由于健康检查失败,我无法让Ingress在GKE上工作。我已经尝试了所有我能想到的调试步骤,包括: 验证我不是 验证的任何配额所剩无几,我的服务是从集群 验证中访问该我的服务在k8s/GKE负载均衡器后面工作。 已验证healthz检查传入的Stackdriver登录 ......我很想了解如何调试或修复任何建议。以下详情! 我已经建立了与GKE LoadBalancer类型的服务。通过外部IP的

    -1热度

    1回答

    我写一个简单的YAML文件中使用一个TCP端口上Centos.6 应用活跃度探头我拉到一个CentOS:从公共仓库6图像 开始的容器使用图像。 mysql安装,并启动它来验证打开端口(3306)致力于本地资源库为 “MySQL的测试:V0.1” 和应用荚如下 apiVersion: v1 kind: Pod metadata: labels: test: mysql-tes

    3热度

    1回答

    下面的livenessProbe(从an example中提取)运行良好。 livenessProbe: exec: command: - cat - /tmp/healthy 但是,我的livenessProbe没有工作(荚不断重新启动)。 YAML低于 apiVersion: v1 kind: Pod metadata: labels: