kubelet专题提供kubelet的最新资讯内容,帮你更好的了解kubelet。
我的k8s <code>1.12.8</code>集群(通过kops创建)已经运行了6个月以上。最近,某件事导致主节点上的<code>kube
我们在裸机Linux集群上使用Docker 19.03.12运行kubelet 1.18.3。今天我们注意到,我们有很多Pod逐出,可追溯到
我在Ubuntu 18.04计算机上设置了一个主节点,并按照指南:<a href="https://kubernetes.io/ja/docs/setup/production-enviro
这是我的3个带有节点的VM。我不确定它什么时候会崩溃,但是我认为我的VM关闭时必须重新启动。 <pre
我正在尝试使用kubernetes的API从节点获取kubelet日志(不是pod日志,而是实际的kubelet日志)。到目前为止
我正在尝试在节点<code>kubelet --allowed-unsafe-sysctls &#39;net.core.somaxconn&#39;</code>上执行 但返回<code>Flag
我正在调查OOM杀死我的kubernetes集群中的一项服务。 我要做的第一件事就是看一看被杀死的Pod的内
<ol> <li>我有2个状态集的副本,其图像名称为:ABC:1.1 </li> <li>不,我想将statefulset升级到较新的版本:ABC:
假设Kubernetes节点上运行着Deployments / StatefulSet / DaemonSet等中的一些容器。 然后我直接重新启动节点
我一直在使用Prometheus / Grafana监视Azure中的k8s群集,直到最后一次从v1.15更新到v1.17都没有问题。现在我无
尝试从Kubernetes存储库的一个分支(发行版本1.19)中使用kubeadm部署k8主节点。在运行<code>kubeadm init {opts...
<strong>发生了什么</strong>: 主节点不再显示就绪。也许是在更新失败后发生的(下载kubeadm和kubelet的版
我正在尝试设置Web仪表板。安装似乎有效: <pre><code>kubectl apply -f https://raw.githubusercontent.com/kubernetes/da
我是这个论坛的新手,还是Kubernetes的新手。但是,我对GKE群集有问题-一个节点的状态经常切换到<code>Not
我最近在kubernetes本地集群上遇到问题。当我使用命令<code>kubectl exec -it curl-- bash</code>在名为“ curl”的pod
当kubelete无法按预期装入卷时,它将继续重试,直到成功或删除pod。有什么方法可以限制重试并退出的次
查询容器日志<code>kubectl logs &lt;pod&gt;</code>时出现错误。 这可能与工作节点本身上的过期证书有关
我花了整整一天的时间试图理解Kubernetes的资源管理。具体来说,我正在尝试设置逐出阈值和资源预留,
仅启用出口网络策略时,重新启动Pod后,所有准备情况和活动​​性检查均将失败。 这是我在描述
在我搞砸kubectl安装过程的某个地方,现在我想重新安装kubectl和kubelet 但是,当我检查系统日志时,仍然