lv
lv
+1
并没有发现Statu。logging 节点 /kubesphere/config $ cat ks-status.json { "status": { "alerting": { "enabledTime": "2024-03-22T11:44:05CST", "status": "enabled" }, "clusterId": "2eef09ce-8ec4-411d-a5a9-77cf71918b85-1704874142", "core": { "enabledTime": "2024-05-06T13:45:58CST", "status": "enabled", "version": "v3.4.1" }, "devops": { "enabledTime":...
/kubesphere/config $ cat ks-status.json { "status": { "alerting": { "enabledTime": "2024-03-22T11:44:05CST", "status": "enabled" }, "clusterId": "2eef09ce-8ec4-411d-a5a9-77cf71918b85-1704874142", "core": { "enabledTime": "2024-05-06T13:45:58CST", "status": "enabled", "version": "v3.4.1" }, "devops": { "enabledTime": "2024-01-10T16:08:23CST", "status":...
嗯嗯 好的,谢谢啦 我试试
> https://github.com/kubesphere/ks-installer/blob/38055b318b8f805af65aedfa5ad4508128b5eb2c/roles/common/tasks/common-install.yaml#L39  看你的日志应该是fluentbit的安装跳过了,你可以删掉截图里的位置试试。 "res": { "_ansible_no_log": false, "changed": true, "cmd": "/usr/local/bin/kubectl apply -f /kubesphere/kubesphere/fluentbit-operator\n", "delta": "0:00:00.323819", "end": "2024-05-09 17:50:56.955025", "invocation": { "module_args": { "_raw_params": "/usr/local/bin/kubectl apply -f /kubesphere/kubesphere/fluentbit-operator\n", "_uses_shell":...
嗯嗯 不报错,能安装了,安装后只有[logsidecar-injector-admission] 这个部署完全不知道如何,日志检索无法使用
也就是服务端一直保持某个用户针对于某个端口的连接如果需要,比如ws和tcp,这部分压力将在服务器使用,如果客户端下次使用将直接调用,但是如果客户端发起一个新的连接呢,比如我们需要聊天使用的ws,那么按照现有的ws 模式 ,服务器每次都进行请求,但是中间ws已经端口了,这些如何处理的,可能说的不太清楚,因为本身就不太理解里面对于长连接保持的?
> 如果通讯双方没有关闭, 那就一直持续到有一方关闭. 至于你说的那种断开重连的情况, 是应用层的事, 由通讯双方自己维护状态, vmess 只负责隧道的通讯, 对是不是重连不感兴趣. 首先谢谢解答 您好,不是很理解, 有三台机器 A客户端 代理B服务器 C 聊天服务器 那么A 发送给C的TCP连接,通过B转发后,我理解B会与C建立连接并将数据传输给C,这个时候C响应后,通过B交换给A客户端,那么如果B的连接销毁后,那么A下次再发送新消息B会不会产生一个新的连接给到C。对代理原理不是太懂哈。
那么也就是对于需要保持长连接的tcp或者ws,比如tcp登录后可以发送消息,其实在服务器端保持了连接状态下次发送的会从代理服务器找到第一次的连接吗?
> 我们目前遇到此问题,在使用模式时,当使用 LB 访问服务时,滚动更新后无法访问关联的 Pod,但在重新启动后工作正常。`local``openelb-manager` > > 在我们的开发环境中,我们只启用了一个。`openelb-manager` 需要换IP擦可以,重启服务,个人觉得arp上层确定 pod重启并没有拉取 openelb 的arp 重置