【博客686】k8s informer list-watch机制中的re-list与resync

k8s informer的re-list与resync

1、informer的list-watch机制

client-go中的reflector模块首先会list apiserver获取某个资源的全量信息,然后根据list到的resourceversion来watch资源的增量信息。且希望使用client-go编写的控制器组件在与apiserver发生连接异常时,尽量的re-watch资源而不是re-list

2、re-list的场景:

场景一:very short watch

reflector与api建立watch连接,但apiserver关闭了连接,则会重新re-list

这意味着 apiserver 接受了监视请求,但立即终止了连接,如果您偶尔看到它,则表明存在暂时性错误,并不值得警惕。如果您反复看到它,则意味着 apiserver(或 etcd)有问题。

I0728 11:32:06.170821 67483 streamwatcher.go:114] Unexpected EOF during watch stream event decoding: unexpected EOF I0728 11:32:06.171062 67483 reflector.go:391] k8s.io/client-go/informers/factory.go:134: Watch close - *v1.Deployment total 0 items received W0728 11:32:06.187394 67483 reflector.go:302] k8s.io/client-go/informers/factory.go:134: watch of *v1.Deployment ended with: very short watch: k8s.io/client-go/informers/factory.go:134: Unexpected watch close - watch lasted less than a second and no items received

场景二:401 Gone

为什么跟etcd不会一直记录历史版本有关:参考:bookmark机制

reflector与api建立watch连接,但是出现watch的相关事件丢失时(etcd不会一直记录历史版本),api返回401 Gone,reflector提示too old resource version并重新re-list

I0728 14:40:58.807670 71423 reflector.go:300] k8s.io/client-go/informers/factory.go:134: watch of *v1.Deployment ended with: too old resource version: 332167941 (332223202) I0728 14:40:59.808153 71423 reflector.go:159] Listing and watching *v1.Deployment from k8s.io/client-go/informers/factory.go:134 I0728 14:41:00.300695 71423 reflector.go:312] reflector list resourceVersion: 332226582

3、resync场景:

// k8s.io/client-go/tools/cache/delta_fifo.go
// 重新同步一次 Indexer 缓存数据到 Delta FIFO 队列中
func (f *DeltaFIFO) Resync() error {
    f.lock.Lock()
    defer f.lock.Unlock()

    if f.knownObjects == nil {
        return nil
    }
    // 遍历 indexer 中的 key,传入 syncKeyLocked 中处理
    keys := f.knownObjects.ListKeys()
    for _, k := range keys {
        if err := f.syncKeyLocked(k); err != nil {
            return err
        }
    }
    return nil
}

func (f *DeltaFIFO) syncKeyLocked(key string) error {
    obj, exists, err := f.knownObjects.GetByKey(key)
    if err != nil {
        klog.Errorf("Unexpected error %v during lookup of key %v, unable to queue object for sync", err, key)
        return nil
    } else if !exists {
        klog.Infof("Key %v does not exist in known objects store, unable to queue object for sync", key)
        return nil
    }
    // 如果发现 FIFO 队列中已经有相同 key 的 event 进来了,说明该资源对象有了新的 event,
    // 在 Indexer 中旧的缓存应该失效,因此不做 Resync 处理直接返回 nil
    id, err := f.KeyOf(obj)
    if err != nil {
        return KeyError{obj, err}
    }
    if len(f.items[id]) > 0 {
        return nil
    }
    // 重新放入 FIFO 队列中
    if err := f.queueActionLocked(Sync, obj); err != nil {
        return fmt.Errorf("couldn't queue object: %v", err)
    }
    return nil
}

为什么需要 Resync 机制呢?因为在处理 SharedInformer 事件回调时,可能存在处理失败的情况,定时的 Resync 让这些处理失败的事件有了重新处理的机会。

那么经过 Resync 重新放入 Delta FIFO 队列的事件,和直接从 apiserver 中 watch 得到的事件处理起来有什么不一样呢?

// k8s.io/client-go/tools/cache/shared_informer.go
func (s *sharedIndexInformer) HandleDeltas(obj interface{}) error {
    s.blockDeltas.Lock()
    defer s.blockDeltas.Unlock()

    // from oldest to newest
    for _, d := range obj.(Deltas) {
        // 判断事件类型,看事件是通过新增、更新、替换、删除还是 Resync 重新同步产生的
        switch d.Type {
        case Sync, Replaced, Added, Updated:
            s.cacheMutationDetector.AddObject(d.Object)
            if old, exists, err := s.indexer.Get(d.Object); err == nil && exists {
                if err := s.indexer.Update(d.Object); err != nil {
                    return err
                }
                
                isSync := false
                switch {
                case d.Type == Sync:
                    // 如果是通过 Resync 重新同步得到的事件则做个标记
                    isSync = true
                case d.Type == Replaced:
                    ...
                }
                // 如果是通过 Resync 重新同步得到的事件,则触发 onUpdate 回调
                s.processor.distribute(updateNotification{oldObj: old, newObj: d.Object}, isSync)
            } else {
                if err := s.indexer.Add(d.Object); err != nil {
                    return err
                }
                s.processor.distribute(addNotification{newObj: d.Object}, false)
            }
        case Deleted:
            if err := s.indexer.Delete(d.Object); err != nil {
                return err
            }
            s.processor.distribute(deleteNotification{oldObj: d.Object}, false)
        }
    }
    return nil
}

从上面对 Delta FIFO 的队列处理源码可看出,如果是从 Resync 重新同步到 Delta FIFO 队列的事件,会分发到 updateNotification 中触发 onUpdate 的回调

Resync 机制的引入,定时将 Indexer 缓存事件重新同步到 Delta FIFO 队列中,在处理 SharedInformer 事件回调时,让处理失败的事件得到重新处理。并且通过入队前判断 FIFO 队列中是否已经有了更新版本的 event,来决定是否丢弃 Indexer 缓存不进行 Resync 入队。在处理 Delta FIFO 队列中的 Resync 的事件数据时,触发 onUpdate 回调来让事件重新处理。

4、Reflector.lastSyncResourceVersion 是哪个资源的 resourceVersion

一个resourceVersion怎么对应多种资源呢?其实是一个informer对应一个Reflector,一个informer本来就是对应一种资源的,然后每一类resourceVersion是不断递增的,比如:informer watch了pod,那么informer对应的Reflector的resourceVersion是对应k8s etcd里pod这一类资源的resourceVersion。因此是一类资源使用一个resourceVersion

list-watch example:

https://codeburst.io/kubernetes-watches-by-example-bc1edfb2f83

5、注意点

  • 1、resync不是re-list,resync不需要访问apiserver

  • 2、resync 是重放 informer 中的 obj 到 DeltaFIFO 队列中,触发 handler 再次处理 obj。

    目的是防止有些 handler 处理失败了而缺乏重试的机会。特别是,需要修改外部系统的状态的时候,需要做一些补偿的时候。

    比如说,根据 networkpolicy刷新 node 上的 iptables。
    iptables 有可能会被其他进程或者管理员意外修改,有 resync 的话,才有机会定期修正。
    这也说明,回调函数的实现需要保证幂等性。对于 OnUpdate 函数而言,有可能会拿到完全一样的两个 Obj,实现 OnUpdate 时要考虑到。

  • 3、re-list 是指 reflector 重新调用 kube-apiserver 全量同步所有 obj。但目前(v1.20)没有显式配置 re-list 周期的参数。

    list 的时机一般是在程序第一次启动,或者 watch 有错误,才会 re-list。

  • 4、resync 是一个水平触发的模式

    水平触发是只要处于某个状态,就会一直通知。比如在这里,对象已经在缓存里,会触发不止一次回调函数。

  • 5、process 函数怎么区分从 DeltaFIFO 里拿到的 obj 是新的还是重放的呢?

    根据 obj 的 key(namespace/name)从 index 里拿到旧的 obj,和新出队的 obj 比较 resource revision,这两个 resource revision 如果一样,就是重放的,如果不一样,就是从 kube-apiserver 拿到的新的。因为 resource revision 只有在 etcd 才能更新。 index 作为客户端缓存,这个值是不变的。

  • 6、sharedInformer 如何实现 Resync

    把需要 resync(resync 的周期到了) 的 listeners 数组复制一份到 syncingListeners,在 distribute 中,
    会调用 syncingListeners 的 add 函数,触发 syncingListeners 上的回调函数

6、resync要注意的问题:

  • 1、如何配置resync的周期?

    func NewSharedIndexInformer(lw ListerWatcher, exampleObject runtime.Object, defaultEventHandlerResyncPeriod time.Duration, indexers Indexers)

    第三个参数 defaultEventHandlerResyncPeriod 就指定多久 resync 一次。如果为0,则不 resync。

    AddEventHandlerWithResyncPeriod也可以给单独的 handler 定义 resync period,否则默认和 informer 的是一样的。

  • 2、配置resync周期间隔太小会有什么问题

    此时会以比较高的频率促使事件重新入队进行reconcile,造成controller的压力过大

  • 3、resync用于解决什么问题,resync 多久一次比较合适?或者需不需要 resync?

    根据具体业务场景来,根据外部状态是不是稳定的、是否需要做这个补偿来决定的,举例:假设controller是一个LB controller

    当watch到了service创建,然后调用LB api去创建一个对应的LB,然后如果此时这个对应的LB由于某种bug被删除了,此时service就不通了,
    那么此时状态不一致了,集群里有这个service,LB那边没有对应的LB,并且由于bug被删除了,而不是删除service而触发LB删除的,此时service是没有变化的,
    也就不会出发reconcile了。假设我们reconcile里有逻辑是判断如果service没有对应的LB就创建,那么此时reconcile不会被出发,那也就没有被执行了。
    此时如果有resync,定时将indexer里的对象,也就是缓存的对象来一次update事件的入队,进行后续出队触发reconcile,那我们就会发现service对应的LB没了,
    进而进行创建。也就是本质上resync是防止业务层的bug。且resync将indexer的对象重入队,里面的service不是所有service,而是创建了LB的service,因为我们
    只会watch我们关心的资源,前提是代码里添加的对象写的是有LB字段的service

    因为这些操作都是异步的 合理的sync可以提高事件消费的容错性。Resync 机制的引入,定时将 Indexer 缓存事件重新同步到 Delta FIFO 队列中,在处理 SharedInformer 事件回调时,让处理失败的事件得到重新处理。并且通过入队前判断 FIFO 队列中是否已经有了更新版本的 event,来决定是否丢弃 Indexer 缓存不进行 Resync 入队。在处理 Delta FIFO 队列中的 Resync 的事件数据时,触发 onUpdate 回调来让事件重新处理。

7、这个issue讨论里面有Programming Kubernetes相关讨论内容:

https://github.com/cloudnativeto/sig-kubernetes/issues/11

<think>好的,用户想了解Kubernetes中的Resync机制以及它如何List-Watch中的ResourceVersion协同工作。首先,我需要回忆一下Kubernetes的控制器工作原理。控制器通过List-Watch机制来监控资源的变化,List用于获取当前资源状态,Watch则监听后续的变更事件。而Resync机制会定期重新同步资源,确保状态的一致性。 接下来,ResourceVersion的作用是关键。每个Kubernetes资源对象都有一个ResourceVersion字段,用于标识资源的版本。当客户端发起Watch请求时,可以指定ResourceVersion,从某个特定版本开始监听变更。这样即使在网络中断等情况下,客户端也能通过重新List并获取最新的ResourceVersion来恢复监听,避免遗漏事件。 现在,Resync机制如何ResourceVersion协同呢?Resync会定期触发全量同步,控制器重新列出所有资源,并本地缓存比较。这时候ResourceVersion就发挥作用了,因为即使Resync触发全量同步,客户端也可以通过比较ResourceVersion来过滤掉已经处理过的事件,避免重复处理。此外,Resync还能帮助检测到那些因Watch事件丢失或控制器重启导致的状态不一致问题。 需要进一步确认的是,Resync的全量同步是否会影响性能,以及如何合理设置Resync周期。过短的周期可能导致频繁的全量同步,增加API服务器负担;过长则可能延迟问题检测。另外,ResourceVersion的正确使用对于避免事件丢失和重复处理至关重要,需要确保客户端在List时获取正确的版本号,并在Watch时正确传递。 用户可能还关心实际应用中的配置和最佳实践,比如如何设置Resync周期,如何处理ResourceVersion的版本跳跃等问题。此外,可能涉及到控制器在故障恢复时的行为,如何利用ResourceVersion快速同步状态,减少恢复时间。 最后,总结两者的协同工作:Resync提供定期的一致性检查,而ResourceVersion确保事件的有序和唯一处理,两者结合保障了系统的高效和可靠。</think>### Kubernetes Resync机制ResourceVersion协同工作原理 #### 1. Resync机制的核心作用 Resync机制Kubernetes控制器定期触发全量同步的操作,用于: - **状态一致性校验**:对比API Server资源状态控制器本地缓存状态 - **异常恢复**:解决因网络中断或控制器重启导致的事件丢失问题 - **数据兜底**:处理因Watch事件延迟或丢失造成的状态不一致 周期配置示例:控制器通常设置`resyncPeriod=30s`(通过`NewInformer`函数参数指定)[^1] #### 2. ResourceVersion的关键角色 每个Kubernetes资源对象都包含`metadata.resourceVersion`字段,其特性包括: - **全局单调递增**:保证事件顺序性,例如`1001→1002→1003` - **事件去重标识**:通过版本号可检测重复事件 - **断点续传基准**:支持从指定版本恢复Watch连接 List操作响应示例: ```json { "metadata": {"resourceVersion": "10245"}, "items": [...] } ``` #### 3. 协同工作流程 $$ \begin{cases} \text{List操作} \xrightarrow{\text{获取当前RV}} \text{建立Watch连接} \\ \text{Resync触发} \rightarrow \text{强制全量List} \rightarrow \text{更新本地RV} \\ \text{事件处理} \xrightarrow{\text{RV校验}} \text{过滤已处理事件} \end{cases} $$ 具体协同过程: 1. **初始化阶段**:控制器通过List获取全量数据并记录`resourceVersion` 2. **持续监听**:使用Watch从记录的版本号开始接收增量事件 3. **Resync触发**:定时器到期后强制发起新的List操作 4. **版本对比**:将List结果本地缓存按RV对比,处理差异 5. **版本更新**:更新本地存储的最新RV值 #### 4. 异常处理场景 | 场景 | Resync作用 | ResourceVersion作用 | |------|------------|---------------------| | Watch连接中断 | 提供定期全量同步机会 | 通过最后RV恢复监听位置 | | 事件丢失 | 补全缺失状态数据 | 检测事件序列断裂 | | 控制器重启 | 重建完整状态镜像 | 确保从正确断点恢复 | #### 5. 最佳实践建议 1. **Resync周期设置**:生产环境建议`30s-5m`,平衡一致性性能 2. **RV处理规范**: - 始终校验事件的RV单调性 - 本地缓存需要持久化存储最新RV 3. **控制器优化**: ```go // 示例:Client-go中的Informer配置 informer := cache.NewSharedIndexInformer( &cache.ListWatch{...}, &v1.Pod{}, resyncPeriod, cache.Indexers{...}, ) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值