[k8s] 常见yml配置和详细解释

本文详细介绍了Kubernetes中的各种YAML配置,包括Pod、Deployment、Service(ClusterIP、NodePort和LoadBalancer)、Ingress、ConfigMap、Secret、Volume、StatefulSet、DaemonSet、Job以及容器重启策略和CronJob的配置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在 Kubernetes (K8s) 中,常见的 YAML 文件配置包括:

Pod

apiVersion: v1
kind: Pod
metadata:
  name: my-pod  # Pod 的名称
  labels:
    app: my-app  # Pod 的标签,可用于选择器和服务发现
spec:
  containers:
  - name: my-container  # 容器的名称
    image: nginx  # 使用的容器镜像
    ports:
    - containerPort: 80  # 容器内部暴露的端口号
      protocol: TCP  # 端口的协议类型
    resources:  # 容器所需的资源限制和需求
      limits:
        cpu: "0.5"  # CPU 使用上限
        memory: "256Mi"  # 内存使用上限
      requests:
        cpu: "0.2"  # CPU 最小需求
        memory: "128Mi"  # 内存最小需求
    env:  # 容器的环境变量
    - name: ENV_VAR1
      value: value1
    - name: ENV_VAR2
      valueFrom:
        secretKeyRef:
          name: my-secret  # 引用的 Secret 对象的名称
          key: secret-key  # 从 Secret 对象中获取的键名
    volumeMounts:  # 容器的挂载路径
    - name: data-volume  # 挂载的卷的名称
      mountPath: /data  # 挂载的路径
  volumes:  # Pod 的卷
  - name: data-volume  # 卷的名称
    emptyDir: {}  # 空的卷,生命周期与 Pod 相关联
    
#可以添加 metadata.annotations 字段用于存放其他注释信息
metadata:
  annotations:
    description: This is a sample Pod configuration file.  # 描述该配置文件的注释

Deployment

apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-deployment  # Deployment 的名称
spec:
  replicas: 3  # 副本数
  selector:
    matchLabels:
      app: my-app  # 用于选择 Pod 的标签
  template:
    metadata:
      labels:
        app: my-app  # Pod 的标签,用于与选择器匹配
    spec:
      containers:
      - name: my-container  # 容器的名称
        image: nginx  # 使用的容器镜像
        ports:
        - containerPort: 80  # 容器内部暴露的端口号
          protocol: TCP  # 端口的协议类型
        resources:  # 容器所需的资源限制和需求
          limits:
            cpu: "0.5"  # CPU 使用上限
            memory: "256Mi"  # 内存使用上限
          requests:
            cpu: "0.2"  # CPU 最小需求
            memory: "128Mi"  # 内存最小需求
        env:  # 容器的环境变量
        - name: ENV_VAR1
          value: value1
        - name: ENV_VAR2
          valueFrom:
            secretKeyRef:
              name: my-secret  # 引用的 Secret 对象的名称
              key: secret-key  # 从 Secret 对象中获取的键名
        volumeMounts:  # 容器的挂载路径
        - name: data-volume  # 挂载的卷的名称
          mountPath: /data  # 挂载的路径
      volumes:  # Pod 的卷
      - name: data-volume  # 卷的名称
        emptyDir: {}  # 空的卷,生命周期与 Pod 相关联

# 可以添加 metadata.annotations 字段用于存放其他注释信息
metadata:
  annotations:
    description: This is a sample Deployment configuration file.  # 描述该配置文件的注释

Service

ClusterIP

在 Kubernetes 中,服务是一种抽象,用于公开 Pod 或一组 Pod 提供的应用程序或功能。通过服务,其他组件可以无需了解具体 Pod 的 IP 地址和端口而直接与应用程序进行通信。服务可以通过多种方式公开,包括 ClusterIP、NodePort 和 LoadBalancer 等类型。

当服务的类型为 ClusterIP 时,它会为集群内部的其他组件分配一个虚拟 IP 地址,并使用服务监听端口来接收来自其他组件的请求。这样,其他 Pod 或服务就可以通过服务的虚拟 IP 地址和监听端口与服务进行通信。

例如,在以下示例中:

kind: Service
apiVersion: v1
metadata:
  name: my-service
spec:
  type: ClusterIP
  ports:
    - port: 8080  # 集群内部的服务监听端口
      targetPort: 80  # Pod 内部的端口
  selector:
    app: my-app

服务名称为 my-service,类型为 ClusterIP,它监听端口 8080,并将请求转发到 Pod 内部的 80 端口。其他组件可以通过访问 my-service:8080 来与服务进行通信。

需要注意的是,集群内部的服务监听端口通常是在集群内部使用的端口,不直接暴露给外部请求。

如果您需要将服务公开到集群外部,可以考虑使用其他类型的服务,如 NodePort 或 LoadBalancer。


NodePort

在NodePort的YAML文件中,ports 下的 port 字段表示服务在集群内部使用的端口号。这是服务对内提供服务的端口,其他 Pod 可以通过该端口与服务进行通信。

nodePort 字段表示服务在节点上公开的端口号。当服务类型为 NodePort 时,Kubernetes 随机分配一个未使用的端口号,并将该端口号映射到每个节点上。这样,您可以通过节点的 IP 地址和 nodePort 端口号来访问服务。

targetPort 字段是服务所指向的 Pod 的端口。当请求到达 nodePort 监听的端口时,它将被转发到目标端口(targetPort)上的 Pod 进行处理。

下面是一个示例 NodePort 的 YAML 文件片段:

kind: Service
apiVersion: v1
metadata:
  name: my-service
spec:
  type: NodePort
  ports:
    - port: 80
      targetPort: 8080
      nodePort: 30000
  selector:
    app: my-app

该示例中,服务名称为 my-service,通过 NodePort 类型将集群中的应用程序暴露到节点的 30000 端口上。集群内部的服务监听端口为 80,将请求转发到 Pod 上的 8080 端口。

请注意,NodePort 的端口范围是 30000-32767,确保选择一个未被占用的端口号。

LoadBalancer

apiVersion: v1
kind: Service
metadata:
  name: my-service  # Service 的名称
spec:
  selector:
    app: my-app  # 选择要路由到的 Pod 的标签
  ports:
  - name: http  # 端口的名称
    protocol: TCP  # 端口的协议类型
    port: 80  # Service 暴露的端口号
    targetPort: 8080  # 路由到的 Pod 的端口号
  type: LoadBalancer  # Service 的类型,可以是 ClusterIP、NodePort 或者 LoadBalancer

Ingress

apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: my-ingress  # Ingress 的名称
  annotations:
    nginx.ingress.kubernetes.io/rewrite-target: /$1  # 添加 NGINX Ingress 控制器的注解,用于重写 URL
spec:
  rules:
  - host: example.com  # 定义要匹配的域名
    http:
      paths:
      - path: /appA  # URL 路径
        pathType: Prefix  # 路径匹配类型,可以是 Prefix 或 Exact
        backend:
          service:
            name: appA-service  # 要路由到的 Service 的名称
            port:
              number: 80  # 路由到的 Service 的端口号
      - path: /appB(/|$)(.*)  # 使用正则表达式匹配 URL 路径
        pathType: Prefix  # 路径匹配类型,可以是 Prefix 或 Exact
        backend:
          service:
            name: appB-service  # 要路由到的 Service 的名称
            port:
              number: 80  # 路由到的 Service 的端口号
              

ConfigMap

apiVersion: v1
kind: ConfigMap
metadata:
  name: my-configmap  # ConfigMap 的名称
data:
  server.conf: |
    # Server 配置文件
    port=8080
    host=localhost
  client.conf: |
    # Client 配置文件
    timeout=5000
    retries=3

需要注意的是,
ConfigMap 的配置文件可以包含多个键值对,键名和对应的值可以是任意字符串类型,
例如文件内容、环境变量、命令行参数等。
在使用 ConfigMap 时,可以将其挂载到 Pod 中的容器内,从而使容器可以轻松地访问配置信息。
为了更好地管理和维护 ConfigMap,建议使用有意义的名称和注释对其进行命名和描述。

Secret

apiVersion: v1
kind: Secret
metadata:
  name: my-secret  # Secret 的名称
type: Opaque  # Secret 类型(Opaque 表示任意类型)
data:
  username: dXNlcm5hbWU=  # 加密后的用户名
  password: cGFzc3dvcmQ=  # 加密后的密码

Secret 的配置文件包含敏感信息,如用户名、密码等,需要进行加密处理。在 YAML 文件中,可以将敏感信息以 base64 编码的方式保存在 data 字段中,以保证安全性。

Volume

apiVersion: v1
kind: Pod
metadata:
  name: my-pod  # Pod 的名称
spec:
  containers:
    - name: my-container  # 容器的名称
      image: nginx  # 容器的镜像
      volumeMounts:
        - name: data-volume  # 挂载卷的名称
          mountPath: /data  # 挂载到容器中的路径
  volumes:
    - name: data-volume  # 卷的名称
      emptyDir: {}  # 空目录卷

Volume 的配置文件可以包含多个卷定义,每个卷可以是不同类型的卷(如 emptyDir、hostPath、persistentVolumeClaim 等)。在上述示例中,使用的是 emptyDir 类型的卷,它会在 Pod 运行时创建一个空目录,并将其挂载到容器内的指定路径。


访问模式

在 Kubernetes 中,访问模式(Access Modes)是用来定义持久化存储卷(Persistent Volume)的访问方式的。下面是 Kubernetes 支持的三种访问模式:

ReadWriteOnce(RWO):该访问模式表示该存储卷可以被单个节点以读写方式挂载。这意味着同一时间内只能有一个 Pod 能够挂载并对存储卷进行读写操作。当存储卷被某个节点上的 Pod 挂载时,它将成为该节点的专属卷,在其他节点上不可见。

ReadOnlyMany(ROX):该访问模式表示该存储卷可以以只读方式被多个节点挂载。多个 Pod 可以共享对存储卷的只读访问权限,但不能进行写入操作。

ReadWriteMany(RWX):该访问模式表示该存储卷可以以读写方式被多个节点挂载。多个 Pod 可以同时挂载并对存储卷进行读写操作,即具有读写共享的功能。


StatefulSet

apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: my-statefulset  # StatefulSet 的名称
spec:
  selector: 
    matchLabels:
      app: my-app  # 匹配标签,用于选择要管理的 Pod
  serviceName: my-service  # Headless Service 的名称
  replicas: 3  # 副本数
  template:
    metadata:
      labels:
        app: my-app  # Pod 的标签
    spec:
      containers:
        - name: my-container  # 容器的名称
          image: nginx  # 容器的镜像
          ports:
            - containerPort: 80  # 容器监听的端口号
          volumeMounts:
            - name: data-volume  # 挂载卷的名称
              mountPath: /data  # 挂载到容器中的路径
  volumeClaimTemplates:
    - metadata:
        name: data-volume  # 持久化存储卷模板的名称
      spec:
        accessModes:
          - ReadWriteOnce  # 访问模式
        resources:
          requests:
            storage: 1Gi  # 存储容量

StatefulSet 是用于管理有状态应用程序的控制器,它保证 Pod 的唯一性和稳定性,并按照序号进行命名。

在上述示例中,创建了一个包含 3 个副本的 StatefulSet,每个副本都会被命名为 my-statefulset-{0…2}。

StatefulSet 是用于管理有状态应用程序的控制器,它保证 Pod 的唯一性和稳定性,并按照序号进行命名。

在上述示例中,创建了一个包含 3 个副本的 StatefulSet,每个副本都会被命名为 my-statefulset-{0…2}。

DaemonSet

apiVersion: apps/v1
kind: DaemonSet
metadata:
  name: my-daemonset  # DaemonSet 的名称
spec:
  selector:
    matchLabels:
      app: my-app  # 匹配标签,用于选择要管理的节点上的 Pod
  template:
    metadata:
      labels:
        app: my-app  # Pod 的标签
    spec:
      containers:
        - name: my-container  # 容器的名称
          image: nginx  # 容器的镜像
          ports:
            - containerPort: 80  # 容器监听的端口号
          volumeMounts:
            - name: data-volume  # 挂载卷的名称
              mountPath: /data  # 挂载到容器中的路径
      nodeSelector:
        disktype: ssd  # 节点的标签选择器,用于选择带有指定标签的节点
  updateStrategy:
    type: RollingUpdate  # 更新策略为滚动更新
    rollingUpdate:
      maxUnavailable: 1  # 在更新期间最多允许一个 Pod 不可用
  volumeClaimTemplates:
    - metadata:
        name: data-volume  # 持久化存储卷模板的名称
      spec:
        accessModes:
          - ReadWriteOnce  # 访问模式
        resources:
          requests:
            storage: 1Gi  # 存储容量

DaemonSet 是用于在每个节点上运行一个 Pod 的控制器,它保证每个节点上都有一个唯一的 Pod 进行运行,并自动适应节点变化。

在上述示例中,创建了一个 DaemonSet,每个节点上都会运行一个 Pod,该 Pod 将被命名为 my-daemonset-{node-name}。

DaemonSet 还包含了 volumeClaimTemplates 字段,用于定义持久化存储卷模板。

在上述示例中,使用了一个名为 data-volume 的持久化存储卷模板,访问模式为 ReadWriteOnce,存储容量为 1GB。Pod 将根据该模板创建一个与之对应的持久化存储卷。

通过使用 DaemonSet 和持久化存储卷,可以在集群的每个节点上运行一个 Pod,并确保应用程序的数据持久化和可靠性存储。

由于 DaemonSet 会自动适应节点变化,因此在增加或删除节点时,应用程序的数据不会丢失或受影响。

Job

apiVersion: batch/v1
kind: Job
metadata:
  name: my-job  # Job 的名称
spec:
  completions: 1  # 完成的任务数
  parallelism: 1  # 并行运行的 Pod 数量
  template:
    metadata:
      name: my-pod  # Pod 的名称
    spec:
      restartPolicy: Never  # 不重启容器
      containers:
        - name: my-container  # 容器的名称
          image: nginx  # 容器的镜像
          command: ["echo", "Hello, world!"]  # 容器启动命令
      volumes:
        - name: data-volume  # 卷的名称
          emptyDir: {}  # 空的临时卷
  backoffLimit: 3  # 重试次数上限

Job 是用于在 Kubernetes 中运行一次性任务的控制器。

在上述示例中,创建了一个 Job,其中包含一个 Pod,Pod 中运行了一个名为 my-container 的容器,该容器使用 nginx 镜像,并执行了 echo “Hello, world!” 命令。

Job 的配置还包括一些重要的字段,如 completions(完成的任务数)和 parallelism(并行运行的 Pod 数量)。completions 字段指定了 Job 完成的任务数,一旦达到该数量,Job 就会被标记为成功。parallelism 字段指定了同时运行的 Pod 数量,可以控制并行执行任务的速度。

另外,还有一些其他常用的字段,例如 restartPolicy(容器的重启策略),volumes(卷的定义)和 backoffLimit(重试次数上限)。这些参数可以根据业务需求进行调整和配置。

通过使用 Job 控制器,可以在 Kubernetes 中运行一次性任务,并确保任务的完成和可靠性运行。由于 Job 可以指定任务数量和并行度,可以很好地适应不同规模和要求的任务场景。

容器的重启策略

在 Kubernetes 中,容器的重启策略可以通过在 Pod 的配置中设置 restartPolicy 字段来定义。以下是常见的三种重启策略:

Always(默认):当容器失败、终止或退出时,总是自动重启容器。这是默认的重启策略。

spec:
  restartPolicy: Always

OnFailure:只有当容器以非零状态码退出时,才会自动重启容器。如果容器正常终止并退出(即零状态码),则不会自动重启容器。

spec:
  restartPolicy: OnFailure

Never:当容器失败、终止或退出时,不会自动重启容器。如果容器异常终止,它将保持在该状态,直到手动重启。

spec:
  restartPolicy: Never

通过选择适当的重启策略,您可以根据应用程序的特性和需求来配置容器的行为。请注意,在某些情况下,如在 Job 中使用特定任务执行成功或失败的标志,您可能需要选择适合的重启策略来确保任务按预期运行。

需要注意的是,Pod 的 restartPolicy 字段适用于整个 Pod 中的所有容器。如果多个容器在同一个 Pod 中运行,并且希望它们具有不同的重启策略,可以考虑将它们放置在不同的 Pod 中。


ConJob

apiVersion: batch/v1beta1  # 使用的 API 版本
kind: CronJob  # CronJob 类型
metadata:
  name: my-cronjob  # CronJob 的名称
spec:
  schedule: "*/1 * * * *"  # Cron 表达式,用于定义作业执行的时间表
  jobTemplate:  # 作业模板,指定 CronJob 创建的作业配置
    spec:
      template:
        metadata:
          name: my-job  # 作业的名称
        spec:
          restartPolicy: OnFailure  # 容器的重启策略
          containers:
            - name: my-container  # 容器的名称
              image: nginx  # 容器的镜像
              command: ["echo", "Hello, world!"]  # 容器启动命令
  successfulJobsHistoryLimit: 5  # 历史成功作业保存的数量上限
  failedJobsHistoryLimit: 5  # 历史失败作业保存的数量上限

CronJob 是 Kubernetes 中的一种控制器,用于定期运行作业。在上述示例中,创建了一个 CronJob,其中定义了一个 Cron 表达式 */1 * * * *,表示每分钟执行一次作业。

CronJob 的配置还包括使用 jobTemplate 指定了创建作业的模板。在这个模板中,指定了作业的 Pod 配置,其中包含一个名为 my-container 的容器,使用 nginx 镜像,并执行了 echo “Hello, world!” 命令。

除了基本的配置外,还有一些其他常用的字段。例如,successfulJobsHistoryLimitfailedJobsHistoryLimit 字段分别指定历史成功和失败作业保存的数量上限,可以根据需求进行调整。

通过使用 CronJob 控制器,可以定期运行作业,并对作业的运行情况进行管理和记录。CronJob 的配置文件中的注释可以帮助我们理解每个字段的含义和作用,方便后续管理和维护。

在这里插入图片描述

<think>好的,用户现在问的是在Kubernetes配置Logstash的logstash.yml文件时需要设置哪些端口。我需要回顾之前的对话,确保这次回答一致且准确。 首先,用户之前的问题是关于logstash.conf中应该配置NodePort还是容器地址,而这次是问logstash.yml中的端口配置。这两个配置文件的作用不同,logstash.yml是Logstash本身的配置,而logstash.conf是处理数据流的管道配置。 用户可能是在部署Logstash到K8S时,对配置文件中的端口设置不太清楚,需要明确每个配置项的作用。特别是在K8S环境下,网络配置端口映射可能会比较复杂,用户需要知道哪些端口需要在logstash.yml中设置,以及如何与K8S的Service、Pod等资源配合。 首先,我需要确定logstash.yml中的常见端口配置项。通常包括HTTP API的端口、监控相关端口等。例如,http.port默认是9600,用于API管理功能。另外,可能还会涉及到Beats输入的端口,比如在logstash.conf中配置的5044,但logstash.yml本身是否涉及这个呢?其实,输入输出端口主要在logstash.conf中定义,而logstash.yml更多是Logstash服务的运行参数。 接下来,用户可能想知道这些端口在K8S中如何暴露。比如,是否需要通过Service暴露HTTP API的端口,或者是否需要调整这些端口以避免冲突。例如,如果Logstash的HTTP端口在logstash.yml中设置为9600,那么K8S的Deployment需要将容器端口9600暴露,并且Service可能需要映射这个端口,以便其他服务访问。 还需要考虑到健康检查的问题,K8S的存活探针就绪探针可能会使用HTTP API的端口,因此正确配置http.port是关键。如果端口设置不正确,可能导致探针失败,Pod无法正常启动或被重启。 另外,用户可能会混淆logstash.yml中的端口logstash.conf中的输入输出端口。需要明确区分,logstash.yml中的端口是Logstash服务本身的,而logstash.conf中的端口是数据处理管道的,比如接收Beats或TCP/UDP输入的端口。 同时,K8S的网络模型也需要考虑。每个Pod有自己的IP,容器内的端口需要正确映射到Service的端口。例如,如果在logstash.yml中设置了http.port为9600,那么Deployment中需要指定containerPort为9600,Service则可以将targetPort指向这个端口,并通过NodePort或ClusterIP暴露出去。 可能还需要提到配置示例,展示logstash.yml中的端口设置,并结合K8S的DeploymentService配置,说明如何正确映射这些端口。比如,在logstash.yml中设置http.port,然后在Deployment中定义containerPort,再通过Service暴露出去,供其他服务访问。 此外,安全性多环境配置也是需要考虑的。例如,是否需要启用SSL,或者在不同环境中端口是否会有变化。但根据用户当前的问题,可能不需要深入这些细节,但可以简要提及。 用户可能存在的误区是,认为所有端口都需要在logstash.yml配置,而实际上输入输出端口主要在logstash.conf中定义。因此需要明确两者的区别,避免混淆。 最后,总结关键点,强调logstash.yml中主要配置Logstash服务本身的端口,如HTTP API监控端口,而数据处理端口在logstash.conf中配置,并结合K8S的网络配置进行正确的端口映射暴露。</think>在Kubernetes中部署Logstash时,`logstash.yml` 主要用于配置Logstash服务的运行参数,而 **端口配置** 需要结合以下两个层面处理: --- ### **1. `logstash.yml` 中的核心端口配置** #### **(1) HTTP API端口(管理接口)** - **作用**:提供Logstash监控、统计管理接口。 - **默认值**:`9600` - **配置示例**: ```yaml http.host: "0.0.0.0" # 绑定到容器所有网络接口 http.port: 9600 # 默认端口,可自定义 ``` - **K8S关联**:需在Pod的`containerPort`中声明此端口,以便Service转发流量。 #### **(2) 管道工作线程与队列** - **无关端口**:Logstash的线程数(如`pipeline.workers`)队列大小(如`queue.max_bytes`)不涉及端口,此处无需配置。 --- ### **2. 数据输入/输出端口(在`logstash.conf`中定义)** Logstash的核心数据处理端口(如接收Filebeat日志、输出到ES)**不在`logstash.yml`中配置**,而是通过管道配置文件(如`logstash.conf`)定义: ```conf input { beats { port => 5044 # 接收Filebeat的端口 host => "0.0.0.0" } } output { elasticsearch { hosts => ["http://elasticsearch:9200"] # ES的端口在ES服务中定义 } } ``` --- ### **3. Kubernetes部署中的端口映射** #### **(1) Deployment配置** 需在Pod模板中声明容器端口,与`logstash.yml``logstash.conf`中的端口一致: ```yaml containers: - name: logstash ports: - containerPort: 9600 # 对应logstash.yml的http.port - containerPort: 5044 # 对应logstash.conf的输入端口 ``` #### **(2) Service配置** 根据需求选择Service类型(ClusterIP/NodePort): ```yaml apiVersion: v1 kind: Service metadata: name: logstash spec: type: NodePort ports: - name: api port: 9600 # Service端口(集群内访问) targetPort: 9600 # 容器端口 nodePort: 30600 # 外部访问端口(仅NodePort需要) - name: beats port: 5044 targetPort: 5044 nodePort: 30444 selector: app: logstash ``` --- ### **4. 关键总结** | 配置层级 | 端口类型 | 配置文件 | Kubernetes映射要求 | |-------------------|----------------|----------------|----------------------------------------| | Logstash服务管理 | HTTP API端口 | `logstash.yml` | 需声明`containerPort`并配置Service转发 | | 数据输入/输出 | 业务端口 | `logstash.conf`| 同上 | | 监控/健康检查 | HTTP API端口 | 探针配置 | 依赖`http.port`(如`/`端点) | --- ### **5. 验证步骤** 1. **检查容器端口监听**: ```bash kubectl exec logstash-pod -- netstat -tuln | grep -E '5044|9600' ``` 2. **测试Service连通性**: - 内部访问HTTP API: ```bash curl http://logstash-service:9600 ``` - 外部通过NodePort发送日志(若配置): ```bash # Filebeat配置示例 output.logstash: hosts: ["<K8S-NODE-IP>:30444"] ``` --- ### **6. 常见问题** - **端口冲突**:若自定义端口(如修改`http.port: 9700`),需同步更新DeploymentService。 - **绑定错误**:若`http.host`未设置为`0.0.0.0`,会导致Kubernetes健康检查失败。 - **忽略`containerPort`声明**:未在Pod中声明端口时,Service无法正确路由流量。 遵循以上规则,可确保Logstash在Kubernetes中正确处理服务管理数据流。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值