模糊理论与神经模糊推理系统详解
立即解锁
发布时间: 2025-09-01 00:01:10 阅读量: 8 订阅数: 15 AIGC 


深度学习可解释性入门
# 模糊理论与神经模糊推理系统详解
## 1. 模糊理论基础
### 1.1 模糊化与去模糊化
模糊化是为精确值创建具有模糊或语言标签的变量的过程,而去模糊化则是将模糊变量转换为精确值的过程。
#### 1.1.1 单个模糊集的模糊化与去模糊化
考虑一个在论域中定义的模糊集 \(S = \{x, \mu_S(x)\}\),其中精确变量 \(x\) 在隶属函数 \(\mu_S(x)\) 的归属下。使用模糊集 \(S\) 对值 \(x = x_0\) 进行模糊化,就是计算 \(\mu_S(x_0)\)。去模糊化则是为模糊集 \(S\) 找到一个代表性的精确值 \(x'\),常见的方法有:
- **重心法(CoG)**:也称为质心或面积中心。
- 若 \(x\) 是离散变量,\(x' = \frac{\sum x(\mu_S(x))}{\sum \mu_S(x)}\)。
- 若 \(x\) 是连续变量,\(x' = \frac{\int x\mu_S(x)dx}{\int \mu_S(x)dx}\)。
- **基于 \(\lambda\) - 截集的技术**:通过 \(\tilde{S}_\lambda = \{x | \mu_S(x) \geq \lambda, 0 \leq \lambda \leq 1\}\) 从模糊集 \(S\) 导出一个精确集,然后使用如集合 \(\tilde{S}_\lambda\) 中的最小精确值、中位数、均值或最大值等技术确定精确值。推广形式为 \(\tilde{S}_\lambda = \{x | \mu_S(x) \geq \lambda \max \mu_S(x)\}\)。
- **基于最大值的技术**:使用 \(\lambda = 1\),比其他 \(\lambda \neq 1\) 的 \(\lambda\) - 截集技术更受欢迎。例如,最大值中的第一个(\(S_{\lambda = 1}\) 的最小值)、最大值中的最后一个(\(S_{\lambda = 1}\) 的最大值)和最大值的中间值(\(S_{\lambda = 1}\) 的均值)。推广形式为 \(\tilde{S}_\lambda = \{x | \mu_S(x) = \max \mu_S(x)\}\)。
#### 1.1.2 示例:温度模糊标签的去模糊化
假设我们有一组模糊标签,如“冷”、“凉”、“舒适”、“暖”和“热”,以“冷”标签为例,其隶属函数为:
\[
\mu_{cold}(x) =
\begin{cases}
0, & x \leq 0 \text{ 或 } x \geq 13 \\
\frac{x}{2}, & 0 < x \leq 2 \\
1, & 2 < x \leq 11 \\
\frac{13 - x}{2}, & 11 < x < 13
\end{cases}
\]
- **重心法(CoG)**:温度 \(x\) 是连续变量,\(x' = \frac{\int x\mu_{cold}(x)dx}{\int \mu_{cold}(x)dx}\)。
- 计算分子:
\[
\begin{align*}
\int x\mu_{cold}(x)dx &= \int_{0}^{2} \frac{x^2}{2}dx + \int_{2}^{11} xdx + \int_{11}^{13} \frac{x(13 - x)}{2}dx \\
&= \left[\frac{x^3}{6}\right]_{0}^{2} + \left[\frac{x^2}{2}\right]_{2}^{11} + \left[\frac{13x^2}{4} - \frac{x^3}{6}\right]_{11}^{13} \\
&= \frac{8}{6} + \frac{121 - 4}{2} + \frac{13(169 - 121)}{4} - \frac{13^3 - 11^3}{6} \\
&= 71.5
\end{align*}
\]
- 分母计算结果为 11,所以 \(x' = 71.5 / 11 = 6.5\)。
- **\(\lambda\) - 截集(\(\lambda = 0.5\))**:对于“冷”标签,\(\tilde{S}_{0.5} = \{x | \mu_{cold}(x) \geq 0.5\} = [1, 10]\)。根据使用均值或最大值,代表“冷”的精确值为 6.5 或 10。
- **基于最大值的方法**:对于“冷”标签,\(\tilde{S}_{1.0} = \{x | \mu_{cold}(x) \geq 1.0\} = [2, 9]\)。根据使用均值或最大值,代表“冷”的精确值为 6.5 或 9。
各模糊标签不同去模糊化方法的结果如下表所示:
| 标签 | 重心法(CoG) | \(\lambda\) - 截集(\(\lambda = 0.5\))均值 | \(\lambda\) - 截集(\(\lambda = 0.5\))最大值 | 基于最大值的均值 | 基于最大值的最大值 |
| ---- | ---- | ---- | ---- | ---- | ---- |
| 冷 | 6.5 | 6.5 | 10.0 | 6.5 | 9.0 |
| 凉 | 18.0 | 18.0 | 23.0 | 18.0 | 21.0 |
| 舒适 | 24.0 | 24.0 | 26.0 | 24.0 | 24.0 |
| 暖 | 30.0 | 30.0 | 34.5 | 30.0 | 32.0 |
| 热 | 39.5 | 39.5 | 46.0 | 39.5 | 44.0 |
### 1.2 评估指标
为了衡量模糊推理系统精确输出的有效性,常用的评估指标有:
- **平均绝对误差(MAE)**:\(MAE = \frac{1}{n} \sum_{i = 1}^{n} |y_i - \hat{y}_i|\)。
- **平均相对误差(MRE)**:\(MRE = \frac{1}{n} \sum_{i = 1}^{n} \frac{|y_i - \hat{y}_i|}{y_i}\)。
- **均方根误差(RMSE)**:\(RMSE = \sqrt{\frac{1}{n} \sum_{i = 1}^{n} (y_i - \hat{y}_i)^2}\)。
其中,\(y_i\) 和 \(\hat{y}_i\) 分别是观察到的精确值和预测的精确值,\(n\) 是所有预测值的数量。
### 1.3 一组模糊集的模糊化与去模糊化
假设存在多个模糊集,每个都有一个语言标签,它们共同解释精确变量的模糊属性。例如,汽车价格(精确变量)可以用模糊标签“经济”、“中档”和“昂贵”来表示。
模糊化是根据给定的精确值 \(x\) 和模糊集(及其隶属函数)计算 \(X = \{\mu_1(x), \mu_2(x), \ldots, \mu_N(x)\}\) 的过程。去模糊化则是从给定的模糊变量 \(X\) 计算精确变量 \(x\) 的值,最常见的方法是为论域中的所有模糊标签找到一个聚合模糊集,然后对聚合模糊集应用选定的去模糊化技术。聚合可以通过如并集、交集、代数积或有界和等操作进行。
#### 1.3.1 示例:温度数据的模糊化与去模糊化
考虑一组精确数据(房间温度)和模糊标签(“冷”、“凉”、“舒适”、“暖”、“热”),进行模糊化和去模糊化,并计算实际精确值与去模糊化后精确值之间的相似度。
| 精确值 | 模糊值 {冷, 凉, 舒适, 暖, 热} | 基于最大值的均值去模糊化 | 加权平均去模糊化 |
| ---- | ---- | ---- | ---- |
| 5 | {1.00, 0.00, 0.00, 0.00, 0.00} | 6.5 | 6.5 |
| 12 | {0.5
0
0
复制全文
相关推荐










