- 博客(121)
- 收藏
- 关注
原创 SQL注入6----(其他注入手法)
《非常规SQL注入手法解析》摘要:本文介绍了多种非常规SQL注入技术,包括加密注入(需逆向加密算法处理payload)、堆叠注入(利用分号执行多条语句,危害大但限制多)、二次注入(脏数据存储后触发)等。重点分析了堆叠注入与联合注入的区别,并通过靶场案例演示了二次注入的攻击过程。同时简要提及中转注入、伪静态注入等手法的基本原理。文章指出这些注入方式虽不常见,但一旦成功将造成严重威胁,建议开发者加强数据全流程的安全验证。
2025-08-31 00:11:06
1251
原创 SQL注入5----(宽字节注入和偏移量注入)
本文讲解了两种SQL注入技术:宽字节注入和偏移量注入。宽字节注入利用GBK编码特性,通过在URL编码中构造特殊字符组合绕过转义防御,重点分析了%5C与后续字节合并为汉字的原理。偏移量注入则适用于已知表名但未知字段名的情况,通过联合查询和字段位置调整来获取数据。文章详细说明了两种注入方法的测试过程和适用条件,并强调宽字节注入仅适用于GBK编码环境,偏移量注入需要前表字段数多于后表。最后提醒开发者注意编码设置和过滤措施,以防范此类注入攻击。
2025-08-30 05:46:01
856
原创 SQL注入4----(SQL注入查询语句分类)
本文介绍了SQL注入的四种常见类型:查询(select)、插入(insert)、更新(update)和删除(delete)注入。重点分析了insert注入的原理和利用方法,通过报错注入技术可以获取表名、列名和敏感数据。update注入与insert类似,主要发生在用户登录端。delete注入则出现在数据删除操作中。文章使用pikachu靶场演示了具体注入方法,强调这些注入本质都是报错注入的不同应用场景。最后指出数字型注入与字符型注入的区别,提醒注意引号使用。
2025-08-26 00:26:54
780
原创 SQL注入3----(报错注入)
本文介绍了MySQL中的报错注入技术,通过利用特定函数人为制造报错来获取数据库信息。主要讲解了updatexml()、extractvalue()和floor()等函数的报错注入原理,并以实战示例展示了如何利用这些函数获取数据库版本、当前用户、库名、表名、字段名及内容。文章强调报错注入适用于后台未屏蔽数据库报错信息的场景,通过XPath语法错误触发报错,在错误信息中提取关键数据。最后指出information_schema库在获取元数据时的重要作用,以及limit分页在获取完整数据时的应用技巧。
2025-08-25 00:30:39
645
原创 SQL注入2----(sql注入数据类型分类)
SQL注入主要分为数字型、字符型、搜索型和XX型四种类型。数字型注入无需考虑引号闭合问题;字符型需检查魔术符号是否开启;搜索型利用模糊查询中的%通配符构造注入语句;XX型需注意特殊括号闭合方式。所有注入方式的本质都取决于SQL语句中值的类型处理方式,核心思路都是通过构造特殊语句绕过验证。判断注入类型时不能仅凭前端显示,需多次尝试确认后台处理逻辑。
2025-08-24 01:19:07
680
原创 SQL注入1----(sql注入原理)
摘要:本文介绍了SQL注入的基本原理,通过pikachu测试网站演示注入过程。SQL注入是因为未对用户输入参数进行严格过滤,导致恶意SQL语句被服务器执行。文章阐述了查找注入点的方法(所有与数据库交互的前端输入点)、浏览器直接注入和Burp测试技巧,并详细说明了常用注释符号(#、--)的使用场景及注意事项。最后预告了后续将讲解SQL注入分类,为读者提供基础安全知识。全文约150字。
2025-08-23 21:53:44
727
原创 信息收集4----(收集网站指纹信息)
本文介绍了网站指纹信息收集的常用方法和工具。主要包括在线网站(云悉、潮汐指纹、聚名等)和工具类(Wappalyzer浏览器插件、御剑扫描器等)。Wappalyzer能快速分析网站技术架构、服务器配置等。此外,还提到可从网页代码中查找指纹信息,以及使用EHole这类Go语言编写的工具进行检测。文章强调了解网站技术架构有助于发现漏洞,并列举了几个常用源码下载网站。最后指出该章节内容仅供基础了解,建议读者根据实际需求选择合适的工具进行网站指纹信息收集。
2025-08-21 23:47:19
352
原创 信息收集3----(收集端口和服务-nmap扫描)
Nmap是一款功能强大的开源网络扫描工具,主要用于主机发现、端口扫描、版本检测和操作系统识别。它通过发送特定数据包分析响应,支持多种扫描方式(如TCP SYN、ACK、UDP等),并能识别端口状态(开放/关闭/过滤)。Nmap提供灵活的扫描选项,包括主机探测(-sn)、绕过防火墙(-Pn)、自定义端口范围(-p)和扫描强度调节(-T)。此外,它支持漏洞扫描(--script)和OS检测(-O),但漏洞库有限,通常需结合专业工具使用。适用于网络安全审计、资产管理及渗透测试等场景。
2025-08-20 02:29:52
761
原创 信息收集2----(收集真实ip)
摘要:本文介绍了绕过CDN获取真实IP的几种方法。首先通过超级ping和普通ping判断是否使用CDN,然后利用nslookup和dig工具进行DNS查询。此外还推荐了fuckcdn等工具,以及查询历史DNS记录和子域名的方法来寻找源站IP。由于CDN配置差异,这些方法需要一定运气,并非总能成功获取真实IP。文章最后强调绕过CDN需要结合多种技术手段尝试。
2025-08-19 01:02:42
644
原创 信息收集1----(收集域名信息)
本文介绍了网络安全信息收集中的域名相关查询方法,主要包括:1.域名WHOIS查询工具(站长工具、阿里云等);2.子域名收集方法(在线工具、JS探测、爆破工具等);3.ICP备案查询及备案号应用;4.SSL证书查询方法。文章提供了多个实用查询网址和工具,如OneForAll、Sublist3r等,帮助全面收集域名信息。这些技术可用于网络安全分析和渗透测试的信息收集阶段。
2025-08-19 00:29:25
643
原创 docker环境部署以及安装靶机环境
本文介绍了Docker容器技术的基本概念和安装使用方法。Docker是一种轻量级软件打包技术,通过镜像(images)和容器(Container)实现应用程序的快速部署。相比传统虚拟机,Docker具有体积小、启动快、资源占用少等优势。文章详细讲解了在CentOS和Kali系统上安装Docker的方法,并提供了常用Docker命令清单,包括镜像管理、容器操作等。此外,还介绍了如何制作自定义镜像并上传到官方仓库,以及使用docker-compose工具批量管理多个容器的技巧。最后提到可以利用Docker快速搭
2025-08-08 17:12:21
773
原创 Transformer模型构建
本文介绍了Transformer模型的构建过程,重点讲解了编码器-解码器结构的实现。首先通过EncoderDecoder类实现了完整的编码器-解码器架构,包含forward、encode和decode三个核心函数。然后详细说明了make_model函数的实现,该函数用于构建完整的Transformer模型,包括多头注意力、前馈网络、位置编码等组件,并对模型参数进行初始化。文章还提供了实例化参数和调用示例,最后总结了EncoderDecoder类的结构特点和make_model函数的功能,为理解Transfo
2025-07-30 02:19:47
755
原创 Transformer输出部分实现
本文介绍了Transformer模型的输出部分,主要包括线性层和softmax层。线性层通过维度转换得到指定维度的输出,而softmax层将向量转换为0-1的概率分布。通过代码分析展示了Generator类的实现过程:使用nn.Linear进行线性变换,再通过log_softmax处理输出。文中给出了具体参数示例(d_model=512, vocab_size=1000)和调用方法,最终输出符合概率分布要求的预测结果。这两个层的组合完成了Transformer模型的最终输出处理。
2025-07-30 01:44:13
316
原创 Transformer解码器部分实现
本文介绍了Transformer解码器的实现方法。解码器由N个相同的解码器层堆叠而成,每个解码器层包含三个子层结构:多头自注意力层、编码器-解码器注意力层和前馈全连接层,每个子层后都连接规范化层和残差连接。文中详细阐述了DecoderLayer类的实现过程,包括初始化参数、前向传播逻辑以及掩码机制的应用。解码器通过多个解码器层的堆叠处理,将编码器输出和前一时刻预测结果结合,逐步生成目标序列的特征表示。最后通过LayerNorm进行规范化处理后输出。文章提供了完整的代码实现示例,包括参数初始化和调用方法。
2025-07-29 21:18:50
996
原创 Transformer编码器部分实现
本文介绍了Transformer模型中的编码器实现,重点讲解了编码器的核心组件及其作用。编码器由N个堆叠的编码器层组成,每层包含多头自注意力机制和前馈全连接两个子层,均采用残差连接和规范化处理。详细阐述了掩码张量的作用及实现方法,用于防止模型在训练时提前获取未来信息。深入分析了注意力机制的计算规则和代码实现,包括缩放点积注意力计算和掩码处理。此外,还介绍了多头注意力机制、前馈全连接层和规范化层的结构原理与实现代码。这些组件共同构成了Transformer的核心架构,为自然语言处理任务提供了强大的特征提取能力
2025-07-29 00:18:48
1235
原创 Transformer输入部分实现
本文介绍了Transformer模型中的文本嵌入层和位置编码器。文本嵌入层(Embeddings)将词汇的数字表示转换为向量表示,通过nn.Embedding实现,并乘以√d_model进行缩放。位置编码器(PositionalEncoding)为词嵌入添加位置信息,使用正弦和余弦函数生成位置编码矩阵,与词嵌入相加后通过Dropout层处理。两者共同作用:文本嵌入层捕捉词汇语义关系,位置编码器补充序列位置信息,为Transformer后续处理提供包含语义和位置信息的输入表示。
2025-07-23 23:00:33
1136
原创 认识Transformer架构
本文介绍了Transformer模型架构及其在NLP领域的应用。作为基于seq2seq的模型,Transformer可完成机器翻译、文本生成等任务,并能构建预训练语言模型。文章详细解析了其总体架构:输入部分(文本嵌入层和位置编码器)、输出部分(线性层和softmax层)、编码器部分(N个堆叠层,含自注意力子层和前馈子层)以及解码器部分(N个堆叠层,含三个子层连接结构)。该架构通过多头注意力和残差连接等机制实现高效特征提取,为后续Transformer系列模型的深入理解奠定基础。
2025-07-23 22:01:50
399
原创 注意力机制介绍
注意⼒机制是注意⼒计算规则能够应⽤的深度学习⽹络的载体, 同时包括⼀些必要的全连接层以及相关 张量处理, 使其与应⽤⽹络融为⼀体. 使⽤⾃注意⼒计算规则的注意⼒机制称为⾃注意⼒机制.说明: NLP领域中, 当前的注意⼒机制⼤多数应⽤于seq2seq架构, 即编码器和解码器模型.
2025-07-22 23:35:27
734
原创 GRU模型
GRU(门控循环单元)是RNN的改进结构,通过更新门和重置门机制有效捕捉长序列关联,缓解梯度问题。相比LSTM,GRU结构更简单但性能相当。其核心是通过门控机制选择性地传递信息:重置门控制历史信息的利用,更新门决定新旧信息的组合。PyTorch中可用nn.GRU模块实现,需设置输入/隐层维度等参数。优势是计算复杂度低于LSTM,但仍存在RNN固有的梯度消失和无法并行计算问题。Bi-GRU采用双向结构增强特征提取能力。GRU适用于序列建模任务,但在大规模数据场景面临计算效率瓶颈。
2025-07-22 23:23:42
1045
原创 LSTM模型
LSTM是一种改进的RNN结构,能有效捕捉长序列语义关联并缓解梯度消失问题。其核心由遗忘门、输入门、细胞状态和输出门四部分组成,通过门控机制选择性记忆和遗忘信息。Bi-LSTM通过双向处理增强语义特征提取但会增加计算复杂度。PyTorch中可通过nn.LSTM模块实现,需设置输入/隐藏层维度等参数。LSTM虽改善了长序列处理能力,但训练效率低于传统RNN。本文详细解析了LSTM结构原理和PyTorch实现方法。
2025-07-22 22:51:11
1122
原创 传统RNN模型
本文介绍了传统RNN模型的结构、PyTorch实现及优缺点。RNN通过将当前输入x(t)和上一步隐层输出h(t-1)拼接后经全连接层和tanh激活函数处理,得到当前输出h(t)。PyTorch中通过nn.RNN类实现,需指定输入/隐藏层维度等参数。传统RNN结构简单、计算量小,在短序列任务表现良好,但存在长序列训练时的梯度消失/爆炸问题,这是由反向传播时梯度连乘导致的。文中通过代码示例展示了RNN的基本用法,并解释了梯度问题的成因及危害。
2025-07-22 22:31:18
1068
原创 认识RNN模型
本文介绍了循环神经网络(RNN)的基本概念、工作原理和应用领域。RNN是一种能够处理序列数据的神经网络,通过循环机制保留上一步的隐层状态来捕捉序列特征。文章详细分析了RNN的工作原理,并以用户意图识别为例说明处理过程。同时从输入输出结构和内部构造两个维度对RNN进行分类,包括NvsN、Nvs1、1vsN、NvsM等结构类型,以及LSTM、GRU等变体。RNN广泛应用于机器翻译、文本分类等NLP任务,其中seq2seq架构因其灵活性成为最常用的模型结构。
2025-07-22 01:21:59
942
原创 文本数据分析
本文介绍了文本数据分析的基本方法和应用。通过中文酒店评论数据集,展示了标签数量分布、句子长度分布、词频统计等分析方法。使用Python工具包对训练集和验证集进行可视化分析,发现数据存在轻微不均衡和异常点。文章详细说明了获取句子长度散点分布、正负样本比较以及词汇统计的具体实现步骤,并强调了文本分析对模型参数选择和异常检测的指导作用。最终总结了几种常用文本分析方法的实际应用价值。
2025-07-21 16:05:39
620
原创 文本张量的表示方法
本文介绍了文本张量表示的三种主要方法及其实现。重点分析了one-hot编码、Word2Vec和词嵌入(WordEmbedding)三种技术:one-hot编码简单直观但无法表达词义关系;Word2Vec通过CBOW和SkipGram两种无监督训练模式生成稠密向量;词嵌入则是神经网络训练过程中产生的参数矩阵。文章详细阐述了Word2Vec的实现流程,包括数据准备、模型训练、超参数调优等步骤,并通过FastText工具展示了具体应用。最后对比了各方法的优缺点,建议根据实际需求选择合适的技术方案,同时指出中文处理
2025-07-20 00:41:59
626
原创 案例-价格分类
本文介绍了一个基于深度学习的手机价格分类案例。通过分析手机硬件参数(如RAM等)预测价格范围(0-3四个等级)。作者使用PyTorch构建了一个五层全连接神经网络(输入层20维,输出层4维),采用Sigmoid激活函数和交叉熵损失函数。实验表明,初始模型在测试集上准确率为51%,通过数据标准化、优化算法调整(SGD改为Adam)、学习率优化(1e-3至1e-4)和网络结构加深(5层)等改进后,准确率提升至97.5%。文章提供了完整的代码实现,包括数据预处理、模型构建、训练和评估流程,适合作为深度学习分类任务
2025-07-18 01:25:17
668
原创 批量归⼀化
本文介绍了神经网络中的批量归一化(Batch Normalization)技术。该技术通过对每个minibatch数据进行标准化处理,使数据分布保持稳定,从而加快模型收敛速度。文章详细阐述了BN层的计算公式、参数含义及其在PyTorch中的接口实现,重点说明了BN层如何通过移动加权平均来近似计算整体均值和方差。BN层能有效防止训练过程中的数据分布剧烈波动,在计算机视觉领域应用广泛,通常与卷积神经网络结合使用。
2025-07-17 17:18:55
260
原创 深度学习之正则化
摘要:Dropout是神经网络中缓解过拟合的有效方法,通过随机丢弃部分神经元连接(按概率p置0)来降低网络复杂度。实现时需对保留的神经元进行缩放(缩放因子1/(1-p))以补偿信息损失。实验显示,Dropout会使得部分参数的梯度变为0,从而阻止这些参数的更新。该方法类似于L2正则化,能有效控制网络复杂度,在实际应用中常被采用。
2025-07-17 15:43:28
650
原创 深度学习之优化方法
本文介绍了梯度下降算法的优化方法,包括Momentum、AdaGrad、RMSProp和Adam。其中,Momentum通过指数加权平均历史梯度加速收敛,克服鞍点和平缓区域问题;AdaGrad自适应调整不同参数的学习率,但可能过早降低学习率;RMSProp改进AdaGrad的梯度累积方式;Adam结合Momentum和RMSProp的优点,同时考虑历史梯度并自适应调整学习率。实验表明,β参数影响指数加权平均的平滑程度,Adam等优化方法能有效提升神经网络训练效果。这些方法通过不同策略改进了传统梯度下降的局限
2025-07-17 14:42:51
795
原创 参数初始化
本文介绍了神经网络参数初始化的常用方法及其PyTorch实现。重点讲解了权重初始化的几种方式:均匀分布初始化(在(-1/√d,1/√d)区间)、正态分布初始化(均值为0,标准差为1)、全0/全1初始化、固定值初始化,以及Kaiming(HE)和Xavier(Glorot)两种高级初始化方法。通过PyTorch代码示例展示了如何使用nn.init模块实现这些初始化方式,包括uniform_、constant_、zeros_、ones_、normal_、kaiming_normal_、kaiming_unifo
2025-07-17 14:18:48
186
原创 深度学习之反向传播
摘要:本文介绍了神经网络中的反向传播算法(BP),它是一种通过梯度下降和链式法则训练多层网络的强大方法。首先回顾了梯度下降算法的原理及参数更新过程,区分了Epoch、Batch和Iteration的概念。随后详细阐述了前向传播和反向传播的机制,重点讲解了如何利用链式法则计算复合函数的导数来更新权重参数。通过代码示例展示了正向传播、误差计算和反向传播的实现过程。BP算法是神经网络训练的核心,能够有效计算各层参数的梯度并优化网络性能。
2025-07-16 22:53:19
1309
原创 深度学习之激活函数
本文介绍了神经网络中激活函数的作用及常见类型。激活函数为网络引入非线性因素,使其能够拟合复杂曲线,若缺失则退化为线性模型。重点分析了三种常用激活函数:Sigmoid(适用于二分类输出层,存在梯度消失问题)、Tanh(收敛快但仍有梯度消失)和ReLU(最常用,计算高效但可能出现神经元死亡)。此外还介绍了多分类使用的Softmax函数。文章建议隐藏层优先选用ReLU,输出层根据任务类型选择对应函数(Sigmoid/Softmax/线性),并提供了PyTorch实现示例。不同激活函数的选择直接影响神经网络的学习效
2025-07-16 14:11:11
1170
原创 深度学习和神经网络的介绍
本文介绍了深度学习和神经网络的基本概念与发展历史。深度学习作为机器学习的一个子集,通过算法自动提取特征,模仿人脑运行方式,广泛应用于语音识别、机器翻译、自动驾驶等领域。神经网络起源于20世纪50年代的感知机,经反向传播算法推动后,在2012年后随着AlexNet、AlphaGo等突破性进展而快速发展。人工神经网络模仿生物神经元结构,由输入层、隐藏层和输出层组成,通过权重连接传递信息。文章概述了这一技术的发展历程和应用前景,为后续学习奠定基础。
2025-07-16 01:37:38
894
原创 模型的保存加载
本文介绍了PyTorch中模型保存与加载的两种方法:1. 仅保存模型参数(state_dict),需重建相同模型结构后加载;2. 保存整个模型对象。同时提醒注意设备兼容性问题,建议使用map_location参数处理跨设备加载情况。这两种方法都能避免重复训练,实现模型的持久化使用。
2025-07-15 00:20:08
232
原创 自动微分模块
本文介绍了PyTorch中自动微分(Autograd)模块的使用方法。主要内容包括:1)梯度基本计算,通过backward方法和grad属性实现单标量和单向量梯度计算;2)控制梯度计算的三种方式(no_grad装饰器、set_grad_enabled、梯度清零);3)梯度计算的注意事项,如requires_grad=True的张量需先detach()才能转换为numpy数组;4)梯度下降优化示例。文章强调梯度是累计的,计算前需手动清零,并指出detach后的张量与原张量共享数据但无需计算梯度。这些内容是神经
2025-07-14 23:54:38
497
原创 张量运算函数
本文介绍了PyTorch中张量的常见运算函数。主要内容包括:均值计算(mean)、求和(sum)、平方(pow)、平方根(sqrt)、指数(exp)和对数(log)等基本运算。通过示例代码展示了如何对2×3的随机张量进行这些运算,包括全局计算和按维度计算。文中强调张量运算时需要注意数据类型要求,如均值计算需要浮点类型。虽然内容不多,但作者认为将知识点拆分讲解更便于学习。最后展示了各运算函数的实际计算结果。
2025-07-14 18:39:40
448
原创 张量形状操作
本文介绍了深度学习中常用的张量形状操作函数及其用法。主要包括:1) reshape函数在不改变数据的前提下调整维度;2) transpose和permute用于交换张量维度;3) view函数修改形状需配合contiguous确保内存连续;4) squeeze删除值为1的维度,unsqueeze增加维度。这些操作在神经网络层间数据传递中至关重要,掌握它们能有效处理不同网络层之间的数据形状适配问题。文章通过代码示例详细演示了各函数的具体使用方法。
2025-07-13 20:27:41
818
原创 张量索引操作
本文介绍了PyTorch张量的多种索引操作方式,包括:1)简单行、列索引;2)通过列表获取指定位置元素;3)范围索引获取连续区域数据;4)布尔索引进行条件筛选;5)多维张量的切片操作。每种方法均配有代码示例和输出结果展示。文章强调掌握这些索引操作是使用PyTorch的基本技能,建议读者通过实际运行代码来加深理解。这些索引方式与NumPy的操作类似,具有一致的操作逻辑。
2025-07-13 12:05:36
585
原创 张量拼接操作
本文介绍了PyTorch中两种常用的张量拼接方法:torch.cat和torch.stack。torch.cat用于沿着指定维度拼接两个张量,通过示例展示了在0维、1维和2维拼接后的形状变化(如[6,5,4]、[3,10,4]、[3,5,8])。torch.stack则是将张量沿新维度叠加,通过不同维度(0、1、2)的叠加演示了形状变化(如[2,2,3]、[2,3,2])。这两种操作在神经网络构建(如残差网络、注意力机制)中非常实用,建议读者通过代码实践加深理解。
2025-07-12 20:29:05
638
原创 张量类型转换
本文介绍了张量与NumPy数组的相互转换方法。使用Tensor.numpy()可将张量转为NumPy数组(共享内存,可用copy避免),而torch.from_numpy()则将NumPy数组转为张量(默认共享内存)。torch.tensor()转换时不共享内存。对于单元素张量,可用item()提取数值。这些转换操作在PyTorch中经常使用,是必须掌握的基础知识。
2025-07-12 20:10:36
304
php靶场工具适用于windows2003
2025-06-29
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人