transformer

Transformer 是一种基于自注意力机制的深度学习模型,最初由 Vaswani 等人在 2017 年的论文《Attention is All You Need》中提出。Transformer 模型突破了传统序列模型(如 RNN 和 LSTM)的局限性,在自然语言处理(NLP)领域取得了巨大的成功,广泛应用于机器翻译、文本生成、问答系统等任务。

阅读更多
pytorch常用函数

这里记录了一些在使用pytorch进行构建神经网络的时候会用到的函数以及用法。

阅读更多
卷积神经网络

卷积神经网络(CNN,Convolutional Neural Network)是一种专门用于处理具有网格拓扑数据(如图像、视频等)的深度学习模型,广泛应用于计算机视觉领域。与传统的全连接神经网络不同,CNN 通过卷积操作提取局部特征,能够有效减少参数数量,并提高模型在图像、语音等任务中的表现。

阅读更多
pytorch

PyTorch是一个基于Python的科学计算包,它主要有两个用途:

1、类似Numpy但是能利用GPU加速
2、一个非常灵活和快速的用于深度学习的研究平台

阅读更多
tensorflow

TensorFlow 是由 Google 开发的一个开源深度学习框架,专为大规模机器学习任务而设计,提供灵活的工具来构建和训练各类机器学习模型,尤其是神经网络。它支持从简单的模型构建到复杂的分布式训练,广泛应用于学术研究和工业生产中。

阅读更多
决策树

决策树(Decision tree)是基于已知各种情况(特征取值)的基础上,通过构建树型决策结构来进行分析的一种方式,是常用的有监督的分类算法。

阅读更多
逻辑回归

逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某种事物的可能性。

阅读更多
numpy的使用

NumPy 是一个用于科学计算的 Python 库,全称为 Numerical Python,它提供了支持多维数组和矩阵运算的强大工具,还包含了许多用于数组操作的高效函数。它是 Python 数据分析和科学计算的基础库之一,常与其他库(如 SciPy、Pandas、Matplotlib)搭配使用。

阅读更多
emlog V2.1.15 反序列化字符逃逸漏洞的详细分析(CVE-2023-43291)

emlog最新版V2.1.15存在反序列化字符串逃逸漏洞,可导致sql注入,特殊条件下可RCE。

emlog是一款开源的博客建站系统,github项目是https://github.com/emlog/emlog ,目前star数量430+

这是去年在祥云杯出题时挖到的一个漏洞,经过了一年的时间,现在祥云杯结束了,我也将此漏洞细节在这里公开。

阅读更多
横向移动

在获得域内一台主机权限或账号权限之后,需要以此作为跳板,对域内主机进行进一步攻击,获取域内更多主机和账户的权限。

阅读更多