比赛记录
初始分数 0.60875Conformerd_model=80, n_spks=600, dropout=0.1
第一次修改 0.72950更改模型参数 d_model=160, n_spks=600, dropout=0.1使用TransformerEncoder层 self.encoder = nn.T...
jieba、hanlp词性对照表jieba
a 形容词
ad 副形词
ag 形容词性语素
an 名形词
b 区别词
c 连词
d 副词
df
dg 副语素
e 叹词
f 方位词
g 语素
h 前接成分
i 成语
j 简称略称
k 后接成分
l 习用语
m 数词
mg
mq 数量词
n 名词
ng 名词性语素 ...
conda、miniconda、anaconda的区别condaconda是一种通用包管理系统,旨在构建和管理任何语言和任何类型的软件。包管理与pip的使用类似,环境管理则允许用户方便地安装不同版本的python并可以快速切换。
Miniconda只包含最基本的内容——python与conda,以及相关的必须依赖项,对于空间要求严格的用户,Miniconda是一种选择。就只包含最基本的东西,...
残差网络核心思想:每个附加层都应该更容易地包含原始函数作为其元素之一
残差块
ResNet沿用了VGG完整33的卷积层设计。 残差块里首先有2个有相同输出通道数的33卷积层。 每个卷积层后接一个批量规范化层和ReLU激活函数。 然后我们通过跨层数据通路,跳过这2个卷积运算,将输入直接加在最后的ReLU激活函数前。 这样的设计要求2个卷积层的输出与输入形状一样,从而使它们可以相加。 如果想改变...
残差网络核心思想:每个附加层都应该更容易地包含原始函数作为其元素之一
残差块
ResNet沿用了VGG完整33的卷积层设计。 残差块里首先有2个有相同输出通道数的33卷积层。 每个卷积层后接一个批量规范化层和ReLU激活函数。 然后我们通过跨层数据通路,跳过这2个卷积运算,将输入直接加在最后的ReLU激活函数前。 这样的设计要求2个卷积层的输出与输入形状一样,从而使它们可以相加。 如果想改变...
使用块中的网络VGG块经典卷积神经网络的基本组成部分:
带填充以保持分辨率的卷积层;
非线性激活函数,如ReLU;
汇聚层,如最大汇聚层。
VGG块与之类似,由一系列卷积层组成,后面再加上用于空间下采样的最大汇聚层。
1234567891011121314import torchfrom torch import nnfrom d2l import torch as d2ldef vg...
批量规范化使用原因
原理
批量规范化层批量规范化和其他层之间的一个关键区别是,由于批量规范化在完整的小批量上运行,因此我们不能像以前在引入其他层时那样忽略批量大小。
代码实现12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596...
深度卷积神经网络(AlexNet)AlexNetAlexNet使用8层卷积神经网络AlexNet比相对较小的LeNet5要深得多。 AlexNet由八层组成:五个卷积层、两个全连接隐藏层和一个全连接输出层。 其次,AlexNet使用ReLU而不是sigmoid作为其激活函数。
模型设计在AlexNet的第一层,卷积窗口的形状是11×11。 由于ImageNet中大多数图像的宽和高比MNIS...
网络中的网络(NiN)LeNet、AlexNet和VGG共同的设计模式:过一系列的卷积层与汇聚层来提取空间结构特征;然后通过全连接层对特征的表征进行处理。AlexNet和VGG对LeNet的改进主要在于如何扩大和加深这两个模块
网络中的网络(NiN)提供了一个非常简单的解决方案:在每个像素的通道上分别使用多层感知机
卷积层的输入和输出由四维张量组成,张量的每个轴分别对应样本、通道、高度...
SoftMax疑点难点:损失函数、代码实现
理解
softmax运算获取一个向量并将其映射为概率。
softmax回归适用于分类问题,它使用了softmax运算中输出类别的概率分布。
交叉熵是一个衡量两个概率分布之间差异的度量
回归与分类
回归估计一个连续值
分类预测一个离散类别
网络架构权重放到34的矩阵中,对于给定数据样本的特征*x向量,我们的输出是由权重与输⼊特征进⾏...