代码编织梦想

pytorch学习(1):torch.meshgrid的使用_torch meshgrid-爱代码爱编程

1. 简述 torch.meshgrid 生成网格,可以用于生成坐标。函数输入两个数据类型相同的一维张量,两个输出张量的行数为第一个输入张量的元素个数,列数为第二个输入张量的元素个数,当两个输入张量数据类型不同或维度不是一维时会报错。 原型 torch.meshgrid(*tensors, indexing=None) indexin

pytorch学习(2):torch.device-爱代码爱编程

1. 简述 torch.device 是 PyTorch 中的一个类,它指定了张量(Tensor)和模型应该运行在哪个设备上。在深度学习中,通常会使用 GPU 来加速计算,而 torch.device 允许你轻松地在 CPU 和 GPU 之间切换。 torch.device代表将torch.Tensor分配到的设备的对象。 torch.device包

pytorch学习(3):并行训练dataparallel与distributeddataparallel-爱代码爱编程

1. 简述 在使用pytorch训练网络时,一般都会使用多GPU进行并行训练,以提高训练速度,一般有单机单卡,单机多卡,多机多卡等训练方式。这就会使用到pytorch提供的DataParallel(DP)和DistributedDataParallel(DDP)这两个函数来实现。 2. DP和DDP的区别 DP是使用一个进程来计算模型参数,然后在每个

深度学习评价指标(1):目标检测的评价指标-爱代码爱编程

1. 简述         在计算机视觉/深度学习领域,每一个方向都有属于自己的评价指标。通常在评估一个模型时,只需要计算出相应的评价指标,便可以评估算法的性能。同时,所谓SOTA,皆是基于某一评价指标进行的评估。         接下来,我们将对目标检测领域的评价指标做一个大体的说明,其中涉及Precision,AP,mAP,Accuracy等指标。

最新基于matlab 2023a的机器学习、深度学习应用_matlab2023实现convlstm-爱代码爱编程

目录 第一章 MATLAB 2023a深度学习工具箱新特性简介 第二章 卷积神经网络(Convolutional Neural Network, CNN) 第三章 模型可解释性与特征可视化Model Explanation and Feature Visualization 第四章 迁移学习算法(Transfer Learning) 第五章 循环

siamese network详解和tensorflow实现(附源码)-爱代码爱编程

文章目录 一、相似性度量1. 欧氏距离2. 马氏距离 二、Siamese network1. Siamese network 基础架构2. 损失函数3. 不同的Siamese network3.1. 行人

机器学习-爱代码爱编程

        在前面讲到的CNN中,训练样本的输入和输出是比较的确定的。传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是有一类问题CNN不好解决,就是训练样本输入是连续的序列,且序列的长短不一,比如基于时间的序列:一段段连续的语音,一段段连续的手写文字。这些序列比较长,且长度不一,比较难直接的拆分成

对卷积和全连接之间关系的学习(1*1卷积与全连接层可以互换吗?)_1x1卷积核代替全连接-爱代码爱编程

1.对于卷积和全连接 首先我们看一张图,它是一张关于卷积的操作: 然后在看关于全连接的操作: 从上面两张图中可以看出卷积的过程和全连接的过程,我们利用粉色的卷积核在image上进行卷积,进行内积计算得到输出值3

inception network详解和tensorflow实现(附源码)-爱代码爱编程

文章目录 一、Inception Network简介二、CNN的痛点三、Inception Network1. 1x1卷积核1.1 升维/降维:1.2. 调节参数数量:1.3. 增加非线性特性: 2.

基于mobilenetv2的目标检测和tensorflow + transfer learning实现(附源码)_tensorflow2 目标检测 mobilenet-爱代码爱编程

文章目录 一、MobileNet1. 深度可分离卷积(Depthwise separable convolution)2. MobileNet V13. MobileNet V2 二、物体检测源码(基于M

基于tensorflow的模型和训练的自定义方法(附源码)_tensorflow自定义训练-爱代码爱编程

文章目录 自定义模型和训练1. Define the Model2. Define Optimizer and Loss3. Evaluate Untrained Model4. Define Metrics5

multi-爱代码爱编程

文章目录 一、Transformer的Attention1. Self-Attention2. Masked Self-Attention3. Multi-Head Attention 二、Transfo

深度学习—各种卷积_深度学习卷积-爱代码爱编程

1.普通卷积 1.1 什么是卷积 卷积是指在滑动中提取特征的过程,我们先从一个小小的权重矩阵,也就是 卷积核(kernel) 开始,让它逐步在二维输入数据上“扫描”。卷积核“滑动”的同时,计算权重矩阵和扫描所得的数据矩阵

基于tensorflow object detection api实现retinanet目标检测网络(附源码)_基于tensorflow oobject detectionapi训练的网络结构是啥-爱代码爱编程

文章目录 一、RetinaNet简介1. Backbone网络2. FPN网络 二、RetinaNet实现1. tf.train.CheckPoint简介2. RetinaNet的TensorFlow源码

gpt-爱代码爱编程

文章目录 一、GPT2实现步骤二、源码 一、GPT2实现步骤   机器学习模型的开发实现步骤一般都包含以下几个部分:   1. 遵照模型的网络架构,实现每一层(Layer/Block)的函数;   

faster r-爱代码爱编程

文章目录 一、RPN网络1. RPN网络简介2. backbone网络简介 二、Faster R-CNN网络架构1. Faster R-CNN网络简介2. 基于TensorFlow Hub实现Faster

scaled dot-爱代码爱编程

文章目录 背景什么是AttentionAttention权重的计算方法1. 多层感知机法2. Bilinear方法3. Dot Product4. Scaled Dot Product Scaled do

vgg network的原理和tensorflow实现(附源码)_vgg和tensorflow-爱代码爱编程

文章目录 一、AlexNet和VGG二、VGG模型实现 一、AlexNet和VGG   AlexNet 于 2012 年问世,是一次革命性的进步。它改进了传统的卷积神经网络 (CNN),并成为图像分

swin-爱代码爱编程

1. 摘要 由于Transformer的大火,相对应的也出来了许多文章,但是这些文章的速度和精度相较于CNN还是差点意思,2021年微软研究院发表在ICCV上的一篇文章Swin Transformer是Transforme

bert(transformer encoder)详解和tensorflow实现(附源码)_transeformer bertmodel代码-爱代码爱编程

文章目录 一、BERT简介1. 模型2. 训练2.1 Masked Language Model2.2 Next Sentence Prediction2.3 BERT的输出 3. 微调 二、源码