代码编织梦想

图像处理6-图像泊松编辑-爱代码爱编程

背景        比较火热的短视频绿布特效其实就是用到了图像融合技术,将其中一幅图加入另一幅图中形成合成视频。一般情况下,两幅图像或多幅图像若直接涂像素融合,比较突兀感官体验上不是一体,有一种图像技术可以较为自然的将两种图像融合,它就是泊松图像编辑技术。这是一个微分方程在图像中的一个重要应用,首先提出该应用的是SIGGRAPH 2003,该文章对现在的

图像处理入门2-图像与几何变换-爱代码爱编程

图像变换 图像处理过程中经常存在着大小,位置,角度不同的图像,如果想统一的用一个标准处理,就需要图像变换将其变到需要的状态。常用的图像变换有平移、旋转、缩放、透视等。本章节主要讨论的就是这几种常用的变换方法。 一、基本变换 1.平移 平移意思是将物体从A点沿某个方向移动至B点,不改变物体的大小形状。如果在坐标系下,可以表示为沿着

图像处理入门1-边缘提取-爱代码爱编程

边缘提取 图像取边缘是基于像素梯度方法实现的,原理是把图像的灰度看成2维曲面,边缘是曲面的突变部分,利用求梯度找到变化最大的位置,该位置认为是边缘。 算法 在OpenCV 中集成了边缘算子,主要有canny、sobel、Laplacian、Prewitt、Roberts 数字图像处理常采用差分替代微分,构造的算子也是从微分转为差分进行计算的。用灰度图

梯度寻优-爱代码爱编程

1.最优化原理 \quad\quad 自然界总是以最小代价取得最大收益,比如一束光线在介质中传播时路线是需时最少的路径,这被称作费马原理(Fermat’s principle)。 最优化已经深深影响了人类生

读论文笔记(ACGAN)-爱代码爱编程

前言: 这篇论文的全称为:《Conditional Image Synthesis with Auxiliary Classifier GANs》,基于辅助分类器GANs的条件图像合成,在很多时候,它和SGAN一样经常被人们称为半监督学习,因为会用到图片的类别标签;ACGAN同时结合了CGAN和SGAN的做法来提高图片的生成质量,即CGAN通过结合

机器学习之矩阵求导-爱代码爱编程

简介: 无论是最小二乘法,还是神经网络反向传播算法,到处可以见到矩阵求导的身影,所以矩阵求导在机器学习中还是比较重要的。 下面将从输入和输出的形式来分开介绍矩阵求导: 首先,我们要明确矩阵求导的本质,即,矩阵A对矩阵B求导的本质是矩阵A中的每一个元素对矩阵B中的每一个元素进行求导。求导结果中含有元素的大小,为矩阵A的元素个数乘以矩阵B中元素的个数。

Conditional Generative Adversarial Nets(CGAN)-爱代码爱编程

前言:  这篇博客为阅读论文后的总结与感受,方便日后翻阅、查缺补漏,侵删! 论文:Conditional Generative Adversarial Nets 参考:博客一、博客二 解决的问题: 介绍这个问题前,我们首先回顾GAN的优点与缺点: GAN 的优点: ●  GAN是一种生成式模型,相比较其他生成模型(玻尔兹曼

InfoGAN(基于信息最大化生成对抗网的可解释表征学习)-爱代码爱编程

前言:  这篇博客为阅读论文后的总结与感受,方便日后翻阅、查缺补漏,侵删! 论文: InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets  解决的问题: InfoGAN,它是对生成

零样本学习-爱代码爱编程

前言 这篇博客为阅读论文后的总结与感受,方便日后翻阅、查缺补漏,侵删! 论文: 零样本学习研究进展零样本图像识别 概念: 零样本学习 (Zero-shot learning).,零样本学习是迁移学习的一种特殊场景;在零样本学习过程中,训练类集和测试类集之间没有交集,需要通过训练类与测试类之间的知识迁移来完成学习, 使在训练类上训练

VAE中重参数化技巧-爱代码爱编程

谈起重参数化技巧,不得不提变分自编码器(VAE);在VAE中,我们知道需要对编码器的输出、进行采样,从而可以将采样输入到编码器网络,能够得到输入样本的重构,以这种方式对模型进行训练。而VAE并没有这么做,而是采取了另一种做法:从高斯分布中采样,然后和训练样本训练得到的和,做运算的结果输入到解码器网络(点乘符号表示每个元素位置上的相乘),便能得到我们样本x的

梯度下降算法综述-爱代码爱编程

目录: 简介梯度下降算法。介绍梯度下降算法的不同变体。总结在优化过程面临的一些挑战。介绍最常见的梯度优化算法。总结简介梯度下降算法: 梯度下降法是最常用的优化算法之一,也是迄今为止优化神经网络最常用的方法之一。同时,每个最先进的深度学习库都包含各种优化梯度下降算法的实现。然而,这些算法通常被称作黑盒优化器,因为很难找到对其优缺点的实际解释。本文旨在为读

泰勒展开式推导梯度下降-爱代码爱编程

关于梯度下降的公式可能大家耳熟能详,沿着梯度的反方向一步一步的移动,总能到达我们想要的最优点;可是为什么可以这样做呢?开始我的答案无非就是“梯度的反方向就是损失值下降最快的方向”,最近看了李宏毅老师的梯度下降算法发现别有洞天,接下来我将以通俗的语言来详细解释梯度下降算法公式的数学推导过程。 推导梯度下降之前开始引入一个Feature scaling(特征

机器学习模型的常用评价指标-爱代码爱编程

在看论文的过程中发现了有很多模型好坏的评价指标,有比较常见的指标,也有一些从未了解到的评价指标,是时候来整理一波了,以便后续学习查缺补漏。 常见概念: 真正(True Positive , TP):被模型预测为正的正样本。假正(False Positive , FP):被模型预测为正的负样本。假负(False Negative , FN):被模型

BP(BackPropagation)算法-爱代码爱编程

这段时间又重新来看了看这个算法,发现学过的东西一段时间过去几乎忘完了,还是决定每次学习过一个比较重要的算法就写一个总结,第一次的总结尽量简单,后面再充实,以便查缺补漏。 概念: BP算法是由学习过程由信号的正向传播与误差的反向传播两个过程组成。由于多层前馈网络的训练经常采用误差反向传播算法,人们也常把将多层前馈网络直接称为BP网络。  给定一个多

马尔可夫链蒙特卡洛采样(MCMC)-爱代码爱编程

首先我们要明确的是马尔可夫链蒙特卡洛采样以下简称MCMC,它首先是个采样方法。 1.采样的目的 采样作为任务,用于生成新的样本求和/求积分比如我们知道样本z的后验分布,我们经常会有一个需求,得到目标函数f(x)在概率分布上的期望,通常这个期望是很难计算的,我们可以根据p(z|x)采用N个样本,分别为 ,当N足够大我们便可以得到该期望值。如下式:

线性空间-爱代码爱编程

引言        矩阵是一种线性操作,用于“线性系统中线性算子在基下的一种数量表示”,数学是一种抽象,透过抽象概念掌握矩阵本质,对基本的线性运算理解起到重要作用。因此研究矩阵的作用,演变为对抽象的线性算子的研究。线性空间是集合在线性运算下所表现出来的共性加以概括而成的数学概念,线性算子则是用来研究线性空间之间关系的主要工具。线性空间和线性算子是本文主要

特征值和特征向量的几何意义-爱代码爱编程

1. 特征值和特征向量 我们首先回顾下特征值和特征向量的定义如下: Ax=λxAx=\lambda xAx=λx 其中A是一个n×nn\times nn×n的实对称矩阵,xxx是一个n维向量,则我们说λ\lambdaλ是矩阵A的一个特征值,而xxx是矩阵A的特征值λ\lambdaλ所对应的特征向量。求解特征值时,上式可以写为: (A−λE)x=0(A-\

gcd与lcm_sdau_20175962的博客-爱代码爱编程_gcd lcm离散数学

目录 GCD与LCM GCD 欧几里得  更相减损术 辗转相除法与更相减损术的比较 GCD的二进制写法(stein算法) LCM 分数的lcm GCD与LCM GCD 欧几里得 递归写法 形式1: int gcd(int a,int b) { if(b==0) return a; return gcd(b,a%

求快速幂(反复平方法+快速幂算法)_sdau_20175962的博客-爱代码爱编程_反复平方法

例题:https://www.luogu.org/problemnew/show/P1226 反复平方法板子(加取余) #include<iostream> using namespace std; type

【洛谷p3383】筛法求素数(埃氏筛法+线性筛法+6倍数判别法)_sdau_20175962的博客-爱代码爱编程

给定一个范围N,你需要处理M个某数字是否为质数的询问(每个数字均在范围1-N内) 输入输出格式 输入格式: 第一行包含两个正整数N、M,分别表示查询的范围和查询的个数。 接下来M行每行包含一个不小于1且不大于N的整数