代码编织梦想

深度学习目标检测算法之faster r-爱代码爱编程

文章目录 前言一、传统目标检测方法1.候选区域2.特征提取3.目标分类 二、R-CNN1.候选区域的获取2.候选区域的特征提取3.候选区对应特征分类(SVM)4.使用回归器精细修正候选框位置 三、F

每天五分钟计算机视觉:目标检测算法之r-爱代码爱编程

本文重点 在计算机视觉领域,目标检测一直是一个核心问题,旨在识别图像中的物体并定位其位置。随着深度学习技术的发展,基于卷积神经网络(CNN)的目标检测算法取得了显著的进步。其中,R-CNN(Regions with CNN features)是一种开创性的目标检测框架,为后续的研究提供了重要的基础。 R-CNN的原理 R-CNN的基本思想是将目标

【原理&代码详解】deepsort算法:多目标跟踪的深度学习解决方案_deepsort算法核心代码-爱代码爱编程

一、引言 在视频监控和智能交通系统中,多目标跟踪是一项关键技术,它涉及检测视频中的多个目标,并在视频帧之间维持每个目标的身份。DeepSORT算法作为SORT算法的扩展,通过结合深度学习和传统的跟踪技术,提高了目标跟踪的准确性和鲁棒性。本文将深入讲解DeepSORT算法的原理和流程,并对Deepsort的代码进行介绍。 二、DeepSORT算法原理

匈牙利算法与卡尔曼滤波_匈牙利算法和卡尔曼滤波-爱代码爱编程

匈牙利算法与卡尔曼滤波 匈牙利算法指派问题概述匈牙利算法流程 卡尔曼滤波一维卡尔曼滤波卡尔曼滤波器方程总结多维卡尔曼滤波 扩展卡尔曼滤波器(EKF)扩展卡尔曼滤波器【EKF】雅可比矩阵 U

huggingface最强视觉模型idefics2开源,80亿参数突破多模态关键技术-爱代码爱编程

前言 Hugging Face近日宣布开源了一款名为Idefics2的全新多模态模型,该模型不仅在参数规模上大幅超越前作,还在多个经典视觉-语言基准测试中展现出卓越表现,完全有资格与LLava-Next-34B、MM1-30B-chat等更大规模模型一争高下。 Idefics2是Idefics1的升级版,共有80亿参数,许可协议为Apache 2.0,

构建加速器:精通gradle中的并行化构建配置-爱代码爱编程

构建加速器:精通Gradle中的并行化构建配置 引言 Gradle是一个极其灵活的构建系统,它通过使用Groovy或Kotlin DSL来编写构建脚本。在大型项目或多模块项目中,构建过程可能会变得耗时,特别是当各个任务之

缓存加速:精通gradle项目依赖缓存配置-爱代码爱编程

缓存加速:精通Gradle项目依赖缓存配置 引言 在大型项目或多模块项目的构建过程中,依赖管理是一个复杂且耗时的过程。Gradle作为一项先进的构建自动化工具,提供了依赖缓存功能来加速构建过程。通过合理配置,可以显著提高

2024软件学院创新项目实训(2)-爱代码爱编程

        在上一篇中,我详细描述了创新实训项目——基于InternLM的考研政治题库系统中所需要用的大模型,微调工具,部署工具等,对项目整体做了一个全面的总览,而这一篇文章我主要讨论一下数据集对大模型性能的影响。 引言         在机器学习的过程中,训练与模型评估是至关重要的环节,它们直接决定着模型性能的优劣和泛化能力的强弱。本文将围绕训练

【深度学习】第5章——卷积神经网络(cnn)-爱代码爱编程

一、卷积神经网络 1.定义 卷积神经网络(Convolutional Neural Network, CNN)是一种专门用于处理具有网格状拓扑结构数据的深度学习模型,特别适用于图像和视频处理。CNN 通过局部连接和权重共享机制,有效地减少了参数数量,增强了模型的泛化能力。 2.特点 (1)局部卷积:可以捕捉到图像中的局部特征而不受其位置的影响;

【深度学习】本地运行 graphrag + ollama-爱代码爱编程

随着人工智能不断革新各个行业,对高效且经济的解决方案的需求日益增长。GraphRAG Local Ollama 应运而生,它是一款强大的 Microsoft GraphRAG 改进版,集成了使用 Ollama 下载的本地模型。这种改进让您可以告别昂贵的 OpenAPI 模型,转而采用高效、经济的本地推理。在本博文中,我们将指导您设置和使用 GraphRAG

2024软件学院创新项目实训(9)-爱代码爱编程

 本篇文章在记录(6)的基础上,进一步对微调前的模型进行测评,观察微调后的模型是否有更好的表现性能。 执行下列指令对微调前的模型在相同的数据集上进行评估: python run.py --datasets ceval_gen --hf-path /hy-tmp/7B21/internlm2_chat_7b --tokenizer-path /hy-t

2024软件学院创新项目实训(6)-爱代码爱编程

引言 承接上一篇讲的部署大模型的方法,本篇文章讲一下如何实现自动化的测试。 思路 要实现对大模型进行自动化的测试,就需要自行写一个可以进行自动化测试的文件,我使用的是python来实现自动化的测试,其功能为自动读取包含测试数据的json文件,然后将其作为问题输入给大模型,再将大模型返回的答案、问题和正确答案一并导出到txt文本文件当中,最后再算其正确

idefics2-爱代码爱编程

我们生活在大模型 (LLM) 时代,几乎每周你都会听到一种新的语言模型问世。从谷歌的 Gemini 和 Gemma 模型到 Meta 最新的 Llama 3 和微软的微型 Phi-3 模型,这些行业巨头之间正在进行激烈的在线竞争,以争夺头把交椅。 在这一连串的活动中,最引人注目的是这些科技巨头愿意向开发者社区开放其中一些语言模型。 开放模型有什么

2024软件学院创新项目实训(1)-爱代码爱编程

在日常使用GPT的过程中,我们可以发现,对于一些时政,政治问题,GPT的回答总是不够准确,回答的内容总不在要点上,有时的回答甚至是错误的,因此借着创新项目实训大模型题目的契机,以及我们团队成员都有考研需求,我们团队决定开发一个基于InternLM的考研政治题库系统,项目的大体流程其他同学已经更新博客,作为大模型方面的知识小白,在本篇博客中希望对本项目中运用

2024软件学院创新项目实训-爱代码爱编程

项目任务要点: 统计3年考研政治真题、模拟题,约1000道。对于输入的问题准确无误给出答案和解析,解析不少于30字,错题率不超过10%(比未微调的模型表达更加简洁精炼、相关度高)。能够同时开设多个对话。有简洁明了的交互界面。 针对我们项目的需求,我们制作一个用于训练大模型的数据集,首先我进行了数据集相关知识的学习。引用自什么是数据集?-CS

2024软件学院创新项目实训-爱代码爱编程

量化技术背景:在自然语言处理领域,大型语言模型(LLM)在自然语言处理领域的应用越来越广泛。然而,随着模型规模的增大,计算和存储资源的需求也急剧增加。为了降低计算和存储开销,同时保持模型的性能,LLM大模型的量化技术应运而生。 由于我们的项目部署在云端,符合大模型量化的使用场景,因此我们要通过大模型量化来压缩模型的存储空间大小,优化存储空间、提高性能。

多模态大模型:技术原理与实战 微调技术介绍_多模态大模型微调-爱代码爱编程

1. 背景介绍 随着人工智能技术的不断发展,多模态大模型已经成为机器学习领域的热门研究方向之一。多模态大模型能够处理多种类型的数据,如图像、文本、音频等,具有强大的学习能力和广泛的应用价值。本文将从技术原理和实战微调技术两

​创新实训:模型预训练与微调-爱代码爱编程

模型api部署 首先创建yaml文件,将lora的checkpoint文件变为模型参数权重文件,供api调用 ### Note: DO NOT use quantized model or quantization_bit when merging lora adapters ### model model_name_or_path: /

2024软件学院创新项目实训-爱代码爱编程

整体方案设计与规划 我们要做的项目是基于InternLM的考研政治题库系统, 项目灵感来源于我们组内成员都有考研需求,我们希望在面对没有答案解析的题目时能够有一个软件基于现有的知识进行分析给出一个合理的解释,于是我们决定做一款基于大模型的知识题库系统,旨在为考研提供方便。 文科题目“内容多,变化少”的特性,能够完美利用大模型能够处理大量数据、并进行简单

基于深度学习的网络物理系统故障检测与诊断(第一部分,python)-爱代码爱编程

pip install attention pip install keras_tuner import os import re import itertools import numpy as np import scipy.signal import pandas as pd import seaborn as sns import scipy.io