代码编织梦想

【威胁情报挖掘-爱代码爱编程

【威胁情报挖掘-论文阅读】综述:高级持续性威胁智能分析技术 Advanced Persistent Threat intelligent profiling technique: A survey 写在最前面1

【论文阅读】masked autoencoders are scalable vision learners-爱代码爱编程

Masked Autoencoders Are Scalable Vision Learners 引用: He K, Chen X, Xie S, et al. Masked autoencoders are scalab

【论文阅读】通过组件对齐评估和改进 text-爱代码爱编程

Measuring and Improving Compositional Generalization in Text-to-SQL via Component Alignment NAACL 2022| CCF B

【论文阅读】diffused heads: diffusion models beat gans on talking-爱代码爱编程

Diffused Heads: 扩散模型在说话人脸生成方面击败GANs paper:[2301.03396] Diffused Heads: Diffusion Models Beat GANs on Talking-Face Generation (arxiv.org) code:MStypulkowski/diffused-heads: Offic

《论文阅读》带边界调整的联合约束学习用于情感原因对提取 acl 2023-爱代码爱编程

《论文阅读》带边界调整的联合约束学习用于情感原因对提取 前言 简介 Clause Enco

【论文阅读】deep learning workload scheduling in gpu datacenters:taxonomy, challenges and vision-爱代码爱编程

【论文阅读笔记】Deep Learning Workload Scheduling in GPU Datacenters:Taxonomy, Challenges and Vision 论文链接 GPU

《论文阅读》端到端情感原因对提取的有效子句间建模-爱代码爱编程

《论文阅读》端到端情感原因对提取的有效子句间建模 前言 简介 模型架构 Doc

【论文阅读】(dall-爱代码爱编程

(DALL-E)Zero-Shot Text-to-Image Generation 引用: Ramesh A, Pavlov M, Goh G, et al. Zero-shot text-to-image genera

【论文阅读】energy efficient real-爱代码爱编程

Energy Efficient Real-time Task Scheduling on CPU-GPU Hybrid Clusters 出处:2017IEEE Xplore 基于CPU-GPU混合集群的高效实时任务调

【论文笔记】a survey on 3d gaussian splatting-爱代码爱编程

原文链接:https://arxiv.org/abs/2401.03890 1. 引言 NeRF在计算效率和可控性上具有局限性,这导致了3D高斯溅射(3D GS)的出现,重新定义了场景表达和渲染。 3D GS通过引入新

3d高斯溅射:面向三维场景的实时渲染技术-爱代码爱编程

1. 前言 高斯溅射技术【1】一经推出,立刻引起学术界和工业界的广泛关注。相比传统的隐式神经散射场渲染技术,高斯溅射依托椭球空间,显性地表示多目图像的三维空间关系,其计算效率和综合性能均有较大的提升,且更容易理解。可以预见,未来2年针对高斯溅射的应用研究将会迎来爆炸式发展。通过本篇博文,我和大家来一起了解高斯溅射技术,希望对有需要的同学提供一点帮助。

【阅读论文】when large language models meet vector databases: a survey-爱代码爱编程

摘要 本调查探讨了大型语言模型(LLM)和向量数据库(VecDB)之间的协同潜力,这是一个新兴但迅速发展的研究领域。随着LLM的广泛应用,出现了许多挑战,包括产生虚构内容、知识过时、商业应用成本高昂和内存问题。VecDB作

a survey on knowledge distillation of large language models(大语言模型知识蒸馏综述)-爱代码爱编程

目录 在大型语言模型 (LLM) 时代,知识蒸馏 (KD) 成为一种关键方法,用于将先进功能从领先的专有 LLM(例如 GPT-4)转移到开源模型(例如 LLaMA 和 Mistral)。此外,随着开源LLM

【论文阅读】smartbert: a promotion of dynamic early exiting mechanism for accelerating bert inference-爱代码爱编程

2022-2023年论文系列之模型轻量化和推理加速 前言 通过Connected Papers搜索引用PaBEE/DeeBERT/FastBERT的最新工作,涵盖: 模型推理加速边缘设备应用生成模型BERT模型知识蒸馏

chinasys 2023 整理-爱代码爱编程

ChinaSys 2023 会议视频可能后续会提交到 SIGOPS-CNSys,这里只整理了其中部分会议报告,其他的很多论文和工作都不太了解,听懂的比较少,这里就不写了。 主题演讲 开源芯片:挑战、机遇与实践 包云岗(

cxl over ethernet: a novel fpga-爱代码爱编程

FCCM 2023 Paper CXL论文阅读汇总 问题 在数据中心中,内存资源通常存在低利用率和缺乏动态性的问题。内存分离通过解耦CPU和内存来解决这些问题,目前的方法包括基于RDMA或Compute Express Link(CXL)等互连协议。然而,基于RDMA的方法涉及代码重构和更高的延迟。基于CXL的方法支持本机内存语义,克服了RDMA的缺点

论文阅读——advancing plain vision transformer towards remote sensing foundation model-爱代码爱编程

论文:Advancing Plain Vision Transformer Towards Remote Sensing Foundation Model MAE方式预训练,微调 1、MAE预训练用了两个骨干网:ViT  and ViTAE ViTAE将诸如来自卷积的局部性之类的感应偏置与全自注意层结合在一起,即,将并行卷积分支(PCM)与MHS

论文精读-爱代码爱编程

Abstract The dominant sequence transduction models are based on complex recurrent or convolutional neural networks that include an encoder and a decoder. The best performing m

【模型解析和使用教程】2023新论文:ram++多模态图片识别,recognize anything model plus 模型解析和使用_recognize anything model讲解-爱代码爱编程

-------------------------------------------------不可转载----------------------------------------- Citation: 图片均来源于

cache in hand: expander-爱代码爱编程

HotStorage 2023 Paper CXL论文阅读笔记整理 问题 将计算快速链路(CXL)与SSD集成,可以实现对大内存的可扩展访问,但速度比DRAM慢。例如,PRAM比DRAM[7]慢7倍,新的闪存技术延迟慢30倍[2]。为了解决这一问题,工业概念证明(PoC)采用SSD侧DRAM缓冲区作为内部缓存,这些缓冲区有效地处理了写入延迟问题,但很难