代码编织梦想

pytorch-爱代码爱编程

Pytorch_BiLSTM_CRF_NER初中数学知识点抽取 1. BiLSTM-CRF模型简介1.1 BiLSTM1.2 CRF 2.模型搭建2.1 BiLSTM模型结构2.2模型图示2.3 模型训

【自然语言处理】不同策略的主题建模方法比较-爱代码爱编程

不同策略的主题建模方法比较 本文将介绍利用 LSA、pLSA、LDA、NMF、BERTopic、Top2Vec 这六种策略进行主题建模之间的比较。 1.简介 在自然语言处理(NLP)中,主题建模一词

nlp(自然语言处理)学习记录-爱代码爱编程

这几年一直都在研究CV领域,后面想抽点时间学习一下NLP方面的东西【纯个人兴趣爱好】,本人从来没有接触过NLP方面的学习,也不知道怎么学习,因此只能东一榔头西一棒槌的学了,希望可以快速系统的学起来~会专门建立一个专栏用来学NLP,后续会不定时的更新分享,如果有这方面的大佬也可以指点一下。后续的学习计划会希望将NLP和我所研究的CV内容进行结合(因此我在学习

emlp2021 | google大模型微调经典论文prompt tuning-爱代码爱编程

一、概述 title:The Power of Scale for Parameter-Efficient Prompt Tuning 论文地址:https://arxiv.org/abs/2104.08691 代码:GitHub - google-research/prompt-tuning: Original Implementation of

windows下搭建paddlenlp 语义检索系统-爱代码爱编程

windos下搭建paddlenlp 语义检索系统 之前搭建paddleocr的时候,创建了paddle的虚拟环境,顺便也装了paddlenlp的库,就想着直接用这个,然后语义检索模型本身没有问题了,可以正常推理了。但在搭

chatglm-6b之sse通信(server-sent events)-爱代码爱编程

写这篇博客还是很激动开心的,因为是我经过两周的时间,查阅各个地方的资料,经过不断的代码修改,不断的上传到有显卡的服务器运行才得出的可行的接口调用解决方案,在这里记录并分享一下。 研究历程(只是感受,这段可以跳过,

acl2022 | 大模型微调哪家好?小孩子才做选择,成年人当然是全都要-爱代码爱编程

一、概述 title:UNIPELT: A Unified Framework for Parameter-Efficient Language Model Tuning 论文地址:https://arxiv.org/abs/2110.07577 代码:GitHub - morningmoni/UniPELT: Code for paper "Uni

生成式人工智能(generative ai)对公共部门的影响-爱代码爱编程

作者:Leanne Link, Dave Erickson 在过去的几个月里,我们看到了对生成式人工智能 (generative artificial intelligence - GAI) 的极大兴趣。 人们正在试用 ChatGPT 等 GAI 应用程序,企业正在思考它对客户体验、会计、营销等方面的影响。 鉴于技术发展的速度有多快,现在很难判断什么

gpt学习笔记-爱代码爱编程

文章目录 一、简述?二、发展历程 1.DL2.AIGC总结 前言 提示:这里可以添加本文要记录的大概内容: 例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。 提示:以下是本篇文章正文内容,下面案例可供参考 一、pandas是什么? 示例:pa

llms之vicuna:《vicuna: an open-source chatbot impressing gpt-4 with 90%* chatgpt quality》翻译与解读-爱代码爱编程

LLMs之Vicuna:《Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality》翻译与解读 导读:作者提出了一个开源的聊天机器人Vicuna-13B。它是通过训练从ShareGPT收集的用户共享对话,然后在LLaMA基础模型上进行调整而产生的。根据初步

论文笔记--extractive summarization as text matching-爱代码爱编程

论文笔记--Extractive Summarization as Text Matching 1. 文章简介2. 文章概括3 文章重点技术3.1 Sentence-Level(SEN) VS Summary-

论文笔记--cross-lingual language model pretraining-爱代码爱编程

论文笔记--Cross-lingual Language Model Pretraining 1. 文章简介2. 文章导读2.1 概括2.2 文章重点技术2.2.1 Shared sub-word vocabu

任务导向的对话系统(task-oriented dialogue system)论文常见专用名词-爱代码爱编程

task-oriented dialogue system:面向任务的对话系统 pipeline designs:将对话系统中的不同组件和任务按照特定的顺序和流程进行组织和设计的方法 sequence to sequence model:将输入序列映射到输出序列,相当于一个端到端的模型和训练 reinforcement learning:让智能体(

nlp之llms:《zeno chatbot report》的翻译与解读—cmu副教授详测七款个类chatgpt大模型(gpt-2、llama、alpaca、vicuna、mpt-chat、coher-爱代码爱编程

NLP之LLMs:《Zeno Chatbot Report》的翻译与解读—CMU副教授详测七款个类ChatGPT大模型(GPT-2、LLaMa、Alpaca、Vicuna、MPT-Chat、Cohere Command和ChatGPT) 目录 《Zeno Chatbot Report》的翻译与解读—CMU副教授详细测评七款个类ChatGPT大模型

安装openai环境 步骤及问题解决-爱代码爱编程

1 按照官网安装 官网介绍很简单,使用pip即可安装成功 pip install openai 但是,按照官方demo调用时, import openai openai.api_key ="your_api_k

python3安装pyhanlp最佳解决方法-爱代码爱编程

1、Hanlp介绍 Hanlp是一款中文自然语言处理工具。Hanlp支持多种自然语言处理任务,包括分词、词性标注、命名实体识别、依存句法分析、情感分析、文本分类等。其主要优点包括: 高准确率:Hanlp采用了CRF模型分词,目前非深度学习方法中最佳的分词效果,対歧义词和未知词的识别效果更优,有效提高了分词的准确率和速度。广泛覆盖:Hanlp支持多种自然

谷歌bard-爱代码爱编程

2023年4月4日,来自加州大学圣迭戈分校、中山大学和微软亚研的研究者提出了Baize,该模型是让ChatGPT 自我对话,批量生成高质量多轮对话数据集,利用该数据集对LLaMA进行微调得到的(目前版本还没有RLHF) 关于Baize的详细介绍可以参考:https://mp.weixin.qq.com/s/zxElGfclNbBwTuDG4Qrxnw

chatgpt“保姆级教程”——手把手教你1分钟快速制作思维导图(markmap/xmind+markdown)-爱代码爱编程

目录 前言使用ChatGPT生成markdown格式主题Markmap + Markdown使用Markmap生成思维导图 Xmind + Markdown使用Xmind生成思维导图 建议其它资料下

block-recurrent transformer-爱代码爱编程

Block-Recurrent Transformer 论文地址:https://arxiv.org/abs/2203.07852v1 github:https://github.com/lucidrains/block-

elasticsearch:在 elastic 中访问机器学习模型-爱代码爱编程

作者:Bernhard Suhm, Josh Devins Elastic 支持你需要的机器学习模型 Elastic® 让你可以应用适合你的用例和 ML 专业水平的机器学习 (ML)。 你有多种选择: 利用内置的模型。 除了我们的可观察性和安全解决方案中针对特定安全威胁和系统问题类型的模型外,你还可以开箱即用地使用我们专有的 Elastic