- 博客(350)
- 收藏
- 关注
原创 【自然语言处理与大模型】大模型(LLM)基础知识④
(1)微调主要用来干什么?(2)为什么不选择直接使用微调来实现专业领域问答系统?(3)实际应用中如何实现专业领域问答呢?(4)大模型应用落地的三个方向是?(5)哪些模型参数来控制对话生成的自由度和多样性?(6)RAG的优点有哪些?(7)RAG的缺点有哪些?(8)RAG的核心优势与核心痛点是什么?(9)什么是模态?什么是多模态?(10)多模态有哪些应用场景?
2025-05-17 18:48:26
1026
原创 【自然语言处理与大模型】Windows安装RAGFlow并接入本地Ollama模型
本文介绍了如何安装RAGFlow,并展示了简单的RAG如何创建并使用。
2025-05-17 00:42:32
1344
原创 【自然语言处理与大模型】Windows安装Dify并接入本地Ollama模型
本文还详细介绍了如何在本地通过Docker部署Dify,并配置Ollama模型以快速启动一个聊天助手。
2025-05-16 01:24:19
948
原创 【自然语言处理与大模型】LlamaIndex的词嵌入模型和向量数据库
嵌入模型(Embedding Model)的本质在于将高维的、稀疏的数据转换为低维的、密集的向量表示,使得这些向量能够在数学空间中表达原始数据的语义信息。降维表示:嵌入模型能够将文本、图像或其它类型的数据映射到一个连续的向量空间中,这个过程通常伴随着维度的降低。例如,一个包含大量词汇的文本可以通过嵌入模型被表示为固定长度的向量。捕捉语义关系:在生成的向量空间中,相似或相关的概念在空间中的距离较近,而不相关或相异的概念则距离较远。这意味着嵌入模型不仅能捕捉单个词语或数据点的含义,还能反映它们之间的语义关系。
2025-05-06 23:57:16
705
2
原创 【学习心得】PyCharm远程连接OpenBayes贝式算力云平台
本文详细记录一下如何使用PyCharm远程连接OpenBayes贝式算力云平台,并使用安装llamafactory
2025-05-06 04:23:09
448
原创 【自然语言处理与大模型】使用Xtuner进行模型合并与导出
轻松地将在 Xtuner 中训练得到的模型转换为可以在 Hugging Face 平台上使用的格式,方便后续的应用
2025-05-03 23:57:47
614
原创 【学习心得】魔塔(ModelScope)和抱抱脸(Hugging Face)下载模型小细节
介绍常用的两种在模型社区如魔塔(ModelScope)和抱抱脸(Hugging Face),下载预训练模型的方法,然后说明各种方法里面的小细节。
2025-05-03 11:56:50
952
原创 【自然语言处理与大模型】使用Xtuner进行QLoRA微调实操
手把手演示如何使用Xtuner对模型进行微调训练,包括数据准备、训练命令执行及训练过程中的监控技巧。最后,在完成微调之后,本文还将介绍如何对微调结果进行简单对话测试。
2025-05-02 23:57:50
1513
2
原创 【学习心得】MongoDB报错“Error: couldn‘t connect to server 127.0.0.1:27017, connection attempt failed: ...”
MongoDB报错“Error: couldn't connect to server 127.0.0.1:27017, connection attempt failed: ...”
2025-05-02 14:36:18
416
1
原创 【自然语言处理与大模型】如何获取特定领域的微调数据集?
在少量原始对话样本的基础上,通过调用大模型 API(如 GLM 系列) 自动生成大量风格一致、语义合理的对话数据,用于扩充训练集或提升下游任务表现。
2025-04-30 23:58:29
583
原创 【自然语言处理与大模型】大模型意图识别实操
本文先介绍一下大模型意图识别是什么?如何实现?然后通过一个具体的实战案例,详细演示如何运用大模型完成意图识别任务。最后,对大模型在该任务中所发挥的核心作用进行总结归纳。
2025-04-30 15:19:05
2342
原创 【自然语言处理与大模型】LangChain大模型应用框架入门②
本文介绍LangChain的另一个重要组件——提示词模板(Prompt Template)组件,其中的两个最常用的PromptTemplate和ChatPromptTemplate
2025-04-29 23:48:58
600
原创 【自然语言处理与大模型】用OpenCompass评估自己微调的模型
用OpenCompass评估自己微调的模型。OpenCompass评估入门有哪些坑。
2025-04-27 05:20:18
1287
1
原创 【学习心得】最新!使用PyCharm 2025.1 远程开发教程,附带端口转发教程!
最新!使用PyCharm 2025.1 远程开发教程,附带端口转发教程!
2025-04-27 00:43:37
1872
1
原创 【自然语言处理与大模型】大模型参数规模与部署配置调查2025第一季度
大模型参数规模与部署配置调查2025第一季度。统计可知参数规模在32B到78B之间的模型是目前的主流。
2025-04-23 23:08:43
778
原创 【自然语言处理与大模型】如何知道自己部署的模型的最大并行访问数呢?
如何知道自己部署的模型的最大并行访问数呢?预估模型推理时显存占用,计算剩余显存量支持的最大并行访问数。
2025-04-22 11:26:59
1506
原创 【自然语言处理与大模型】大模型(LLM)基础知识③
大模型的“7B”是什么意思?模型后面标的“instruct”是什么意思?大模型量化什么意思?量化等级是什么意思?量化方法是什么意思?啥是Alpaca数据集?BLEU评估指标是什么?怎么算的?ROUGE评估指标是什么?怎么算的?什么是QLoRA?为什么要做分布式微调训练?怎么实现大模型的分布式微调的?原理策略?
2025-04-21 02:06:09
637
原创 【自然语言处理与大模型】个人使用LLaMA Factory微调的记录
个人使用LLaMA Factory微调的记录:魔塔社区免费服务器如何使用webui微调?llamafactory工程文件目录里面都有是些什么?webui里面的微调参数的都是什么意思? 如何直接使用webchat来和指定模型对话?五、使用cli train进行黑窗口微调训练的时候如何配置训练参数?
2025-04-21 01:51:26
1149
原创 【自然语言处理与大模型】Linux环境下Ollama下载太慢了该怎么处理?
Linux环境下Ollama下载太慢了该怎么处理?答案是在下载配置文件中更换下载源。
2025-04-20 23:18:57
649
原创 【学习心得】让公司或学校的服务器也能像AutoDL等算力平台一样使用jupyter lab访问
让公司或学校的服务器也能像AutoDL等算力平台一样使用jupyter lab访问,这个过程涉及到几个关键步骤,比如安装 Jupyter、配置安全访问、开放必要的端口以及确保可以通过互联网访问等等。
2024-12-19 02:38:28
503
“阴阳怪气”语气风格DPO数据集
2025-05-18
手语识别-深度学习-自建ASL数据集-模型训练(分卷压缩第一卷)
2024-04-01
手语识别-深度学习-自建ASL数据集-模型训练(分卷压缩第二卷)
2024-04-01
手语识别-深度学习-自建ASL数据集-模型训练(分卷压缩第三卷/最后一卷)
2024-04-01
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人