1、Qwen3-Embedding介绍
硅基流动:https://cloud.siliconflow.cn/me/models
魔搭社区:https://www.modelscope.cn/search?search=Qwen3-Embedding
HuggingFace:https://huggingface.co/Qwen/collections
2、Ollama安装下载
Ollama官方地址:https://ollama.com/
我的Ollama安装路径:E:\S_Software\Ollama
① 手动创建Ollama安装目录
我手动创建的文件夹目录为:E:\S_Software\Ollama
② 运行安装命令
创建好之后,把Ollama的安装包exe放在这个目录下,接着再到这个目录下运行cmd命令:
OllamaSetup.exe /DIR=E:\S_Software\OllamaDIR后面的路径是之前手动创建的文件夹路径。
输入命令后直接回车,Ollama就会进入安装程序,这个时候可以看到安装的路径变成了我们刚刚创建的文件夹。
③ 安装完毕
安装好了之后,在控制台输入ollama,可以正常显示ollama版本则表示安装成功。
2.1、修改模型下载目录
① 创建models目录&修改默认模型下载目录
在之前的安装目录下创建一个models文件夹:E:\S_Software\Ollama\models。
打开ollama软件,点击settings,找到Model location,把路径修改成上面创建好的这个。
② 模型转移
在命令行输入ollama list,如果发现有模型,则进行这一步操作。
先退出ollama,接着进入C盘-->用户-->你自己的电脑名称-->.ollama-->剪切整个models下的内容到刚刚上面新建的存储目录下,之后删掉C盘的这个models文件夹。
如果之前修改过存储目录,那就自己找到再去复制。
这个时候就是正常的了。
2.2、安装nodejs
如果想用nodejs安装n8n,可以安装nodejs,推荐安装v22以上的版本,这里我安装的是v24.11.1。
nodejs官网:https://nodejs.cn/download/
一路默认安装就行,有其他想法的自行AI搜索。 使用如下命令下载即可:
npm install -g n8n # -g表示全局安装,可在任意目录运行,整个过程大概需要5-10分钟- Windows报错
gyp ERR! find VS:需安装Visual Studio的C++桌面开发工具(勾选Windows SDK)。 - Linux/macOS报错
distutils缺失:安装Python 3.x并确保distutils可用。
解决gyp ERR! find VS报错
1、报错内容
npm error gyp ERR! stack Error: Could not find any Visual Studio installation to use原因是:n8n 依赖的 sqlite3 模块需要本地编译,但你的系统缺少 Visual Studio 的 C++ 编译工具链。而Visual Studio几乎是必备工具,因为支持:
- C++ 开发工具链
- .NET 框架
- Windows SDK 和系统库
2、解决方案
下载对应的工具:https://visualstudio.microsoft.com/zh-hans/visual-cpp-build-tools/
下载2022版本,最新版2026的VS在npm没兼容无法识别
旧版下载链接:https://visualstudio.microsoft.com/zh-hans/vs/older-downloads/
实在下载不了就直接找我给安装包
① 选择 “C++ 桌面开发”,勾选windows sdk(我的是win11,勾选的是win11的sdk)注意要是2022
② 自定义安装目录
安装需要十几个G的空间,建议更改盘符,另外一个windows11的sdk也勾上,win10那个也勾上,我在这踩了好多坑,我也不知道为什么我win11的电脑装win11还是报错找不到windows sdk,建议还是用docker安装,一个命令就结束。
这是后面我补充安装好的配置。
等待安装完毕即可,安装完成之后重启电脑。
完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
3、重新安装n8n
# 1、卸载全局安装的 n8n 包npm uninstall -g n8n# 2、强制清理 npm 缓存文件npm cache clean --force# 3、验证缓存完整性并优化空间npm cache verify# 4、全局安装 n8n 包npm install -g n8n# 5、查看全局安装的 n8n 版本和依赖npm list -g n8n4、启动n8n
配置好环境变量后,在命令行中输入n8n即可启动。
浏览器输入http://localhost:5678/setup即可访问。
3、Qwen3-Embedding本地模型下载及配置
① 模型下载
方式一:在HuggingFace里面下载下载量化之后的GGUF格式的模型:https://huggingface.co/Qwen/Qwen3-Embedding-4B-GGUF/tree/main
如果使用这种方法下载的模型,需要使用ollama再创建嵌入模型,推荐使用方式二。
Ollama创建嵌入模型
- 创建最简Modefile```plaintext
echo FROM 上一步你下载的模型路径 > Modelfile# 示列echo FROM E:\Ollama\Qwen3-Embedding-4B-Q4_K_M.gguf > Modelfile - 创建模型```plaintext
ollama create qwen3_embedding -f Modelfile
方式二:使用Ollama命令直接下载模型
ollama run hf.co/Qwen/Qwen3-Embedding-4B-GGUF:Q4_K_M② 测试嵌入模型
**方式一的测试方法:**命令行输入(注意windows需要双引号裹住json,所以需要转义)
curl http://localhost:11434/api/embed -d "{\"model\":\"qwen3_embedding\",\"input\":\"Hello\"}"model的名称要看ollama list输出的name,需要一致,方式一只做展示,推荐方式二。
**方式二的测试方法:**在命令行中输入:
ollama run hf.co/Qwen/Qwen3-Embedding-4B-GGUF:Q4_K_M "这是一个测试文本"效果就是会输出一堆向量化的内容。
方式二用curl命令测试:
curl http://localhost:11434/api/embed -d "{\"model\": \"hf.co/Qwen/Qwen3-Embedding-4B-GGUF:Q4_K_M\",\"input\": \"Hello World\"}"效果如下。
4、n8n创建RAG工作流
1、选择触发方式
这里暂时选择的是Trigger manually。
2、添加步骤,搜索file
找到Read/Write Files from Disk,选择Read即可(因为是本地知识库,所以选的这个,还有其他方式)。
填入的E:\\F_File\\RAG\\**,表示读取RAG文件夹下的所有文件。
点击测试,提示成功则表示通过了。
也可以直接在这一个步骤里面运行,在右侧可以看到输出,这里可以看到直接输出了我在这个文件夹下面的两个文件,一个md格式,一个pdf格式。
3、添加循环组件Loop over Items
对应的中文文档:https://docs.n8ncn.io/integrations/builtin/core-nodes/n8n-nodes-base.splitinbatches/
循环组件loop,这个步骤是为了一直读取文件夹下的文件,循环读取。
Batch Size表示输入每次调用要返回的项目数。
执行当前整个业务流。
4、加入向量数据库
在loop的节点中加入
Vector,这里我们作为学习演示,选择Simple Vector Store即可。选择第二个
Add documents from vector store,将文档转换为向量。Memory key这里直接使用的是默认的,也可以自己进行修改添加,后续将会使用到。发现有红色感叹号,是因为还需要配置两个组件,一个是Embedding模型配置,一个是Document。
5、配置文件解析模型&语义分割
1、Embedding模型配置
我们选择的是本地Ollama模型部署。
配置Ollama默认的是localhost,如果localhost提示连接不上,就修改成127.0.0.1。
选择对应的Embedding模型。
2、Document对文件进行分块
选择Default Data Loader。
Type of Data可以选择JSON或者Binary(二进制),这里我们选择二进制。
Mode选择默认的
Load All Input Data。Data Format选择自己的文件类型,或者选择自动解析。
Text Splitting选择自定义
Custom。
这个时候工作流如下图所示,需要对文本分割进行处理了。
3、选择语义分割
6、创建检索知识库工作流
当前完整工作流如下图所示。
1、当前工作流运行成功显示
2、创建一个新的工作流
选择On chat message。
3、创建一个AI Agent节点
AI Agent下方的Chat Mode接入一个对话大模型,这里我选择的是Deepseek,需要有API Key,使用硅基流动或者Deepseek官方API生成ApiKey填入即可。 第一次建立需要点击Create new credential。
接着在AI Agent下方的Tool接入Answer questions with vector store(使用向量存储回答问题),在描述里面填入:当前工具是用来检索向量数据的。
到这一步创建完,工作流如图所示。
4、接入向量数据库、向量模型、对话模型
接上一步骤,在Answer questions with vector store(使用向量存储回答问题)下面的Vector Store接入向量数据库:Simple Vector Store。
注意:和创建向量数据库那个时候的key要匹配一致。
在Model节点中继续接入Deepseek Chat model。
最后一步,在Simple Vector Store下面的Embedding模型中接入我们的本地向量模型,依旧和5-1步骤一样,最终工作流如下所示:
7、测试知识库的准确性
点击open chat进行对话,输入问题:找一下ios禁止系统更新的网址。 发现可以很精准的回答问题,并且没有任何的添油加醋,完全就是我笔记里面的内容,只是进行了一个简单的排版。
而在deepseek的官方对话里面问的是找不到我笔记里面的这个网址的。
使用另外一个问题,发现分段式的内容不能非常精准的找到,但进一步进行提示后,还是可以准确的回答。 这就是后续可以优化的点。
8、知识点补充 - Ollama 常用命令大全
1、下载/运行模型:ollama run <模型名字>
2、清除模型上下文:/clear
3、退出对话 / 关闭模型:/bye
4、查看模型运行速度&token数细节:
ollama run <模型名字> --verbose5、查看你有什么模型:ollama list
6、删除模型:ollama rm <模型名字>
7、查看模型的详细信息:ollama show <模型名字>
8、启动Ollama服务器:ollama serve
9、创建模型文件(用于自定义模型):
ollama create <自定义的模型名字> -f Modelfile最后
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。
我整理出这套 AI 大模型突围资料包:
- ✅AI大模型学习路线图
- ✅Agent行业报告
- ✅100集大模型视频教程
- ✅大模型书籍PDF
- ✅DeepSeek教程
- ✅AI产品经理入门资料
完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
为什么说现在普通人就业/升职加薪的首选是AI大模型?
人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。
智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。
AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。
资料包有什么?
①从入门到精通的全套视频教程⑤⑥
包含提示词工程、RAG、Agent等技术点
② AI大模型学习路线图(还有视频解说)
全过程AI大模型学习路线
③学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
④各大厂大模型面试题目详解
⑤ 这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势,构建起"前沿课程+智能实训+精准就业"的高效培养体系。
课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**