文山壮族苗族自治州网站建设_网站建设公司_Redis_seo优化
2025/12/23 18:40:44 网站建设 项目流程

随着大模型和 AI 智能体技术的快速发展,向量数据库作为支撑技术栈的重要基础设施,正在成为开发者必须掌握的工具。

在上下文工程(Context Engineering)的实践中,向量数据库扮演着关键角色。上下文工程的核心在于为大模型提供精准、相关的上下文信息,以提升生成质量和准确性。向量数据库通过高效的语义检索能力,能够从海量知识库中快速定位与用户查询最相关的文档片段,这正是上下文工程中"上下文获取"环节的核心技术支撑。无论是 RAG 应用中的检索增强,还是智能体开发中的知识库查询,向量数据库都是连接非结构化数据与大模型之间的重要桥梁,让上下文工程从理论走向实践。

本文盘点了当前主流的向量数据库技术,从开源到托管服务,从轻量级库到企业级解决方案,帮助开发者在实际项目中做出合适的选择,为上下文工程的落地提供技术保障。

理解向量和 Embedding

在深入探讨向量数据库之前,先理解几个核心概念。

什么是向量?

向量(Vector)是一组有序的数值,可以理解为高维空间中的一个点。例如,一个 128 维的向量可以表示为:

[0.23, -0.45, 0.67, ..., 0.12]

在数学上,向量可以表示方向、大小,也可以表示数据在空间中的位置。在机器学习和大模型应用中,向量通常用来表示数据的特征。

什么是 Embedding?

Embedding(嵌入向量)是将离散的、非结构化的数据(如文本、图像、音频)转换为连续的数值向量的过程。这些向量能够捕捉原始数据的语义信息,使得语义相似的内容在向量空间中距离更近。

举个例子,通过 Embedding 模型,可以将以下文本转换为向量:

  • “我喜欢编程” → [0.1, 0.3, -0.2, …, 0.5]
  • “我爱写代码” → [0.12, 0.28, -0.18, …, 0.48]
  • “今天天气很好” → [-0.3, 0.1, 0.4, …, -0.2]

虽然"我喜欢编程"和"我爱写代码"用词不同,但语义相似,它们的向量在空间中的距离会比较近。而"今天天气很好"与编程无关,向量距离会较远。

Embedding 的生成过程

在实际应用中,Embedding 通常通过预训练的模型生成:

文本 Embedding

  • 使用模型如 OpenAI 的 text-embedding-ada-002、Sentence-BERT、BGE 等
  • 将文本输入模型,输出固定维度的向量(如 768 维、1024 维)

图像 Embedding

  • 使用视觉模型如 CLIP、ResNet 等
  • 将图像编码为向量,捕捉视觉特征

多模态 Embedding

  • 使用 CLIP 等模型,可以将文本和图像映射到同一个向量空间
  • 实现跨模态的相似性搜索
向量相似性计算

向量之间的相似性通常通过距离度量来计算,常见的方法有:

  • 余弦相似度(Cosine Similarity):衡量向量之间的夹角,范围 [-1, 1],值越大越相似
  • 欧氏距离(Euclidean Distance):衡量向量之间的直线距离,值越小越相似
  • 点积(Dot Product):向量的内积,值越大越相似
为什么需要向量数据库?

理解了向量和 Embedding 的概念后,就能明白为什么需要专门的向量数据库了。

在传统的关系型数据库中,我们通过精确匹配或模糊查询来检索数据。比如查找包含"Python"关键词的文档,或者查找 ID 为 123 的记录。但在大模型和智能体应用中,经常需要处理的是语义相似性搜索:给定一个查询向量,找到数据库中与它最相似的数据点。

举个例子,在 RAG(检索增强生成)应用中:

  1. 用户提问:“如何优化 Python 代码性能?”
  2. 将问题转换为 Embedding 向量
  3. 在向量数据库中搜索与这个向量最相似的文档片段
  4. 将找到的文档片段作为上下文,输入给大模型生成答案

这种场景下,传统数据库就显得力不从心了。传统关系型数据库本身不支持向量数据类型和向量相似性计算,如果要在应用层实现向量搜索,需要进行暴力搜索(线性扫描):假设有 100 万条文档,每条文档的向量是 768 维,要找到最相似的 10 条,需要:

  • 在应用层计算查询向量与所有 100 万条向量的相似度(100 万次向量计算)
  • 对所有结果排序,找出 top-10

这个过程时间复杂度为 O(n),耗时且低效。向量数据库通过专门的近似最近邻(ANN)索引算法(如 HNSW、IVF),可以将搜索复杂度降低到 O(log n) 或更低,对于大规模数据,搜索时间可以从秒级降低到毫秒级,同时保持较高的检索精度。

向量数据库的核心优势体现在:

  • 🚀高性能检索:针对向量相似性搜索优化,查询速度远超传统数据库
  • 📊大规模支持:能够处理百万、千万甚至亿级向量数据
  • 🔍语义理解:支持基于语义的相似性搜索,而非简单的关键词匹配
  • 🎯多模态支持:可以同时处理文本、图像、音频等多种类型的向量数据

主流向量数据库和搜索库盘点

说明:本文盘点的工具包括完整的向量数据库(如 Milvus、Qdrant、Pinecone)和向量搜索库(如 FAISS、Annoy)。向量数据库提供完整的存储、查询和管理功能,而搜索库主要提供高效的向量索引和搜索算法,需要配合其他存储系统使用。

1. Milvus:开源分布式向量数据库的标杆

Milvus 是一个高性能向量数据库,专为大规模应用而设计。它通过高效组织和搜索大量非结构化数据(如文本、图像和多模态信息)来支持 AI 应用。Milvus 由 Zilliz 公司开源并维护,是 LF AI & Data Foundation 下的开源项目,采用 Apache 2.0 许可证。

Milvus 使用 Go 和 C++ 编写,实现了 CPU/GPU 硬件加速,以获得一流的向量搜索性能。得益于其完全分布式和 K8s 原生架构,Milvus 可以水平扩展,在数十亿向量上处理数万次搜索查询,并通过实时流式更新保持数据新鲜。Milvus 还支持 Standalone 模式用于单机部署,以及 Milvus Lite 轻量级版本,可通过 pip install 快速开始。

  • 项目地址:https://github.com/milvus-io/milvus
  • 文档:https://milvus.io/docs/
  • 快速开始:https://milvus.io/docs/zh/quickstart.md

核心特性

  • 高性能与高可用性:分布式架构分离计算和存储,支持独立扩展,K8s 原生架构,支持快速故障恢复和副本机制
  • 丰富的索引类型:支持 HNSW、IVF、FLAT、SCANN、DiskANN 等主流索引类型,支持 CPU/GPU 硬件加速和 GPU 索引(如 CAGRA)
  • 多租户支持:支持数据库、集合、分区级别的隔离,单个集群可处理数百到数百万租户
  • 热/冷存储:支持热数据存储在内存/SSD,冷数据存储在低成本存储,优化成本与性能
  • 混合搜索:支持密集向量语义搜索、BM25 全文搜索和稀疏嵌入(SPLADE、BGE-M3),可在同一集合中存储稀疏和密集向量
  • 企业级安全:支持用户认证、TLS 加密和基于角色的访问控制(RBAC)
  • 灵活部署:支持 Standalone 模式、分布式集群部署和 Milvus Lite(轻量级版本)

适用场景

  • 大规模向量检索应用(RAG、推荐系统、文本/图像搜索)
  • 需要自建基础设施、多租户隔离或企业级安全的应用
  • 需要混合搜索(语义搜索 + 全文搜索)的场景

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

2. FAISS:Meta 开源的高性能搜索库

FAISS(Facebook AI Similarity Search)是 Meta 的 Fundamental AI Research 组开发的开源库,专注于高效的相似性搜索和密集向量聚类。严格来说,FAISS 不是向量数据库,而是一个向量相似性搜索库。它不提供持久化存储、数据管理等数据库功能,主要提供高效的向量索引和搜索算法,适合作为库集成到应用中,或与其他存储系统配合使用。

FAISS 用 C++ 编写,提供完整的 Python/numpy 包装器,可以搜索任意大小的向量集合,包括可能无法完全放入 RAM 的大规模数据集。FAISS 还包含评估和参数调优的支持代码,帮助开发者优化搜索性能。

  • 项目地址:https://github.com/facebookresearch/faiss
  • 文档:https://github.com/facebookresearch/faiss/wiki
  • 快速开始:https://github.com/facebookresearch/faiss/wiki/Getting-started

核心特性

  • 多种距离度量:支持 L2(欧氏)距离、点积和余弦相似度
  • 丰富的索引算法:支持 HNSW、NSG、IVF 等索引方法,以及基于量化的压缩方法,可扩展到数十亿向量
  • GPU 加速:支持 CPU 和 GPU 加速,GPU 索引可作为 CPU 索引的直接替代品,支持单 GPU 和多 GPU 使用
  • 大规模支持:能够处理数十亿级别的向量,包括无法完全放入 RAM 的数据集
  • 评估工具:包含评估和参数调优的支持代码

适用场景

  • 研究项目和原型开发
  • 需要 GPU 加速的高性能场景
  • 对性能要求极高的应用
  • 需要处理超大规模向量集合的场景(数十亿级别)
  • 需要压缩存储以节省内存的场景
3. Pinecone:托管的向量数据库服务

Pinecone 是专为生产环境设计的向量数据库,提供完全托管和 Serverless 架构,让开发者无需关心基础设施的部署和维护,支持从快速原型到大规模生产应用的各种场景。

  • 官网:https://www.pinecone.io/
  • 文档:https://docs.pinecone.io/
  • 快速开始:https://docs.pinecone.io/docs/quickstart

核心特性

  • Serverless 架构:完全托管,资源自动调整,几秒钟内即可启动
  • 高级检索:支持元数据过滤、实时索引、全文搜索和混合搜索(稀疏 + 密集嵌入)
  • 重排序:支持重排序功能,提升搜索结果的相关性
  • 多租户支持:通过命名空间实现数据分区和租户隔离
  • 企业级功能:支持加密、私有网络、SLA 保障,通过 SOC 2、GDPR、ISO 27001、HIPAA 认证
  • 免费开始:免费创建第一个索引,按需付费扩展

适用场景

  • RAG 应用和语义搜索
  • 推荐系统和 AI 智能体开发
  • 需要快速上线、不想管理基础设施的团队
  • 需要企业级安全和合规的应用
4. Qdrant:高性能 Rust 实现的向量搜索引擎

Qdrant 是一个向量相似性搜索引擎和向量数据库,提供生产就绪的服务和便捷的 API,用于存储、搜索和管理向量点(带附加载荷的向量)。Qdrant 专为扩展的过滤支持而设计,适用于各种基于神经网络或语义的匹配、分面搜索等应用。

Qdrant 用 Rust 编写,即使在高负载下也能保持快速和可靠。通过 Qdrant,可以将嵌入向量或神经网络编码器转换为完整的应用程序,用于匹配、搜索、推荐等场景。

  • 项目地址:https://github.com/qdrant/qdrant
  • 文档:https://qdrant.tech/documentation/
  • 快速开始:https://qdrant.tech/documentation/quick-start/

核心特性

  • 强大的过滤功能:支持为向量附加 JSON 载荷,支持关键词匹配、全文过滤、数值范围、地理位置等多种查询条件,可通过复杂逻辑组合过滤条件
  • 混合搜索:支持密集向量和稀疏向量,稀疏向量可看作是 BM25/TF-IDF 的泛化,支持基于 Transformer 的神经网络
  • 向量量化:内置向量量化可将 RAM 使用量减少高达 97%,动态管理搜索速度与精度
  • 分布式部署:支持水平扩展(分片和复制)、零停机滚动更新和动态扩展
  • 性能优化:支持 SIMD 硬件加速、异步 I/O、查询规划和预写日志(WAL)
  • 多种距离度量:支持 Cosine、Euclidean、Dot Product 等

适用场景

  • 需要复杂过滤条件的应用(分面搜索、地理位置搜索等)
  • 需要混合搜索(密集向量 + 稀疏向量)的场景
  • 需要实时更新和复杂业务逻辑的应用
  • 对性能有较高要求的中小型应用
  • 需要分布式部署的生产环境
5. Weaviate:支持多模态的向量搜索引擎

Weaviate 是一个开源、云原生的向量数据库,同时存储对象和向量,支持大规模语义搜索。它在一个查询接口中结合了向量相似性搜索、关键词过滤、检索增强生成(RAG)和重排序功能。Weaviate 支持两种向量存储方式:使用集成模型(OpenAI、Cohere、HuggingFace 等)在导入时自动向量化,或直接导入预计算的向量嵌入。

  • 项目地址:https://github.com/weaviate/weaviate
  • 文档:https://weaviate.io/developers/weaviate
  • 快速开始:https://weaviate.io/developers/weaviate/quickstart

核心特性

  • 快速搜索性能:用 Go 编写,在数十亿向量上执行复杂语义搜索,毫秒级响应,即使在高负载下也能保持高响应性
  • 灵活的向量化:支持使用集成的向量化器(OpenAI、Cohere、HuggingFace、Google 等)在导入时无缝向量化数据,或导入自己的向量嵌入
  • 高级混合和图像搜索:结合语义搜索、传统关键词搜索(BM25)、图像搜索和高级过滤,通过单个 API 调用获得最佳结果
  • 集成的 RAG 和重排序:内置生成式搜索(RAG)和重排序功能,无需额外工具即可构建复杂的问答系统、聊天机器人和摘要生成器
  • 生产就绪和可扩展:支持水平扩展、多租户、复制和细粒度基于角色的访问控制(RBAC),适合关键任务应用
  • 成本高效:内置向量压缩、向量量化和多向量编码,显著降低资源消耗和运营成本,对搜索性能影响最小

适用场景

  • RAG 系统和问答系统
  • 语义搜索和图像搜索
  • 推荐引擎和聊天机器人
  • 内容分类
  • 需要自动向量化或多模态数据检索的应用
6. LanceDB:专为多模态 AI 设计的向量数据库

LanceDB 是一款专为人工智能应用设计的开源向量数据库,旨在高效存储、查询和管理多模态数据(如文本、图像、视频、点云等)及其嵌入向量。其核心基于自研的 Lance 列式数据格式,优化了多模态 AI 数据的存储和检索,支持 PB 级规模的数据处理。

LanceDB 提供灵活的部署方式,可直接集成到应用程序(嵌入式)或扩展至无服务器环境,无需管理服务器,降低运维成本。LanceDB 的设计目标是为开发者提供一个高效、易用且可扩展的向量数据库解决方案,助力构建和部署多模态 AI 应用。

  • 项目地址:https://github.com/lancedb/lancedb
  • 文档:https://docs.lancedb.com/
  • 快速开始:https://docs.lancedb.com/quickstart

核心特性

  • 高性能向量检索:通过先进的索引技术,实现低延迟、十亿级别的向量相似度搜索,无需管理服务器
  • 多模态数据支持:能够存储、查询和过滤多种类型的数据,包括文本、图像、视频和点云,满足多样化的 AI 应用需求
  • 自动数据版本管理:内置数据版本控制,便于 AI 训练和数据管理,无需额外的基础设施
  • 灵活的部署方式:支持无服务器和嵌入式部署,可直接集成到应用程序或扩展至无服务器环境
  • 生态系统集成:原生支持 Python、JavaScript/TypeScript 等 API,并可与 LangChain、LlamaIndex、Pandas、Polars、DuckDB 等工具无缝集成
  • 基于 Lance 格式:核心基于自研的 Lance 列式数据格式,优化多模态 AI 数据的存储和检索性能

适用场景

  • 语义搜索引擎:利用向量嵌入技术,对大型文档集合进行快速且精确的相似度检索
  • 推荐系统:存储和查询用户及物品的向量表示,实现个性化内容和产品推荐
  • 生成式 AI 数据管理:高效管理训练数据与模型输出,适用于文本生成、图像合成及多模态 AI 流程
  • 内容审核:通过检索代表内容特征的向量,快速识别和过滤不良内容
  • 需要多模态数据处理的应用
  • 需要与 LangChain、LlamaIndex 等工具集成的场景
7. Annoy:Spotify 的轻量级近似最近邻库

Annoy(Approximate Nearest Neighbors Oh Yeah)是 Spotify 开发的 C++ 库,提供 Python 绑定,专注于近似最近邻搜索。与 FAISS 类似,Annoy 也是一个搜索库而非数据库,不提供持久化存储和数据管理功能。Annoy 的最大特色是能够创建大型只读文件数据结构,通过内存映射(mmap)技术让多个进程共享同一份索引数据,这在多进程、分布式场景下非常有用。

Annoy 在 Spotify 被用于音乐推荐系统。在运行矩阵分解算法后,每个用户/物品都可以表示为高维空间中的向量,Annoy 帮助快速搜索相似的用户/物品。Spotify 拥有数百万首歌曲的高维向量数据,内存使用是关键考虑因素。

  • 项目地址:https://github.com/spotify/annoy

核心特性

  • 多距离度量支持:支持欧氏距离、曼哈顿距离、余弦距离、汉明距离、点积(内积)等多种距离度量方式
  • 多进程共享:通过 mmap 技术,多个进程可以共享同一份索引文件,无需重复加载
  • 索引与加载分离:索引创建和加载完全分离,可以构建索引后保存为文件,快速映射到内存进行查询
  • 低内存占用:最小化内存占用,索引文件体积小
  • 磁盘索引构建:支持在磁盘上构建索引,可以处理无法完全放入内存的大数据集
  • 维度适应性:在维度 <100 时表现最佳,但即使到 1000 维也能表现良好
  • 静态索引:索引一旦创建后不可修改(只读),适合静态数据集

适用场景

  • 多进程/多服务器共享索引的场景(如 Hadoop 作业、分布式推荐系统)
  • 资源受限的环境,需要最小化内存占用
  • 静态数据集,索引构建后不需要频繁更新
  • 需要快速原型验证
  • 需要将索引文件分发到生产环境的场景
8. Redis + RediSearch:传统数据库的向量扩展

RediSearch 是一个 Redis 模块,为 Redis 提供查询、二级索引和全文搜索功能。它使用压缩的倒排索引,实现快速索引和低内存占用。RediSearch 通过声明索引来增强 Redis 数据,然后使用 RediSearch 查询语言查询数据。除了传统的全文搜索功能外,RediSearch 还支持向量相似性搜索,在保持 Redis 高性能的同时,增加了向量检索能力。

  • 项目地址:https://github.com/RediSearch/RediSearch
  • 快速开始:https://github.com/RediSearch/redisearch-getting-started

核心特性

  • 全文搜索:支持多字段全文索引、精确短语匹配、模糊搜索、前缀匹配、自动完成建议,支持多语言(包括中文分词)
  • 复杂查询:支持 AND/OR/NOT 布尔查询、字段加权、BM25 排序、数值过滤和地理空间搜索
  • 向量相似性搜索:支持 KNN、过滤 KNN 和范围查询
  • 聚合和结果控制:强大的聚合引擎,支持检索完整文档、选定字段或仅文档 ID,支持自定义排序
  • 基于 Redis 生态:与 Redis 的其他功能(缓存、消息队列等)无缝集成,使用压缩倒排索引,低内存占用

适用场景

  • 已经在使用 Redis 的应用,需要添加搜索功能
  • 需要全文搜索 + 向量搜索的混合场景
  • 需要利用 Redis 其他功能(缓存、消息队列等)的应用
  • 需要低延迟查询的应用

如何选择合适的向量数据库?

选择向量数据库时,主要考虑三个方面:数据量大小、部署方式和特殊需求。

📊 数据量大小
  • 数据量不大(百万级以内):可以选择 Qdrant、LanceDB 或轻量级的 Annoy、FAISS
  • 中等规模(百万到亿级):Milvus、Qdrant、Pinecone、Weaviate、LanceDB 都可以胜任
  • 超大规模(亿级以上):优先考虑 Milvus、FAISS、Weaviate 或 LanceDB
🏗️ 部署方式
  • 不想自己运维:选择 Pinecone(托管服务,开箱即用)
  • 需要自己部署:Milvus、Qdrant、Weaviate(功能完整,需要运维)
  • 作为库集成到代码中:FAISS、Annoy(轻量级,需要自己管理数据)
  • 嵌入到应用中:LanceDB(可以嵌入到应用,也可以无服务器部署)
🔧 特殊需求
  • 需要自动将文本转为向量:Weaviate(内置向量化模型)
  • 需要处理图片、视频等多模态数据:Weaviate、Milvus、LanceDB
  • 需要复杂的数据过滤:Qdrant、Milvus、Pinecone、Weaviate
  • 需要与 LangChain 等工具集成:LanceDB、Weaviate
  • 需要数据版本管理:LanceDB

实际应用建议

根据常见的应用场景,可以这样选择:

  • RAG 应用(知识库问答)
  • 想快速上线:Pinecone(托管服务,几秒钟启动)
  • 需要自己部署:Milvus、Qdrant、Weaviate(Weaviate 还内置了 RAG 功能)
  • 推荐系统
  • 数据量特别大(数十亿):FAISS、Milvus
  • 数据量中等:Annoy(Spotify 实际在用)、Qdrant
  • 语义搜索
  • 不想准备向量:Weaviate(自动向量化)
  • 已有向量数据:Qdrant、Milvus、Pinecone
  • 快速验证想法
  • Pinecone(几秒钟启动,免费套餐)
  • Weaviate(自动向量化,无需准备数据)
  • Annoy(简单易用)
  • 生产环境
  • 有运维团队:Milvus(大规模)、Qdrant(高性能)、Weaviate(功能丰富)
  • 不想运维:Pinecone(托管服务,企业级功能)

总结

向量数据库作为大模型和 AI 智能体技术栈的重要组成部分,选择合适的工具能够显著提升应用的性能和开发效率。无论是开源的 Milvus、Qdrant,还是托管的 Pinecone,都有各自的优势和适用场景。

在实际项目中,建议先从小规模数据开始验证,逐步扩展到生产环境。同时,关注向量数据库的社区活跃度、文档完善程度和长期维护情况,这些因素往往比技术指标更重要。

随着大模型技术的不断发展,向量数据库也在持续演进。保持对新技术的学习和关注,能够帮助开发者在技术选型时做出更明智的决策。

在大模型时代,我们如何有效的去学习大模型?

现如今大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。

掌握大模型技术你还能拥有更多可能性

• 成为一名全栈大模型工程师,包括Prompt,LangChain,LoRA等技术开发、运营、产品等方向全栈工程;

• 能够拥有模型二次训练和微调能力,带领大家完成智能对话、文生图等热门应用;

• 薪资上浮10%-20%,覆盖更多高薪岗位,这是一个高需求、高待遇的热门方向和领域;

• 更优质的项目可以为未来创新创业提供基石。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

一、AGI大模型系统学习路线

很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,下面是我整理好的一套完整的学习路线,希望能够帮助到你们学习AI大模型。

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

三、AI大模型经典PDF书籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

四、AI大模型各大场景实战案例

结语

【一一AGI大模型学习 所有资源获取处(无偿领取)一一】
所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询