【共绩 AI 小课堂】Class 6 2025 年每个 AI 初学者必知的 20 个术语
AI 术语如今无处不在,当别人谈论 “Sandbox”、“RAG” 或”MCP” 时,你是否曾假装听懂却暗自困惑?这份指南将用通俗语言为你拆解最常见的 AI 术语,助你循序渐进构建知识体系。
1. 核心 AI 概念
1.1 AI 模型
可以将 AI 模型视为一种智能化的计算机程序,旨在模仿人类的思维方式。当你向它输入一些问题或图像时,它会处理这些信息并生成有意义的输出。模型通过分析大量示例、识别模式,并逐步提升其理解和响应的能力来学习。
延伸阅读:想深入了解 AI 模型的高效部署?推荐阅读我们的弹性部署指南和相关文档。
1.2 神经网络
神经网络就像人脑的简化版。它由相互连接的节点(称为人工神经元)组成,这些节点像大脑中的神经元一样传递信息。通过调整节点间连接的权重,神经网络能更好地识别模式并做出决策——就像我们从经验中学习一样。神经网络通常分为三层:接收数据的输入层、通过复杂数学函数处理数据的隐藏层,以及生成最终结果的输出层。“深度学习”中的”深度”指的是拥有多个隐藏层的网络,使其能够学习越来越复杂的模式。

1.3 Transformer 架构
Transformer 是让现代智能 AI 成为可能的突破性技术。在 2017 年之前,AI 需要像用手指逐字阅读书籍一样处理文本。而 Transformer 通过”注意力机制”让 AI 能够同时”看到”句子中的所有单词,并理解它们之间的关系。这就像从逐字阅读升级到瞬间理解整句话。注意力机制使模型在生成输出时能聚焦于输入的相关部分,从而更有效地理解语言中的上下文和关系。

1.4 大型语言模型(LLM)
LLM 是专门训练用于理解和生成人类语言的 AI 模型。它们通过阅读数十亿个单词来学习预测句子中的下一个词,从而能够撰写文章、回答问题或自然对话。在训练过程中,它们通过分析文本模式来理解语法、上下文和含义。现代 LLM 已演变为多模态模型,意味着它们不仅能处理文本,还能同时处理图像、音频等多种输入——所有这些都在一个界面中完成。例如,GPT-4o 可以同时接受文本、语音和图像输入,使交互更加丰富多样。“大型”指的是存储模型所学知识的参数数量庞大(通常为数十亿)。
1.5 通用智能(AGI)
AGI 是 AI 领域的终极目标——一个在所有领域都具备与人类相当智能的系统,而不仅仅局限于特定任务。虽然当前的 AI 擅长写作或图像识别等特定领域,但 AGI 需要在创造力、推理、学习和解决问题等方面与人类智能相匹配。从科学角度看,实现 AGI 需要解决包括迁移学习(跨领域应用知识)、小样本学习(从极少示例中学习)、因果推理以及开发更高效的学习算法等根本性挑战。目前的 AI 系统被认为是”窄领域”的,因为它们在特定任务上表现出色,但缺乏人类认知所特有的通用智能和适应性。
1.6 AI 对齐
AI 对齐旨在确保 AI 系统的目标与人类一致,并以有益而非有害的方式行事。随着 AI 变得越来越强大,确保它与我们的价值观和目标保持一致变得愈发重要。可以将其理解为确保 AI 是我们的”队友”。这涉及到价值学习(教导 AI 理解人类偏好)、鲁棒性(确保 AI 在新的情境下表现正确)和可解释性(理解 AI 为何做出某些决策)等技术挑战。对齐研究还涉及关于该与谁的价值观对齐以及如何处理人类偏好冲突等哲学问题。
2. 数据与训练
2.1 训练数据
训练数据就像 AI 的教科书,是用于教授 AI 模型的所有信息。对于语言模型来说,这包括数百万本书籍、网站、新闻文章和其他书面内容。这些”阅读材料”越多样、越高质量,AI 在处理不同主题和情境时就表现得越好。数据质量至关重要:带有偏见或不准确的数据会导致 AI 输出带有偏见或不准确的结果。训练过程涉及向模型展示无数示例,使其能够学习数据中的统计模式和关系。
2.2 预训练
预训练就像 AI 上小学——这是模型学习基础知识的地方。在这一阶段,AI 会阅读大量文本,并学习关于语言的基本模式、世界事实以及如何进行推理。这基本上是 AI 在专门学习任何特定内容之前的通识教育。预训练使用无监督学习,意味着模型在没有明确标签或答案的情况下学习模式。这个阶段计算成本高昂,通常需要在强大的计算机集群上花费数周或数月时间,但它为许多不同任务创造了通用知识基础。
2.3 微调
微调就像毕业后接受专业培训。一旦 AI 通过预训练获得通识教育,它就可以针对特定类型的内容或任务进行进一步训练。例如,一个通用 AI 可能通过微调医学期刊来更好地回答医疗问题,或者通过训练客户服务对话来采用公司的特定语气和风格。与预训练相比,这个过程所需的数据和计算资源要少得多,因为模型已经掌握了语言基础知识。微调会调整模型的参数,以针对特定领域或应用优化性能,同时保留通用能力。
2.4 基于人类反馈的强化学习(RLHF)
RLHF 就像让人类老师给 AI 的作业打分,并告诉它什么样的答案才算好。人类会对不同的 AI 回答进行打分,然后模型会学习生成人们认为有帮助、准确且恰当的输出。这个过程对于制造出符合我们期望的 AI 系统至关重要。RLHF 通常包括三个步骤:基于人类偏好训练奖励模型,使用强化学习根据这个奖励模型优化 AI 的行为,以及通过更多人类反馈进行迭代改进。这种技术有助于使 AI 行为与人类价值观保持一致,并减少有害或不需要的输出。
3. 输入与输出机制
3.1 Token
Token 是 AI “计数”文本的基本单位——大约每个单词对应一个 Token,但也可能是单词的一部分、标点符号,甚至是空格。AI 模型对一次能处理的 Token 数量有限制(称为上下文窗口),这就是为什么有时候它们无法处理很长的文档或记住冗长对话中的所有内容。不同的语言和书写系统需要不同的分词策略。理解 Token 很重要,因为 AI 模型是按 Token 顺序处理文本的,Token 限制决定了输入长度和对话中的记忆跨度。
3.2 推理
推理就是 AI 执行任务的时候——接收你的输入并产生输出。当你向 ChatGPT 输入一个问题并得到回答时,这就是正在进行的推理。这与训练不同,训练是 AI 从数据中学习的时候。在推理过程中,模型使用其学习到的参数来处理新的输入并生成响应。这个过程比训练要快得多,资源消耗也少得多,但对于大型模型来说仍然需要相当大的计算能力。推理的质量取决于模型训练的质量以及输入与模型之前见过的模式的匹配程度。
3.3 提示工程
提示工程是关于如何以正确的方式向 AI 提出正确问题的艺术和科学。就像向人提出一个清晰、具体的问题比提出一个模糊的问题能得到更好的答案一样,构思好的提示可以显著提高你从 AI 那里得到的结果。有效的提示通常包括明确的指示、相关的上下文、期望输出格式的示例,以及具体的限制或要求。高级技术包括思维链提示(要求 AI 展示其推理过程)、小样本学习(提供示例)和提示链(将复杂任务分解为步骤)。目标是清晰传达意图,同时最优化地利用模型的能力。
3.4 幻觉
当 AI “幻觉”时,它是在编造听起来很有说服力但实际上不真实的内容。当 AI 试图填补其知识空白或被问及它并不真正理解的事物时,就会发生这种情况。这就像有人自信地给你指路去一个他们从未去过的地方——这种自信并不会让路线变得正确。幻觉之所以发生,是因为语言模型被训练成生成听起来合理的文本,而不一定是准确的信息。它们可能会在保持自信语调的同时,编造事实、引文或细节。理解这一限制对于负责任地使用 AI 至关重要,而事实核查和来源验证等技术仍然很重要。

4. AI 工具与高级应用
4.1 应用编程接口(API)
API 就像餐厅里的服务员——它将你的订单(请求)带到厨房(AI 系统),然后带回你的食物(响应)。在 AI 领域,API 允许不同的软件程序与 AI 模型进行通信,而无需从头开始构建 AI。公司可以通过 API 接入现有的 AI 服务。API 定义了请求和响应的特定格式,包括最大输出长度、创造力水平(温度)和响应格式等参数。它们处理身份验证、速率限制和错误管理,使开发人员能够轻松地将 AI 功能集成到应用程序、网站或服务中,而无需深厚的 AI 专业知识。
4.2 多模态 AI
多模态 AI 可以同时处理不同类型的内容——文本、图像、语音和视频。这就像与一个能同时看到你展示的东西、听到你所说的话、阅读你写的内容的人进行对话。这使得 AI 交互感觉更加自然和人性化。多模态模型使用针对不同输入类型的不同神经网络架构(用于图像的视觉 Transformer、用于声音的音频编码器),但它们在一个统一的表示空间中组合这些架构。这使得 AI 能够理解不同模态之间的关系,例如描述视频中正在发生的事情或回答有关图像的问题。
4.3 检索增强生成(RAG)
RAG 就像在 AI 回答你的问题时,给它提供一个实时的图书馆。RAG 系统不仅使用训练期间学到的知识,还可以搜索最新的数据库和文档,在生成回答之前找到相关信息。这有助于确保答案准确且最新。RAG 分两步工作:首先,检索系统会根据查询搜索相关文档或信息,然后语言模型使用其训练知识和检索到的信息生成回答。这种方法减少了幻觉,使 AI 能够访问最新信息,并允许 AI 使用专有或专业知识库。
延伸阅读:这篇文章帮你深入了解:什么是 RAG:检索增强生成的全面介绍
4.4 Sandbox
Sandbox 就像 AI 的安全游戏区——一个安全、隔离的环境,AI 可以在其中运行代码、访问工具或进行实验,而不会对您的主要系统造成任何风险。就像让一个孩子在一个封闭的区域玩耍,他们无法破坏任何重要的东西。Sandbox 使用容器化、虚拟机或其他隔离技术来创建对系统资源、网络连接和敏感数据访问受限的受控环境。这使得 AI 代理能够执行代码、与 API 交互或测试解决方案,同时防止潜在的安全漏洞、数据损坏或系统损坏。
4.5 LLM 专用端点
LLM 专用端点就像拥有直接连接到特定 AI 模型的专线,为您的特定需求进行优化。与其他人共享资源不同,您可以获得定制的连接,可以根据您的特定用例进行配置。这涉及设置隔离的计算资源(GPU、内存、带宽),并具有自定义配置,如响应速度、输出风格、安全过滤器和性能保证。专用端点提供一致的延迟、更高的吞吐量,以及针对您的应用程序微调模型的能力,同时确保数据隐私并满足企业安全要求。
4.6 模型上下文协议(MCP)
MCP 是一种新兴标准,它允许 AI 模型以一致的方式连接到外部工具和服务。AI 现在不仅可以生成文本,还可以安排您的会议、更新您的日历或从您的数据库中提取信息。从技术角度来看,MCP 创建了一个标准化的通信协议,允许 AI 通过定义的接口和权限安全地与不同的软件系统交互。这将 AI 从被动的响应者转变为能够采取实际行动的主动助手,同时通过控制访问模式和审计跟踪来维护安全。
人工智能是一个快速发展的领域,它结合了基础概念、高级工具和伦理考量,以创建能够改变行业的有力系统。随着 AI 不断进步,了解其概念和应用是释放其全部潜力的关键。转向实践也是与最新发展保持同步并获得实践经验的绝佳方式。
限时优惠:开启你的 AI 推理之旅 新用户注册共绩算力平台,可领取 最高 1500 元免费算力(含 50 元无门槛体验券),用于探索弹性算力部署、开发机等服务:
- 用弹性部署快速上线 AIGC 应用(如文生图、语音识别);
- 用开发机导入第三方镜像,一键发布至生产环境;
- 用云 GPU API 调用,直接获取推理结果。
抓住机会,让你的 AI 创意通过共绩算力高效落地!
关于共绩算力
共绩算力是国内首个专注 AI 推理服务的 GPU Serverless 平台,通过智能调度网络整合全国闲置算力,为开发者提供 弹性部署(Docker 一键启动)、API 调用(秒级响应)、开发机(无缝衔接)、裸金属短租(定制化配置)等服务,以“成本立省 50%、资源管饱、部署极简”的核心优势,助力 AI 应用从创意到落地的每一步。
