人生纲领
大学之道,在明明德,在新民,在止于至善
博学,审问,慎思,明辨,笃行
人生纲领
大学之道,在明明德,在新民,在止于至善
博学,审问,慎思,明辨,笃行

本文将介绍关于AI人工智能领域的名词,这里包括140个AI领域的专有词汇。
1、大语言模型(Large Language Model, LLM)
大语言模型是基于深度学习技术构建的人工智能系统,通过分析海量文本数据来学习语言的模式和结构,从而能够生成自然语言文本或理解语言文本的含义。
2、Token
Token是文本或数据中的基本单元或符号,用于将文本分解为更小的处理单元,便于机器理解和处理。
3、智能体(Agent)
智能体是能够在环境中感知、思考并采取行动的自主AI系统。
4、通用人工智能(Artificial General Intelligence, AGI)
AGI是指能够像人类一样具备广泛认知能力的智能系统,不仅限于特定任务,而是可以自主学习、推理和适应新任务。
5、人工智能生成内容(Artificial Intelligence Generated Content, AIGC)
AIGC是利用人工智能技术自动生成各种类型的内容,包括文本、图像、音频和视频。
6、提示词(Prompt)
提示词是用于引导AI模型生成特定输出的指令或上下文信息,帮助模型理解用户的需求并生成符合要求的内容。
7、提示工程(Prompt Engineering)
提示工程是通过设计和优化提示词,以提高AI模型输出的准确性和创意性。
8、多模态(Multimodal)
多模态指能够处理多种类型数据(如文本、图像、音频)的模型,通过综合分析不同模态的信息,实现更全面的理解和生成。
9、推理(Inference)
推理是指使用训练好的模型进行实际应用,生成预测或输出结果的过程。
10、图形处理器(Graphics Processing Unit, GPU)
GPU是现代计算的加速器,尤其在深度学习和高并行计算任务中发挥重要作用。
11、CUDA(Compute Unified Device Architecture)
CUDA是NVIDIA开发的并行计算平台,允许开发者利用GPU的强大性能加速计算任务。
12、智能体(Agent)
智能体是能够在环境中感知、思考并采取行动的自主AI系统。
13、多智能体(Multi-agent)
多智能体是指多个智能体协作解决复杂问题的系统。
14、检索增强生成(Retrieval-Augmented Generation, RAG)
RAG是一种融合检索与生成的策略,增强AI内容创作的丰富度和准确性。
15、思维链(Chain of Thought, COT)
COT是通过逻辑链条深化模型推理,提升决策的合理性和深度。
16、思维树(Tree of Thought, TOT)
TOT是采用树状结构组织信息处理,促进复杂决策的高效解析。
17、函数调用(Function Calling)
函数调用是AI模型调用外部函数或API以实现更广泛功能的技术。
18、反思(Reflection)
反思是智能体的自我审视与调节能力,用于优化决策过程。
19、推理与行动(Reason and Act, ReAct)
ReAct是一种结合推理和行动的AI架构,智能体通过循环迭代进行推理和行动。
20、涌现(Emergence)
涌现是指在复杂系统中,新的性质或行为在简单组件相互作用下自发形成的现象。
21、对齐(Alignment)
对齐是指让AI模型的行为和能力与人类的价值观、意图和伦理原则保持一致,以确保AI的安全性和可靠性。
22、世界模型(World Model)
世界模型是AI系统内部构建的对现实世界的抽象认知模型,用于预测、规划和决策。
23、Scaling Law(Scaling Law)
Scaling Law描述了模型性能随规模(如参数数量、数据量)增大而提升的现象,是指导模型设计的重要原则。
24、大模型幻觉(Hallucination of Large Models)
大模型幻觉是指模型生成看似合理但实际不准确或虚构的信息,反映了模型缺乏真正理解能力的问题。
25、Copilot
Copilot是AI辅助工具的代名词,如Github Copilot辅助编程,Office Copilot辅助文档编辑。
26、具身智能(Embodied Intelligence)
具身智能是指拥有物理实体的智能体(如机器人),通过与环境互动学习和适应,实现类似生物体的智能表现。
1、Gemma(Gemma)
Gemma是谷歌研发的AI大模型。
2、Claude(Claude)
Claude是Anthropic公司发布的大型语言模型家族。
3、Llama(Llama)
Llama是Meta开发的开源大语言模型。
4、ChatGPT(ChatGPT)
由OpenAI开发的强大的语言模型,擅长生成自然语言文本。
5、GPT-4(GPT-4)
OpenAI推出的最新版本语言模型,性能在多任务上表现出色。
6、Hunyuan-Turbo(混元Turbo)
腾讯推出的高效语言模型,优化了计算效率。
7、ERNIE-4.0-Turbo(文心一言Turbo)
百度的增强型语言模型,专注于中文语言处理。
8、Qwen2.5-7B-Instruct(通义千问)
阿里巴巴的多用途语言模型,适用于多种应用场景。
9、讯飞星火V4.0(星火)
科大讯飞的语言模型,专注于语音和文本处理。
10、GLM-4-9B-Chat(GLM)
智谱AI开发的模型,专注于对话生成。
11、Yi-1.5-34B-Chat-16K(通义)
零一万物的语言模型,支持长文本处理。
12、DeepSeek-V3(深度求索)
深度求索推出的高性能语言模型。
13、SenseChat 5.5-latest(商汤)
商汤科技的语言模型,专注于视觉与语言结合。
14、Gemini-2.0-Flash-Exp(双子星)
谷歌的多模态模型,支持文本和图像处理。
15、Claude 3.5 Sonnet(Claude 3.5)
Anthropic的最新语言模型,优化了对话能力。
16、360zhinao2-o1(360智脑)
360公司推出的语言模型,注重安全性和隐私保护。
17、Doubao-pro-32k-241215(豆宝)
字节跳动的语言模型,专注于内容创作。
18、NebulaCoder-V5(星云)
中兴通讯的模型,专注于代码生成。
19、Qwen-max-latest(通义千问Max)
阿里巴巴的高性能语言模型。
20、Llama-3.3-70B-Instruct(Llama 3.3)
Meta的开源语言模型,参数量大。
1、TensorFlow(TensorFlow)
TensorFlow是谷歌开源的机器学习框架,提供强大的工具箱用于模型构建和优化。
2、PyTorch(PyTorch)
PyTorch是Meta开发的深度学习框架,提供灵活而强大的工具用于研究和应用。
3、Scikit-learn(Scikit-learn)
Scikit-learn是Python中流行的机器学习库,简化数据挖掘和分析任务。
4、LangChain(LangChain)
LangChain是一个用于开发基于大模型应用程序的框架。
5、Ollama(Ollama)
Ollama是一个开源推理框架,用于运行Llama大模型。
6、LlamaIndex(LlamaIndex)
LlamaIndex是一个连接大模型与外部数据的工具,通过索引和查询接口提升数据利用效率。
7、向量数据库(Vector Database)
向量数据库是专为高维向量数据设计的存储系统,用于搜索和推荐系统。
8、Hugging Face(Hugging Face)
Hugging Face是一家专注于NLP的公司,提供广泛的预训练模型和工具。
1、计算机视觉(Computer Vision, CV)
计算机视觉是使机器能够“看”并理解图像或视频内容的技术。
2、文本转视频(Text-to-Video)
Text-to-Video是根据文本描述生成视频片段的技术。
3、文本转图像(Text-to-Image)
文本转图像是将文本描述转换为图像的技术。
4、Stable Diffusion(Stable Diffusion)
Stable Diffusion是一种基于扩散模型的图像生成技术,能够生成高质量的图像。
5、ControlNet(ControlNet)
ControlNet是一种辅助网络,用于引导AI绘画过程中的特定元素或风格。
6、DALL-E(DALL-E)
DALL-E是一种创意工具,能够根据文本描述生成图像。
7、Sora(Sora)
Sora是OpenAI发布的人工智能文生视频大模型。
8、Deepfake(Deepfake)
Deepfake是一种利用AI技术替换视频中人物面部的技术。
9、语音识别(Speech Recognition)
语音识别是计算机系统自动识别和理解语音内容的技术。
10、文本转语音(Text-to-Speech, TTS)
TTS是一种将书面文字转换为自然人类语音的技术。
11、对比语言-图像预训练(Contrastive Language-Image Pre-training, CLIP)
CLIP是一种模型架构,能够理解图像与文本之间的联系,实现跨模态检索和生成。
1、自然语言处理(Natural Language Processing, NLP)
NLP是计算机科学领域,研究如何让计算机理解、解释和生成人类语言。
2、语义理解(Semantic Understanding)
语义理解是指模型能够理解文本的真正含义,而不仅仅是字面意思。
3、知识发现(Knowledge Discovery)
知识发现是从数据中提取新的、有用的、未知的知识或模式的过程。
4、知识图谱(Knowledge Graph)
知识图谱是一种结构化的知识表示形式,通过节点和边展示实体及其关系。
5、模式识别(Pattern Recognition)
模式识别是通过分析数据中的重复结构,识别和分类特定模式或规律。
6、文本生成(Text Generation)
文本生成是根据给定的提示或上下文生成新的、连贯的文本内容。
7、机器翻译(Machine Translation)
机器翻译是将文本从一种语言自动翻译成另一种语言的技术。
8、情感分析(Sentiment Analysis)
情感分析是判断文本中表达的情感倾向,如正面、负面或中性。
9、问答系统(Question and Answering, Q&A)
问答系统是自动回答用户问题的系统,需要理解问题并检索或生成答案。
10、文本摘要(Text Summarization)
文本摘要是将长文本压缩成保留关键信息的短文本。
11、对话系统(Dialogue Systems)
对话系统是能够与用户进行自然语言对话的AI系统。
12、聊天机器人(Chatbot)
聊天机器人是一种能够与用户进行自然语言交流的人工智能应用程序。
13、文本转代码(Text-to-Code, text2code)
text2code是一种将自然语言描述转换为计算机代码的技术,降低编程门槛。
14、文本转SQL(Text-to-SQL, text2sql)
text2sql是一种将自然语言文本转换为SQL查询语句的技术,方便用户查询数据库。
1、机器学习(Machine Learning, ML)
机器学习是AI的一个子领域,通过让计算机从数据中学习规律,提升其在特定任务上的性能。
2、深度学习(Deep Learning)
深度学习是机器学习的分支,通过构建多层神经网络模拟大脑处理机制,自动提取数据中的复杂特征。
3、Transformer(Transformer)
Transformer是一种基于自注意力机制的神经网络架构,能够有效处理序列数据,是大模型的核心架构。
4、注意力机制(Attention Mechanism)
注意力机制使模型能够聚焦输入序列中的重要部分,提升处理序列数据的能力。
5、自注意力机制(Self-Attention)
自注意力机制允许模型在处理序列时考虑所有位置之间的依赖关系,提升理解和生成的效率。
6、多头注意力(Multi-head Attention)
多头注意力通过并行计算多个注意力机制,捕捉输入数据的不同特征,增强模型的理解能力。
7、神经网络(Neural Network)
神经网络是模仿人脑结构和功能的计算模型,由大量神经元组成,用于解决复杂的计算和模式识别问题。
8、卷积神经网络(Convolutional Neural Network, CNN)
CNN是专用于图像识别的神经网络,通过卷积层自动检测图像中的基础特征。
9、循环神经网络(Recurrent Neural Network, RNN)
RNN是处理序列数据的神经网络,能够记忆之前的信息,适用于语言和时间序列数据。
10、长短期记忆网络(Long Short-Term Memory, LSTM)
LSTM是RNN的改进版本,通过门控机制解决长期依赖问题,适用于需要长时间记忆的任务。
11、生成式预训练模型(Generative Pre-trained Transformer, GPT)
GPT是基于Transformer架构的生成式语言模型,专注于生成连贯、有创意的文本。
12、双向编码器表示(Bidirectional Encoder Representations from Transformers, BERT)
BERT是基于Transformer的双向编码器模型,能够理解文本的上下文信息,适用于问答和情感分析等任务。
13、知识蒸馏(Knowledge Distillation)
知识蒸馏是通过让小模型学习大模型的决策过程,以减少计算资源消耗,同时保持高性能。
14、预训练(Pre-training)
预训练是在大规模数据上训练模型,使其获得通用的语言知识,后续再针对具体任务进行微调。
15、微调(Fine-tuning)
微调是在预训练模型的基础上,针对特定任务进行进一步训练,以提升模型在该任务上的表现。
16、监督微调(Supervised Fine-Tuning, SFT)
监督微调是使用标注数据对预训练模型进行进一步训练,以优化其在特定任务上的性能。
17、低秩适应(Low-Rank Adaptation, LoRA)
LoRA是一种微调方法,通过降低微调过程中的计算和存储成本,同时保持模型性能。
18、参数(Parameter)
参数是模型中的可训练变量,决定了模型的行为和性能。
19、权重(Weights)
权重是神经元之间的连接强度,决定了输入信号对输出信号的影响。
20、偏置(Biases)
偏置是神经元的调整参数,用于优化模型的拟合能力。
21、超参数(Hyperparameter)
超参数是在训练前设置的参数,用于控制模型的结构和学习过程。
22、生成模型(Generative Model)
生成模型能够根据已知数据模式生成新的数据实例,如文本或图像。
23、扩散模型(Diffusion Model)
扩散模型通过模拟物理扩散过程,从随机噪声中生成清晰的内容,擅长创造复杂的视觉艺术。
24、模型压缩(Model Compression)
模型压缩通过技术如量化和剪枝,减小模型体积,提高部署效率。
25、模型量化(Model Quantization)
模型量化通过降低参数精度(如从32位浮点数转为8位整数),减少模型的存储和计算需求。
26、分词器(Tokenizer)
分词器是将文本分割成更小单元(如单词或符号)的工具,便于模型处理。
27、嵌入(Embedding)
嵌入是将文本转化为数值向量的技术,便于机器理解和处理。
28、词嵌入(Word Embedding)
词嵌入是将单词表示为低维向量的方法,捕捉单词的语义信息。
29、句子嵌入(Sentence Embedding)
句子嵌入是将句子表示为低维向量的方法,保留句子的主要语义。
30、上下文嵌入(Contextual Embedding)
上下文嵌入根据上下文动态生成嵌入向量,捕捉单词在不同语境中的含义。
31、上下文窗口(Context Window)
上下文窗口是模型处理文本时考虑的前后词元范围,用于捕捉语境信息。
32、Word2Vec(Word2Vec)
Word2Vec是一种词嵌入模型,通过神经网络将词汇转化为富含语义的向量。
33、序列到序列模型(Sequence-to-Sequence Model, seq2seq)
seq2seq是一种编码器-解码器结构的模型,用于处理序列到序列的任务,如机器翻译。
34、零样本学习(Zero-shot Learning)
零样本学习是指模型无需特定训练即可在未见过的任务上直接应用,展现泛化能力。
35、小样本学习(Few-shot Learning)
小样本学习是指模型在少量示例的引导下快速掌握新技能的学习模式。
36、自监督学习(Self-supervised Learning)
自监督学习是使用数据本身生成监督信号进行训练的方法。
37、无监督学习(Unsupervised Learning)
无监督学习是无需标签数据进行模型训练的方法。
38、有监督学习(Supervised Learning)
有监督学习是使用标注数据进行模型训练的方法。
39、半监督学习(Semi-supervised Learning)
半监督学习是结合少量标注数据和大量未标注数据进行训练的方法。
40、强化学习(Reinforcement Learning)
强化学习是通过奖励和惩罚机制使模型学习采取何种行动以最大化累积奖励。
41、奖励模型(Reward Model)
奖励模型是用于评估智能体行为的模型,通过奖励信号指导智能体学习。
42、带有人类反馈的强化学习(Reinforcement Learning with Human Feedback, RLHF)
RLHF结合强化学习和人类反馈,提升智能体在复杂环境中的表现。
43、迁移学习(Transfer Learning)
迁移学习是将模型在一个任务上的知识应用到另一个任务。
44、自动机器学习(Automated Machine Learning, AutoML)
自动机器学习是自动化机器学习流程,减少人工参与,提高效率。
45、元学习(Meta-learning)
元学习是教机器如何高效学习的学习方法,优化学习过程本身。
46、Q学习(Q-Learning)
Q学习是强化学习中的经典算法,通过估算每一步行动的价值来指导智能体选择最优路径。
47、联邦学习(Federated Learning)
联邦学习是一种分布式机器学习技术,通过在多个设备上进行模型训练,而无需将数据发送到中心服务器。
48、生成对抗网络(Generative Adversarial Network, GAN)
GAN由生成器和判别器组成,通过对抗训练生成逼真的数据样本。
49、深度信念网络(Deep Belief Network, DBN)
DBN是一种基于概率图模型的生成模型,用于学习数据的低维表示。
50、变分自编码器(Variational Autoencoder, VAE)
VAE结合自编码器和变分推断,用于学习数据的低维表示和生成新的数据样本。
51、专家混合(Mixture of Experts, MoE)
MoE是一种模型架构,通过组合多个专家模型来提高整体性能和效率。
52、降维(Dimensionality Reduction)
降维是减少数据特征数量的方法,如PCA和t-SNE。
53、特征工程(Feature Engineering)
特征工程是创建和选择特征以提高模型性能的过程。
54、数据标注(Data Annotation)
数据标注是为数据集中的样本添加标签或注释的过程,以便模型学习。
55、数据预处理(Data Preprocessing)
数据预处理是对数据进行清洗、整理和转换的过程,提升数据质量。
56、数据清洗(Data Cleaning)
数据清洗是识别并纠正数据中的错误、不完整信息和冗余现象的过程。
57、合成数据(Synthetic Data)
合成数据是通过算法生成的模拟数据,用于训练和测试模型。
58、交叉验证(Cross-validation)
交叉验证是一种评估模型泛化能力的技术,通过将数据集分为多个子集进行训练和验证。
59、过拟合(Overfitting)
过拟合是指模型在训练数据上表现良好,但在新数据上表现差的现象。
60、欠拟合(Underfitting)
欠拟合是指模型在训练数据和新数据上都表现不佳的现象。
61、模型泛化(Generalization)
模型泛化是指模型在新数据上的表现能力,衡量其适应新数据的能力。
62、梯度下降(Gradient Descent)
梯度下降是一种优化算法,通过调整参数以最小化损失函数。
63、损失函数(Loss Function)
损失函数是衡量模型预测值与实际值之间差距的函数,用于优化模型参数。
64、激活函数(Activation Function)
激活函数是神经网络中的非线性组件,用于引入非线性,使模型能够学习复杂模式。
65、练丹(Model Training)
练丹是指训练大规模神经网络模型的过程,需要大量的数据和算力。
66、蒸馏(Knowledge Distillation)
蒸馏是将大型模型的知识转移到小型模型中的技术,以减少计算资源消耗。
67、挖矿(Data Mining)
挖矿在机器学习中指从大量数据中提取有用信息,或使用GPU等硬件进行模型训练。