阅读全文 LLM应用 2022-09-05 阅读 向量数据库与Embedding技术详解 向量数据库与Embedding技术详解在大模型时代,向量数据库成为AI基础设施的关键组件。无论是RAG检索增强生成、语义搜索还是推荐系统,都离不开高效的向量存储与检索能力。 1. Embedding向量化技术1.1 什么是EmbeddingEmbedding将非结构化数据(文本、图像等)映射到高维向...
阅读全文 LLM应用 2022-08-25 阅读 LangChain大模型应用开发框架 LangChain大模型应用开发框架LangChain是2022年最受关注的LLM应用开发框架,它提供了一套标准化接口来构建基于大语言模型的复杂应用,从简单的问答系统到具备工具使用能力的自主代理。 1. LangChain架构概览graph TB subgraph "LangChain核心组...
阅读全文 LLM应用 2022-08-10 阅读 Prompt Engineering技巧与最佳实践 Prompt Engineering技巧与最佳实践随着ChatGPT等大模型的普及,Prompt Engineering成为2022年最热门的AI技能。如何编写有效的提示词来引导大模型产生高质量输出,已成为一门重要的工程学科。 1. Prompt Engineering的核心原则1.1 基本原则gr...
阅读全文 多模态 2022-07-05 阅读 Stable Diffusion实战与LoRA微调 Stable Diffusion实战与LoRA微调Stable Diffusion开源后,社区涌现了大量微调和个性化方案。其中LoRA(Low-Rank Adaptation)因其高效性成为最流行的微调方法,仅需少量数据即可训练出个性化的图像生成模型。 1. LoRA原理1.1 低秩分解LoRA的核...
阅读全文 多模态 2022-06-08 阅读 Stable Diffusion原理深度解析 Stable Diffusion原理深度解析2022年8月,Stable Diffusion开源发布,彻底引爆了AIGC浪潮。与DALL-E不同,它可以在消费级GPU上运行,让每个人都能使用AI生成图像。本文将深入解析其技术原理。 1. 扩散模型基础1.1 前向扩散过程逐步向图像添加高斯噪声,直到变...
阅读全文 多模态 2022-05-12 阅读 DALL-E与文本生成图像技术 DALL-E与文本生成图像技术2022年是AIGC(AI生成内容)爆发的一年,文本生成图像技术从实验室走向大众。本文将深入解析DALL-E系列模型的技术原理与演进路线。 1. 从DALL-E到DALL-E 2DALL-E 1:自回归生成DALL-E 1采用自回归方式,将图像生成视为序列生成问题: 1...
阅读全文 多模态 2022-04-05 阅读 CLIP模型原理与多模态学习 CLIP模型原理与多模态学习CLIP(Contrastive Language-Image Pre-training)是OpenAI提出的多模态模型,通过对比学习将视觉和语言映射到同一特征空间,开创了视觉-语言预训练的新范式。 1. CLIP的核心思想传统计算机视觉模型需要为每个任务收集标注数据,而...
阅读全文 大模型 2022-03-10 阅读 RLHF人类反馈强化学习详解 RLHF人类反馈强化学习详解RLHF(Reinforcement Learning from Human Feedback)是2022年最热门的AI技术之一,它让大模型从”语言续写器”进化为”智能助手”。本文将深入剖析RLHF的每个技术环节。 1. 为什么需要RLHF传统语言模型的训练目标是预测下一...
阅读全文 大模型 2022-02-20 阅读 InstructGPT与人类对齐技术 InstructGPT与人类对齐技术在ChatGPT发布之前,OpenAI于2022年初发表了InstructGPT论文,系统性地提出了通过人类反馈来对齐语言模型的方法。这篇论文是理解现代大模型训练范式的关键。 1. 研究背景与动机GPT-3虽然展现了强大的语言能力,但存在严重的”对齐问题”: 用...
阅读全文 模型优化 2022-01-20 阅读 模型压缩与量化:从理论到部署实践 概述随着深度学习模型越来越大,模型压缩与量化成为部署到边缘设备的关键技术。本文系统介绍模型压缩的各种方法,重点讲解量化技术的原理与实践。 模型压缩方法总览flowchart TB subgraph 模型压缩 COMP[模型压缩] COMP --> Q[量化 Q...
阅读全文 大模型 2022-01-15 阅读 ChatGPT原理深度解析 ChatGPT原理深度解析2022年末,ChatGPT的发布彻底改变了人们对AI的认知。它不仅能进行流畅的对话,还能完成写作、编程、翻译等复杂任务。本文将深入分析ChatGPT的技术原理。 1. 从GPT-3到ChatGPT的演进ChatGPT基于GPT-3.5架构,但与原始GPT-3相比,关键区别...
阅读全文 人工智能 2021-07-25 阅读 神经架构搜索:AutoML的深度实践 前言神经架构搜索(Neural Architecture Search, NAS)是自动化机器学习(AutoML)的核心技术,通过算法自动设计神经网络架构。本文深入解析NAS的原理、方法和实现。 NAS概述123456mermaidgraph LRA[搜索空间] --> B[搜索策略]B --...
阅读全文 人工智能 2021-07-15 阅读 MobileNetV3:轻量级网络的极致优化 前言MobileNetV3是Google在2019年发布的轻量级神经网络,通过NAS(神经架构搜索)和多种优化技术,在保持高精度的同时实现了极致的效率和速度。 MobileNetV3核心组件1234567891011121314151617181920212223242526272829303132...
阅读全文 人工智能 2021-07-05 阅读 CLIP:对比语言图像预训练 前言CLIP(Contrastive Language-Image Pre-training)由OpenAI在2021年发布,通过大规模图文对比学习实现了零样本图像分类,展现了多模态学习的强大能力。 CLIP核心思想123456789mermaidgraph TBA[图像] --> B[图像E...
阅读全文 人工智能 2021-06-25 阅读 深度学习优化器:从SGD到AdamW 前言优化器是深度学习训练的核心组件,从经典的SGD到现代的AdamW,优化器技术经历了快速发展。本文系统介绍各类优化器的原理、实现和使用场景。 经典SGD1234567891011121314151617181920212223242526272829303132333435363738394041...
阅读全文 人工智能 2021-06-15 阅读 GPT-3:大规模语言模型的突破 前言GPT-3是OpenAI在2020年发布的1750亿参数语言模型,展现了惊人的few-shot和zero-shot能力,引发了对大语言模型的广泛关注。本文深入解析GPT-3的核心技术。 GPT-3规模GPT-3的规模远超之前的模型: 指标 GPT-1 GPT-2 GPT-3 参数量 ...
阅读全文 人工智能 2021-06-05 阅读 ViT:Vision Transformer详解 前言Vision Transformer(ViT)将NLP领域的Transformer架构成功应用于计算机视觉,在ImageNet上取得了超越CNN的成绩。本文深入解析ViT的原理和实现。 ViT核心架构12345678mermaidgraph TBA[输入图像 224x224] --> B[...
阅读全文 人工智能 2021-05-25 阅读 Transformer位置编码:让模型理解序列顺序 前言Transformer架构中没有循环结构,需要通过位置编码(Positional Encoding)来注入序列位置信息。本文深入解析各种位置编码方法的原理和实现。 位置编码概述1234567mermaidgraph LRA[输入Token] --> B[词嵌入]A --> C[位置编...
阅读全文 人工智能 2021-05-15 阅读 预训练与微调:现代NLP的范式 前言预训练-微调(Pre-training & Fine-tuning)范式是现代NLP成功的关键。本文将系统解析这一范式的原理、实现方法和最佳实践。 预训练-微调范式123456mermaidgraph LRA[大规模无标注语料] --> B[预训练语言模型]B --> C[下...
阅读全文 人工智能 2021-05-05 阅读 GitHub Copilot:AI编程助手初体验 前言GitHub Copilot是GitHub与OpenAI合作开发的AI编程助手,基于GPT系列模型,能够根据上下文自动补全代码。本文分享Copilot的使用体验和技术原理。 Copilot使用体验安装配置12345# 安装VS Code扩展code --install-extension Git...
阅读全文 人工智能 2021-04-25 阅读 联邦学习:隐私保护的机器学习新范式 前言联邦学习(Federated Learning)是一种分布式机器学习范式,允许在不直接共享原始数据的情况下进行模型训练,有效保护用户隐私。本文将深入解析联邦学习的原理、算法和实现。 联邦学习核心思想联邦学习的核心是”数据不动,模型动”: 数据保留在本地设备 只共享模型参数或梯度 中央服务器聚合...