阅读全文 人工智能 2021-04-15 阅读 MAE:掩码自编码器的突破 前言MAE(Masked AutoEncoder)是何恺明团队2021年提出的自监督学习算法,在图像表示学习领域取得了突破性成果。本文将深入解析MAE的核心原理和实现细节。 MAE的核心思想MAE采用了类似NLP中BERT的掩码思想: 掩码:随机遮挡输入图像的大部分区域(如75%) 重建:让模型重...
阅读全文 人工智能 2021-04-05 阅读 开源书籍与源码 书籍下载链接:https://github.com/KangChou/AI-Technology-and-Algorithm-Programming 数学分析上下册 python自动化操作 python从入门让到实践 数字信号处理 《智能问答与深度学习》 https://githu...
阅读全文 人工智能 2021-04-05 阅读 NLP技术汇总 Deep learning speech learning library 一个轻量级、简单易用的 RNN 唤醒词监听器: https://github.com/MycroftAI/mycroft-precise zh:http://fancyerii.github.io/books/mycr...
阅读全文 人工智能 2021-04-05 阅读 模型量化:深度学习模型压缩与加速 前言模型量化(Model Quantization)是一种有效的模型压缩技术,通过将浮点数权重和激活值转换为低精度表示(如INT8、INT4)来减少模型大小和加速推理。本文将深入解析量化的原理、方法和实现。 量化基础概念量化将连续的浮点值映射到离散的整数值: 12x_quantized = roun...
阅读全文 人工智能 2021-03-25 阅读 YOLO系列:实时目标检测的演进 前言YOLO(You Only Look Once)是实时目标检测领域的里程碑式算法。从2016年首次提出到如今的YOLOv5/YOLOX,该系列算法经历了多次重大革新。本文将系统梳理YOLO的发展历程和核心技术。 YOLO核心原理YOLO将目标检测任务重新定义为单一的回归问题: 1输入图...
阅读全文 人工智能 2021-03-15 阅读 知识蒸馏:模型压缩与知识迁移 前言知识蒸馏(Knowledge Distillation)是一种模型压缩技术,通过让小模型(学生网络)学习大模型(教师网络)的”知识”来提升性能。本文将深入解析知识蒸馏的原理、实现和多种变体。 知识蒸馏的核心思想知识蒸馏的核心是用教师模型的软输出(soft predictions)来指导学生模型的...
阅读全文 人工智能 2021-03-05 阅读 EfficientNet:高效CNN架构的设计之道 前言EfficientNet是Google在2019年提出的高效CNN架构,通过复合缩放策略在效率和准确率之间取得了出色的平衡。本文将深入解析EfficientNet的设计理念和实现细节。 复合缩放策略EfficientNet的核心思想是复合缩放——同时缩放网络的深度、宽度和分辨率: 123456d...
阅读全文 人工智能 2021-02-25 阅读 自监督学习:SimCLR与对比学习原理 前言自监督学习是深度学习领域的重要研究方向,其中对比学习(Contrastive Learning)通过让模型学习相似样本的相似表示、不同样本的不同表示来学习特征表示。SimCLR是Google提出的经典对比学习框架。 对比学习的核心思想对比学习的目标是: 拉近相似样本(正样本对)的表示 拉远不相...
阅读全文 人工智能 2021-02-15 阅读 ResNet进阶:深度残差网络的技术演进 前言ResNet(Residual Network)由何恺明等人于2015年提出,通过残差连接解决了深层网络的梯度消失问题,成为计算机视觉领域最具影响力的架构之一。 ResNet的核心创新ResNet的核心思想是残差学习。传统网络学习的是底层到高层的映射 H(x),而ResNet学习残差 F(x) ...
阅读全文 人工智能 2021-02-05 阅读 注意力机制详解:Transformer的核心原理 前言注意力机制(Attention Mechanism)是深度学习领域的重大突破之一,尤其在Transformer架构中发挥着核心作用。本文将详细解析注意力机制的数学原理和实现细节。 注意力机制的起源注意力机制最早在视觉领域提出,后来被引入到序列模型中。2017年的《Attention Is All...
阅读全文 人工智能 2021-01-25 阅读 GPT-2原理解析:生成式预训练的力量 前言GPT-2(Generative Pre-Training 2)是由OpenAI在2019年发布的文本生成模型,以其惊人的文本生成能力引起了广泛关注。本文将深入解析GPT-2的核心原理和技术细节。 GPT系列的发展历程GPT系列经历了三个重要阶段: 版本 发布时间 参数量 主要特点 ...
阅读全文 人工智能 2021-01-15 阅读 深入理解BERT:预训练语言模型的革命 前言2018年,Google发布了BERT(Bidirectional Encoder Representations from Transformers),在多项NLP基准测试中创下了新纪录。本文将深入解析BERT的核心原理、预训练方法和微调策略。 BERT的核心创新BERT的核心创新在于双向上下...
阅读全文 人工智能 2021-01-05 阅读 Transformer架构详解:从注意力机制到完整模型 前言2017年,Google在论文《Attention Is All You Need》中提出了Transformer架构,彻底改变了自然语言处理领域的发展方向。本文将深入解析Transformer的核心组件和工作原理。 注意力机制(Attention Mechanism)注意力机制是Transfo...
阅读全文 计算机视觉 2020-07-05 阅读 DETR目标检测:从Transformer到端到端检测 概述DETR(Detection Transformer)是Facebook AI提出的端到端目标检测方法,它将Transformer引入目标检测领域,实现了真正的端到端检测流程。本文详细解析DETR的架构设计和实现细节。 DETR核心架构整体流程flowchart TB subgraph ...
阅读全文 计算机视觉 2020-06-20 阅读 YOLOv4目标检测实战指南 YOLOv4概述YOLOv4结合了大量最新tricks,在速度和精度上达到最佳平衡。 核心改进graph TB A[YOLOv4] --> B[Backbone] A --> C[Neck] A --> D[Head] B --> E[CSPDarknet53] ...
阅读全文 深度学习 2020-05-25 阅读 生成对抗网络GAN从原理到实战 概述生成对抗网络(GAN)是深度学习领域最重要的生成模型之一,本文深入解析GAN的原理并通过代码实现。 GAN核心原理对抗训练机制flowchart TB subgraph GAN架构 Z[随机噪声z] --> GEN[生成器G] GEN --> FAKE[生...
阅读全文 深度学习 2020-05-15 阅读 GAN生成对抗网络原理与DCGAN实战 GAN概述生成对抗网络(GAN)由Ian Goodfellow提出,通过对抗训练生成逼真图像。 核心原理graph LR A[噪声z] --> B[生成器G] B --> C[假图像] D[真实图像] --> E[判别器D] C --> E E --> F[真...
阅读全文 计算机视觉 2020-05-10 阅读 图像分割深度学习:U-Net及其变体详解 概述图像分割是计算机视觉中的核心任务之一,本文系统介绍从U-Net到DeepLab系列的分割算法发展历程。 分割网络发展flowchart TB FCN[FCN 2014] --> U_Net[U-Net 2015] FCN --> SegNet[SegNet 2015] U...
阅读全文 计算机视觉 2020-04-20 阅读 Object Detection Overview:从传统方法到深度学习 概述目标检测是计算机视觉中的核心任务之一,本文系统梳理从传统方法到深度学习的目标检测发展历程。 目标检测发展时间线gantt title 目标检测发展历程 dateFormat YYYY section 传统方法 Viola-Jones :2001, ...
阅读全文 计算机视觉 2020-04-10 阅读 Swin Transformer层级视觉Transformer详解 Swin Transformer概述Swin Transformer提出了一种层级结构,大幅提升了视觉Transformer的效率。 核心创新1. 滑动窗口注意力机制1234567891011121314151617181920212223242526272829import torchimport...
阅读全文 教程学习 2020-04-05 阅读 值得你阅读的Hexo个人博客搭建:不用购买服务器,不用购买域名,不要钱,不用敲代码等等,是的,你没有看错,快来转载学习吧! 本文的原文在我的微信公众号,欢迎点击下面蓝色字体链接进入主页 值得你阅读的Hexo个人博客搭建 Hexo快速搭建个人博客(2019/10/22更新) 使用到的工具 (本教程统一在Windows系统下搭建) Node.js、Hexo、Git、Github账号、Sublime ...