Awesome - Image Classification
[TOC]
Conv网络结构,任务 资源汇总
1.4k awesome-image-classification
8.6k deep_learning_object_detection
21.7k awesome-deep-learning-papers
1.4k imgclsmob - Convolutional neural networks for computer vision
超分辨
2020 Face Super-Resolution Guided by 3D Facial Priors
Awesome - Image Classification
ConvNet | ImageNet top1 acc | ImageNet top5 acc | Published In |
---|---|---|---|
VGG | 76.3 | 93.2 | ICLR2015 |
GoogleNet | - | 93.33 | CVPR2015 |
PReLU-nets | - | 95.06 | ICCV2015 |
ResNet | - | 96.43 | CVPR2015 |
Inceptionv3 | 82.8 | 96.42 | CVPR2016 |
Inceptionv4 | 82.3 | 96.2 | AAAI2016 |
Inception-ResNet-v2 | 82.4 | 96.3 | AAAI2016 |
Inceptionv4 + Inception-ResNet-v2 | 83.5 | 96.92 | AAAI2016 |
ResNext | - | 96.97 | CVPR2017 |
PolyNet | 82.64 | 96.55 | CVPR2017 |
NasNet | 82.7 | 96.2 | CVPR2018 |
MobileNetV2 | 74.7 | - | CVPR2018 |
PNasNet | 82.9 | 96.2 | ECCV2018 |
AmoebaNet | 83.9 | 96.6 | arXiv2018 |
SENet | - | 97.749 | CVPR2018 |
3D CNN
TensorFlow(pb) to TensorRT(uff)
Posted on
|
In
DNN_platform
[TOC]
Uff To TensorRT EngineThis sample uses a UFF ResNet50 Model to create a TensorRT Inference Engine
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104# This sample uses a UFF ResNet50 Model to create a TensorRT Inference Engineimport randomfrom PIL import Imageimport numpy as npimport pycuda.driver as cuda# This import causes pycuda to auto
...
Paper_CV_1 Image-Classification 图片分类
Posted on
|
In
CV
,
BaseWork
,
Classification
2021年, Transformer频频跨界视觉领域
先是图像分类上被谷歌ViT突破,后来目标检测和图像分割又被微软Swin Transformer拿下。
ViTGoogle
为了大规模扩展视觉模型,该研究将 ViT 架构中的一些密集前馈层 (FFN) 替换为独立 FFN 的稀疏混合(称之为专家)。可学习的路由层为每个独立的 token 选择对应的专家。也就是说,来自同一图像的不同 token 可能会被路由到不同的专家。在总共 E 位专家(E 通常为 32)中,每个 token 最多只能路由到 K(通常为 1 或 2)位专家。这允许扩展模型的大小,同时保持每个 token 计算的恒定。下图更详细地显示了 V-MoE 编码器块的结构。
https://new.qq.com/omn/20220116/20220116A03WQ600.html
Swin Transformer微软
ConvNeXtFacebook与UC伯克利
该研究制定了一系列设计决策,总结为 1) 宏观设计,2) ResNeXt,3) 反转瓶颈,4) 卷积核大小,以及 5) 各种逐层微设计。
Transformer
...
Paper_CV_2 object-localization 目标定位
Posted on
|
In
CV
,
BaseWork
,
Object Localization
[toc]
目标定位— 目标定位和目标检测,通常作为一个整体进行建模。
VoxelNet
Frustum PointNets
定位任务评估方法:Intersection over Union (IoU)IoU用来衡量模型最终输出的矩形框或者测试过程中找出的候选区域(Region Proposal)与实际的矩形框(Gound Truth)的差异程度,定义为两者交集和并集的比值。通常我们将这个阈值指定为0.5,即只要模型找出来的矩形框和标签的IoU值大于0.5,就认为成功定位到了目标。
目标定位的两种思路看作回归问题。对于单个目标的定位,比较简单的思想就是直接看作是关于目标矩形框位置的回归问题,也就是把刻画矩形框位置信息的4个参数作为模型的输出进行训练,采用L2损失函数。对于固定的多个目标定位,也采用类似的方法,只不过输出由4个变成4*C个,C为需要定位的目标的类别数。这样,完整的识别定位问题的损失函数由两部分组成:第一部分是用于识别的损失,第二部分是用于定位产生的损失。显然这种方法对于目标数量固定的定位问题比较容易,当数量不定时(比如检测任务)就不适用了。
滑动窗口法。这种方
...
【Paper Read】A survey of Monte Carlo Tree Search Methods
Posted on
|
In
Game
Section1 Introduction
Section2 Notation and terminology
Section3 MCTS detail
Section4 summarises main variations MCTS
Section5 enhancements to the tree policy,
Section6 enhancements to Simulations, Backpropagations
Section7 key applications(which MCTS has been applied)
Section8 Summaries
[toc]
Poker Algorithm developer history
Posted on
|
In
Game