Simon Shi的小站

人工智能,机器学习 学习记录


  • Home

  • About

  • Tags

  • Categories

  • Archives

Paper-CV-ResNet

Posted on 2019-09-18 | In CV , Networks
Read more »

Paper_CV_3 目标检测

Posted on 2019-09-18 | In CV , BaseWork , Object Detection
[toc] 计算机视觉任务: 图像分类、目标定位、目标检测、目标跟踪,语义分割,实例分割; 目标检测领域中主流的两大类方法: dense detector: 例如DPM,YOLO,RetinaNet,FCOS。在dense detector中, 大量的object candidates例如sliding-windows,anchor-boxes, reference-points等被提前预设在图像网格或者特征图网格上,然后直接预测这些candidates到gt的scaling/offest和物体类别。 dense-to-sparse detector: RCNN家族,对一组sparse的candidates预测和分类 Detection模型算法整理RCNN内容整理RCNN, FastRCNN,FasterRCNN,YOLO,SSD 发展历史: R-CNN Fast R-CNN Faster R-CNN Mask R-CNN (目标检测 + 像素分割) SSD (Single Shot MultiBox Defender) YOLO (You Only Look Once) YOLO_ ...
Read more »

RL强化学习

Posted on 2019-09-15 | In AI , RL
[toc] 强化学习样本利用率研究(一)-爱代码爱编程 on-policy: off-policy: 基于模型:动态规划 无模型解决方案:TD, MC, 概率模型: 贝叶斯强化学习 部分可观察马尔可夫决策过程(POMDP) PAC-MDP ( 马尔可夫决策过程学习 ) SEED RL: Scalable, EfficientDeep-RL,每秒处理数百万张图片的分布式强化学习框架。 概念解析人工智能 学派 符号主义:逻辑推断,贝叶斯学习 连结主义:神经网络 行为主义:控制论和强化学习 机器学习-广义分类 监督学习 无监督学习 强化学习 on-policy off-policyon-policy 与 off-policy的本质区别在于:更新Q值时所使用的方法是沿用既定的策略(on-policy)还是使用新策略(off-policy)。 在Sarsa中更新Q函数时用的A就是贪婪策略得出来的,下一回合也用的是这个A去进行step。两个A一定相同就是(同策略)on-policy。 但是在Q_learning中,更新时的a时Qmax得到的,而下一回合的A是用贪婪策略(在更新后 ...
Read more »

TF_pb_Inference_by_c++

Posted on 2019-09-11 | In DNN_platform , tensorflow
[TOC] Model Inference (using PB) bazel g++ 1.bazel(tf官网方式)https://www.tensorflow.org/guide/extend/cc https://blog.csdn.net/elaine_bao/article/details/78702236 https://medium.com/jim-fleming/loading-a-tensorflow-graph-with-the-c-api-4caaff88463f 2.g++https://www.fengiling.com/blog/view/?id=679303 https://blog.csdn.net/zwx1995zwx/article/details/79064064 https://github.com/zhangcliff/tensorflow-c-mnist 3.c->py->tfModelhttps://blog.csdn.net/sxlsxl119/article/details/81937815
Read more »

机器学习--数学基础(筹)

Posted on 2019-09-09 | In AI , ML
zhihu-机器学习(一)–线性回归理论推导 csdn 线性回归公式推导+代码解析—机器学习
Read more »

Blogs

Posted on 2019-09-03 | In AI
Yiyi Liao 浙大 assistant professor (3D CV) linzehui- 厦大,每日论文阅读-干货内容 AIHGF 专栏-语义分割-姿态估计-目标检测-图像分类。。。 github_repository_collection git库收集记录:论文 + 实现 【资源】时尚 +AI 文献、资源大列表 Papers( ​ Synthesis​ Classification] (#3)​ Recommendation​ Forecast TOMÁŠ HODAŇ PhD student in computer vision 语义分割,6D姿态评估
Read more »

Paper_CV_4 语义分割、实例分割

Posted on 2019-09-02 | In CV , BaseWork , Segmentation
[toc] Segmentation Model semantic segmentation Instance segmentation Model Submitted VGGNet ResNet ENet,FRRN,AdapNey… Unet 2015.5 Make R-CNN 2017.3 Mask Scoring R-CNN Fast R-CNN FPN 2017.4 特征金字塔(Feature Pyramid)特征金字塔是不同尺度目标识别系统的基本组成部分。 Human Part Segmentation FCN 2014.11 Segnet 2015.11 剑桥提出的旨在解决自动驾驶或者智能机器人的图像语义分割深度网络,SegNet基于FCN,与FCN的思路十分相似 Attention DeepLab v3(Vgg-16 / resnet-101) LIP-SSL CVPR 2017 LIP-JPPNet 2018.4 SS-JPPNet ...
Read more »

TensorRT int8

Posted on 2019-09-02 | In DNN_platform , tensorflow

[TOC]

TensorRT IN TF

主题思想:Tensorflow->TensorRT(pb->uff)

TensorRT-Int8

Int8 calibration in Pythonmnist_demo

step:

  • 1 create a INT8 calibrator

  • build and calibrate an engine for INT8 mode

  • run interence in INT8 mode

Read more »

Tensorflow Learning rate

Posted on 2019-08-30 | In DNN_platform , tensorflow

[TOC]

tf-API:

1
2
3
4
5
6
7
8
9
cosine_decay
cosine_decay_restarts
exponential_decay
inverse_time_decay
linear_cosine_decay
natural_exp_decay
noisy_linear_cosine_decay
piecewise_constant
polynomial_decay

学习率的变化,设计思路:

  • 固定学习率
  • 根据训练Step变化而改变
  • 根据训练time耗时(耗时其实也就是step)
  • 根据当前损失值(这方面缺少成果)
Read more »

TRAIN_GPUS_LR_BATCH

Posted on 2019-08-29 | In AI , DeepLearning

[toc]

Facebook,Google和Berkeley多个组都发表了论文对这一问题进行了理论和实验的讨论,首先我们对这些论文的结果做一个简要的总结。三篇论文研究类似,但是每一篇相对于前一篇都有改进。

Facebook:1小时内培训Imagenet

贡献:

提出了线性缩放规则,当批量变为K倍时,学习速度需要乘以K就能够达到同样的训练结果。看似简单的定律,Facebook的论文给出了不完整的理论解释和坚实的实验证明。除此之外,论文还讨论了如何处理批量标准化如何实现分布式SGD。通过线性缩放规则,Facebook成功的在一小时内训练了批量大小为8192的Resnet 50。

缺陷:

当批量超过8000时观测到了模型训练结果会严重变差。

Read more »
1…26272829

Simon Shi

286 posts
132 categories
243 tags
RSS
© 2024 Simon Shi
Powered by Hexo
|
Theme — NexT.Muse v5.1.4