Simon Shi的小站

人工智能,机器学习 学习记录


  • Home

  • About

  • Tags

  • Categories

  • Archives

AIGC

Posted on 2022-06-01 | In AIGC
分享 | 工业缺陷检测深度学习方法综述 原文 AIGC AIsjasper AI   网址:https://www.jasper.ai   在可用的 AI 文案写作工具中,Jasper 作为那些寻求通过内容生成赚钱的人来讲,它是经济实惠且高效的选择之一。   该工具精通短格式和长格式内容均能完成。   Jasper 拥有一系列功能,包括无需切换到模板即可快速生成内容的命令、用于创建文章的高效长格式编辑器,以及包含有助于创建各种类型内容的向导的内容工作流,例如,博客文章、销售文案和重写。   Jasper Chat 是该平台的一项特殊功能,它提供了 Google 搜索的替代方案,使 AI 能够使用可用的最新信息生成内容。   此外,Jasper Art(下面有更多详细信息)是用于生成 AI 图像的令人印象深刻的功能。   Jasper 的一个局限性是需要手动编辑来优化内容以吸引读者并超越 AI 检测工具。   总的来说,Jasper 和 Content at Scale 仍然是最有用的 AI 文案工具之一。   2. Jasper AI Art Generator   网址:https: ...
Read more »

SLAM(simultaneous localization and mapping)

Posted on 2022-05-30 | In SLAM
SLAM(simultaneous localization and mapping)即时定位与地图构建 SLAM 架构图 1、传感器信息读取 2、视觉里程计(Visual Odometry,VO) ​ VO又称为前端(Front End)。 估计两张图之间的运动,存在误差,也就是漂移(Drift) 3、后端优化 4、回环检测(Loop Closing) ​ 5、Mapping 前端 后端优化 回环检测 图像特征提取,匹配 滤波与非线性算法,估计状态的均值和不确定性(方差) 解决位置估计随时间飘移问题 6,10,11 运动方程 $$x_k = f (x_{k-1}, u_k, w_k)$$ $u_k$ 运动传感器的读数, $w_k$ 噪声 观测方程: ​ 在 $x_k$位置上,看到了某个路标点$y_j$,产生了一个观测数据 $Z_{k,j}$ $$z_{k,j} = h(y_i, x_k, v_{k,j})$$ 线性高斯系统(Linear Gaussian,LG系统)| 卡尔曼滤波器(Kalman Filter,KF ...
Read more »

C++ API doc

Posted on 2022-05-27 | In dev , c++
[TOC] 头文件#include 1234567random_shuffle();char s[4];random_shuffle(s, s+4);vector s;random_shuffle(s.begin(), s.end()); #include <string.h> 12strlenstrsep 使用以下几种函数判断文件是否存在 #include <fstream> –> 使用ifstream打开文件流,成功则存在,失败则不存在; #include <stdio.h> –> 以fopen读方式打开文件,成功则存在,否则不存在; #include <unistd.h> –> 使用access函数获取文件状态,成功则存在,否则不存在 #include <sys/stat.h> –> 使用stat函数获取文件状态,成功则存在,否则不存在 123456789101112131415161718192021222324252627#include <sys/stat.h>#incl ...
Read more »

C++ So 编译及使用 (Todo)

Posted on 2022-05-24 | In dev , c++
共享库Open在C++中,dlopen()函数用于动态加载库(也称为共享库)。该函数的原型如下: 1cpp复制代码void* dlopen(const char* filename, int flag); 其中,filename参数指定要加载的库的文件名,flag参数指定加载库的方式。 RTLD_LAZY,RTLD_LOCAL 和RTLD_DEEPBIND是flag参数选项,它们的作用如下: RTLD_LAZY:使用该选项时,库中的函数和变量在第一次使用时才会被解析。也就是说,如果在库中引用了某个函数或变量,那么在加载库时不会立即解析它。而是在第一次调用该函数或使用该变量时,才会进行解析。这种方式被称为懒加载。 RTLD_LOCAL:使用该选项时,库中的函数和变量对于调用程序来说是局部的。这意味着在库中定义的函数和变量不会与全局命名空间中的同名函数和变量冲突。这种方式有助于避免命名冲突的问题。 RTLD_DEEPBIND是dlopen()函数的选项之一,它的含义是:在加载共享库时,将该库的符号查找范围置于该库的符号表中,而不是全局符号表中。也就是说,当在共享库中使用符号时,会优先在 ...
Read more »

Conda 常用命令手册

Posted on 2022-05-23 | In dev , conda
Env 创建123conda create -n XXX python=3.8conda create -n XXX --clone oldXXXconda remove -n oldXXX --all 修改环境名字 123456直接修改conda环境下的目录名即可# conda environments:#base /root/anaconda3torch_1.4.0_cu100 /root/anaconda3/envs/torch_1.4.0_cu100torch_1.4.1 /root/anaconda3/envs/torch_1.4.1 一、镜像1.镜像源添加方法首先是一些常用命令,帮你诊断目前你的conda源的情况,如果是新装的conda,可以不用管。第一步:查看并还原默认镜像源 1.1 首先,看一下目前conda源都有哪些内容conda info 1.2 然后,删除并恢复默认的conda源1conda config --remove-key channels 下面是几个常用命令:后面 ...
Read more »

RL - DQN 理论etc

Posted on 2022-05-21 | In AI , RL
book 深度强化学习:学术前沿 华章书院电子书 zhihu-Torch在倒立摆(CartPole)游戏中实现强化学习 算法:DDQN、Duelling Network以及优先经验回放 CSDN tensorflow2.0 实现 DQN CSND 深度强化学习-DQN算法原理与代码 DDQN与DQN算法用tensorflow2.0实现 github DQN Pytorch 一些讨论: GAN是RL理论的一种实现。 RL是一个理论框架,GAN是在RL理论上开发的一种模型训练方法,但GAN更高明的一点是,生成式的网络和判别网络互为Environment,而RL则定义了机器根据环境的奖励后改变模型,然后来决定下一步action,再得到奖励来改变模型。所以GAN可以看成是一种双向强化学习。 正强化学习有环境学策略,逆强化学习就是反过来学环境 三维可视化助你直观理解DQN算法[DQN理论篇] zhihu
Read more »

C++ 调用 Torch pt文件

Posted on 2022-05-20 | In DNN_platform , pytorch , c++
[TOC] install https://pytorch.org/get-started/previous-versions/ https://pytorch.org/tutorials/beginner/saving_loading_models.html#save-load-entire-model python库 https://download.pytorch.org/whl/cu101/torch_stable.html example-app.cpp1234567#include <torch/torch.h>#include <iostream>int main() { torch::Tensor tensor = torch::rand({2, 3}); std::cout << tensor << endl;} Cmakelists.xml123456cmake_minimum_required(VERSION 3.0 FATAL_ERROR)project(exampl ...
Read more »

RL 概念 + RL算法

Posted on 2022-05-14 | In AI , RL
Contents: [TOC] Naikai RL1、基本原理,概念依赖模型: 基于模型的强化学习算法:用数据先学习系统模型,然后基于模型得到最优策略 无模型的强化学习算法:直接通过交互数据得到最优策略 策略更新方法: 基于值函数的强化学习, 基于直接策略搜索的强化学习, Actor-Critic的方法。 根据回报函数是否已知分为:正向强化学习和逆向强化学习 正向强化学习:从回报(reward)学到最优策略 逆向强化学习:从专家示例中学到回报函数 根据任务大小和多少分为:分层强化学习、元强化学习、多智能体强化学习、迁移学习等 发展趋势\1. 贝叶斯强化学习 ​ 融合推理能力,可解决POMDP问题 \2. 分层强化学习 ​ 解决大规模学习问题 \3. 元强化学习 ​ 解决对任务学习 \4. 多智能体强化学习 ​ 博弈:合作,竞争,混合 路线图强化学习课程的路线图 \1. 搞清楚马尔科夫决策过程的概念 \2. 抓住强化学习的基本迭代过程:策略评估和策略改善 \3. 掌握强化学习最常用的两种方法:基于值函数的方法和 ...
Read more »

C++ 性能优化

Posted on 2022-05-10 | In dev , c++
C++类(五)——重新审视auto、比较三种for循环的效率、 1234567891011121314151617181920212223242526int ids[] = {1,2,3,4,5}// auto 方法最快for (auto v: ids){ cout << v;}// for (int i=0; i< sizeof(ids)/sizeof(int); i++){ cout << ids[i];}// 每次都要求group.size(), 并还需要找group[i]的位置vector<int> group;for (size_t i=0; i< group.size(); i++){ cout << group[i];}// 每次求iter!=end(), 并且要提取相应位置的值for (iter= group.begin(); iter != group.end(); iter++){ cout & ...
Read more »

C++ 容器

Posted on 2022-05-06 | In dev , c++
[TOC] c++ STL 容器 序列容器 vector array queue deque list forward_list 关联容器 map set unordered_map multimap unordered_multimap multiset unordered_multiset 1. vector初始化 12345678910 vector<int> vec1; vector<float> vec2(3); vector<char> vec3(3,'a'); vector<char> vec4(vec3); vector<vector<int>> vecNN(5);//<1> 第一个是空的整形vector,我们没有给他添加任何元素。//<2>第二个初始化了一个有3个元素的vector,由于并没有指定初始 值,将会使用编译器默认的初始值。//<3>第三个初始化了含有3个a的字符vector,括号 ...
Read more »
1…111213…29

Simon Shi

286 posts
132 categories
243 tags
RSS
© 2024 Simon Shi
Powered by Hexo
|
Theme — NexT.Muse v5.1.4