AemaH Blog

Thinking will not overcome fear but action will.

日记

忽然想起来于是就顿时下笔写的东西

翻了翻才知道,原来上次写已经是接近半年前的事情了,就算有回头翻了翻隔壁那个D:\Document\未写完的blog的文件夹,emmmmm,貌似也止步在年前,发生了一些事情,前些时候真的心态崩溃,于是也开始在原地踏步,就像写这一段 我开始在思考:我说的话,通顺吗?「顺带 思考了好久是不是该加上书名号」 反正 现在看开点了,尽量努力的改正吧。 回头看有丶茫然,不知道从何开始做起来,昨天看了一个...

Tensorflow

有关dataset和conv的一点用法的笔记

碎碎念时间 emmmm,忽然感觉最近确实有点懈怠了啊,从每周的博客的字数其实也能体现出来;「顺带尝试了一波jekyll模板的字数统计」 TFRecord tensorflow的建议格式,除了加快计算速度之外 更多的还是用于将data和label放在一起更为方便的使用,代码如下: 创建 # Step 1: 创建writer writer = tf.python_io.TFRecordWrit...

Tensorflow

有关variable和scope的一点用法的笔记

首先是name_scope和variable_scope的用处区别 对于前者的tf.name_scope,作用更多的还是一个编码习惯和tensorboard里面展示单元的作用,如下: with tf.name_scope('data'): iterator = dataset.make_initializable_iterator() center_words, targe...

RNN

有关RNN的一些简单总结_1

简单的来谈一下这段时间看RNN时候遇到的一点有关概念的理解方面的东西,基本上包含一些基础概念和tensorflow里面的东西; RNN的多层和时序的概念 不知道有没有和我遇到一样的问题,在一开始看RNN的结构图 直白的把其中的$h_1$、$h_2$等结构看成了就是FCN里面的第一隐层 第二隐层这样的关系,进而导致到后面对于tensorflow其中前向传播的时候call方法和dynamic_r...

DL之目标检测

关于目标检测的一些笔记

前言 上周所看的有关目标检测的一些东西,之前面试的时候也被问道过有关目标检测的问题 了解的不多 于是上周的时候,将其中有关候选框的DL方法进行了一波了解和学习,做的一些总结性的知识的东西,代码和使用的话 更多的还是用的Google官方公布的一个基于tensorflow的实现; 碎碎念时间:了解了一波才发现blog文章上面的图片最好的分辨率原来是1900x870 或者说高为1080的也还...

DL之RNN

一些基本知识

前言 这一周把RNN相关的东西给看了一下,毕竟现阶段DL的两大领域:CV和NLP。CNN至少都要有所了解,而NLP还是看得少一点,于是这周将其中相关的东西给好好看了一波,没有太多更深的东西 都比较基础,只是自己总结复述一波。顺带上周把目标检测看了一波也做了些总结,之后再放上来这里吧; 碎碎念时间:以上那行字是一个点之前就写完的,结果在回顾之前的文章的时候,就着:标题的字体颜色应该如何修...

Reinforcement Learning

遇到的一些强化学习面试问题

说道面试时候问道的强化学习方面的问题,大致可以从value-based和policy-based讲起; value-based 这也就是强化学习日常的基础了,也就是我们平时强化学习最常用的方法;其起源来自于动态规划,基于贝尔曼最优性得到的贝尔曼最优化方程,也就是说动态规划的核心就是找到最优值函数,进而推广从model-based到model-free,一系列强化学习方法都离不开先完成对于...

Reinforcement Learning

DQN及其相关变形

主要是介绍DQN和其中的相关变形,内容上的介绍可能和:对于强化学习的一些总结有所类似,好处当然就是多了一些代码的实现了; DQN 首先就是经典的DQN了,对于其中的介绍 相关qlearning的off-policy和on-policy就不再赘述,在之前的上一篇文章中也介绍了很多,关于值函数近似的思想在这一篇 值函数和策略梯度也有所说明 这里更多的还是说明一下DQN和 值函数和策略梯度文章中提...

DL之正则化

解决过拟合

忽然发现 对于正则化的总结忘记放上去了,或者与其说是正则化,倒不如说是常见的解决过拟合的方法; 话说 忽然感觉总自己写的东西 其实总有点内在联系的 连在一起看,总有点似曾相识的感觉; 过拟合的定义 如果说欠拟合是指模型并不能在训练集上有着足够低的训练误差;那么过拟合指模型的训练误差(经验误差)与测试误差(泛化误差)之间差距过大; 「反映在评价指标上,就是模型在训练集上表现良好,但...

DL之激活函数

ReLU和sigmoid

这就是个神经网络绕不开的问题:选择什么激活函数;当然一开始的时候 首先我们要知道为什么需要选择激活函数; 为什么需要激活函数 说到激活函数,绕不开的一个问题就是:为什么需要激活函数;如果进一步联系的话,那么就是,神经网络加入激活函数引入隐层 放弃了训练问题的凸性是为什么? 首先就是说放弃训练问题的凸性代表着什么?凸性表示问题可以转化为一个凸优化问题,也就是说有着最优解;但同样的即使放弃...