Git命令详解

主要记录自己平时使用的 Git 命令,方便记忆和查找..

The RavenClaw dialog management framework 论文阅读

本文描述了一个基于计划的、独立于任务的对话管理框架RavenClaw。该框架的一个关键特点是,它将对话控制逻辑的特定领域方面与独立于领域的对话技巧隔离开来,并在这个过程中促进了在复杂的、面向任务的领域中运行的混合主动系统

Dialogue Transformers 论文详解

论文中引入 transformer 的结构,其中注意力模型在对话轮的顺序上面起了了作用.最近我们使用递归神经网络多轮对话的上下文中用户说的话,但是我们原本认为注意力模型会更适合多轮场景.默认情况下,RNN假设每个选项和完

骑行去浙江农业大学.

疯狂的骑行了 30 公里,整个人都要瘫了..

生命,何以高贵 读后感

生命是高贵的,不在形体,财富,在于灵魂. 所以我们需要学习,思考,自尊以及尊重别人,

20191025 TGIF

哇哇哇,又抢到一个tgif,想问大家都看些什么书,有什么可以推荐的.

Conditional Adversarial Nets 详解

本文提出在利用 GAN(对抗网络)的方法时,在生成模型G和判别模型D中都加入条件信息来引导模型的训练,并将这种方法应用于跨模态问题,例如图像自动标注等。

剪个寸头, 哈哈哈

最近老是想剪个寸头,索性今天就实现了梦想.

2019国庆厦门游玩

本来打算回家的,但是老家距离杭州比较远,就放弃掉了,在好朋友的忽悠下去了厦门游玩。总体来讲玩的还不错,厦门风景也不错,哈哈哈。

深入理解L1,L2正则化

正则化(Regularization) 是机器学习中对原始损失函数引入额外信息,以便防止过拟合和提高模型泛化性能的一类方法的统称。正则化是在经验风险上面加了一个正则化项或者惩罚项,正则化函数一般是模型法则度的单调增函数,模型越负责,正则化值就越大.