CATSMILE
目录
1001: CTC Loss 结构解析
1003: 高斯随机变量的重参数化技巧(Reparametrisation)
1005: HMM简介
参考
1006: Jacobian Matrix And its determinant 雅克比行列式及其行列式 20220418
1007: Self Attention 自注意力机制 20220428
1009: CSHN 连续态霍氏网络 Continuous State Hopfield Network
[TBC]1010: 扩散生成模型 Diffusion Generative Model
1011: 噪音条件分数网络 noise conditional score network (NCSE)
1012: 软极参函数的求导: Differentiating softargmax (or so-called softmax)
1013: 从混合模型(MM)及广义期望最大算法(EM)到生成式自编码器(GAE)
1014: 自编码器及生成式自编码器 (AE and GAE) Autoencoder and Generative Autoencoder
1015: 贝叶斯自编码器 (BAE) Bayesian AutoEncoder
1016: 环参数化 Toroidal Parametrisation
1017: 高斯隐变量自编码器 GLGAE Gaussian Latent Generative Autoencoder
1018: 对抗生成网络 Generative Adverserial Network (GAN)
1019: 机器学习中的变分方法与KL恒等式 Variational approaches in machine learning and KL equations
1022: 局部线性生成式自编码器 (LLGAE) Locally Linear Generative Autoencoder
1024: 简单降噪扩散概率模型的推导 (SDDPM) Simplified Denoising Diffusion Probabilistic Model
1025: 降噪梯度对齐(Denoisng Score Matching)
1026: 梯度对齐的常用方法 (Recent methods in gradient matching)
#! https://zhuanlan.zhihu.com/p/542457081
jupytext: cell_metadata_filter: -all formats: md:myst text_representation: extension: .md format_name: myst format_version: 0.13 jupytext_version: 1.11.5 kernelspec: display_name: Python 3 language: python name: python3
1028-从KL散度到海氏距离 From KL divergence to Hellinger Distance
3001-知识图谱和NLP句子表示-20220416
3002: 从序列生成看模型隐状态的演进
[TBC] 3005: 神经网络发展脉络
3007: 混合模型和期望函数
3008: 蛋白质序列设计
server setup
8001: CATSMILE简介
8002:构建损失函数的程序语言
8500-PyTorch模型常用药
8501-20220524:模型复现与分布式建模
8800: PyTorch调试小工具 20220418
9001: [TBC] L2损失函数-正态分布
9002: 连续隐变量的混合模型与卷积
9003: [TBC] Junction Tree Algorithm
9005: GPT和BERT对比-无监督语言模型
9006: 语言模型内容填充
9007: BERT 结构解析
9008:对于BERT模型隐式分布的一些思考
9013-能量视角下的降噪扩散概率模型 DDPM Denoising Diffusion Probabilistic Model
9015-卷积神经网络有什么好? Why is CNN better?
jbex-example: Notebooks with MyST Markdown
1001: CTC Loss 结构解析
9002: 连续隐变量的混合模型与卷积
CATSMILE
»
Index
Index