IsWorld
IsWorld
首页
搜索目录
搜索内容
帮助
登录
注册
数据挖掘
深度学习
返回树状页面
深度学习
。
一文学会 Pytorch 中的 einsum - 知乎, https://zhuanlan.zhihu.com/p/361209187
。
【深度学习】Deep Forest:gcForest算法理解_z小白的博客-CSDN博客_gcforest, https://blog.csdn.net/zzc15806/article/details/80674992
。
kingfengji/mGBDT: This is the official clone for the implementation of the NIPS18 paper Multi-Layered Gradient Boosting Decision Trees (mGBDT) ., https://github.com/kingfengji/mGBDT
。
【深度森林第三弹】周志华等提出梯度提升决策树再胜DNN, https://www.sohu.com/a/233979519_473283
。
模仿学习(Imitation Learning)介绍 - 知乎, https://zhuanlan.zhihu.com/p/25688750
。
Federated learning: distributed machine learning with data locality and privacy, https://blog.fastforwardlabs.com/2018/11/14/federated-learning-distributed-machine-learning-with-data-locality-and-privacy.html
。
联合学习算法概要 - 知乎, https://zhuanlan.zhihu.com/p/130731441
。
知识蒸馏在推荐系统的应用 - 知乎, https://zhuanlan.zhihu.com/p/143155437
。
nn.EmbeddingBag的小知识点 - 知乎, https://zhuanlan.zhihu.com/p/346564870
。
如何选择合适的损失函数,请看...... - 知乎, https://zhuanlan.zhihu.com/p/38529433
。
详解联邦学习Federated Learning - 知乎, https://zhuanlan.zhihu.com/p/79284686
。
从ReLU到GELU,一文概览神经网络的激活函数, https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650776840&idx=4&sn=bf3145e97b09eacec7ebf10f28ef0628
。
Pytorch激活函数及优缺点比较 - 知乎, https://zhuanlan.zhihu.com/p/88429934
。
也谈激活函数Sigmoid,Tanh,ReLu,softplus,softmax - 知乎, https://zhuanlan.zhihu.com/p/48776056
。
基于前馈神经网络的时间序列异常检测算法 - 知乎, https://zhuanlan.zhihu.com/p/54471673
。
pytorch: Tensor 常用操作_吕爽-CSDN博客, https://blog.csdn.net/xholes/article/details/81667211
。
PyTorch中的nn.Conv1d与nn.Conv2d - 简书, https://www.jianshu.com/p/45a26d278473
。
CUDA 语义-PyTorch 1.0 中文文档 & 教程, https://www.cntofu.com/book/169/docs/1.0/notes_cuda.md
。
多任务学习优化(Optimization in Multi-task learning) - 知乎, https://zhuanlan.zhihu.com/p/269492239
。
深度学习之----多任务学习_zxyhhjs2017的博客-CSDN博客_多任务深度学习, https://blog.csdn.net/zxyhhjs2017/article/details/83108607
。
模型汇总-14 多任务学习-Multitask Learning概述 - 知乎, https://zhuanlan.zhihu.com/p/27421983
。
手把手教你用Pytorch-Transformers——实战(二) - 那少年和狗 - 博客园, https://www.cnblogs.com/dogecheng/p/11911909.html
。
深度学习PyTorch,TensorFlow中GPU利用率较低,CPU利用率很低,且模型训练速度很慢的问题总结与分析_是否龍磊磊真的一无所有的博客-CSDN博客, https://blog.csdn.net/qq_32998593/article/details/92849585
。
pytorch中model eval和torch no grad()的区别_江前云后的专栏-CSDN博客, https://blog.csdn.net/songyu0120/article/details/103884586
。
PyTorch 模型性能分析——PyTorch Profiler - 简书, https://www.jianshu.com/p/1d09e56abbf8
。
卷积神经网络(CNN)中的卷积核 概念 原理_limanjihe的专栏-CSDN博客, https://blog.csdn.net/limanjihe/article/details/106368503
。
Transformer 模型的 PyTorch 实现, https://juejin.cn/post/6844903680487981069#heading-20
。
Pytorch学习之torch----索引、切片、连接、变异操作 | G&L博客, https://guoyuantao.github.io/2019/06/22/pytorch-xue-xi-zhi-torch-suo-yin-qie-pian-lian-jie-bian-yi-cao-zuo
。
深度学习中优化方法——momentum、Nesterov Momentum、AdaGrad、Adadelta、RMSprop、Adam_天泽28的专栏-CSDN博客_momentum, https://blog.csdn.net/u012328159/article/details/80311892
。
优化方法总结:SGD,Momentum,AdaGrad,RMSProp,Adam_Joe的博客-CSDN博客_adagrad, https://blog.csdn.net/u010089444/article/details/76725843
。
Sequence-to-Sequence Modeling with nn.Transformer and TorchText — PyTorch Tutorials 1.8.1+cu102 documentation, https://pytorch.org/tutorials/beginner/transformer_tutorial.html
。
一文看懂Transformer内部原理(含PyTorch实现) - 郭耀华 - 博客园, https://www.cnblogs.com/guoyaohua/p/transformer.html
。
一文读懂Transformer+源码复现_程序猿废柴的博客-CSDN博客_transformer 源码, https://blog.csdn.net/jiaowoshouzi/article/details/89641775
。
神经网络常用的12种激活函数 - 知乎, https://zhuanlan.zhihu.com/p/99401264
。
从入门到放弃:深度学习中的模型蒸馏技术 - 知乎, https://zhuanlan.zhihu.com/p/93287223
。
一分钟带你认识深度学习中的知识蒸馏 - 知乎, https://zhuanlan.zhihu.com/p/258390817
。
Transformer的矩阵维度分析和Mask详解_我最怜君中宵舞的博客-CSDN博客, https://blog.csdn.net/qq_35169059/article/details/101678207
。
Ch4.TensorFlow基本操作3-Tensor索引和切片 - 简书, https://www.jianshu.com/p/4dea61299c55
。
图解什么是 Transformer - 简书, https://www.jianshu.com/p/e7d8caa13b21
。
基于注意力的神经机器翻译 | TensorFlow Core, https://tensorflow.google.cn/tutorials/text/nmt_with_attention?hl=zh-cn
。
人工智能知识专题 :机器学习、深度学习、NLP 等, https://easyai.tech/ai-knowledge-hub
。
多任务学习-multi-learning总结_DRACOYU的博客-CSDN博客_多任务学习, https://blog.csdn.net/chanbo8205/article/details/84170813
。
6. 从Encoder-Decoder(Seq2Seq)理解Attention的本质 - hyc339408769 - 博客园, https://www.cnblogs.com/huangyc/p/10409626.html
。
如何理解卷积神经网络中的权值共享? - 知乎, https://www.zhihu.com/question/47158818/answer/670431317
。
清华大学孙茂松组:图神经网络必读论文列表, https://mp.weixin.qq.com/s/3CYkXj2dnehyJSPLBTVSDg
。
梯度下降的可视化解释(Momentum,AdaGrad,RMSProp,Adam) - 知乎, https://zhuanlan.zhihu.com/p/147275344
。
Transformer详解(三):Transformer 结构 - 简书, https://www.jianshu.com/p/0c196df57323
。
Transformer|深度学习(李宏毅)(八) - 简书, https://www.jianshu.com/p/e305771b1b54
。
完成此功能需要登录!
登 录
注 册
处理中....
处理完成,请
刷新
删除所有子目录和内容
仅删除该目录,所有子目录和内容上移
处理中....