【文件属性】:
文件名称:ActivationFunctions:在Tensorflow中从头开始实现激活功能
文件大小:178KB
文件格式:ZIP
更新时间:2021-05-26 09:16:14
deep-neural-networks tensorflow tensorflow-tutorials keras-tutorials keras-layer
在Keras中使用自定义图层的ActivationFunctions
激活函数是深度学习研究的重要领域。正在开发许多新的激活函数,其中包括生物启发性激活,包括其他在内的纯数学激活函数。 尽管有这样的进步,我们通常发现自己通常使用RELU和LeakyRELU而不使用/不考虑其他人。 在以下笔记本中,我展示了使用Keras和Tensorflow中的“自定义层”移植激活功能的难易程度!
链接到主笔记本->
已实施的激活:
漏泄
参数反射
lu
SElu
挥舞
格鲁
结构
src
|
|-- Activations.ipynb
|-- utils
|-- Utils.ipynb
|-- utils.py
references
|
|--Ref1
|--Refn
用法
git clone https://github.com/Agrover112/A
【文件预览】:
ActivationFunctions-master
----LICENSE(1KB)
----src()
--------Activation-Functions(GELU,SELU,ELU,LeakyReLU,PRELU).ipynb(280KB)
--------utils()
----references()
--------README.md(764B)
----README.md(2KB)