论文url https://arxiv.org/pdf/1702.05983.pdf @article{hu2017generating,title={Generating adversarial malware examples for black-box attacks based on GAN},author={Hu, Weiwei and Tan, …
激活函数也是神经网络中一个很重的部分。每一层的网络输出都要经过激活函数。比较常用的有linear,sigmoid,tanh,softmax等。Keras内置提供了很全的激活函数,包括像LeakyReLU和PReLU这种比较新的激活函数。 一、激活函数的使用 常用的方法在Activation层中可以找到。看代码。 from ker…