@落羽神恋LOVE 请自行删掉你的帖子
这位吧友在他的帖子里把CNN批的一无是处。但是不好意思,说这的是不懂神经网络。
不要随便从度娘上随便找一个神经网络发展史和一些反面例子就***以偏概全。我不想引战,但是我不希望尾巴出现任何以偏概全的事情。

首先,你要清楚神经网络的输出结果是一个概率分布。像这位吧友说的这一个我想提醒你神经网络的输出是只有几个可选的项的。
这并不是CNN本身的问题,而是由于数据量不够造成的过拟合现象。而这种现象很容易通过加大数据量和利用L2 Regularization、Dropout等优化方法来消除。
其次,神经网络的训练本质是一个非线性回归。同时,有严格证明只需要CNN的参数量足够多就可以做到识别任意物体而0出错。
再其次,这位吧友说“不是世界上所有东西都能量化的”,然而请注意神经网络最擅长的是什么?是根据一大堆看似无规律的事情当中总结出规律。只需要将最原始的测量数据输送到神经网络便可以做到总结出特征。
最后,请你不要随便百度一堆东西就来乱诋毁。
这位吧友在他的帖子里把CNN批的一无是处。但是不好意思,说这的是不懂神经网络。
不要随便从度娘上随便找一个神经网络发展史和一些反面例子就***以偏概全。我不想引战,但是我不希望尾巴出现任何以偏概全的事情。

首先,你要清楚神经网络的输出结果是一个概率分布。像这位吧友说的这一个我想提醒你神经网络的输出是只有几个可选的项的。
这并不是CNN本身的问题,而是由于数据量不够造成的过拟合现象。而这种现象很容易通过加大数据量和利用L2 Regularization、Dropout等优化方法来消除。
其次,神经网络的训练本质是一个非线性回归。同时,有严格证明只需要CNN的参数量足够多就可以做到识别任意物体而0出错。
再其次,这位吧友说“不是世界上所有东西都能量化的”,然而请注意神经网络最擅长的是什么?是根据一大堆看似无规律的事情当中总结出规律。只需要将最原始的测量数据输送到神经网络便可以做到总结出特征。
最后,请你不要随便百度一堆东西就来乱诋毁。
