关于深度学习的一点想法


我仅站在技术的角度去归纳一下深度学习的一点想法。

首先,深度学习能做一切数据相关的事情,区别在于能不能结合自身经验去建立一个较优的模型,让学习更加“高效”,这种“高效“包括但不限于:学习时间、学习误差率、学习鲁棒性、学习所耗费的资源等。

其次,深度学习处理的数据前期至少要求是相对全面的,不全面的数据、甚至如果重要的数据有所隐藏,对于任何学习模型来讲基本都是灾难的。

再次,深度学习所谓的模型,对于目前而言,受限于基础理论,建立模型的过程是渐进的、甚至是需要人工的,所以“调参”的手段是有很大的“主观成分”在里面的,所谓的“主观成分”不单说在某行业、某方向上经验越多越好,而是要求正确的、有体系(结构化、去噪音)的经验。事实上,很多调参人员在实验过程中受限于压力,经常带入了很多非科学、非理性的情感,甚至犯很多基础错误,也就是说:模型即使是对的,调参人员太傻逼也不行。

最后,深度学习是统计学和机器学习两门科学的交叉科学,它的宗旨是通过统计学习方法运用机器学习的运算(实现)思路,让机器帮我们去计算各种事件出现的概率,协助我们去分类大数据、预测新的样本为“某个特定分类”的概率等等。但是,仅仅是“概率”,既然是“概率”必然也就只是可能性而已。

因此,我个人认为所谓的深度学习不过是基于历史数据进行拟合的归纳法罢了,历史可能重演,但是又不尽相同。深度学习不过是个复杂的函数映射逼近算法,你的逻辑就是你的函数,逻辑都不正确,逼近得再好又如何?