#235 别聊,一聊你就暴露

这周吃饭的时候遇到个人,说什么自己对机器学习非常有兴趣,一直都在做这个。

好嘛,既然你这么自信我就随便问了几个问题:

  1. What’s the difference between L1 and L2 regularization?
  2. What’s the difference bewteen kernel function and basis function?
  3. What’s the benefits to use Rectified Linear Function instead of Sigmoid Function?
  4. Explain the relationship between Maxout and ReLU.
  5. Is dropout theoretically works when activation function is not a linear function? Why?

好嘛,这几个问题真的很基础,如果你说你做机器学习,搞深度学习,连这几个问题都答不上来,或者答得没办法让我满意。

我最多只能认为你在机器学习领域的建树就是跑过几个 Demo ,了解一些基本概念,把它当「黑盒」来用。

我只能说,基础不牢,连一些基本的东西都搞不清楚的话,真的很难在这条路走得很远。

真的,别聊,别在我面前装,一聊你就暴露水平。

如果我的文章对你起到了帮助,你可以选择金额不限的捐助,帮助我写出更多的文章。