机器学习日报 2015-01-15 深度学习现在坑还多吗?

2015-01-16 09:01:46 +08:00
 haoawesome

@好东西传送门 出品, 过刊见 http://ml.memect.com

订阅:给 hao@memect.com 发封空信, 标题: 订阅机器学习日报

可点击加长版56条 http://memect.co/ml-list-2015-01-15


深度学习现在坑还多吗?

@G_Auss

关键词:公告板, 深度学习

我在 @知乎 回答了 [深度学习现在坑还多吗?] :要说深度学习还有什么坑,就要看看目前的深度学习都从哪些方面去研究。个人觉得当前深度学习领域的学术研究可以包含四部分:优化(Optimization),泛化(Generalization),表达(Represen… [1]

[1] http://zhi.hu/eQVI

 


不容错过的免费大数据集

@爱可可-爱生活

关键词:自然语言处理, 数据科学, 政府网站

The free big data sources you should know 不容错过的免费大数据集,有些已经是耳熟能详,有些可能还是第一次听说,内容跨越文本、数据、多媒体等,让他们伴你开始数据科学之旅吧,具体包括:Data.gov、US Census Bureau、European Union Open Data Portal、Data.gov.uk等。 [1]

[1] https://agenda.weforum.org/2014/12/the-free-big-data-sources-you-should-know/

 


湾区Spark Meetup: MLlib in 2015

@CrazyJvm

关键词:架构, 资源, Spark, 视频

湾区Spark Meetup 2015第一炮,Patrick和祥瑞做了精彩的分享,展望了Spark在2015的发展,同时也着重强调了SchemaRDD的重要作用,祥瑞介绍了MLlib in 2015. slide & demo code [1] 视频: [2] (youtube)

[1] http://pan.baidu.com/s/1i3nCxu9

[2] https://www.youtube.com/watch?v=YWppYPWznSQ&feature=em-subs_digest

 


Sutskever的深度学习综述及实际建议

@王威廉

关键词:深度学习, Geoffrey Hinton, Ilya Sutskever, 行业动态, 集成学习

谷歌科学家、Hinton亲传弟子Ilya Sutskever的深度学习综述及实际建议 [1] 比较喜欢其中关于tricks的建议:包括data, preprocessing, minibatches, gradient normalization, learning rate, weight initialization, data augmentation, dropout和ensemble。

[1] http://weibo.com/p/1001603799166017998138

 


深入讨论RNN

@爱可可-爱生活

关键词:深度学习, Nikhil Buduma, 神经网络

《深入讨论RNN》非常好的讨论递归神经网络的文章,覆盖了RNN的概念、原理、训练及优化等各个方面内容,强烈推荐!本文作者Nikhil Buduma,也是前两天推荐的《Deep Learning in a Nutshell》的作者,赞! [1]

[1] http://nikhilbuduma.com/2015/01/11/a-deep-dive-into-recurrent-neural-networks/

1665 次点击
所在节点    机器学习
1 条回复
verpas
2015-01-16 09:37:59 +08:00
好东西 收藏了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/162589

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX