确实如此//@程龚_NJU: 讲得很好!研究者的工作,与其说是突破前人工作的局限,不如说是突破自己认知的局限。

毅马当闲 :熬夜读完AlphaGo zero的Nature论文,深有感触:我们一生与多少简单而又有效的想法失之交臂,是因为我们或者过早认为这些想法不值得去做或者没有能力或毅力正确而彻底地实现它们?这篇论文可以说没有提出任何新的方法和模型--方法可以说比以前的更简单“粗暴”。但是认真正确彻底的验证了这个看似简单的 ​

10月20日 14:07转发|评论

Really? AI is really crazy! ​

9月15日 17:28转发|评论

#tweet from Andrej Karpathy#: Everything I know about design of ConvNets (resnets, bigger=better, batchnorms etc) is useless in RL. Superbasic 4-layer ConvNets work best ​

1月22日 09:42转发|评论

转发微博

中科院王飞跃 :【重磅盘点 | 2016年各国人工智能报告集锦(附报告下载)】 http://t.cn/RMYBcA3

1月17日 08:56转发|评论

转发微博

爱可可-爱生活 :《Self-Taught Convolutional Neural Networks for Short Text Clustering》J Xu, B Xu, P Wang, S Zheng, G Tian, J Zhao, B Xu [Chinese Academy of Sciences] (2017) http://t.cn/RMwxORz GitHub:http://t.cn/RMwxORZ

1月4日 12:44转发|评论

【仅供娱乐】足不出户用PS拆支付宝AR红包,相信研发团队的图像匹配算法很快就会改进并提升。http://t.cn/RIpc2gK ​

2016-12-23 15:11转发|评论

//@爱可可-爱生活:今日焦点:主动记忆(Active Memory)能否替代Attention

爱可可-爱生活 :《Can Active Memory Replace Attention?》Ł Kaiser, S Bengio [Google Brain] (2016) http://t.cn/RVR9axK

2016-10-29 08:42转发|评论

转发微博

爱可可-爱生活 :《Hierarchical Memory Networks for Answer Selection on Unknown Words》J Xu, J Shi, Y Yao, S Zheng, B Xu, B Xu [Chinese Academy of Sciences (CAS)] (COLING 2016) http://t.cn/RVzzqYm GitHub:http://t.cn/RVzzqYu

2016-10-8 17:50转发|评论

真棒,看了好几遍//@WALKOUT设计:明星能把locking的范儿跳成这样 真的是非常厉害的 funky的感觉不是一天两天能练出来的

SoFunky :“Locking Khan & Korean Lockers与少女时代孝渊,女生跳Locking是非常可爱的。”我的秒拍作品,一起来看~http://t.cn/RcghBzx(使用#秒拍#录制) ​

2016-10-2 23:01转发|评论

CNN结合SNN[思考]//@老师木://@爱可可-爱生活:《IBM TrueNorth 类脑芯片突破,SNN 杀手级应用有望诞生》via:@新智元 http://t.cn/RcYxcWG

爱可可-爱生活 :《Convolutional Networks for Fast, Energy-Efficient Neuromorphic Computing》S K. Esser, P A. Merolla, J V. Arthur... [IBM Research] (2016) http://t.cn/RqLGcsY

2016-9-23 07:09转发|评论

恭喜组里两个工作被#CoLing2016#录用,分别解决QA任务@ShiN_墨眸_陪你到世界尽头 Hierarchical Memory Networks for Answer Selection on Unknown Words和文本分类任务@zhoupeng_casia Text Classification Improved by Integrating Bidirectional LSTM with Two-dimensional Max Pooling ​

2016-9-21 12:47转发|评论

//@Erlang://@hjk41: 都没说到点上啊。torch做nlp的用的多;caffe适合简单模型,所以在图像用的多;tf灵活,而且工程质量不错,应该会替代掉theano和torch;cntk是为语音做的,对语音的优化做的好,但目前编程接口不好用。怎么不提mxnet?看好mxnet跟tf硬肛

陈利人 :黄仁勋认为:Torch比较适用于训练语音信息;Caffe擅长图像信息的训练;TensorFlow工程设计做得非常好,使用起来方便灵活;微软CNTK在未来的企业应用中会比较成功。其它的呢? ​

2016-9-3 06:21转发|评论

+1,只怪三体太宏伟//@老师木: 同感 //@wingc:读完,感觉一般。开始还以为多宏大的设定,结果不过如此,故事也不算引人入胜。能让我读完最多是因为雨果奖名头和在北京生活过的共鸣 //@严锋:祝贺景芳,期待更多的中国科幻走向世界!

郝景芳 :《北京折叠》只是一个中短篇,暂时没有出版,今年下半年会收入小说合集。目前可以在我的博客上看电子版:http://t.cn/RA8gXgC

2016-8-24 08:39转发|评论

//@Copper_PKU://@黄浩XJU: //@爱可可-爱生活:"h-DQN - Reproduction with keras" by GitHub: http://t.cn/Rt34vja

爱可可-爱生活 :《Hierarchical Deep Reinforcement Learning: Integrating Temporal Abstraction and Intrinsic Motivation》T D. Kulkarni, K R. Narasimhan, A Saeedi, J B. Tenenbaum [MIT] (2016) http://t.cn/RqCyiZJ

2016-8-21 19:48转发|评论

会想杨慧应该和宝强在一起[思考],宝强老乡加油!//@Erlang:Repost

该微博因被多人举报,根据《微博社区管理规定》,已被删除。查看帮助:http://t.cn/Rfd14WY

2016-8-20 09:35转发|评论

//@phunter_lau:

爱可可-爱生活 :“Understanding Short Texts (ACL 2016 Tutorial)”by Zhongyuan Wang, Haixun Wang http://t.cn/RtjT3XV 云:http://t.cn/RtjT3Xc

2016-8-14 06:31转发|评论

一个人的性感撑起了里约奥运会的特色[good]//@谷大白话:18岁的邦辰 //@夏阿:[泪]感动!//@吃牙齿的怪物: 美得起鸡皮疙瘩。

Tangyimem #Gisele Bundchen# by Alexander McQueen S/S 1998 美胸战士 ​

2016-8-7 13:01转发|评论

一场科研竞赛蓄势待发

爱可可-爱生活 :《How deep reinforcement learning can help chatbots | VentureBeat》by Li Deng [Microsoft] http://t.cn/RtJXvAc

2016-8-3 06:41转发|评论

转发微博

ShiN_墨眸_陪你到世界尽头 :《揭秘深度强化学习》。看了下,Deep Reinforcement Learning 的超好科普。非常适合有机器学习或者神经网络背景,却还没来得及深入钻研强化学习技术的朋友。 原文的地址在:http://t.cn/R4UiEEZ 翻译得不错,但是发现了几个问题我写在评论上了。分享一下。 http://t.cn/Rtffoql

2016-7-30 16:37转发|评论

@ShiN_墨眸_陪你到世界尽头 //@宋超_美餐呢:

爱可可-爱生活 :《ACL2016最佳论文:用于口语对话系统策略优化的在线自动奖励学习》via:@雷锋网 http://t.cn/RtVhM61 ref:《On-line Active Reward Learning for Policy Optimisation in Spoken Dialogue Systems》P Su, M Gasic, N Mrksic… (2016) http://t.cn/RtVEoXU

2016-7-30 06:09转发|评论