hankcs
上海 松江区

加关注

YouTube经常单曲循环,高光妆神似船长

石川绫子 :这是2015年CINEMA CLASSIC CONCERT演奏会上的《He's a Pirate》Live版视频,送给大家! 很喜欢这首气势磅礴的曲子,总能给人力量和勇气呢。#石川绫子# #加勒比海盗# http://t.cn/A62Uq32f

5月23日 04:03转发|评论

回复@PC_Seawind:看来tf2还需要时间打磨,用过一段时间DyNet、MXNet、tf1、tf2,主力转PyTorch了。//@PC_Seawind:被tf的内存泄漏问题折磨的生活不能自理

hankcs :3月份给TensorFlow2.x提了一个内存泄露的bug http://t.cn/A6A13rjU 一个import比PyTorch慢10倍的issue http://t.cn/A6A13rjL 。TensorFlow社区确认后到现在都没有修复,不知道是bug太多了要排队还是内存泄露算小问题不值得一修。失望。 ​

5月14日 01:23转发|评论

3月份给TensorFlow2.x提了一个内存泄露的bug http://t.cn/A6A13rjU 一个import比PyTorch慢10倍的issue http://t.cn/A6A13rjL 。TensorFlow社区确认后到现在都没有修复,不知道是bug太多了要排队还是内存泄露算小问题不值得一修。失望。 ​

5月14日 00:59转发|评论

HanLP感知机词法分析的Python移植,包括中文分词、中文斷詞、詞性標註、命名實體識別等: http://t.cn/A6zLsg2c ​

3月11日 03:29转发|评论

#新型冠状病毒感染肺炎#病例行程轨迹追踪知识图谱开源:http://t.cn/A67gO6Ms 基于HanLP和腾讯新闻自动构建,包含事件抽取、三元组抽取等,作者徐奕。 ​

3月7日 23:11转发|评论

GraphNN和Parsing联系非常密切//@王斌_小米AI: 转发微博

唐杰THU :推荐几个近年的图卷积网络算法,MixHop、Graph U-nets、GraphNas、GMNN,相比原来的GCN和GAT效果都有大大的提高, 一个是DeepWalk作者Bryan Perozzi 等人的“MixHop: Higher-Order Graph Convolutional Architectures via Sparsified Neighborhood Mixing” UCLA和google的作品,Mixture思路是个很赞 ​

3月6日 22:37转发|评论

//@王斌_小米AI: //@-林鸿飞-: 转发微博

清华大学 :【#全家一起上清华#直播《闲话AI:自然语言理解难在哪儿》】 主讲:清华计算机系副教授 刘知远 简介:AI的一大梦想是让计算机像人一样理解和使用语言,但人类语言则被认为是人类智能的集中体现。听刘老师@zibuyu9 讲计算机理解人类语言到底难在哪儿?#高校学堂计划##教育在行动# http://t.cn/A6hYfssr

2月21日 09:11转发|评论

这个是类似image captioning的多模态输入吗,有意思

刘群MT-to-Death :剪纸送祝福,华为AI帮你写春联了!(基于诺亚方舟语音语义实验室的GPT文本生成模型)http://t.cn/A6PwTUgB

1月24日 05:22转发|评论

【HanLP 2.0 alpha版发布】面向生产环境的多语种NLP工具包,基于 TensorFlow 2.0,目标是普及落地最前沿的技术。支持任意语种分词、词性标注、命名实体识别、依存句法分析、语义依存分析、文本分类。开源地址:http://t.cn/A6vErmQq ​

1月20日 17:09转发|评论

k折校验去掉了简单样本,保留13K(MSRA有50K),远程监督后有人工校对[赞]。//@52nlp: 转发微博

AINLP :CLUENER2020:中文细粒度命名实体识别数据集来了 http://t.cn/A6vxnKud 命名实体识别(NameEntity Recognition)是信息提取的一个子任务,其目的是将文本中的命名实体定位并分类为预定义的类别,如人员、组织、位置等。它是信息抽取、问答系统和句法分析等应用领域的重要基础技术,是结构化信息抽取的重 ​

1月16日 23:39转发|评论

#新年礼物#Google今天发布了官方的中文ALBERT预训练模型: http://t.cn/AieuobqA ​

2019-12-31 10:42转发|评论

评论字段很有用[good]//@52nlp: 转发微博

AINLP :推荐一下坚新同学这个项目:中文歌词生成,缺不缺语料?这里有一个开源项目值得推荐 http://t.cn/AikriI4P http://t.cn/AikriI4z

2019-12-26 04:46转发|评论

开演唱会的语境下让歌迷疯狂的意思,翻译软件也没错,原文就有开车的暗示//@刘群MT-to-Death: 原文到底啥意思啊?#自然语言理解太难了# //@于赓哲 :你用的是什么翻译软件,告诉我一声,我好避雷//@喷嚏网铂程 ://@独立鱼 : 谁能正确翻译福山雅治的原意?

福山雅治 :来自全国各地的聖女们,谢谢你们。留守在家的聖女们,我也会把你们搞得乱七八糟。Merry Xmas!福 ​

2019-12-25 17:02转发|评论

微软是不是用了拼音特征,螺蛳和螺丝音同形不同//@刘群MT-to-Death: 试了一下谷歌、微软和有道,这个翻译似乎来自微软,谷歌和有道都是authentic snail powder,也不怎么样[允悲] http://t.cn/AiDiRBC5 //@小城民工甲 ://@刘群MT-to-Death :#自然语言理解太难了# 笑出声[笑cry]

同声翻译樱桃羊 :Authentic Screw powder! [笑cry][笑cry][笑cry] ​

2019-12-15 02:19转发|评论

大力出奇迹,没算力浑身难受[doge]

刘群MT-to-Death :官宣来了:【哪吒】预训练语言模型http://t.cn/AieRpHPa

2019-12-10 08:04转发|评论

【“原子”因果常识图谱】AAAI19的论文(Sap et al. (2019))开源了一个包含87万条推理常识的知识图谱ATOMIC。相较于常见的基于本体论分类条目的知识图谱,该知识库专注于“如果…那么…”关系的知识。…http://t.cn/AidvAGzF ​

2019-11-18 09:16转发|评论

//@52nlp: 转发微博

AINLP :ELECTRA: 超越BERT, 19年最佳NLP预训练模型 http://t.cn/AiBGKYlH

2019-11-4 09:47转发|评论

【定个小目标,发它一个亿条微博语料】2019最新的微博语料,可用于预训练语言模型Weibo-BERT词向量等。由于比较时新,对网络流行语的建模可能很有帮助。每个压缩包都有两千多万条,一共5个。大家下载之后也算是有一个亿…http://t.cn/Ai3sgtho ​

2019-10-24 10:38转发|评论