ITPub博客

首页 > 人工智能 > 自然语言

关于 “自然语言” 的内容如下:

  • 百分点认知智能实验室出品:情感分析在舆情中的研发实践(上)

    百分点认知智能实验室基于前沿的自然语言处理技术和实际的算法落地实践,真正实现了整体精度高、定制能力强的企业级情感分析架构。从单一模型到定制化模型演变、文本作用域优化、多模型(相关度)融合、灵活规则引擎、以及基于实体的情感倾向性判定,探索出了一套高精准、可定制、可干预的智能分析框架,为舆情客户提供了高效的预警研判服务。

    思动大数据 自然语言 345 2020-04-03 11:30
  • 完胜 BERT,谷歌最佳 NLP 预训练模型开源,单卡训练仅需 4 天

    2020-03-17 17:26:39近日,谷歌宣布将 AI 语言模型 ELECTRA 作为 TensorFlow 之上的开源模型发布。该方法用到了一种称为替换令牌检测(RTD)的新预训练任务,使其能够在从所有输入位置学习的同时,训练双向模型。并且,在同等计算资源的情况下,ELECTRA 的性能优于现有方法;而在参数量只有 1/30 的情况下,取得不逊于最先进 BERT 系列模型的性能。文 | G

    AIBigbull2050 自然语言 421 2020-03-17 20:46
  • 【BERT】你保存的BERT模型为什么那么大?

    前一段时间有个朋友问我这样一个问题:google官网给的bert-base模型的ckpt文件大小只有400M,为什么我进行微调-训练之后,保存的ckpt模型就是1.19G呢?我当时的回答是:因为google给的bert-base模型的ckpt文件仅包含bert的transform每一层的参数,不包含其他参数。而你自己在微调训练过程中有增加了其他的一些参数,所以会比较大。现在想一想,感觉自己的回答也

    AIBigbull2050 自然语言 426 2020-03-13 13:58
  • 「NLP」一文汇总自然语言处理主要研究方向

    所谓自然语言处理,即NLP,就是通过用计算机来处理人类的语言、文字,从而可以代替人类做一些文书类的工作,例如咨询、售后、海量数据处理以及公文阅读与处理等。基于此,NLP领域延伸处理种类繁多的任务,这里我总结了文本向量化、序列标注任务、文本分类、信息提取、以及复杂应用场景五大类NLP任务,做一个介绍。作者&编辑 | 小Dream哥1 文本向量化文本的向量化可谓是NLP进入深度学习时代的标志。

    AIBigbull2050 自然语言 418 2020-03-13 09:14
  • 数据之战:NLP迈向实用阶段的核心所在

    2020-03-11 15:03导语:算法是公开的,落地的差异更多来自于训练数据是否精准!雷锋网AI科技评论按:随着人工智能技术越来越多的应用到我们的工作和日常生活中,人们对与计算机交互提出了更高的要求。人们显然已不满足于只是简单的人机对话,而是畅想可以达到人与人交流那样的酣畅淋漓,就像科幻片像人们所展现的那样。但是人类相互之间的交流不是文字或文字堆砌的句子所能表达的,而是一个微妙且复杂的过程。生

    AIBigbull2050 自然语言 421 2020-03-12 10:26
  • 百分点认知智能实验室出品:深度迁移学习十八问

    百分点认知智能实验室梳理了以BERT为代表的基于fine-tuning模式的深度迁移学习中一些疑难问题,整理出18个典型的问题,对理解BERT论文和源代码有明显的帮助,因此分享给大家。

    思动大数据 自然语言 400 2020-03-09 16:49
  • BERT 模型压缩方法

    BERT 模型压缩方法压缩方法1、剪枝——即训练后从网络中去掉不必要的部分。这包括权重大小剪枝、注意力头剪枝、网络层以及其他部分的剪枝等。还有一些方法也通过在训练期间采用正则化的方式来提升剪枝能力(layer dropout)。2、权重因子分解——通过将参数矩阵分解成两个较小矩阵的乘积来逼近原始参数矩阵。这给矩阵施加了低秩约束。权重因子分解既可以应用于输入嵌入层(这节省了大量磁盘内存),也可以应用

    AIBigbull2050 自然语言 434 2020-03-02 15:05
  • 新预训练模型CodeBERT出世,编程语言和自然语言都不在话下

     新预训练模型CodeBERT出世,编程语言和自然语言都不在话下对于自然语言处理从业者来说,BERT 这个概念一定不陌生,自从诞生以来,它在诸多任务检测中都有着非常优秀的表现。近日,来自哈尔滨工业大学、中山大学和微软亚洲研究院的研究者合作提出了一个可处理双模态数据的新预训练模型 CodeBERT,除了自然语言(NL),编程语言(PL)如今也可以进行预训练了。CodeBERT 学习能够支持

    AIBigbull2050 自然语言 438 2020-02-27 10:58
  • 2019 NLP大全:论文、博客、教程、工程进展全梳理(长文预警)

    2020-02-25 10:57:21选自Medium作者:Elvis机器之心编译在整个2019年,NLP领域都沉淀了哪些东西?有没有什么是你错过的?如果觉得自己梳理太费时,不妨看一下本文作者整理的结果。2019 年对自然语言处理(NLP)来说是令人印象深刻的一年。本文将着重讲述一些 2019 年我在机器学习和自然语言处理领域有所见闻的重要事件。我会把重点主要放在自然语言处理上,但也会涉及若干人工

    dicksonjyl560101 自然语言 424 2020-02-26 16:02
  • Facebook最新研究:无需额外训练AI,即可加速NLP任务

    2020-02-21 21:03:31作者 | KYLE WIGGERS译者 | Kolen出品 | AI科技大本营(ID:rgznai100)自然语言模型通常要解决两个难题:将句子前缀映射到固定大小的表示形式,并使用这些表示形式来预测文本中的下一个单词。在最近的一篇论文(https://arxiv.org/pdf/1911.00172.pdf)中,Facebook AI Resear

    AIBigbull2050 自然语言 418 2020-02-24 14:27
  • GPT-2:OpenAI的NLP商业化野望

    文章回顾了近几年NLP的升级历程,从三个阶段的发展带我们梳理了NLP演进的脉络。自然语言处理(NLP)技术正在生活的方方面面改变着我们的生活。客厅的智能音箱在跟你每天的对话中飞速进步,甚至开始跟你“插科打诨”来适应你的爱好习惯。电商客服总是能在第一时间回复,可能处理完你的问题,你也并未发觉TA可能只是一个智能客服。现实版的“图灵测试”每天都在发生。经常查阅外文资料的你也许早已习惯网页或几家搜索引擎

    AIBigbull2050 自然语言 428 2020-02-09 10:28
  • 百度AI攻略:Paddlehub实现目标检测

    PaddleHub可以便捷地获取PaddlePaddle生态下的预训练模型,完成模型的管理和一键预测。配合使用Fine-tune API,可以基于大规模预训练模型快速完成迁移学习,让预训练模型能更好地服务于用户特定场景的应用。模型概述:模型概述Faster_RCNN是两阶段目标检测器。通过对图像生成候选区域,提取特征,判别特征类别并修正候选框位置。Faster_RCNN整体网络可以分为4个主要内容

    u_d5610d79507e 自然语言 245 2020-01-18 20:45
  • 一文看尽2019年NLP前沿突破

    2020-01-07 13:36:05十三 发自 凹非寺 量子位 报道 | 公众号 QbitAI2019年,自然语言处理(NLP)都取得了哪些突破?提到NLP, BERT可以说是家喻户晓。在情感分析、问答、句子相似度等多个 NLP 任务上都取得了优异的成绩。而且,无论是在类似于Kaggle这样的竞赛,或者媒体报道中,也总能看到它的身影。它发表于2018年末,自那之后的一年,NL

    dicksonjyl560101 自然语言 447 2020-01-08 14:47
  • 一文看尽2019年NLP前沿突破

    2020-01-07 13:36:05十三 发自 凹非寺量子位 报道 | 公众号 QbitAI2019年,自然语言处理(NLP)都取得了哪些突破?提到NLP,BERT可以说是家喻户晓。在情感分析、问答、句子相似度等多个 NLP 任务上都取得了优异的成绩。而且,无论是在类似于Kaggle这样的竞赛,或者媒体报道中,也总能看到它的身影。它发表于2018年末,自那之后的一年,NLP和NLU(自然语言理解

    AIBigbull2050 自然语言 447 2020-01-07 16:35
  • 2019,不可错过的NLP“高光时刻

     2020-01-06 21:13:32作者 | Elvis译者 | 凯隐、夕颜出品 | AI科技大本营(ID: rgznai100)【导读】对自然语音处理(NLP)领域而言,2019年是令人印象深刻的一年,本文将回顾2019年NLP和机器学习领域的重要事件。内容 主要集中于 NLP 领域,但也会包括一些与 AI 有关的有趣故事,包括新发布模型、工程成果、年度报告以及学习资源等。文章较长

    AIBigbull2050 自然语言 492 2020-01-07 16:34
  • BERT新转变:面向视觉基础进行预训练

    2019-12-29 05:43:17ViLBERT: Pretraining Task-Agnostic Visiolinguistic Representations for Vision-and-Language Tasks论文作者:Jiasen Lu, Dhruv Batra, Devi Parikh, Stefan Lee(佐治亚理工学院、俄勒冈州立大学、Facebook AI Rese

    AIBigbull2050 自然语言 444 2020-01-01 14:14
  • ACL 2020投稿破 3 千,到底有多少人在做 NLP 研究?

    2019-12-19 15:50导语:一项匿名研究~科学出版的世界是一片雨林:思想争夺阳光/注意力;有些人胜出并变得更高,而其他人则被遗忘。在昨天ACL 2020公布了最新的投稿数量:3429篇。这也是所有ACL旗下会议首次接收论文数量破 3000篇。这引起了笔者的好奇,历届 ACL 都接收了多少文章呢?当前做NLP的研究人员数量在什么量级呢?目前最热的研究领域是什么呢?笔者在搜索相关资料的时候,

    AIBigbull2050 自然语言 497 2019-12-31 12:57
  • NeurIPS十年高引学者TOP100榜单发布!这些大牛值得膜拜

    本文5048字15图,建议阅读13分钟。本文介绍机器学习领域顶会NeurIPS十年高引学者。12月8日,NeurIPS2019在加拿大温哥华正式拉开帷幕。作为机器学习领域最重要的顶会,NeurIPS一直有着很强的影响力和排名,被认为是神经计算方面最好的会议之一。随着近几年深度学习的崛起,NeurIPS不仅成为了学术界的新星,也引起了工业界的高度关注,注册人数从数年前的几百人跃升到今年的近万人。根据

    AIBigbull2050 自然语言 414 2019-12-13 09:37
  • 当前NLP迁移学习中的一些问题

    2019-12-11 20:34:29作者:Muhammad Khalifa编译:ronghuaiyang导读NLP迁移学习中的一些问题,感觉有点道理。自然语言处理(NLP)最近取得了巨大的进步,每隔几天就会发布最新的结果。排行榜疯狂是指最常见的NLP基准,如GLUE和SUPERGLUE,它们的得分越来越接近人类的水平。这些结果大多是通过超大(数十亿个参数)模型从大规模数据集中迁移学习得到的。本文

    AIBigbull2050 自然语言 436 2019-12-12 17:08
  • AI审稿,学术界的趋势?

    AI 可改善或加速流程,协助人类除错,在特定功能上表现优秀,无疑的AI与审稿人合作为大势所趋。

    EnagoChina 自然语言 438 2019-12-12 15:51
点击加载更多下一页

成为大咖

联系我们
itpub
help@itpub.net
17319047854
扫描二维码联系客服
关于 广告服务 使用条款
京ICP备16024965号
经营性网站备案信息
网络110报警服务
中国互联网举报中心
北京互联网违法和不良信息举报中心