预训练语言模型(全彩)自然语言处理ChatGPT背后核心技术

105次阅读

预训练语言模型(全彩)自然语言处理ChatGPT背后核心技术

编辑推荐

适读人群 :人工智能领域从业人员,自然语言处理领域新入门人员。

√探究ChatGPT背后的技术!√详细讲解Transformers语言模型的细节

√豆瓣9.5星佳作

√梳理预训练语言模型的发展历史、基本概念

√剖析具有代表性的预训练语言模型的实现细节,配代码

√预训练语言模型的评测、应用及趋势分析

内容简介

预训练语言模型属于人工智能领域中自然语言处理领域的一个细分。 本书主要介绍预训练语言模型。预训练语言模型是自然语言处理领域的重要突破,得到了越来越广泛的关注,相关研究者和从业人员在实际应用的过程中,亟需一本理论翔实、代码细节充分的参考书。本书详细梳理了预训练语言模型的基本概念和理论基础,并通过实际代码的讲解, 阐述了具有代表性的预训练语言模型的实现细节,非常适合需要快速、全面掌握预训练语言模型的从业者阅读。

作者简介

邵 浩日本国立九州大学工学博士,现就职于vivo。曾任狗尾草智能科技AI研究院院长,带领团队打造了AI虚拟生命产品的交互引擎。曾是上海对外经贸大学副教授,硕士生导师。是上海市静安区首届优秀人才,上海市人才发展基金获得者,杭州市高层次人才。任中国中文信息学会青年工作委员会委员,语言与知识计算专委会委员,中国计算机学会语音对话与听觉专业组委员,中文信息技术专委会委员。发表论文50余篇,获专利10余项,主持多项***及省部级课题,曾在联合国、世界贸易组织、亚利桑那州立大学、香港城市大学等机构任访问学者。刘一烽全国中学生物理竞赛保送生,清华大学电子系硕士,曾获学习成绩优异奖学金。现任vivo人工智能研究院AI算法工程师,主要研究方向为强化学习、自然语言处理,主导游戏AI和机器翻译核心算法研发工作。

    前往AI网址导航

    正文完
     0
    微草录
    版权声明:本站原创文章,由 微草录 2024-01-03发表,共计715字。
    转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。