名称 | 介绍 | 是否需要联网 |
---|---|---|
联想小天 | 联想小天是一款基于AI的智能语音助手,可实现语音交互、语音控制、语音识别、语音合成等功能。 | 需要 |
天天向上 | 天天向上是一款基于AI的智能学习应用,可实现语音交互、语音控制、语音识别、语音合成等功能。 | 需要 |
知音云 | 知音云是一款基于AI的智能语音助手,可实现语音交互、语音控制、语音识别、语音合成等功能。 | 需要 |
腾讯AI开放平台 | 腾讯AI开放平台是一款基于AI的开放平台,可实现语音交互、语音控制、语音识别、语音合成等功能。 | 需要 |
百度AI开放平台 | 百度AI开放平台是一款基于AI的开放平台,可实现语音交互、语音控制、语音识别、语音合成等功能。 | 需要 |
阿里云机器学习 | 阿里云机器学习是一款基于AI的开放平台,可实现语音交互、语音控制、语音识别、语音合成等功能。 | 需要 |
腾讯机器人 | 腾讯机器人是一款基于AI的智能对话机器人,可实现语音交互、语音控制、语音识别、语音合成等功能。 | 需要 |
图灵机器人 | 图灵机器人是一款基于AI的智能对话机器人,可实现语音交互、语音控制、语音识别、语音合成等功能。 | 需要 |
微软小冰 | 微软小冰是一款基于AI的智能语音助手,可实现语音交互、语音控制、语音识别、语音合成等功能。 | 需要 |
项目名称 | 项目地址 | 介绍 | 论文 |
---|---|---|---|
GOT-OCR2.0 | https://github.com/Ucas-HaoranWei/GOT-OCR2.0 | Official code implementation of General OCR Theory: Towards OCR-2.0 via a Unified End-to-end Model | https://arxiv.org/abs/2409.01704 |
模型名称 | 规格 | 特点和用途 |
---|---|---|
BERT | 12-layer, 768-hidden, 12-heads, 110M parameters | 1) 预训练任务:Masked Language Modeling (MLM) 2) 文本分类任务:Text Classification 3) 序列标注任务:Named Entity Recognition (NER) 4) 文本匹配任务:Question Answering (QA) |
RoBERTa | 12-layer, 768-hidden, 12-heads, 1.5B parameters | 1) 预训练任务:Masked Language Modeling (MLM) 2) 文本分类任务:Text Classification 3) 序列标注任务:Named Entity Recognition (NER) 4) 文本匹配任务:Question Answering (QA) |
GPT-2 | 12-layer, 768-hidden, 12-heads, 1.5B parameters | 1) 预训练任务:Language Modeling (LM) 2) 文本生成任务:Text Generation 3) 文本分类任务:Text Classification 4) 序列标注任务:Named Entity Recognition (NER) 5) 文本匹配任务:Question Answering (QA) |
T5 | 12-layer, 768-hidden, 12-heads, 1.5B parameters | 1) 预训练任务:Language Modeling (LM) 2) 文本生成任务:Text Generation 3) 文本分类任务:Text Classification 4) 序列标注任务:Named Entity Recognition (NER) 5) 文本匹配任务:Question Answering (QA) |
GPT-3 | 12-layer, 1024-hidden, 16-heads, 175B parameters | 1) 预训练任务:Language Modeling (LM) 2) 文本生成任务:Text Generation 3) 文本分类任务:Text Classification 4) 序列标注任务:Named Entity Recognition (NER) 5) 文本匹配任务:Question Answering (QA) |