RNAErnie
多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊
编辑 | 萝卜芯预训练语言模型在分析核苷酸序列方面显示出了良好的前景,但使用单个预训练权重集在不同任务中表现出色的多功能模型仍然存在挑战。百度大数据实验室(Big Data Lab,BDL)和上海交通大学团队开发了 RNAErnie,一种基于 Transformer 架构,以 RNA 为中心的预训练模型。研究人员用七个数据集和五个任务评估了模型,证明了 RNAErnie 在监督和无监督学习方面的优越性。RNAErnie 超越了基线,分类准确率提高了 1.8%,交互预测准确率提高了 2.2%,结构预测 F1 得分提高
5/15/2024 3:59:00 PM
ScienceAI
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
机器人
数据
AI新词
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
马斯克
英伟达
Anthropic
图像
AI创作
训练
LLM
论文
代码
算法
苹果
AI for Science
Agent
Claude
腾讯
芯片
Stable Diffusion
蛋白质
具身智能
开发者
xAI
生成式
神经网络
机器学习
人形机器人
3D
AI视频
RAG
大语言模型
Sora
研究
百度
生成
GPU
工具
华为
字节跳动
计算
AGI
大型语言模型
AI设计
搜索
生成式AI
视频生成
DeepMind
AI模型
特斯拉
场景
深度学习
亚马逊
架构
Transformer
MCP
Copilot
编程
视觉