news 2026/2/25 5:49:06

跟着Nature Plants学作图:R语言ggplot2画分组折线图和置信区间

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
跟着Nature Plants学作图:R语言ggplot2画分组折线图和置信区间

论文

The flying spider-monkey tree fern genome provides insights into fern evolution and arborescence

https://www.nature.com/articles/s41477-022-01146-6#Sec44

数据下载链接

https://doi.org/10.6084/m9.figshare.19125641

今天的推文重复一下论文中的Figure1d中左下角的小图

image.png

论文中提供的原始数据集如下

image.png

需要将其整理成3个单独的数据集

image.png

首先是做数据整理的代码

library(readxl) library(ggplot2) library(tidyverse) dat01<-read_excel("data/20220518/dat01.xlsx") dat01 dat01 %>% mutate(x=8:2, mean_value=`Duplication Per`, lower95=`Duplication Per`, upper95=`Duplication Per`, group="Experimental") %>% select(x,mean_value,lower95,upper95,group)-> dat01 dat02<-read_excel("data/20220518/dat02.xlsx") head(dat02) dat02 %>% group_by(MRCA) %>% summarise(mean_value = mean(`Duplication Per`), lower95 = Rmisc::CI(`Duplication Per`)[3], upper95 = Rmisc::CI(`Duplication Per`)[1]) %>% mutate(x=8:2, group="Null simulation") %>% select(x,mean_value,lower95,upper95,group) -> dat02 dat03<-read_excel("data/20220518/dat03.xlsx") head(dat03) dat03 %>% group_by(MRCA) %>% summarise(mean_value = mean(`Duplication Per`), lower95 = Rmisc::CI(`Duplication Per`)[3], upper95 = Rmisc::CI(`Duplication Per`)[1]) %>% mutate(x=8:2, group="Positive simulation") %>% select(x,mean_value,lower95,upper95,group) -> dat03 dat<-bind_rows(dat01,dat02,dat03) dat %>% mutate(group=fct_rev(group)) -> dat

作图代码

ggplot(data = dat,aes(x=x,y=mean_value))+ geom_line(aes(color=group),size=1.5)+ geom_ribbon(aes(ymin=lower95-1,ymax=upper95+1, fill=group), alpha=0.5, show.legend = FALSE)+ theme_minimal()+ theme(panel.grid = element_blank(), axis.line = element_line(), axis.ticks = element_line(), legend.title = element_blank())+ scale_x_continuous(breaks = 2:8, labels = paste0("N",8:2))+ scale_y_continuous(breaks = c(0,25))+ labs(x="Subtree node",y="Percent subtree")

最终结果

image.png

这里最终的结果和论文中的图还是有些差异的,因为我没有看到论文中用的是置信区间作为数据范围还是其他,我这里选择的是置信区间,然后对数值进行了加减1

示例数据可以到论文中去下载,代码可以在推文中复制

AI大模型学习福利

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。


因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获

四、AI大模型商业化落地方案

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/21 6:57:33

高手如何深度学习?

如何深度学习&#xff1a;一是尽可能获取并亲自钻研一手知识。二是尽可能用自己的话把所学的知识写出来。——《认知觉醒》——周岭高手与普通人学习的差别在哪&#xff1f;高手学习有两个特点&#xff1a;一是尽量去获取第一手知识。所谓第一手知识&#xff0c;是指专业研究成…

作者头像 李华
网站建设 2026/2/24 12:09:48

Open-AutoGLM究竟是什么:它将如何重塑AI开发新范式?

第一章&#xff1a;Open-AutoGLM是什么技术Open-AutoGLM 是一种面向自动化自然语言处理任务的开源大语言模型框架&#xff0c;旨在通过可扩展的架构设计和高效的推理机制&#xff0c;实现对复杂语义理解与生成任务的无缝支持。该技术融合了图神经网络&#xff08;GNN&#xff0…

作者头像 李华
网站建设 2026/2/23 1:30:20

【Open-AutoGLM入门到精通】:掌握自动推理与模型压缩的终极武器

第一章&#xff1a;Open-AutoGLM是什么技术Open-AutoGLM 是一种面向自动化自然语言理解与生成任务的开源大语言模型框架&#xff0c;专注于提升模型在复杂推理、多轮对话和任务编排中的自主决策能力。该技术融合了图神经网络&#xff08;GNN&#xff09;与大语言模型&#xff0…

作者头像 李华
网站建设 2026/2/21 13:24:59

揭秘Open-AutoGLM核心能力:5个实战场景带你高效入门

第一章&#xff1a;Open-AutoGLM开源模型快速上手Open-AutoGLM 是一个面向自动化任务的开源大语言模型&#xff0c;专为代码生成、指令理解与多轮对话优化而设计。其轻量化架构和模块化接口使得开发者能够快速集成并部署于各类应用场景中。环境准备 在开始使用 Open-AutoGLM 前…

作者头像 李华
网站建设 2026/2/24 1:26:15

揭秘Open-AutoGLM底层机制:如何实现零代码大模型调用与部署

第一章&#xff1a;揭秘Open-AutoGLM的核心价值与应用场景Open-AutoGLM 是一款面向自动化自然语言处理任务的开源大模型框架&#xff0c;专为提升企业级应用中语言理解与生成效率而设计。其核心价值在于将大型语言模型&#xff08;LLM&#xff09;的能力与自动化流程深度融合&a…

作者头像 李华