peer-review
结构化手稿/基金评审,采用清单式评估法。适用于撰写正式同行评审,涵盖特定方法学评估、统计有效性验证、报告规范符合性审查(如CONSORT/STROBE指南),并提供建设性反馈。最适用于实际评审撰写及手稿修改场景。若需评估论点/证据质量,请选用科学批判性思维模式;若需量化评分框架,请采用学术评价体系。
分类
内容创作安装
下载并解压到你的 skills 目录
复制命令,发送给 OpenClaw 自动安装:
Peer Review - 科学论文同行评审技能
技能概述
Peer Review 是一个用于科学手稿和基金申请系统性评估的 AI 辅助技能,支持基于检查清单的方法学评估、统计分析审查和报告标准合规性检查。
适用场景
1. 期刊论文同行评审
当您担任期刊审稿人,需要对投稿的科学论文进行全面评估时,该技能提供七阶段系统性评审流程,涵盖从初步评估到详细逐节审查的完整环节。支持 CONSORT、STROBE、PRISMA 等主流报告标准的合规性检查,帮助您发现方法学缺陷、统计问题或报告遗漏。
2. 科研基金申请书评估
基金评审专家可以使用该技能对研究申请进行严格评估,重点审查实验设计的严谨性、统计功效分析、样本量合理性以及研究方案的可行性。技能提供结构化评审报告模板,确保评估意见专业、具体且具有建设性。
3. 学术写作质量提升
研究人员在投稿前可以使用该技能对手稿进行预审,主动识别潜在的方法学问题、统计分析漏洞或报告不完整之处。通过模拟同行评审流程,提升论文质量,增加接收概率。
核心功能
1. 七阶段系统评审流程
提供完整的同行评审工作流程,包括:初步评估、逐节详细审查、方法学与统计严谨性评估、可重复性与透明度检查、图表数据呈现审查、伦理考量验证以及写作质量评估。每个阶段都有明确的评审标准和检查清单。
2. 报告标准合规性检查
支持主流学术报告标准的规范性检查,包括临床试验的 CONSORT、观察性研究的 STROBE、系统综述的 PRISMA、动物实验的 ARRIVE 以及基因组学研究的 MIAME/MINSEQE 等。确保符合期刊要求和学术界最佳实践。
3. 结构化评审报告生成
提供分层评审报告结构,包括总结陈词、主要问题、次要问题和作者问答四个层级。报告采用建设性专业语气,提供具体可操作的修改建议,帮助作者改进研究质量。支持原文引证、章节定位和详细问题列表。
常见问题
这个技能适合评审什么类型的研究?
Peer Review 技能适用于原始研究论文、综述和 meta 分析、方法学论文、短篇通讯等各类学术出版物。无论您评审的是临床研究、基础实验、流行病学调查还是计算科学论文,该技能都能提供针对性的评审框架。
与 Scholar Evaluation 技能有什么区别?
Peer Review 专注于正式的手稿和基金评审,强调结构化报告、检查清单式评估和建设性反馈;而 Scholar Evaluation 侧重于定量评分框架和学术成果质量评估。如果您需要撰写正式的同行评审意见,请使用 Peer Review;如果您需要对学术成果进行量化评估,请使用 Scholar Evaluation。
如何评估统计分析的有效性?
该技能在第三阶段提供全面的统计评估检查清单,包括:统计假设检验(正态性、独立性、方差齐性)、效应量报告、多重检验校正、置信区间、样本量功效分析、缺失数据处理等。还会识别常见统计错误,如不适当的参数检验选择、p-hacking 现象或过度解读相关关系等。
该技能是否支持中文评审?
目前该技能的文档和输出主要以英文为主,但评审过程中可以使用中文进行思考和分析。如果您需要生成中文评审报告,建议在使用技能后自行翻译或使用翻译工具辅助。