软件项目之(第三方)软件项目测评报告(范文1).docx
文档编号:xx-xxxx-xxxxXX项目测评报告委托单位:委公司测试单位:XX公司系统名称:系项目XX公司二OXX年X月注意事项1 .测评报告无测试单位公章无效。2 .复制测评报告未重新加盖测试单位公章无效。3 .测评报告中无测试人、审核人、批准人签字视为无效。4 .测评报告涂改、部分提供和部分复制无效。5 .对测评报告若有异议,请于收到报告之日起十五日内向本中心提出,逾期不予受理。6 .本测评报告仅对所测试的软件版本的测试项中相关的测试结果负责。地址:XXXXXX邮政编码:XXXXXX电话:XXXXXX检验检测机构资质认定证书经审蚤.你机构已必备国家有关法律、行政法规规定的基 本条件*能力.现未批准,可以向社会出具具有证明作用的效 据和站果,转发此证 责腐认定包括检腌检测机构计量认证检险检测能力及授权签字人见证书附表许可使用标志发证日期:2有效期3发证机关:«*«««<5÷fftt*.«Aie<k.本武将由国家认证队对监Ir皆理委N会注制.在中午人陀共和国境内“效声明本报告是XX项目的测评报告。本报告测试结论的有效性建立在被测系统及单位提供相关证据的真实性基础之上。本报告中给出的测试结论仅对委托方确认的系统当时的状态有效,测试环境由委托方提供,测试结果仅反映测试当前情况。当测试工作完成后,由于信息系统发生变更(包括但不限于信息系统网络环境或硬件环境改变等)而涉及到的系统构成组件(或子系统)都应重新进行测试,本报告不再适用。在任何情况下,若需引用本报告中的测试结果或结论都应保持其原有的意义,不得对相关内容擅自进行增加、修改和伪造或掩盖事实。XX公司20XX年X月项目名称XX项目版本号VI.O委托单位XX公司委托单位地址XXXXXX送测日期20XX.11.26样品编号Xxxxxx(FY)-Wpoi完成日期20XX.12.06样品特征及状态正式上线系统,完整可用测试类别软件测试标准依据GB/T25000.51-2016系统与软件工程系统与软件质量要求和评价(SQuaRE)第51部分:就绪可用软件产品(RUSP)的质量要求和测试细则测试地点XX公司测评中心检测室主要测试设备硬件环境及配置具体参数详见报告软件环境及配置具体参数详见报告测试结果本次测试对XX项目进行功能性测试、性能效率测试、易用性测试、可靠性测试、用户文档集测试5项内容:初次测试覆盖测试点56个,执行用例共计116个,通过用例104个,未通过用例12个,其中:1)执行功能性测试用例45个,不通过用例4个;2)执行性能效率测试用例6个,不通过用例3个;3)执行易用性测试用例38个,不通过用例。个;4)执行可靠性测试用例20个,不通过用例0个;5)执行用户文档集测试用例7个,不通过用例5个。发现问题12个,其中高级别问题3个,中级别问题2个,低级别问题7个。委托方对问题整改后,测试方对发现的12个问题进行复测,复测确认功能性4个问题全部修复,性能效率3个问题全部修复,用户文档5个问题全部修复。56个测试点测试结果判定均为“通过”。测试结论本次测试初测和复测结果表明,系统软件系统符合需求规格说明书、概要设计说明书、详细设计说明书等项目文档中明确的功能性等要求,测试结论判定为“通过”。参与测试人员XXX、XXX、XXX、XXX审核:职务:年月日批准:职务:年月日(公章)签发日期:年月日文档信息文档名称XX项目测评报告文档编号XX-XXXX-XXXX文档版本号VI.O适用范围仅适用本项目打印份数2份接收人与文档的主要关系文档权限1XX公司项目委托单位阅读、存档2XX公司测评单位存档修订记录修订次序章节号修订内容修订原因修订人日期目录注意事项1声明3文档信息5修订记录5目录61引言81. 1标识81.2项目概述81.3文档概述101.4测试意义及预期目标102测试环境112.1测试环境概述112. 2服务器配置112. 3服务器验证图122. 4测试设备142.4.1测试工作用机142.4.2工具软件143测试实施153.1测试依据153.2测试范围与内容153. 3测试时间163. 4测试人员163. 5测试人员安排163. 6测试需求对照表164测试结果174. 1功能性测试174.1.1功能性初次测试174.1.2功能性复测测试204.1.3功能性测试总结204. 2性能效率测试221. 2.1测试工具和指标介绍224. 2.2性能效率初次测试254.2.3性能效率复测测试284.2.4性能效率测试总结304.3易用性测试304.3.1易用性测试记录304.3.2易用性测试总结334. 4可靠性测试331. 4.1可靠性测试记录334. 4.2可靠性测试总结354.5用户文档集测试364.5.1用户文档集初次测试364.5.2用户文档集复测测试374.5.3用户文档集测试总结375测试结论38附录1测试结论判定规约39一、缺陷问题说明39二、测试点判定原则39三、结论判定原则401引言1.1标识文档编号:xx-xxxx-xxxx1.2项目概述1、项目名称:XX项目。2、建设目的:为适应XX省人民政府进行的XX2.0迁移工作、省级统一用户中心建设工作,完成XX区统一用户中心与省级平台的对接、XX应用迁移对接,并进行全区XX2.0的迁移及宣传推广工作。3、建设内容:(1)XX2.0推广结合XX省关于XX2.0迁移计划,我区作为全省的试点地区,最先进行XX2.0的迁移及宣传推广,包括迁移过程中的客户服务、技术服务、运维服务、宣传推广等服务内容。(2)统一用户中心对接服务为了适应XX2.0、省统一用户中心的建设需要,需要对XX区统一用户系统进行适应性改造,实现与两个省级平台的对接。完成前期数据核对、墨子集成开发、idaas集成开发、XX用户中心发开整改、功能测试等内容,具体内容如下:,前期数据核对前期数据核对主要包括管理员名单整理、数据同步数梦平台初始化、数梦后台单位领导数核对及问题数据处理、数梦后台组织架构树的核对及问题数据处理。墨子集成开发墨子集成开发主要包括业务回调事件接口开发、电脑端免登认证接口开发、移动端免登认证接口开发、查询用户接口开发、分页查询用户接口开发、查询组织接口开发、根据USerid_G获取a,ccountid(政务消息发送ID)、XX待办消息接口的开发。idaas集成开发idaas集成开发主要包括用户详细信息查询接口开发、XX平台与iadds字段梳理、组织接口开发(包括新增、修改、删除)、人员接口开发(包括新增、修改、删除)、根据组织外部ID查询组织详情、根据人员外部ID查询用户详情。XX用户中心发开整改XX用户中心开发整改主要包括数据初始化功能的开发(墨子)、回调事件用户和组织新增及删除逻辑开发(墨子)、同步数据到idaas功能开发(idaas)、同步数据到墨子功能开发(idaas)、存储获取的idaas外部ID及USerid_G、存储获取2.0的accountid办公平台通讯录升级改造等。内部最多跑一次新需求定制对XX区内部最多跑一次进行新需求的定制开发,主要包括:1 .新增“线上填报”模块:线下办件量、线上未接入办理量统计,合并至之前的线上办理量一系列报表,并且单独页面显示;2 .移动端跟电脑端用户界面调整(包括认证界面UE应用登录界面使用内嵌浏览器);3 .办件库的优化升级;4 .UI改造页面按照省里要求统一改造。(3)XX应用迁移服务对XXLO上或X政上17个XX区应用统一进行迁移,与XX2.0平台进行系统对接,并实现在XX2.0平台上架,完成晾晒台升级迁移和改造、XX政务云盘迁移和升级服务、机关内跑优化升级改造和迁移、办公平台通讯录升级改造等。4、规模:XX区X政微应用。1.3文档概述本测评报告用于评估XX2.0升级改造服务项目的完整性、正确性、稳定性。总结和分析系统测试结果,评价其运行情况是否满足用户使用需求。本测评报告仅对所测软件版本的相关测试项的测试结果负责。1.4测试意义及预期目标软件研发是一个繁杂的过程,因为系统的复杂性、代码编写方式的多样性以及人工错误的概率,导致软件产品中不可避免的会出现错误,而软件测试的目的就是在软件投入生产性运营之前,尽可能多的发现存在的错误问题,并对错误进行归类和总结,指导开发人员修改错误,确保软件产品质量。本次测试为第三方测试模式,第三方测试是在开发方自行测试和用户测试之外进行的独立测试。有别于开发人员或用户进行的测试,作为第三方,合同的制约使得它与开发方存在某种'对立'的关系,测试更具有客观性;作为专业的软件测试团队,相对于用户方的测试,又更具有专业性。第三方测试,不但要对系统的应用进行各种测试,还进行需求分析的评审、设计评审、用户类文档的评审等,这些工作对用户进行系统的验收以及推广应用都非常有意义。本次测试预期目标:实现测试需求覆盖率100%,测试用例执行率100机验证系统基本无错或错误均提交至测试报告。2测试环境2.1测试环境概述网络防火墙路由器本次测试采用测试用机接入XXXX大数据经营有限公司单位内网,访问部署于政务云的正式环境,开展功能测试、性能测试和其他测试项目,服务器共2台,应用服务器1台,数据库服务器1台。I应用服务器/数据原股务器/级存服务器/文件服务器图1测试接入拓扑图2.2服务器配置(1)应用服务器表L应用服务器序号组件配置1CPUvCPU:8核2内存16G3存储(硬盘)300G操作系统LinuxCentOS(2)数据库服务器表2.数据库服务器序号组件配置1CPUvCPU:8核2内存32G3存储(硬盘)500G操作系统LinuxCentOS数据库MySQL7.12.3服务器验证图图2应用服务器配置截图岑SSH-10.0.21.18(10.0.21.18)(rooc>jrb>lck>C#clear(roocs3xrtosjlcb£-#sacpxocpuxnCoPHOUOnnoH:Oepu x±lySel name:Intel(R)Xeon(R)CPUE7-482OVq2.OOGHzcpuMHz:1S9S.192acHesxzex25OOKB£pu:ye£pu_excepe±on:yeCPU工dXevel:13WP:yesO:Cpvmedepseocnu>rpaemcec×8apxcaepmtrrp。mccmovpacpse3U工士工Unndtxnm×±×sxnnonnuNnnsysGAlln×pdpelt>HdPnUPImonscanu_tnuarcH_pes£monPUbnbtnXVOPo工OgVtnu_relxakXenonscop_tnuaper£mpez:£txn£axr_SpxnXoclcpn±pcXmuXqdqssse3£maUXI.6p±dsse4_lsse4_2×2apxcmovksePoPUrIttnu_deadl±ne-tuneresxsaveavxf16crdr&ndhypeXrV工30HXaH£_Xmak>m3cinowprefeccaratepk)×saveopcpXnpcsdcafask>asebml.1Xeav×2amepk>mX2InvpcXclrcmbogomdlpg:399038C1C1U9HXiXzc:6-1processorVendOjJLd cpu ITamx IymodeX name sceppxQ opu MHz cac½e Xze Cpu Cpu-exceptxon puxd XeveX:Genuine Inx;el:6:79: Xnt:el (R> Xeon (R) CPU E7-42O v4 :1995.192:25600 KB yes:y:13:yes:£du vroe du2.OOGHzme 0x8mt; x xmca xuov图3数据服务器配置截图2.4测试设备2.4.1测试工作用机表3.测试工作用机1序号组件配置设备编号1机型联想R720XXXX-P312CPUIntel(R)Core(TM)i5-7300UCPU2.5GHz3内存16G4硬盘256G序号操作系统1Windows1064位序号浏览器1Google66.0.3359.181;火狐60.0.1表4.测试工作用机2序号组件配置设备编号1机型华硕W519LXXXX-Pl52CPUIntel(R)Core(TM)i55200U2.20Ghz3内存16G4硬盘500G序号操作系统1windows764位序号浏览器1360安全浏览器9.1.0.360;Firefox40.0;2.4.2工具软件表5.工具软件序号类型软件名称设备编号1性能效率测试Loadrunnerll.0XXXX-ROl3测试实施3.1测试依据(1)XX项目测试合同;(2)XX项目需求规格说明书;(3)XX项目概要设计说明书;(4)XX项目详细设计说明书;(5)晾晒台用户操作手册;(6)政务云盘用户操作手册;(7)XX项目自测报告;(8)GB/T25000.51-2016系统与软件工程系统与软件质量要求和评价(SQuaRE)第51部分:就绪可用软件产品(RUSP)的质量要求和测试细则。3.2 测试范围与内容对XX项目进行测试,验证系统功能的正确性、核心模块的稳定和安全,为系统验收提供参考。本测评报告列出了本次测试过程中所用到的测试标准、测试内容和方法及测试资源的安排,作为测试活动的依据和参考。本次测试的内容有功能性测试、性能效率测试、易用性测试、可靠性测试、用户文档集测试,共计5项测试内容。3.3 测试时间20XX年11月26日20XX年12月06日3.4 测试人员本次测试人员及其担任的角色如下:序号姓名性别资质/学历担任角色1XXX男软件性能测试高级工程师、ISTQB国际软件测试工程师认证、CISP.信息安全等级测评师(高级)总测评师2XXX男软件测评师、信息安全等级测评师项目负责人3XXX男ISTQB国际软件测试工程师认证测评工程师4XXX男软件测评师、性能高级测评师测评工程师5XXX女软件测评师、信息安全等级测评师测评工程师文档管理员3.5 测试人员安排表6.测试人员安排序号工作任务负责人员时间1功能性测试(包含回归测试)XXX、XXX20XX年11月280-12月03日2性能效率测试(包括回归测试)XXX20XX年11月30日-12月03日3其他测试(包括易用性测试、可靠性测试、用户文档集测试(回归测试)XXX、XXX20XX年11月30日-12月03日4报告编写XXX20XX年12月040-12月06日3.6 测试需求对照表表7.测试需求对照表序号测试需求测试记录备注1功能性晾晒台-后台登陆2.1测试记录1.1.1.1登陆XX项目需求规格说明书2晾晒台-基础信息管理2.2测试记录LLl.2基础信息管理3晾晒台-领导签批2.3测试记录LLl.3领导签批4晾晒台-统计分析2.4测试记录1.1.1.4统计分析5政务云盘-账号操作3.1测试记录LLL5账号操作6政务云盘-文件操作3.2测试记录LLL6文件操作7政务云盘-文件预览3.3测试记录1.1.1.7文件预览8政务云盘-个性化设置3.4测试记录LLl.8个性化设置9政务云盘-权限设置3.4测试记录LL1.9权限设置10性能效率事项管理5.2测试记录1.2.1.1事项管理11领导签批5.2测试记录1.2.1.2领导签批12统计分析5.2测试记录1.2.1.3统计分析4测试结果4.1功能性测试4.Ll功能性初次测试4.1.1.1初次测试记录表8.XX项目功能测试初测结果汇总序号系统模块类别测试点用例编号测试结果问题描述问题级别(通过/不通过)1晾晒台登陆正常登陆T_DL1通过/2异常登陆T_DL2通过/3系统退出T_DL3通过/4修改密码T_DL4通过/5基础信息管理类别管理T_JCXXGL1通过/6晾晒台管理T_JCXXGL2通过/7单位管理T_JCXXGL3通过/8事项管理-事项T_JCXXGL4不通过点击刷新数据未更新(WTOOl)低序号系统模块类别测试点用例编号测试结果问题描述问题级别(通过/不通过)9事项管理一批次号管理T_JCXXGL5通过/10事项管理-表头管理T_JCXXGL6通过/11事项管理-指标管理T.JCXXGL7不通过数据导入报错,部分数据未入库(WT002)中12消息用户管理T_JCXXGL8通过/13消息管理T.JCXXGL9通过/14领导签批移动端T_LDQP1不通过PC端点击预览可以正常显示,移动端的没有反应(WT003)中15PC端T_LDQP2通过/16统计分析统计分析T_TJFX1通过/17统计分析-详情T_TJFX2通过/18政务云盘账号操作登陆T_ZHCZ1通过/19注册T_ZHCZ2通过/20忘记密码T_ZHCZ3通过/21修改密码T_ZHCZ4通过/22退出登陆-T_ZHCZ5通过/23文件操作上传TJVJCZ1通过/24离线下载TJVJCZ2通过/25新建TJVJCZ3通过/26重命名TJVJCZ4通过/27文件下载T_WJCZ5通过/28文件分享TJVJCZ6通过/29文件移动T_WJCZ7通过/序号系统模块类别测试点用例编号测试结果问题描述问题级别(通过/不通过)30文件复制TJVJCZ8通过/31文件删除T_WJCZ9通过/32文件收藏TJ1JCZ10通过/33历史版本查看T_WJCZ11不通过显示历史版本文档不全(WT004)低34文件预览文件压缩T_WJYL1通过/35文件解压TJVJYL2通过/36多媒体文档TJVJYL3通过/37Office文件在线编辑TJVJYL4通过/38设计与工程图件TJVJYL5通过/39个性化设置主题设置T_GXHSZ1通过/40偏好设置T_GXHSZ2通过/41壁纸设置T_GXHSZ3通过/42账号设置T.GXHSZ4通过/43权限设置系统权限说明T_QXSZ1通过/44文档权限T_QXSZ2通过/45内部协调分析权限T_QXSZ3通过/4.LL2初测问题汇总表9.XX项目初测问题汇总问题编号系统模块类别测试点用例编号问题描述问题级别WTOOl晾晒台基础信息管理事项管理-事项管理T_JCXXGL4点击刷新数据未更新低WT002事项管理-指标管理T_JCXXGL7数据导入报错,部分数据未入库中WT003领导签批移动端T_LDQP1PC端点击预览可中问题编号系统模块类别测试点用例编号问题描述问题级别以正常显示,移动端的没有反应WT004政务云盘文件操作历史版本查看T_WJCZ11显示历史版本文档不全低4.L2功能性复测测试4.L2.1复测记录表10.复测记录问题编号测试点初测记录攵测记录复测结果问题级别WTOOl事项管理-事项管理点击刷新数据未更新点击刷新数正常更新通过WT002事项管理-指标管理数据导入报错,部分数据未入库数据导入全部入库通过WT003移动端PC端点击预览可以正常显示,移动端的没有反应PC端和移动端点击预览可以正常显示通过WT004历史版本查看显示历史版本文档不全显示历史版本文档完全通过4,L3功能性测试总结4.L3.1功能性测试结果表11.功能性测试结果序号系统模块类别测试点用例数通过用例数不通过用例数测试结论1晾晒台登陆正常登陆110通过2异常登陆110通过3系统退出110通过4修改密码110通过5基础信息管理类别管理110通过6晾晒台管理110通过7单位管理110通过8事项管理-事项管理110通过9事项管理一批次号管110通过理10事项管理-表头管理110通过11指标管理110通过12消息用户管理110通过13消息管理110通过14领导签批移动端110通过15PC端110通过16统计分析统计分析110通过17统计分析详情110通过18政务云盘账号操作登陆110通过19注册110通过20忘记密码110通过21修改密码110通过22退出登陆-110通过23文件操作上传110通过24离线下载110通过25新建110通过26重命名110通过27文件下载110通过28文件分享110通过29文件移动110通过30文件复制110通过31文件删除110通过32文件收藏110通过33历史版本查看110通过34文件预览文件压缩110通过35文件解压110通过36多媒体文档110通过37Office文件在线编辑110通过38设计与工程图件110通过39个性化设置主题设置110通过40偏好设置110通过41壁纸设置110通过42账号设置110通过43权限设置系统权限说明110通过44文档权限110通过45内部协调分析权限110通过合计45454504.L3.2功能性测试结论本次测试针对XX项目,包含45个测试点。初次测试执行功能性测试用例45个,通过用例41个,不通过用例4个,发现功能性缺陷问题4个。复测执行测试用例4个,通过用例4个。复测结果表明初次测试发现的功能性缺陷问题得以修复;功能性测试结论判定为“通过”。4.2性能效率测试4.2.1测试工具和指标介绍4.2.1.ILoadRunner软件介绍1.oadRunner,是一种预测系统行为和性能的负载测试工具。通过以模拟上千万用户实施并发负载及实时性能监测的方式来确认和查找问题,LoadRunner能够对整个企业架构进行测试。企业使用LoadRunner能最大限度地缩短测试时间,优化性能和加速应用系统的发布周期。LOadRUnner可适用于各种体系架构的自动负载测试,能预测系统行为并评估系统性能。此外,LoadRunner能支持广泛的协议和技术。虚拟用户使用LoadRunner的VirtUalUserGenerator,您能很简便地创立起系统负载。该引擎能生成虚拟用户,以虚拟用户的方式模拟真实用户的业务操作行为。它先记录下业务流程(如下订单或机票预定),然后将其转化为测试脚本。利用虚拟用户,您可以在WindOWS,UNIX或LinUX机器上同时产生成千上万个用户访问。所以LoadRUnner能极大的减少负载测试所需的硬件和人力资源。用VirtUalUserGenerator建立测试脚本后,您可以对其进行参数化操作,这一操作能让您利用几套不同的实际发生数据来测试您的应用程序,从而反映出本系统的负载能力。以一个订单输入过程为例,参数化操作可将记录中的固定数据,如订单号和客户名称,由可变值来代替。在这些变量内随意输入可能的订单号和客户名,来匹配多个实际用户的操作行为。真实负载Virtualusers建立起后,您需要设定您的负载方案,业务流程组合和虚拟用户数量。用LOadRUnner的ContrOller,您能很快组织起多用户的测试方案。Controller的Rendezvous功能提供一个互动的环境,在其中您既能建立起持续且循环的负载,又能管理和驱动负载测试方案。而且,您可以利用它的日程计划服务来定义用户在什么时候访问系统以产生负载。这样,您就能将测试过程自动化。同样您还可以用Controller来限定您的负载方案,在这个方案中所有的用户同时执行一个动作-如登录到一个库存应用程序一-来模拟峰值负载的情况。另外,您还能监测系统架构中各个组件的性能一-包括服务器,数据库,网络设备等-一来帮助客户决定系统的配置。分析结果一旦测试完毕后,LoadRunner收集汇总所有的测试数据,并提供高级的分析和报告工具,以便迅速查找到性能问题并追溯原由。使用LOadRUnner的Web交易细节监测器,您可以了解到将所有的图象、框架和文本下载到每一网页上所需的时间。例如,这个交易细节分析机制能够分析是否因为一个大尺寸的图形文件或是第三方的数据组件造成应用系统运行速度减慢。另外,Web交易细节监测器分解用于客户端、网络和服务器上端到端的反应时间,便于确认问题,定位查找真正出错的组件。例如,您可以将网络延时进行分解,以判断DNS解析时间,连接服务器或SSL认证所花费的时间Q通过使用LoadRunner的分析工具,您能很快地查找到出错的位置和原因并作出相应的调整。重复测试负载测试是一个重复过程Q每次处理完一个出错情况,您都需要对您的应用程序在相同的方案下,再进行一次负载测试°以此检验您所做的修正是否改善了运行性能。4.2.1.2并发用户(Concurrentusers)模拟多个用户根据预定的操作事务流程同时对被测系统进行操作。4.2.1.3每秒点击次数(Hitspersecond)即运行场景过程中虚拟用户每秒向Web服务器提交的HTTP请求数。通过它可以评估虚拟用户产生的负载量,如将其和“平均事务响应时间”图比较,可以查看点击次数对事务性能产生的影响。通过对查看“每秒点击次数”,可以判断系统是否稳定。4.2.1.4吞吐量(Throughput)是测试运行过程中服务器的每秒的吞吐量。其度量单位是字节,表示虚拟用在任何给定的每一秒从服务器获得的数据量。可以依据服务器的吞吐量来评估虚拟用户产生的负载量,以及看出服务器在流量方面的处理能力以及是否存在瓶颈。4.2.1.5平均事务响应时间(AVeragetransactionresponsetime)显示的是测试场景运行期间的每一秒内事务执行所用的平均时间,通过它可以分析测试场景运行期间应用系统的性能走向。4.2.2性能效率初次测试4.2.2.1初次测试记录4.2.2.Ll事项管理表12.XX项目-事项管理性能效率测试初测结果被测业务系统XX项目测试人员XXX测试时间20XX.11.30-20XX.12.03测试场景描述加压方式思考时间其他L用户增加方式:5秒加5个用户;2 .持续施压时间:5分钟;3 .用户退出方式:5秒退出5个。无思考时间测试机模拟并发业务响应情况测试点并发业务指标负载下时间指标(秒)用户数期望值实际值成功率MinMaxAvg事项管理模块的性能效率505050100%0.0372.4650.382200200200100%0.1363.7691.338业务响应数据服乡,器资源情况总吞吐量(字节)CPU利用率内存使用率706,734,50232%14%3,552,811,54697%15%结果总结1、并发用户数为50时,负载下的平均响应时间为0.382s,CPU利用率32%,满足“50个并发用户数在负载下的响应时间不能高于5秒,CPU利用率不大于85%的要求”。2、并发用户数为200时,负载下的平均响应时间为1.338s,CPU利用率97乐不满足“200个并发用户数在负载下的响应时间不能高于5秒,CPU利用率不大于85%的要求”。4.2.2.L2领导签批表13.XX项目领导签批性能效率测试初测结果被测业务系统XX项目测试人员XXX测试时间20XX.11.30-20XX.12.03测试场景描述加压方式思考时间其他1 .用户增加方式:5秒加5个用户;2 .持续施压时间:5分钟;3 .用户退出方式:5秒退出5个。无思考时间测试机模拟并发业务响应情况测试点并发用户数业务指标负载下时间指标(秒)期望值实际值成功率MinMaxAvg领导签批模块的性能效率505050100%0.1070.3670.246200200200100%0.1365.3282.886业务响应数据品器资源情况总吞吐量(字节)CPU利用率内存使用率292,877,2527%16%1,996,495,47392%18%结果总结1、并发用户数为50时,负载下的平均响应时间为0.246s,CPU利用率17%,满足“50个并发用户数在负载下的响应时间不能高于1.5秒,CPU利用率不大于85%的要求”。2、并发用户数为200时,负载下的平均响应时间为2.886s,CPU利用率92乐不满足“200个并发用户数在负载下的响应时间不能高于L5秒,CPU利用率不大于85%的要求”。4.2.2.1.3统计分析表14.XX项目-统计分析性能效率测试初测结果被测业务系统XX项目测试人员XXX测试时间20XX.11.30-20XX.12.03测试场景描述加压方式思考时间其他L用户增加方式:5秒加5个用户;2 .持续施压时间:5分钟;3 .用户退出方式:5秒退出5个。无思考时间测试机模拟并发业务响应情况测试点并发用户数业务指标负载下时间指标(秒)期望值实际值成功率MinMaxAvg统计分析模块的性能效率505050100%0.0170.0570.022200200200100%0.08363.9282.364业务响应数据服彳乒器资源情况总吞吐量(字节)CPU利用率内存使用率320,774,95221%17%1,786,469,73197%18%结果总结1、并发用户数为50时,负载下的平均响应时间为0.022s,CPU利用率2现,满足“50个并发用户数在负载下的响应时间不能高于5秒,CPU利用率不大于85%的要求”。2、并发用户数为200时,负载下的平均响应时间为2.364s,CPU利用率97%,不满足“200个并发用户数在负载下的响应时间不能高于5秒,CPU利用率不大于85%的要求”。4.2.2.2初测问题汇总表15.XX项目性能效率测试初测问题汇总问题编号系统测试点问题描述问题级别WT00