欢迎来到课桌文档! | 帮助中心 课桌文档-建筑工程资料库
课桌文档
全部分类
  • 党建之窗>
  • 感悟体会>
  • 百家争鸣>
  • 教育整顿>
  • 文笔提升>
  • 热门分类>
  • 计划总结>
  • 致辞演讲>
  • 在线阅读>
  • ImageVerifierCode 换一换
    首页 课桌文档 > 资源分类 > DOCX文档下载  

    第十五届山东省职业院校技能大赛高职组“大数据技术与应用”.docx

    • 资源ID:335568       资源大小:19.49KB        全文页数:4页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    第十五届山东省职业院校技能大赛高职组“大数据技术与应用”.docx

    第十五届山东省职业院校技能大赛高职组“大数据技术与应用”赛项竞赛试题一、竞赛时间、内容及总成绩(一)竞赛时间竞赛时间共为6小时,参赛队自行安排任务进度,休息、饮水、如厕等不设专门用时,统一含在竞赛时间内。(二)竞赛内容概述序号任务名称具体内容任务一大数据平台环境搭建按照任务书要求,需要基于Docker环境完成HadOOP完全分布式、SPark安装配置、FIink安装配置、Hive安装配置、Kafka安装配置、Flume安装配置、ClickHouse安装配置、HBase安装配置等中的任意三个组件的安装配置任务二数据采集按照任务书要求基于SCala语言基于SPark完成离线数据采集,将数据存入HiVe的OdS层中;按照要求使用LinUX命令,利用Flume>Maxwel1>Kafka等工具完成实时数据采集任务三实时数据处理按照任务书要求使用SCaIa语言基于Flink完成Kafka中的数据消费,将数据分发至据消a的dwd层中,并在HBase中进行备份同时建立Hive外表,基于Flink完成相关的数据指标计算并将计算结果存入Redis、CliCkHOUSe中任务四离线数据处理按照任务书要求使用SCala语言基于SPark完成离线数据清洗、处理、计算,包括数据的合并、去重、排序、数据类型转换等并将计算结果存入MySQL、HBaseClickHouse中任务五数据可视化按照任务书要求编写前端代码,调用后台数据接口,使用、EChartS完成数据可视化任务六综合分析报告根据要求编写综合分析报告()竞赛总成绩“大数据技术与应用”赛项竞赛总成绩为IOO分,其中包含赛场职业素养5分。二、任务须知L每组参赛队分配一台竞赛服务器、三台客户机,拥有独立IP组。2 .本次比赛采用统一网络环境比赛,请不要随意更改客户端的网络地址信息,对于更改客户端信息造成的问题,由参赛选手自行承担比赛损失;3 .请不要恶意破坏竞赛环境,对于恶意破坏竞赛环境的参赛者,组委会根据其行为予以处罚直至取消比赛资格。4 .比赛过程中及时保存相关文档。5 .比赛相关文档中不能出现参赛学校名称和参赛选手名称,以赛位号(工位号)代替。6 .参赛选手请勿删除模板内容,若因删除导致任何问题后果自负。7 .若同一文档由不同选手完成,须将文档合并后作为最终结果提交到U盘中。8 .比赛中出现各种问题及时向现场裁判举手示意,不要影响其他参赛队比赛。三、任务说明本项目要求完成离线电商数据统计分析,完成大数据平台环境搭建、数据采集、实时数据处理、离线数据处理、数据可视化及综合分析报告编写等工作。提供的相关资源包括:1 .大数据环境搭建中需要用到的组件安装包2 .电商相关脱敏业务数据3 .大数据分析集群环境4 .数据采集开发环境5 .实时数据处理开发环境6 .离线数据处理开发环境7 .数据可视化开发环境8 .综合分析报告文档模板任务一:大数据平台环境搭建按照任务书要求,需要基于Docker环境完成Hadoop完全分布式、SPark安装配置、Flink安装配置、HiVe安装配置、Kafka安装配置、FlUnle安装配置、CliCkHoUSe安装配置、HBaSe安装配置等中的任意三个组件的安装配置。任务二:数据采集按照任务书要求基于Scala语言基于Spark完成离线数据采集,将数据存入Hive的OdS层中;按照任务书要求使用Linux命令,利用Flume、Maxwell等工具完成实时数据采集,将数据存入Kafka指定的TOPiC中。任务三:实时数据处理按照任务书要求使用SCaIa语言基于Flink完成Kafka中的数据消费,将数据分发至Kafka的dwd层中,并在HBaSe中进行备份同时建立HiVe外表,基于FIink完成相关的数据指标计算并将计算结果存入Redis、ClickHouse中。任务四:离线数据处理按照任务书要求使用SCaIa语言基于SPark完成离线数据清洗、处理、计算,包括数据的合并、去重、排序、数据类型转换等并将计算结果存入MySQL、HBaSe、CIiCkHOUSe中。任务五:数据可视化按照任务书要求编写前端代码,调用后台数据接口,使用、EChartS完成数据可视化。任务六:综合分析报告按照任务书要求,完成综合分析报告编写。四、竞赛结果提交要求(一)提交方式任务成果需拷贝至提供的U盘中。在U盘中以XX工位号建一个文件夹(例如01),将所有任务成果文档保存至该文件夹中。(二)文档要求竞赛提交的所有文档中不能出现参赛队信息和参赛选手信息,竞赛文档需要填写参赛队信息时以工位号代替(XX代表工位号)。

    注意事项

    本文(第十五届山东省职业院校技能大赛高职组“大数据技术与应用”.docx)为本站会员(夺命阿水)主动上传,课桌文档仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知课桌文档(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-1

    经营许可证:宁B2-20210002

    宁公网安备 64010402000986号

    课桌文档
    收起
    展开