兄弟姐妹好,小编签到,上篇文章发出后有很多同学评论进贴,今天主要对大数据平台运维方案,大数据平台运维方案设计来进行分析,请大家先安静一下,专心听讲。
本文目录
大数据运维工程师的具体职责描述
大数据运维工程师需要负责公司大数据平台的运维管理工作,集群容量规划、扩容及性能优化。下面是我为您精心整理的大数据运维工程师的具体职责描述。
大数据运维工程师的具体职责描述1
职责:
1、负责数据平台的运维管理工作(部署、监控、优化、故障处理);
2、负责Hadoop/Spark/Flink/Elasticsearch/Kafka等系统的架构审核、容量规划、成本优化;
3、负责大数据平台的用户管理、权限分配、资源分配;
4、参与数据挖掘、机器学习的平台的设计、并给出可执行的运维方案;
5、参与数据平台的相关工具开发(包括自动化部署、监控、ETL等);
6、深入理解数据平台架构,发现并解决故障隐患及性能瓶颈;
7、ETL工具、调度工具、关系型数据库的运维。
任职资格:
1、本科以上学历,计算机软件相关专业;
2、1年以上大数据相关组件运维经验(hadoop/yarn/hbase/hive/spark/kafka等),1年以上的CDH或HDP维护经验,3年以上系统运维相关经验;
3、深入理解Linux系统,能独立部署开源软件,熟练掌握一门以上脚本语言(shell/perl/python等),熟悉python开发语言优先;
4、逻辑思维能力强,做事有条理,责任心强,工作积极主动,执行力强,有良好的团队协作意识。
大数据运维工程师的具体职责描述2
职责
1.负责大数据ETL系统,运维及保障服务稳定可用;
2.负责数据采集交换方案以及联调测试;
3.负责采集交换任务的评审和上线;
4.负责及时排除ETL流程故障,形成知识库,完善运维文档;
5.负责监控和优化ETL的性能,持续性地提出改进自动化运维平台建议
技能要求
1.计算机科学或相关专业本科及以上学历;
2.熟悉Linux系统,熟练编写shell/perl/python一种或多种脚本语言;
3.熟悉Hive、Hadoop、MapReduce集群原理,有hadoop大数据平台运维经验者优先;
4.熟悉数据库的性能优化、SQL调优,有相应经验;
5.抗压能力强,有强烈的责任心,良好的沟通能力、学习能力及团队合作能力。
大数据运维工程师的具体职责描述3
职责:
1、负责分布式大数据平台产品的运维和运维开发,保证其高可用和稳定性;
2、负责大数据系统架构的可运维性设计、容量规划、服务监控,持续优化服务架构、集群性能;
3、通过技术手段控制和优化成本,通过自动化工具及流程提升大数据平台运维效率;
4、为项目开发人员提供大数据技术指导及解决大数据平台应用中遇到的技术难题;
任职资格:
1、三年以上大数据运维相关工作经验,有大型互联网公司工作经验者优先,全日制本科及以上学历;
2、熟练掌握至少一门开发语言,有Java或Python语言开发经验优先;
3、精通Hadoop生态及高性能缓存相关的各种工具并有实战经验,包括但不限于Hadoop、HBase、Hive、Presto、Kafka、Spark、Yarn、Flink、Logstash、Flume、ClickHouse等;
4、熟悉Mysql等常用关系数据库,熟练编写SQL语句,有分布式nosql数据库应用、性能调优经验优先;
5、熟悉Linux环境,能够熟悉使用shell脚本;
6、对大数据技术有强烈兴趣,有志于往大数据方向深层次发展;
7、具有很强的责任心、执行力、服务意识、学习能力和抗压能力;
8、具备较好的沟通能力、主动性及责任感。
大数据运维工程师的具体职责描述4
职责:
1、负责大数据集群的日常维护、监控、异常处理等工作,保障集群稳定运行;
2、负责大数据批处理管理以及运维;
3、负责大数据集群的用户管理、权限管理、资源管理、性能优化等;
4、深入理解数据平台架构,发现并解决重大故障及性能瓶颈,打造一流的数据平台;
5、跟进大数据前沿技术,不断优化数据集群;
6、有华为大数据平台运维经验优先;
岗位要求:
1、1年以上大数据运维或开发经验;
2、有良好的计算机和网络基础,熟悉linux文件系统、内核、性能调优,TCP/IP、HTTP等协议;
3、熟悉大数据生态,有相关(HDFS、Hive、Hbase、Sqoop、Spark、Flume、Zookeeper、ES、Kafka)的运维及开发经验;
4、熟练使用shell、python等脚本语言开发相关运维管理工具;
5、良好的文档撰写习惯;
大数据运维工程师的具体职责描述5
职责:
1、负责公司内部及项目中大数据集群的构建,任务调度、监控预警,持续完善大数据平台,保证稳定性、安全性;
2、负责集群容量规划、扩容、集群性能优化及日常巡检和应急值守,参与大数据基础环境的架构设计与改进;
3、深入研究大数据业务相关运维技术,探索新的运维技术及发展方向。
任职要求:
1、熟悉Linux基础命令操作,能够独立编写Shell脚本开展日常服务器的运维;
2、熟悉Hadoop生态圈Hadoop、Kafka、Zookeeper、Hbase、Spark的安装与调优;
3、熟悉软硬件设备,网络原理,有丰富的大数据平台部署,性能优化和运维经验;
4、工作认真负责,有较强的学习能力,动手能力和分析解决问题的能力;
5、能够利用各种开源监控工具、运维工具,HA、负载均衡软件完成工作任务;
6、熟悉JVM虚拟机调优;
大数据运维岗位是干什么的
大数据运维指互联网运维,通常是属于技术部门。其职责:负责大数据平台的稳定性和性能优化;大数据项目的运维工作;针对业务的需求制定运维解决方案;完善监控报警系统,对业务关键指标进行监控和报警通知;负责大数据的方案架构及方案的落地;负责集群网络架构及机器的管理等
大数据运维的主要工作内容是什么
大数据相关工作岗位很多,有大数据分析师、大数据挖掘算法工程师、大数据研发工程师、数据产品经理、大数据可视化工程师、大数据爬虫工程师、大数据运营专员、大数据架构师、大数据专家、大数据总监、大数据研究员、大数据科学家等等
数据分析师:
工作内容:
a.临时取数分析,比如双11大促活动分析;产品的流量转化情况、产品流程优化分析,等等;
b.报表需求分析--比如企业常见的日报、周报、月报、季报、年报、产品报表、流量转化报表、经营分析报表、KPI报表等等;
c.业务专题分析:
精准营销分析(用户画像分析、营销对象分析、营销策略分析、营销效果分析);
风控分析(策略分析,反欺诈分析,信用状况分析);
市场研究分析(行业分析、竞品分析、市场分析、价格分析、渠道分析、决策分析等等);
工具和技能:
工具:R、Python、SAS、SPSS、Spark、X-Mind、Excel、PPT
技能:需掌握SQL数据库、概率统计、常用的算法模型(分类、聚类、关联、预测等,每一类模型的一两种最典型的算法)、分析报告的撰写、商业的敏感性等等;
数据挖掘工程师:
工作内容:
a.用户基础研究:用户生命周期刻画(进入、成长、成熟、衰退、流失)、用户细分模型、用户价值模型、用户活跃度模型、用户意愿度识别模型、用户偏好识别模型、用户流失预警模型、用户激活模型等
b.个性化推荐算法:基于协同过滤(USERBASE/ITEMBASE)的推荐,基于内容推荐,基于关联规则Apriot算法推荐,基于热门地区、季节、商品、人群的推荐等
c.风控模型:恶意注册模型、异地识别模型、欺诈识别模型、高危会员模型、
电商领域(炒信模型、刷单模型、职业差评师模型、虚假发货模型、反欺诈模型)
金融领域(欺诈评分模型、征信评分模型、催收模型、虚假账单识别模型等)
d.产品知识库:产品聚类分类模型、产品质量评分模型、违禁品识别模型、假货识别模型等
e.文本挖掘、语义识别、图像识别,等等
工具和技能:
工具:R、Python、SAS、SPSS、Spark、Mlib等等
技能:需掌握SQL数据库、概率统计、机器学习算法原理(分类、聚类、关联、预测、神经网络等)、模型评估、模型部署、模型监控;
数据产品经理:
工作内容:
a.大数据平台建设,让获取数据、用数据变得轻而易举;构建完善的指标体系,实现对业务的全流程监控、提高决策效率、降低运营成本、提升营收水平;
b.数据需求分析,形成数据产品,对内提升效率、控制成本,对外增加创收,最终实现数据价值变现;
c.典型的大数据产品:大数据分析平台、个性化推荐系统、精准营销系统、广告系统、征信评分系统(如芝麻评分)、会员数据服务系统(如数据纵横),等等;
工具和技能:
工具:除了掌握数据分析工具,还需要掌握像原型设计工具Auxe、画结构流程的X-Mind、visio、Excel、PPT等
技能:需掌握SQL数据库、产品设计,同时,熟悉常用的数据产品框架
数据研发工程师:
工作内容:
a.大数据采集、日志爬虫、数据上报等数据获取工作
b.大数据清洗、转换、计算、存储、展现等工作
c.大数据应用开发、可视化开发、报表开发等
工具和技能:
工具:hadoop、hbase、hive、kafaka、sqoop、java、python等
技能:需掌握数据库、日志采集方法、分布式计算、实时计算等技术
好了,关于大数据平台运维方案和大数据平台运维方案设计的问题到这里结束啦,希望可以解决您的问题哈!
发表评论 取消回复