职位描述
该职位还未进行加V认证,请仔细了解后再进行投递!
岗位职能:
1. 负责公司大数据平台自动化运维开发、监控和优化作业,保证数据渠道服务的安稳性和可用性
2. 编写和维护运维脚本,以及对数据处理任务进行持续集成和交付,以确保数据任务稳定调度运行
3. 负责运维相关的工作,如系统监测、故障排查与修复、系统容量规划,系统安全管理等工作
4. 具备快速定位和解决问题的能力,并且能够对常见大数据组件优化
5. 研究大数据前沿技能,改进现有体系的服务和运维架构,提升体系可靠性和可运维性
任职要求:
1. 本科及以上学历,软件工程或计算机相关专业,有三年以上运维经验,两年以上大数据运维经验,深入理解运维体系
2. 熟练使用 shell 或 python ,有 Ansible 或 terraform 使用经验。深入理解 Linux 操作系统
3. 具有 CDH 或 HDP 运维经验,有开发经验***
3. 熟练部署 hadoop, hive, spark, flink, elasticsearch, kafka 等常见大数据处理组件
4. 有数据安全管理方面经验,熟悉 kerberos 和 LDAP 管理经验
5. 有激情和责任心,积极主动,具有良好的团队协作、对外沟通能力,有良好的自学能力。
加分项:
1. 具有 python 使用经验
2. 有开源项目贡献,提供 Github 或博客
1. 负责公司大数据平台自动化运维开发、监控和优化作业,保证数据渠道服务的安稳性和可用性
2. 编写和维护运维脚本,以及对数据处理任务进行持续集成和交付,以确保数据任务稳定调度运行
3. 负责运维相关的工作,如系统监测、故障排查与修复、系统容量规划,系统安全管理等工作
4. 具备快速定位和解决问题的能力,并且能够对常见大数据组件优化
5. 研究大数据前沿技能,改进现有体系的服务和运维架构,提升体系可靠性和可运维性
任职要求:
1. 本科及以上学历,软件工程或计算机相关专业,有三年以上运维经验,两年以上大数据运维经验,深入理解运维体系
2. 熟练使用 shell 或 python ,有 Ansible 或 terraform 使用经验。深入理解 Linux 操作系统
3. 具有 CDH 或 HDP 运维经验,有开发经验***
3. 熟练部署 hadoop, hive, spark, flink, elasticsearch, kafka 等常见大数据处理组件
4. 有数据安全管理方面经验,熟悉 kerberos 和 LDAP 管理经验
5. 有激情和责任心,积极主动,具有良好的团队协作、对外沟通能力,有良好的自学能力。
加分项:
1. 具有 python 使用经验
2. 有开源项目贡献,提供 Github 或博客
工作地点
地址:上海浦东新区浦东南路2162号3楼B座
求职提示:用人单位发布虚假招聘信息,或以任何名义向求职者收取财物(如体检费、置装费、押金、服装费、培训费、身份证、毕业证等),均涉嫌违法,请求职者务必提高警惕。
职位发布者
Luan..HR
上海腾道信息技术有限公司
- 计算机软件
- 500-999人
- 私营·民营企业
- 浦东南路2162号