V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
ctrl
V2EX  ›  酷工作

西安知名互联网公司内推(15-20K):系统安全工程师、大数据运维

  •  
  •   ctrl · 2018-04-25 18:35:26 +08:00 · 1426 次点击
    这是一个创建于 2165 天前的主题,其中的信息可能已经有所发展或是发生改变。
    如题,帮朋友公司推荐,有兴趣的微信我 conkaxxx 注明 V2

    系统安全工程师  2 名 Base 西安
    岗位职责 :
    1.  负责虚拟化安全管理平台和日志收集平台的建设与维护,包括策略制定与优化、报警过滤、报警处理,发现潜在的风险并及时推动解决; 
    2.  负责业务系统中各种应用的安全检查与加固以及安全基线的维护;
    3.  负责定期对公司业务系统、网络进行安全漏洞扫描和安全配置检查,并跟进修补发现的问题;
    4.  对新上线的业务( web/app )进行安全测试评估,确保上线前的安全性
    5.  参与公司安全事件应急响应处理,分析及定位问题,并协助解决问题;
    6.  制定安全规划与安全解决方案,并在项目中落实;
    岗位要求 :
    1.  全日制本科及以上学历,计算机网络或相关专业,3 年以上相关工作经验。
    2.  熟悉云计算、虚拟化等技术, 熟悉 Linux 操作系统及脚本编写;
    3.  熟悉主流安全产品配置和操作
    4.  具备故障处理、安全事件分析、配置处理等技术能力;
    5.  能够独立完成网络、主机、数据库的风险评估操作及建立安全基线等工作;
    6.  熟悉 Web 及 app 安全技术,对常见的安全漏洞和攻击手段有深入理解
    7.  具有良好的学习能力,沟通能力和团队合作精神;
    8.  具备良好的文档编写能力 
    -------------------------------------------
    大数据运维:2 名 Base 西安

    工作职责:
    1、负载公司 Hadoop 集群规划、管理工作并保证集群的高可靠;
    2、深度优化 HADOOP 平台 MR 作业 /计算框架 /存储技术,提升集群吞吐并降低成本
    3、hadoop 和其他各业务线系统的日常监控、数据备份、数据监控、报警、故障处理;
    4、研究运维相关技术,根据系统需求制定运维技术方案,开发自动化运维工具和运维辅助系统;
    5、深入研究大数据业务相关技术,持续优化集群服务架构,探索新的大数据运维技及发展方向。

    岗位要求:
    1.五年以上运维或开发工作经验,其中三年大数据或数据仓库经验;
    2.熟悉 Hadoop/Hbase/Hive/Impala/Flume/Zookeeper/Spark/ELK 等开源项目,有 patch 源代码经验者尤佳;
    3.有 AWS 或其他云平台使用和管理相关的经验
    4.精通 Linux 操作系统的配置、管理及优化,能够独立排查及解决操作系统层面的问题;
    5.至少精通 Perl/Python/Shell 脚本语言中的一种;
    6.有大型互联网公司 HADOOP 开发、测试、运维、应用工作经验者,熟悉源码尤佳。
    -------------------------------------------
    1 条回复    2018-04-25 23:25:59 +08:00
    Tink
        1
    Tink  
       2018-04-25 23:25:59 +08:00 via iPhone
    什么公司呢
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   2786 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 12:29 · PVG 20:29 · LAX 05:29 · JFK 08:29
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.