这是一个创建于 3147 天前的主题,其中的信息可能已经有所发展或是发生改变。
工作内容
- 负责构建百度外卖的实时计算平台,包括但不限于数据的实时收集,处理,计算等
- 负责基于 Spark/Storm/flume/kafka 流式计算引擎的设计开发工作,满足业务平台化建设
- 理解用户数据分析和挖掘应用场景,抽象为数据产品需求,不断完善基础数据平台的建设
技能树
- 对操作系统,网络编程有深刻理解
- 熟悉 linux 操作系统以及 linux 环境编程
- 熟悉 hadoop 生态圈,熟悉 Spark,Dpark,Kafka,Flume,Storm 其中的至少 2 项
- 掌握 Scala,Clojure,Python,Java 中至少 2 门,或者对 jvm 技术栈有深刻理解优先
- 对分布式计算,存储,或者并行计算理论优先
- 有良好的系统分析能力,故障诊断能力优先
- 有数据统计分析能力,机器学习能力、数据挖掘能力优先
加分
- 参与过大型项目的构建或者架构
- 自认为是一个技术 Geek
- 维护自己的开源项目;给社区提交过 path;翻译过技术书籍或者 blog
- 代码洁癖重度患者,喜欢造轮子,喜欢深入阅读源代码
- fp 热爱者, 会 scheme,lisp,haskell,ml,erlang 之一,或者看过相关论文
- 认同 *nix 哲学,玩过>2 个的 linux 发型版本.例如:Archlinux,Gentoo.
待遇
mail me