Big Data Specialist (Chinese)
工作地點
Beijing
職位類別
Technical Division - Software
崗位職責
  • 负责构建Spark/HDFS大数据处理架构,对于Hadoop、Hive、Hbase、Spark、Sqoop有实际的编码能力和海量数据的自动化分析处理和统计工作;
  • 基于Spark框架大数据架构的设计、开发和维护;
  • 根据相关需求使用SparkStreaming/Storm、SparkSQL进行数据处理、查询和统计等工作。
任職要求
  • 正规大学信息技术相关专业本科及以上学历;
  • 熟悉主流分布式处理框架,基于Hadoop的数据挖掘、大数据组件开发和封装;
  • 精通Java语言开发经验,特别是数据库和多线程开发,熟悉常见的Java开发框架及开发能力;
  • 有银行项目经验者优先,有数据仓库项目经验者优先;
  • 具备良好沟通协调能力和学习能力;
  • 具备强烈的责任心、事业心及集体荣誉感;
  • 具有团队合作精神。
應徵方法

job application method - Beijing (email)

基本待遇: 五险一金/带薪年假/年终奖/餐补/定期体检/节日福利
简历投递方式: 有意者请将简历发送到 ctbjhr@clustertech.com ,并注明投递的职位,工作地点和薪资期望;或寄到以下地址:

北京市海淀区北土城西路197号
联合大学融创大厦7层
(邮编:100191)

所有的申请将严格保密。收集的个人信息将仅用于招聘的目的而使用。如果你没有在四周内邀请参加面试,你的申请在两年内有可能被本公司或相关公司内的任何其他适当的位置考虑。