这是一个创建于 4004 天前的主题,其中的信息可能已经有所发展或是发生改变。
大数据部_超大规模数据平台高级研发工程师(上海)
公司:百度大数据部 • 地点:上海张江
岗位职责:
-设计,开发可扩展的超大规模百度数据平台,做到海量数据管理,快速流式计算,灵活数据查询,高级数据挖掘,智能数据展现,科学智能评估
任职资格:
-计算机相关专业本科以上经历
-善于学习新知识,新领域,动手能力强
-优秀的分析问题,解决问题能力
-乐于解决具有挑战性的问题
-熟悉Linux/Unix环境
-精通C/C++或PHP编程
-精通数据结构和数据算法
具有以下经验者优先:
1)大型数据仓库开发经验,如数据库、ETL、OLAP、展现
2)数据挖掘,机器学习开发经验
3)熟悉Hadoop/MapReduce
4)日志处理,大规模的用户行为分析和算法实践
--------------------------------------------------------------------------------------------
大数据部_超大规模数据平台架构师(上海)
公司:百度大数据部 • 地点:上海张江
岗位职责:
-总体主导百度大数据平台,支持海量数据管理、分布式计算和百度数据仓库的设计和开发
任职资格:
-大规模分布式数据仓库建设经验
-精通Linux/Unix环境,精通C/C++或java编程
-精通数据结构和数据算法
-高扩展性、高性能和分布式系统的实践经验
-Map Reduce或其他并行计算的实践经验
-ETL/Adhoc query/OLAP等实践经验
-广阔的技术视野,熟悉大数据/互联网行业
-强烈的事业心和技术领导力
具有以下条件者优先:
-2年以上大数据相关经验
-2年以上hadoop ecosystem的项目实际研发经验,比如pig/hive/hbase/hdfs/zookeeper/mahout/flume等
-4年以上综合实践经验,database,shared-nothing,data warehouse,enterprise integration tools,warehouse technology and modeling tools
-日志处理,大规模的用户行为分析和算法实践
-------------------------------------------------------------------
有意向者请发送简历至luanshuya@baidu.com,邮件主题和简历名称格式为:姓名+应聘岗位,欢迎投递简历!
3 条回复 • 2016-04-25 12:17:30 +08:00
 |
|
2
Livid 2014-03-07 16:38:03 +08:00 1
|
 |
|
3
Kathymomo 2016-04-25 12:17:30 +08:00
这个部门跟北京的大数据部是啥关系~~
|