构建分布式大数据云服务,并且参与到社区建设。深入源码内核改进优化开源项目,解决源码级别问题。
需要注意的是:不是使用组件,是研发hadoop、spark、hbase、flink等组件,深入修改内核,需要较强的分布式理论及编码能力。
岗位要求:
1、计算机或相关专业本科以上学历(3年以上工作经验)
2、精通C++/Java/Scala程序开发(至少一种),熟悉Linux/Unix开发环境
3、熟悉常用开源分布式系统,精通Hadoop/Spark/HBase/ES之一源代码尤佳
4、熟悉数据库或者数据仓库理论
5、具有良好的沟通协作能力,具有较强的分享意愿
6、高抗压能力,故障面前临危不乱,困难面前勇于挑战
具体事项:
1、研究开源大数据组件,改进性能、功能,提出创新性点,反馈给社区,成为领域专家。
2、解决各种客户hadoop、spark、hbase、flink等疑难杂症
3、宣传技术,编写博客,在内外部分享大数据技术,成为分布式领域权威专家
可以看下这个:
分布式面试指南:
hadoop学习之路:
如果已经有一定的火候,果断联系我。
面试是:面试+笔试哦!加油!
长期有效!!!
时间: 2024-10-26 14:23:06