【活动】Apache Flink文档翻译志愿者招募!

Apache Flink是一款分布式、高性能的开源流式处理框架,在2015年1月12日,Apache Flink正式成为Apache顶级项目。目前Flink在阿里巴巴、Bouygues Teleccom、Capital One等公司得到应用,如阿里巴巴对Apache Flink的应用案例。

为了更好地让大家了解和使用Apache Flink,我们特地发起Apache Flink官方文档中文翻译计划,欢迎兴趣爱好者加入。

本次翻译来源,主要为Apache Flink官网文档内容,共7部分、100多个章节内容,可以说是一本书的大小了。为了完成Apache Flink文档翻译,我们需要下面志愿者:

  • 翻译志愿者:负责进行英文文档初译,每人负责一小节(点我认领)。
  • 审校志愿者:负责对初译内容进行校对,要求技术经验丰富,熟悉常见技术英文词汇(点我认领)。
  • 项目经理(1名):负责跟进翻译进度,协调项目成员间的沟通(报名)。

本次翻译项目,会全程通过GitHub平台协作,欢迎大家认领。翻译完成后,所有翻译成果将公开分享给社区。在最终发布文档页面中,我们将会附上所有参与该文档翻译的志愿者。

参与Apache Flink官方文档中文翻译计划,了解参与详情:https://github.com/Apache-Flink-Docs-ZH

时间: 2024-11-01 23:48:18

【活动】Apache Flink文档翻译志愿者招募!的相关文章

【资料合集】Apache Flink 精选PDF下载

Apache Flink是一款分布式.高性能的开源流式处理框架,在2015年1月12日,Apache Flink正式成为Apache顶级项目.目前Flink在阿里巴巴.Bouygues Teleccom.Capital One等公司得到应用,如阿里巴巴对Apache Flink的应用案例. 为了更好地让大家了解和使用Apache Flink,我们收集了25+个Flink相关的演讲PDF(资料来自Apache Flink官网推荐)和相关文章,供大家参考. PDF下载 Robert Metzger:

Apache Flink 实现的数据流体系结构

data Artisans应用程序工程总监Jamie Grier最近在OSCON 2016 Conference大会发言谈到了使用Apache Flink构建的一种数据流体系结构.同时还谈到了数据流应用程序的构建块. 数据流体系结构可用于处理随着时间流逝以事件流方式持续生成的数据,这一点不同于传统的静态数据集.相对于传统的集中式"状态化"数据库和数据仓库,数据流应用程序可以处理事件流以及针对历史事件汇总而来的应用程序本地状态.流式数据处理的一些优势包括: 降低从信号到决策的过程延迟 通

森博公关“沙裸艺术”公益志愿者招募进入倒计时

据最新了解,国内首个由文化创意产业独立发起的大型公益行动--IBC公益计划,今天将进志愿者招募的最后一天.主办方森博公关集团日前对外公布,中国摄影家协会副主席.著名军旅摄影家张桐胜已确定加盟IBC公益志愿者行列,并将与2013敦煌"沙裸艺术"行动的志愿者们一道,在本月底启程奔赴敦煌展开"沙裸"拍摄活动.中国摄影家协会副主席.著名军旅摄影家张桐胜(资料图片)本月初,IBC公益计划暨2013"人·沙·敦煌"沙裸艺术行动在北京启动,著名影视演员闫妮倾情

Apache Flink源码解析之stream-window

window(窗口)是Flink流处理中非常重要的概念,本篇我们来对窗口相关的概念以及关联的实现进行解析.本篇的内容主要集中在package org.apache.flink.streaming.api.windowing下. Window 一个Window代表有限对象的集合.一个窗口有一个最大的时间戳,该时间戳意味着在其代表的某时间点--所有应该进入这个窗口的元素都已经到达. Flink的根窗口对象是一个抽象类,只提供了一个抽象方法: public abstract long maxTimes

Apache Flink fault tolerance源码剖析(五)

上一篇文章我们谈论了保存点的相关内容,其中就谈到了保存点状态的存储.这篇文章我们来探讨用户程序状态的存储,也是在之前的文章中多次提及的state backend(中文暂译为状态终端). 基于数据流API而编写的程序经常以各种各样的形式保存着状态: 窗口收集/聚合元素(这里的元素可以看作是窗口的状态)直到它们被触发 转换函数可能会使用key/value状态接口来存储数据 转换函数可能实现Checkpointed接口来让它们的本地变量受益于fault tolerant机制 当检查点机制工作时,上面谈

Apache Flink改进及其在阿里巴巴搜索中的应用

本文整理自阿里搜索基础设施团队研究员蒋晓伟在Flink Forward 2016大会上的演讲,原始演讲视频可以在这里查看. 以下为演讲整理 阿里是世界上最大的电子商务零售商,其2015年的年销售额就超过了eBay和Amazon的总和,达3940亿.Alibaba Search,个性化搜索和推荐平台,既是顾客的关键入口,也承担了大部分的在线收益.因此,阿里搜索基础设施团队一直在努力改进产品. 对于电子商务网站上的搜索引擎,到底什么最重要?必然是实时地为每一位用户提供最相关和准确的搜索结果.以阿里巴

Apache Flink fault tolerance源码剖析(二)

继续Flink Fault Tolerance机制剖析.上一篇文章我们结合代码讲解了Flink中检查点是如何应用的(如何根据快照做失败恢复,以及检查点被应用的场景),这篇我们来谈谈检查点的触发机制以及基于Actor的消息驱动的协同机制.这篇涉及到一个非常关键的类--CheckpointCoordinator. org.apache.flink.runtime.checkpoint.CheckpointCoordinator 该类可以理解为检查点的协调器,用来协调operator和state的分布

Apache Flink流作业提交流程分析

用户编写的程序逻辑需要提交给Flink才能得到执行.本文来探讨一下客户程序如何提交给Flink.鉴于用户将自己利用Flink的API编写的逻辑打成相应的应用程序包(比如Jar)然后提交到一个目标Flink集群上去运行是比较主流的使用场景,因此我们的分析也基于这一场景进行. Flink的API针对不同的执行环境有不同的Environment对象,这里我们主要基于常用的RemoteStreamEnvironment和RemoteEnvironment进行分析 在前面我们谈到了Flink中实现了"惰性

Apache Flink数据流的Fault Tolerance机制

简介 Apache Flink提供了一个失败恢复机制来使得数据流应用可以持续得恢复状态.这个机制可以保证即使线上环境的失败,程序的状态也将能保证数据流达到exactly once的一致性.注意这里也可以选择降级到保证at least once的一致性级别. 失败恢复机制持续地构建分布式流式数据的快照.对于那些只有少量状态的流处理应用,这些快照都是非常轻量级的并且可以以非常频繁的频率来构建快照而不需要太多地考虑性能问题.而流应用的状态被存储在一个可配置的持久化存储(比如master节点或者HDFS