Skip to content

Commit

Permalink
Merge pull request #1 from Apache-Flink-Docs-ZH/master
Browse files Browse the repository at this point in the history
translate als
  • Loading branch information
alamby committed Jun 6, 2017
2 parents 8cc72aa + 477682e commit 4f4ef6a
Show file tree
Hide file tree
Showing 7 changed files with 194 additions and 272 deletions.
29 changes: 14 additions & 15 deletions docs/dev/datastream_api.md
Original file line number Diff line number Diff line change
@@ -1,5 +1,5 @@
---
title: "Flink DataStream API Programming Guide"
title: "Flink DataStream API 编程指南"
nav-title: Streaming (DataStream API)
nav-id: streaming
nav-parent_id: dev
Expand Down Expand Up @@ -120,7 +120,7 @@ object WindowWordCount {
nc -lk 9999
~~~

然后输入一些单词,回车换行输入新一行的单词。这些输入将作为示例程序的输入。如果要使得某个单词的计数大于1,请在5秒钟内重复输入相同的字词(如果5秒钟输入相同单词对你来说太快,请把示例程序中的窗口大小从5秒调大)。
然后输入一些单词,回车换行输入新一行的单词。这些输入将作为示例程序的输入。如果要使得某个单词的计数大于1,请在5秒钟内重复输入相同的字词(如果5秒钟输入相同单词对你来说太快,请把示例程序中的窗口大小从5秒调大 ☺)。

{% top %}

Expand Down Expand Up @@ -202,21 +202,21 @@ dataStream.keyBy("someKey") // Key by field "someKey"
dataStream.keyBy(0) // Key by the first element of a Tuple
{% endhighlight %}
<p>
<span class="label label-danger">注意</span>
这种类型<strong>不能作为key</strong>:
<ol>
<li> POJO类型,并且依赖于<em>Object.hashCode()</em>的实现,但是未覆写<em>hashCode()</em></li>
<li> 任意类型的数组</li>
</ol>
</p>
<span class="label label-danger">注意</span>
以下类型<strong>不能作为key</strong>:
<ol>
<li> POJO类型,并且依赖于<em>Object.hashCode()</em>的实现,但是未覆写<em>hashCode()</em></li>
<li> 任意类型的数组</li>
</ol>
</p>
</td>
</tr>
<tr>
<td><strong>Reduce</strong><br>KeyedStream &rarr; DataStream</td>
<td>
<p>在一个KeyedStream上不断进行reduce操作。将当前元素与上一个reduce后的值进行合并,再返回新合并的值。
<br/>
<br/>
<br/>
一个构造局部求和流的reduce function:</p>
{% highlight java %}
keyedStream.reduce(new ReduceFunction<Integer>() {
Expand All @@ -236,7 +236,7 @@ keyedStream.reduce(new ReduceFunction<Integer>() {
<p>在一个KeyedStream上基于初始值不断进行变换操作,将当前值与上一个变换后的值进行变换,再返回新变换的值。
<br/>
<br/>
<p>在序列(1,2,3,4,5)上应用如下的fold function,返回的序列依次是“start-1”,“start-1-2”,“start-1-2-3”, ...:</p>
<p>>在序列(1,2,3,4,5)上应用如下的fold function,返回的序列依次是“start-1”,“start-1-2”,“start-1-2-3”, ...:</p>
{% highlight java %}
DataStream<String> result =
keyedStream.fold("start", new FoldFunction<Integer, String>() {
Expand Down Expand Up @@ -579,7 +579,7 @@ dataStream.keyBy(0) // Key by the first element of a Tuple
<td>
<p>在一个KeyedStream上不断进行reduce操作。将当前元素与上一个reduce后的值进行合并,再返回新合并的值。
<br/>
<br/>
<br/>
一个构造局部求和流的reduce function:</p>
{% highlight scala %}
keyedStream.reduce { _ + _ }
Expand Down Expand Up @@ -632,7 +632,7 @@ dataStream.keyBy(0).window(TumblingEventTimeWindows.of(Time.seconds(5))) // Last
<tr>
<td><strong>WindowAll</strong><br>DataStream &rarr; AllWindowedStream</td>
<td>
<p>Windows可定义在普通DataStream上。Windows根据一些特征(例如,在最近5秒内到达的数据)对所有流事件进行分组。有关Windows的完整说明请参阅<a href="windows.html">windows</a>。
<p>Windows可定义在普通DataStream上。Windows根据一些特征(例如,在最近5秒内到达的数据)对所有流事件进行分组。有关Windows的完整说明请参阅<a href="windows.html">windows</a></p>
<p><strong>警告:</strong>在多数情况下,这是<strong>非并行</strong>的transformation。所有记录将被聚集到运行windowAll操作的一个任务中。</p>
{% highlight scala %}
dataStream.windowAll(TumblingEventTimeWindows.of(Time.seconds(5))) // Last 5 seconds of data
Expand Down Expand Up @@ -671,7 +671,7 @@ val result: DataStream[String] =
windowedStream.fold("start", (str, i) => { str + "-" + i })
{% endhighlight %}
</td>
</tr>
</tr>
<tr>
<td><strong>Aggregations on windows</strong><br>WindowedStream &rarr; DataStream</td>
<td>
Expand Down Expand Up @@ -858,7 +858,6 @@ DataStream<Tuple2<String, Integer>> out = in.project(2,0);
</div>
</div>


### 物理分区

在一个transformation之后,Flink也提供了底层API以允许用户在必要时精确控制流分区,参见如下的函数。
Expand Down
2 changes: 1 addition & 1 deletion docs/dev/libs/ml/cross_validation.md
Original file line number Diff line number Diff line change
Expand Up @@ -73,7 +73,7 @@ Wiki: <a href="https://en.wikipedia.org/wiki/Cross-validation_(statistics)#k-fol

## 参数

多种 `Splitter`(分割器) 共有一些参数
以上各种 `Splitter`(分割器) 共同拥有一些参数

<table class="table table-bordered">
<thead>
Expand Down
6 changes: 3 additions & 3 deletions docs/dev/libs/ml/knn.md
Original file line number Diff line number Diff line change
Expand Up @@ -39,19 +39,19 @@ $$
`KNN` 是一个 `Predictor`
正如所示, 它支持 `fit` 和 `predict` 操作。

### Fit
### 拟合

KNN 通过一个给定的 `Vector` 集来训练:

* `fit[T <: Vector]: DataSet[T] => Unit`

### Predict
### 预测

KNN 为所有的FlinkML的 `Vector` 的子类预测对应的类别标签:

* `predict[T <: Vector]: DataSet[T] => DataSet[(T, Array[Vector])]`, 这里 `(T, Array[Vector])` 元组对应 (test point, K-nearest training points)

## Parameters
## 参数

KNN的实现可以由以下参数控制:

Expand Down
2 changes: 1 addition & 1 deletion docs/dev/libs/ml/standard_scaler.md
Original file line number Diff line number Diff line change
Expand Up @@ -63,7 +63,7 @@ StandardScaler 将 `Vector` 或 `LabeledVector` 的子类型数据集转换到

## 参数

标准化缩放器可由下面两个参数进行控制。
标准化缩放器可由下面两个参数进行控制。

<table class="table table-bordered">
<thead>
Expand Down
Loading

0 comments on commit 4f4ef6a

Please sign in to comment.