Skip to content
Closed
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
Fix some typos.
  • Loading branch information
Yulv-git committed May 19, 2022
commit fb4ca167a59ceedfa98775ac4dc32c1740fd5fcf
2 changes: 1 addition & 1 deletion notes/Azkaban_Flow_2.0_的使用.md
Original file line number Diff line number Diff line change
Expand Up @@ -13,7 +13,7 @@

### 1.1 Flow 2.0 的产生

Azkaban 目前同时支持 Flow 1.0 和 Flow2.0 ,但是官方文档上更推荐使用 Flow 2.0,因为 Flow 1.0 会在将来的版本被移除。Flow 2.0 的主要设计思想是提供 1.0 所没有的流级定义。用户可以将属于给定流的所有 `job / properties` 文件合并到单个流定义文件中,其内容采用 YAML 语法进行定义,同时还支持在流中再定义流,称为为嵌入流或子流
Azkaban 目前同时支持 Flow 1.0 和 Flow 2.0 ,但是官方文档上更推荐使用 Flow 2.0,因为 Flow 1.0 会在将来的版本被移除。Flow 2.0 的主要设计思想是提供 1.0 所没有的流级定义。用户可以将属于给定流的所有 `job / properties` 文件合并到单个流定义文件中,其内容采用 YAML 语法进行定义,同时还支持在流中再定义流,称为嵌入流或子流

### 1.2 基本结构

Expand Down
2 changes: 1 addition & 1 deletion notes/Hadoop-HDFS.md
Original file line number Diff line number Diff line change
Expand Up @@ -110,7 +110,7 @@ HDFS 设计的重点是支持高吞吐量的数据访问,而不是低延迟的

### 3.3 大文件支持

HDFS 适合于大文件的存储,文档的大小应该是是 GB 到 TB 级别的。
HDFS 适合于大文件的存储,文档的大小应该是 GB 到 TB 级别的。

### 3.3 简单一致性模型

Expand Down
2 changes: 1 addition & 1 deletion notes/Hive简介及核心概念.md
Original file line number Diff line number Diff line change
Expand Up @@ -35,7 +35,7 @@ Hive 是一个构建在 Hadoop 之上的数据仓库,它可以将结构化的

可以用 command-line shell 和 thrift/jdbc 两种方式来操作数据:

+ **command-line shell**:通过 hive 命令行的的方式来操作数据
+ **command-line shell**:通过 hive 命令行的方式来操作数据
+ **thrift/jdbc**:通过 thrift 协议按照标准的 JDBC 的方式操作数据。

### 2.2 Metastore
Expand Down
2 changes: 1 addition & 1 deletion notes/SparkSQL常用聚合函数.md
Original file line number Diff line number Diff line change
Expand Up @@ -198,7 +198,7 @@ case class SumAndCount(var sum: Double, var count: Long)
*/
object MyAverage extends Aggregator[Emp, SumAndCount, Double] {

// 4.用于聚合操作的的初始零值
// 4.用于聚合操作的初始零值
override def zero: SumAndCount = SumAndCount(0, 0)

// 5.同一分区中的 reduce 操作
Expand Down
2 changes: 1 addition & 1 deletion notes/installation/Linux下Flume的安装.md
Original file line number Diff line number Diff line change
Expand Up @@ -50,7 +50,7 @@ export PATH=$FLUME_HOME/bin:$PATH
修改 `flume-env.sh`,指定 JDK 的安装路径:

```shell
# Enviroment variables can be set here.
# Environment variables can be set here.
export JAVA_HOME=/usr/java/jdk1.8.0_201
```

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -356,7 +356,7 @@ scp -r /usr/app/hadoop-2.6.0-cdh5.15.2/ hadoop003:/usr/app/

### 5.2 启动Journalnode

分别到三台服务器的的 `${HADOOP_HOME}/sbin` 目录下,启动 `journalnode` 进程:
分别到三台服务器的 `${HADOOP_HOME}/sbin` 目录下,启动 `journalnode` 进程:

```shell
hadoop-daemon.sh start journalnode
Expand Down