Storm 是一个开源的、大数据处理系统,与其他系统不同,它旨在用于分布式实时处理且与语言无关。了解 Twitter Storm、它的架构,以及批处理和流式处理解决方案的发展形势。

一、Storm安装

1、下载软件包解压

1
2
3
http://storm.apache.org/
wget http://mirrors.cnnic.cn/apache/storm/apache-storm-0.9.4/apache-storm-0.9.4.tar.gz
tar -zxvf apache-storm-0.9.4.tar.gz

2、config

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
[root@itr-mastertest01 conf]# egrep -v "^$|#" storm.yaml 
storm.zookeeper.servers:
- "itr-mastertest01"
- "itr-mastertest02"
- "itr-nodetest01"

storm.local.dir: "/usr/local/storm-0.9.2/tmp"

supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703

# nimbus.host: "nimbus"
nimbus.host: "itr-mastertest01"
ui.port: 8888

#netty conf
storm.messaging.transport:"backtype.storm.messaging.netty.Context"
storm.messaging.netty.server_worker_threads: 1
storm.messaging.netty.client_worker_threads: 1
storm.messaging.netty.buffer_size: 5242880
storm.messaging.netty.max_retries: 100
storm.messaging.netty.max_wait_ms: 1000
storm.messaging.netty.min_wait_ms: 100

3、启动集群

1
2
3
4
5
6
7
8
9
#主节点
[root@itr-mastertest01 local]# storm-0.9.2/bin/storm nimbus &

#ui启动
[root@itr-mastertest01 local]# storm-0.9.2/bin/storm ui &
http://itr-mastertest01:8080/index.html

#从节点
[root@itr-nodetest02 storm-0.9.2]# bin/storm supervisor &

4、测试

1
2
3
./storm jar wordcount.jar cn.itweet.storm.topology.WordCountTopo
./storm list #显示运行的所有任务
./storm kill 任务名称 #杀死运行程序

5、stom on yarn

1
2
http://zh.hortonworks.com/kb/storm-on-yarn-install-on-hdp2-beta-cluster/
wget https://github.com/yahoo/storm-yarn/archive/master.zip

6、worker–execute–task

线程数–任务数的对应关系!

7、storm分组机制

Storm分组机制

Stream Grouping定义了一个流在Bolt任务间该如何被切分。这
里有Storm提供的6个Stream Grouping类型:

  1. 随机分组( Shuffle grouping):随机分发tuple到Bolt的任务
    ,保证每个任务获得相等数量的tuple。

  2. 字段分组( Fields grouping):根据指定字段分割数据流,
    并分组。例如,根据“user-id”字段,相同“user-id”的元组总是分
    发到同一个任务,不同“user-id”的元组可能分发到不同的任务

  3. 全部分组( All grouping): tuple被复制到bolt的所有任务。
    这种类型需要谨慎使用。

  4. 全局分组( Global grouping):全部流都分配到bolt的同一个任
    务。明确地说,是分配给ID最小的那个task。

  5. 无分组( None grouping):你不需要关心流是如何分组。目前
    ,无分组等效于随机分组。但最终, Storm将把无分组的Bolts
    放到Bolts或Spouts订阅它们的同一线程去执行(如果可能)。

  6. 直接分组( Direct grouping):这是一个特别的分组类型。元
    组生产者决定tuple由哪个元组处理者任务接收。
    当然还可以实现CustomStreamGroupimg接口来定制自己需要的
    分组。

二、strom打包运行测试

Storm-start(https://github.com/apache/storm/blob/master/examples/storm-starter/pom.xml)
替换其中的两个依赖:

1
2
3
4
5
6
7
8
9
10
<dependency>
<groupId>org.twitter4j</groupId>
<artifactId>twitter4j-core</artifactId>
<version>[2.2,)</version>
</dependency>
<dependency>
<groupId>org.twitter4j</groupId>
<artifactId>twitter4j-stream</artifactId>
<version>[2.2,)</version>
</dependency>

1
git clone git://github.com/apache/storm.git && cd storm/examples/storm-starter
  • 生成target/storm-starter-0.xx-incubating-SNAPSHOT.jar
    1
    2
    3
    4
    5
    6
    7
    8
    9
    cd ./storm\examples\storm-starter
    mvn clean package -DskipTests=true
    ./storm-starter\target [master]> ls
    storm-starter\target
    -a--- 2015/5/10 20:28 146803 original-storm-starter-0.11.0-SNAPSHOT.jar
    -a--- 2015/5/10 20:28 3304816 storm-starter-0.11.0-SNAPSHOT-shaded.jar
    -a--- 2015/5/10 20:28 3304816 storm-starter-0.11.0-SNAPSHOT.jar

    or 导入到IDEA中,编译生成测试jar包

test 命令

1
2
3
4
5
6
# Example 1: Run the RollingTopWords in local mode (LocalCluster)
$ storm jar storm-starter-*.jar storm.starter.RollingTopWords

# Example 2: Run the RollingTopWords in remote/cluster mode,
# under the name "production-topology"
$ storm jar storm-starter-*.jar storm.starter.RollingTopWords production-topology remote

实例

1
2
3
4
5
6
7
8
9
10
11
12
[root@itr-mastertest01 storm-0.9.2]# bin/storm jar examples/storm-starter/storm-starter-topologies-0.9.2-incubating.jar storm.starter.WordCountTopology test

[root@itr-mastertest01 storm-0.9.2]# bin/storm list|tail -3
Topology_name Status Num_tasks Num_workers Uptime_secs
-------------------------------------------------------------------
test ACTIVE 28 3 101

[root@itr-mastertest01 storm-0.9.2]# bin/storm kill test
[root@itr-mastertest01 storm-0.9.2]# bin/storm list|tail -3
Topology_name Status Num_tasks Num_workers Uptime_secs
-------------------------------------------------------------------
test KILLED 28 3 235

三、Storm配置参数

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
storm.zookeeper.servers ZooKeeper服务器列表

storm.zookeeper.port ZooKeeper连接端口

storm.local.dir storm使用的本地文件系统目录(必须存在并且storm进程可读写)

storm.cluster.mode Storm集群运行模式([distributed|local])

storm.local.mode.zmq Local模式下是否使用ZeroMQ作消息系统,如果设置为false则使用java消息系统。默认为false

storm.zookeeper.root ZooKeeper中Storm的根目录位置

storm.zookeeper.session.timeout 客户端连接ZooKeeper超时时间

storm.id 运行中拓扑的id,由storm name和一个唯一随机数组成。

nimbus.host nimbus服务器地址

nimbus.thrift.port nimbus的thrift监听端口

nimbus.childopts 通过storm-deploy项目部署时指定给nimbus进程的jvm选项

nimbus.task.timeout.secs 心跳超时时间,超时后nimbus会认为task死掉并重分配给另一个地址。

nimbus.monitor.freq.secs nimbus检查心跳和重分配任务的时间间隔.注意如果是机器宕掉nimbus会立即接管并处理。

nimbus.supervisor.timeout.secs supervisor的心跳超时时间,一旦超过nimbus会认为该supervisor已死并停止为它分发新任务.

nimbus.task.launch.secs task启动时的一个特殊超时设置.在启动后第一次心跳前会使用该值来临时替代nimbus.task.timeout.secs.

nimbus.reassign 当发现task失败时nimbus是否重新分配执行。默认为真,不建议修改。

nimbus.file.copy.expiration.secs nimbus判断上传/下载链接的超时时间,当空闲时间超过该设定时nimbus会认为链接死掉并主动断开

ui.port Storm UI的服务端口

drpc.servers DRPC服务器列表,以便DRPCSpout知道和谁通讯

drpc.port Storm DRPC的服务端口

supervisor.slots.ports supervisor上能够运行workers的端口列表.每个worker占用一个端口,且每个端口只运行一个worker.通过这项配置可以调整每台机器上运行的worker数.(调整slot数/每机)

supervisor.childopts 在storm-deploy项目中使用,用来配置supervisor守护进程的jvm选项

supervisor.worker.timeout.secs supervisor中的worker心跳超时时间,一旦超时supervisor会尝试重启worker进程.

supervisor.worker.start.timeout.secs supervisor初始启动时,worker的心跳超时时间,当超过该时间supervisor会尝试重启worker。因为JVM初始启动和配置会带来的额外消耗,从而使得第一次心跳会超过supervisor.worker.timeout.secs的设定

supervisor.enable supervisor是否应当运行分配给他的workers.默认为true,该选项用来进行Storm的单元测试,一般不应修改.

supervisor.heartbeat.frequency.secs supervisor心跳发送频率(多久发送一次)

supervisor.monitor.frequency.secs supervisor检查worker心跳的频率

worker.childopts supervisor启动worker时使用的jvm选项.所有的”%ID%”字串会被替换为对应worker的标识符

worker.heartbeat.frequency.secs worker的心跳发送时间间隔

task.heartbeat.frequency.secs task汇报状态心跳时间间隔

task.refresh.poll.secs task与其他tasks之间链接同步的频率.(如果task被重分配,其他tasks向它发送消息需要刷新连接).一般来讲,重分配发生时其他tasks会理解得到通知。该配置仅仅为了防止未通知的情况。

topology.debug 如果设置成true,Storm将记录发射的每条信息。

topology.optimize master是否在合适时机通过在单个线程内运行多个task以达到优化topologies的目的.

topology.workers 执行该topology集群中应当启动的进程数量.每个进程内部将以线程方式执行一定数目的tasks.topology的组件结合该参数和并行度提示来优化性能

topology.ackers topology中启动的acker任务数.Acker保存由spout发送的tuples的记录,并探测tuple何时被完全处理.当Acker探测到tuple被处理完毕时会向spout发送确认信息.通常应当根据topology的吞吐量来确定acker的数目,但一般不需要太多.当设置为0时,相当于禁用了消息可靠性,storm会在spout发送tuples后立即进行确认.

topology.message.timeout.secs topology中spout发送消息的最大处理超时时间.如果一条消息在该时间窗口内未被成功ack,Storm会告知spout这条消息失败。而部分spout实现了失败消息重播功能。

topology.kryo.register 注册到Kryo(Storm底层的序列化框架)的序列化方案列表.序列化方案可以是一个类名,或者是com.esotericsoftware.kryo.Serializer的实现.

topology.skip.missing.kryo.registrations Storm是否应该跳过它不能识别的kryo序列化方案.如果设置为否task可能会装载失败或者在运行时抛出错误.

topology.max.task.parallelism 在一个topology中能够允许的最大组件并行度.该项配置主要用在本地模式中测试线程数限制.

topology.max.spout.pending 一个spout task中处于pending状态的最大的tuples数量.该配置应用于单个task,而不是整个spouts或topology.

topology.state.synchronization.timeout.secs 组件同步状态源的最大超时时间(保留选项,暂未使用)

topology.stats.sample.rate 用来产生task统计信息的tuples抽样百分比

topology.fall.back.on.java.serialization topology中是否使用java的序列化方案

zmq.threads 每个worker进程内zeromq通讯用到的线程数

zmq.linger.millis 当连接关闭时,链接尝试重新发送消息到目标主机的持续时长.这是一个不常用的高级选项,基本上可以忽略.

java.library.path JVM启动(如Nimbus,Supervisor和workers)时的java.library.path设置.该选项告诉JVM在哪些路径下定位本地库.

参考链接:Storm资料