storm有兩種操作模式: 本地模式和遠程模式。
本地模式:你可以在你的本地機器上開發測試你的topology, 一切都在你的本地機器上模擬出來;
遠端模式:你提交的topology會在一個集群的機器上執行。
本文以Twitter Storm官方Wiki為基礎,詳細描述如何快速搭建一個Storm集群,其中,項目實踐中遇到的問題及經驗總結,在相應章節以“注意事項”的形式給出。
1. Strom集群組件
Storm集群中包含兩類節點:主控節點(Master Node)和工作節點(Work Node)。其分別對應的角色如下:
1. 主控節點(Master Node)上運行一個被稱為Nimbus的后臺程序,它負責在Storm集群內分發代碼,分配任務給工作機器,并且負責監控集群運行狀態。Nimbus的作用類似于Hadoop中JobTracker的角色。
2. 每個工作節點(Work Node)上運行一個被稱為Supervisor的后臺程序。Supervisor負責監聽從Nimbus分配給它執行的任務,據此啟動或停止執行任務的工作進程。每一個工作進程執行一個Topology的子集;一個運行中的Topology由分布在不同工作節點上的多個工作進程組成。
Storm集群組件
Nimbus和Supervisor節點之間所有的協調工作是通過Zookeeper集群來實現的。此外,Nimbus和Supervisor進程都是快速失?。╢ail-fast)和無狀態(stateless)的;Storm集群所有的狀態要么在Zookeeper集群中,要么存儲在本地磁盤上。這意味著你可以用kill -9來殺死Nimbus和Supervisor進程,它們在重啟后可以繼續工作。這個設計使得Storm集群擁有不可思議的穩定性。
2. Strom集群安裝
這一章節將詳細描述如何搭建一個Storm集群。下面是接下來需要依次完成的安裝步驟:
1. 搭建Zookeeper集群;
2. 安裝Storm依賴庫;
3. 下載并解壓Storm發布版本;
4. 修改storm.yaml配置文件;
5. 啟動Storm各個后臺進程。
2.1 安裝java
安裝java:
一、安裝
創建安裝目錄,在/usr/java下建立安裝路徑,并將文件考到該路徑下:
# mkdir /usr/java
1、 jdk-6u13-linux-i586.bin 這個是自解壓的文件,在linux上安裝如下:
# chmod 755 jdk-6u13-linux-i586.bin
# ./ jdk-6u13-linux-i586.bin (注意,這個步驟一定要在 jdk-6u13-linux-i586.bin所在目錄下)
在按提示輸入yes后,jdk被解壓。
出現一行字:Do you aggree to the above license terms? [yes or no]
安裝程序在問您是否愿意遵守剛才看過的許可協議。當然要同意了,輸入"y" 或 "yes" 回車。
二、配置
#vi /etc/profile
在里面添加如下內容
export JAVA_HOME=/usr/java/jdk1.6.0_13 export JAVA_BIN=/usr/java/jdk1.6.0_13/bin export PATH=$PATH:$JAVA_HOME/bin export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export JAVA_HOME JAVA_BIN PATH CLASSPATH
讓/etc/profile文件修改后立即生效 ,可以使用如下命令:
# . /etc/profile
注意: . 和 /etc/profile 有空格.
重啟測試
java -version
屏幕輸出:
java version "jdk1.6.0_02" Java(TM) 2 Runtime Environment, Standard Edition (build jdk1.6.0_02) Java HotSpot(TM) Client VM (build jdk1.6.0_02, mixed mode)
問題:
1)安裝jdk,而不是jre啊,jre沒有javac
如果使用yum install java 安裝,沒有安裝javac的。
2)安裝java的版本和javac版本要一致。否則執行jar包的時候會報錯找不到main函數:
Exception in thread "main" java.lang.UnsupportedClassVersionError
2.1 搭建Zookeeper集群
Storm使用Zookeeper協調集群,由于Zookeeper并不用于消息傳遞,所以Storm給Zookeeper帶來的壓力相當低。大多數情況下,單個節點的Zookeeper集群足夠勝任,不過為了確保故障恢復或者部署大規模Storm集群,可能需要更大規模節點的Zookeeper集群(對于Zookeeper集群的話,官方推薦的最小節點數為3個)。在Zookeeper集群的每臺機器上完成以下安裝部署步驟:
1. 根據Zookeeper集群的負載情況,合理設置Java堆大小,盡可能避免發生swap,導致Zookeeper性能下降。保守起見,4GB內存的機器可以為Zookeeper分配3GB最大堆空間。
2. 下載后解壓安裝Zookeeper包,官方下載鏈接為http://hadoop.apache.org/zookeeper/releases.html。
3. 根據Zookeeper集群節點情況,在conf目錄下創建Zookeeper配置文件zoo.cfg:
tickTime=2000 dataDir=/var/zookeeper/ clientPort=2181 initLimit=5 syncLimit=2 server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=zoo3:2888:3888
其中,dataDir指定Zookeeper的數據文件目錄;其中server.id=host:port:port,id是為每個Zookeeper節點的編號,保存在dataDir目錄下的myid文件中,zoo1~zoo3表示各個Zookeeper節點的hostname,第一個port是用于連接leader的端口,第二個port是用于leader選舉的端口。
4. 在dataDir目錄下創建myid文件,文件中只包含一行,且內容為該節點對應的server.id中的id編號。
5. 啟動Zookeeper服務:
java -cp zookeeper.jar:lib/log4j-1.2.15.jar:conf \ org.apache.zooke eper.server.quorum.QuorumPeerMain zoo.cfg
或者
bin/zkServer.sh start
輸入jps命令查看進程:namenode上顯示為(本次為單機配置):19361 QuorumPeerMain21691 Jps其中,QuorumPeerMain是zookeeper進程,啟動正常。3、查看狀態:zookeeper-3.4.3/bin/zkServer.sh statusJMX enabled by defaultUsing config: /home/hadooptest/zookeeper-3.4.3/bin/../conf/zoo.cfgMode: standalone
6. 通過Zookeeper客戶端測試服務是否可用:
java -cp zookeeper.jar:src/java/lib/log4j-1.2.15.jar:conf:src/java/lib/jline-0.9.94.jar \ org.apache.zookeeper.ZooKeeperMain -server 127.0.0.1:2181
或者
bin/zkCli.sh -server 127.0.0.1:2181
7、停止zookeeper進程:zookeeper-3.4.3/bin/zkServer.sh stop
注意事項:
由于Zookeeper是快速失敗(fail-fast)的,且遇到任何錯誤情況,進程均會退出,因此,最好能通過監控程序將Zookeeper管理起來,保證 Zookeeper退出后能被自動重啟。詳情參考這里。 Zookeeper運行過程中會在dataDir目錄下生成很多日志和快照文件,而Zookeeper運行進程并不負責定期清理合并這些文件,導致占用大量磁 盤空間,因此,需要通過cron等方式定期清除沒用的日志和快照文件。詳情參考這里。具體命令格式如下:java -cp zookeeper.jar:log4j.jar:conf org.apache.zookeeper.server.PurgeTxnLog <dataDir> <snapDir> -n <count>
2.2 安裝Storm依賴庫
接下來,需要在Nimbus和Supervisor機器上安裝Storm的依賴庫,具體如下:
1. ZeroMQ 2.1.7 – 請勿使用2.1.10版本,因為該版本的一些嚴重bug會導致Storm集群運行時出現奇怪的問題。少數用戶在2.1.7版本會遇到”IllegalArgumentException”的異常,此時降為2.1.4版本可修復這一問題。
2. JZMQ
3. Java 6
4. Python 2.6.6
5. unzip
以上依賴庫的版本是經過Storm測試的,Storm并不能保證在其他版本的Java或Python庫下可運行。
2.2.1 安裝ZMQ 2.1.7
下載后編譯安裝ZMQ:
wget http://download.zeromq.org/zeromq-2.1.7.tar.gz tar -xzf zeromq-2.1.7.tar.gz cd zeromq-2.1.7 ./configure make sudo make install
注意事項:
如果安裝過程報錯uuid找不到,則通過如下的包安裝uuid庫: sudo yum install e2fsprogsl -b current sudo yum install e2fsprogs-devel -b current
2.2.2 安裝JZMQ
下載后編譯安裝JZMQ:
git clone https://github.com/nathanmarz/jzmq.git cd jzmq ./autogen. sh ./configure make sudo make install
為了保證JZMQ正常工作,可能需要完成以下配置:
-
正確設置 JAVA_HOME環境變量
-
安裝Java開發包
-
升級autoconf
-
如果你是Mac OSX,參考這里
注意事項:
如果運行 ./configure 命令出現問題,參考這里。
2.2.3 安裝Java 6
(上面已經提到安裝了)
2.2.4 安裝Python2.6.6
-
下載Python2.6.6:
-
wget http://www.python.org/ftp/python/2.6.6/Python-2.6.6.tar.bz
2. 編譯安裝Python2.6.6:
tar –jxvf Python-2.6.6.tar.bz2 cd Python-2.6.6 ./configure make make install
3. 測試Python2.6.6:
python -V Python 2.6.6
2.2.5 安裝unzip
-
如果使用RedHat系列Linux系統,執行以下命令安裝unzip:
-
apt-get install unzip
2. 如果使用Debian系列Linux系統,執行以下命令安裝unzip:
yum install unzip
2.3 下載并解壓Storm發布版本
下一步,需要在Nimbus和Supervisor機器上安裝Storm發行版本。
-
下載Storm發行版本,推薦使用Storm0.8.1:
-
wget https://github.com/downloads/nathanmarz/storm/storm-0.8.1.zip
2. 解壓到安裝目錄下:
unzip storm-0.8.1.zip
2.4 修改storm.yaml配置文件
Storm發行版本解壓目錄下有一個conf/storm.yaml文件,用于配置Storm。默認配置在這里可以查看。conf/storm.yaml中的配置選項將覆蓋defaults.yaml中的默認配置。以下配置選項是必須在conf/storm.yaml中進行配置的:
1) storm.zookeeper.servers: Storm集群使用的Zookeeper集群地址,其格式如下:
storm.zookeeper.servers: - “111.222.333.444″ - “555.666.777.888″
如果Zookeeper集群使用的不是默認端口,那么還需要storm.zookeeper.port選項。
2) storm.local.dir: Nimbus和Supervisor進程用于存儲少量狀態,如jars、confs等的本地磁盤目錄,需要提前創建該目錄并給以足夠的訪問權限。然后在storm.yaml中配置該目錄,如:
storm.local.dir: "/home/admin/storm/workdir"
3) java.library.path: Storm使用的本地庫(ZMQ和JZMQ)加載路徑,默認為”/usr/local/lib:/opt/local/lib:/usr/lib”,一般來說ZMQ和JZMQ默認安裝在/usr/local/lib 下,因此不需要配置即可。
4) nimbus.host: Storm集群Nimbus機器地址,各個Supervisor工作節點需要知道哪個機器是Nimbus,以便下載Topologies的jars、confs等文件,如:
nimbus.host: "111.222.333.444"
5) supervisor.slots.ports: 對于每個Supervisor工作節點,需要配置該工作節點可以運行的worker數量。每個worker占用一個單獨的端口用于接收消息,該配置選項即用于定義哪些端口是可被worker使用的。默認情況下,每個節點上可運行4個workers,分別在6700、6701、6702和6703端口,如:
supervisor.slots.ports: - 6700 - 6701 - 6702 - 6703
這個腳本文件寫的不咋地,所以在配置時一定注意在每一項的開始時要加空格,冒號后也必須要加空格,否則storm就不認識這個配置文件了,切記切記。
2.5 啟動Storm各個后臺進程
最后一步,啟動Storm的所有后臺進程。和Zookeeper一樣,Storm也是快速失?。╢ail-fast)的系統,這樣Storm才能在任意時刻被停止,并且當進程重啟后被正確地恢復執行。這也是為什么Storm不在進程內保存狀態的原因,即使Nimbus或Supervisors被重啟,運行中的Topologies不會受到影響。
以下是啟動Storm各個后臺進程的方式:
-
Nimbus: 在Storm主控節點上運行”bin/storm nimbus >/dev/null 2>&1 &”啟動Nimbus后臺程序,并放到后臺執行;
-
Supervisor: 在Storm各個工作節點上運行”bin/storm supervisor >/dev/null 2>&1 &”啟動Supervisor后臺程序,并放到后臺執行;
-
UI: 在Storm主控節點上運行”bin/storm ui >/dev/null 2>&1 &”啟動UI后臺程序,并放到后臺執行,啟動后可以通過http://{nimbus host}:8080觀察集群的worker資源使用情況、Topologies的運行狀態等信息。
注意事項:
啟動Storm后臺進程時,需要對conf/storm.yaml配置文件中設置的storm.local.dir目錄具有寫權限。 Storm后臺進程被啟動后,將在Storm安裝部署目錄下的logs/子目錄下生成各個進程的日志文件。 經測試,Storm UI必須和Storm Nimbus部署在同一臺機器上,否則UI無法正常工作,因為UI進程會檢查本機是否存在Nimbus鏈接。 為了方便使用,可以將bin/storm加入到系統環境變量中。
至此,Storm集群已經部署、配置完畢,可以向集群提交拓撲運行了。
3. 安裝storm出現的問題
1、 修復/lib/ld-linux.so.2: bad ELF interpreter: No such file or directory問題
在64系統里執行32位程序如果出現/lib/ld-linux.so.2:
bad ELF interpreter: No such file or directory,安裝下glic即可
sudo yum install glibc.i686
*注意在安裝uuid-dev的時候不同系統安裝的名稱不一樣,使用centeros的同學需要安裝yum install libuuid-devel,ubuntu的同學可以直接安裝uuid-dev : apt-get install uuid-dev
2、安裝 安裝ZMQ 2.1.7
./autogen.sh
1)、configure: error: cannot link with -luuid, install uuid-dev.
yum install uuid uuid-devel
安裝后還是錯誤。
解決辦法 :
libuuid is part of the util-linux-ng package since version 2.15.1 and is available from
ftp://ftp.kernel.org/pub/linux/utils/util-linux/v2.21/util-linux-2.21.1.tar.gz
安裝了 util-linux-2.21.1.tar.gz 后, 就OK了。
2)、./autogen.sh 安裝缺少libtool:
yum install libtool
3、安裝 jzmq :
1)configure 前
export CPPFLAGS=-I/usr/local/zeromq-2.1.7/include/
export LDFLAGS=-L/usr/local/zeromq-2.1.7/lib/
否則報:configure: error: cannot find zmq.h
2)報錯
configure: error: cannot link with -lzmq
指定CC路徑就好了:
./configure CC=/usr/bin/gcc
4、error while loading shared libraries: libz.so.1:
cannot open shared object file: No such file or directory
sudo yum install zlib.i686
5、啟動zookeeper找不到主機: 在這個例子里面 主機名是T214.joy.cc,在 /etc/sysconfig/network定義的主機名,我們需要
使用加入到hosts文件>
192.168.1.214 T214.joy.cc
2013-07-09 13:59:20 supervisor [ERROR] Error on initialization of server mk-supervisor
java.net.UnknownHostException: T214.joy.cc: T214.joy.cc
at java.net.InetAddress.getLocalHost(InetAddress.java:1454)
at backtype.storm.util$local_hostname.invoke(util.clj:153)
at backtype.storm.daemon.supervisor$supervisor_data.invoke(supervisor.clj:180)
at backtype.storm.daemon.supervisor$fn__4733$exec_fn__1207__auto____4734.invoke(supervisor.clj:324)
at clojure.lang.AFn.applyToHelper(AFn.java:167)
at clojure.lang.AFn.applyTo(AFn.java:151)
at clojure.core$apply.invoke(core.clj:601)
at backtype.storm.daemon.supervisor$fn__4733$mk_supervisor__4758.doInvoke(supervisor.clj:320)
at clojure.lang.RestFn.invoke(RestFn.java:436)
at backtype.storm.daemon.supervisor$_launch.invoke(supervisor.clj:467)
at backtype.storm.daemon.supervisor$_main.invoke(supervisor.clj:494)
at clojure.lang.AFn.applyToHelper(AFn.java:159)
at clojure.lang.AFn.applyTo(AFn.java:151)
at backtype.storm.daemon.supervisor.main(Unknown Source)
2013-07-09 13:59:20 util [INFO] Halting process: ("Error on initialization")
6、防火墻的問題:
hadoop集群環境(linux系統)中最好關閉防火墻,不然會出現很多問題,例如namenode找不到datanode等。
如果不關閉防火墻,客戶端使用API操作HDFS以及ZooKeeper,可能就會出現下面常見的兩種異常:
1.使用API操作HDFS時會出現異常:java.net.NoRouteToHostException: No route to host
2.使用API操作ZK時會出現異常:org.apache.zookeeper.KeeperException$ConnectionLossException: KeeperErrorCode = ConnectionLoss for xxxx
解決方法:
查看防火墻是否開啟:
service iptables status
使用root權限登陸后,輸入關閉防火墻命令,每個運行hadoop和zk的都要關(兩條命令任選一個):
/etc/init.d/iptables stop
service iptables stop
25489 supervisor
25537 Jps
19035 QuorumPeerMain
[root@T206 logs]#
[root@T214 storm-0.8.1]# jps
8084 nimbus
8060 core
21615 ZooKeeperMain
21586 QuorumPeerMain
8216 Jps
[root@T214 storm-0.8.1]#
4. 向集群提交任務
Github里有一個例子叫做storm_starter,我們可以用它來做測試。
按照http://github.com/nathanmarz/storm-starter,執行這個程序需要用lein,我們用eclipse代替lein。打包后進行上傳。
使用maven或lein解決storm-starter的包依賴問題,但是由于GFW原因,可能有些依賴包無法獲取。故這里采用eclipse自導入包的方法來編譯storm-starter.
1)下載twitter4j :twitter4j-2.2.6.zip和storm-starter-master.zip
2) 追加源文件storm-start/src/jvm/storm
使用eclipse建立java project。追加twitter4j和storm的jar文件。
File-> New -> Java Project ->隨便取個名字-> Next -> Libraries -> add External JARs…-> 追加twitter4j和storm的jar文件(
/path/to/twitter4j/lib/*.jar
/path/to/storm/lib/*.jar
/path/to/storm/storm-{version}.jar)
-> Finsh
或者可以在建java 項目完成后添加twitter4j和storm的jar文件:
項目名-> 右鍵->properties->java build path->Libraries -> add External JARs->追加twitter4j和storm的jar文件
導入storm-start
File -> Import -> General -> File System -> Next -> Browse(From directory) -> /path/to/storm-start/src/jvm/storm -> Browse(Info floder) -> xxx -> src -> OK -> “storm” 和 “Create top-level folder”前打勾 -> Finish
3) 追加源文件storm-start/multilang/resources(python 文件word count用)
File -> Import -> General -> File System -> Next -> Browse(From directory) -> /path/to/storm-start/multilang/resources -> Browse(Info floder) -> xxx -> OK -> check “resources” and “Create top-level folder” -> Finish
2個源文件都追加好之后,eclipse左邊顯示如下圖:
如果使用的是storm-0.8.1,下面這行代碼會報錯,下載0.8.2版本即可解決
import backtype.storm.task.IMetricsContext;
如果下面這行報錯,說明沒有commons-collections.jar包,下載地址:http://commons.apache.org/proper/commons-collections/download_collections.cgi
import org.apache.commons.collections.buffer.CircularFifoBuffer;
最下載穩定包:commons-collections-3.2.1-bin,解壓后追加commons-collections-3.2.1.jar文件就ok:
項目名-> 右鍵->properties->java build path->Libraries -> add External JARs->commons-collections-3.2.1.jar
4) JAR export
File -> Export -> JAR -> JAR file -> 取消 “.classpath” ,“.project” 和 “<.settings” ->的勾 browse -> path/to/export/name.jar -> Finish (忽視 warnings)
可能會報錯說PrintSampleStream和TwitterSampleSpout這兩個類找不到,將這兩個類的注釋取消掉即可。
Storm-starter本地運行
這里我們測試Storm-starter項目的wordCount,依然用我們打包好的storm-test.jar 。通過閱讀源碼我們可以知道,WordCountTopology在編寫的時候如果在命令后不加參數,則是一個本地模式的WordCount,而如果有一個參數,也就是集群上的計算拓撲(Topology)名,它就會是一個在集群上跑的計算拓撲。。這里我們首先介紹本地運行
# storm jar storm-test.jar storm.starter.WordCountTopology
如果出現下面的文字,說明運行成功了;
# storm jar storm-test.jar storm.starter.WordCountTopology13973 [Thread-34] INFO backtype.storm.daemon.executor - Processing received message source: spout:10, stream: default, id: {}, [snow white and the seven dwarfs]13974 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["snow"]13974 [Thread-26] INFO backtype.storm.daemon.executor - Processing received message source: spout:8, stream: default, id: {}, [an apple a day keeps the doctor away]13975 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["white"]13976 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["a"]13976 [Thread-22] INFO backtype.storm.daemon.executor - Processing received message source: split:6, stream: default, id: {}, ["a"]13976 [Thread-22] INFO backtype.storm.daemon.task - Emitting: count default [a, 34]13977 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["and"]13977 [Thread-22] INFO backtype.storm.daemon.executor - Processing received message source: split:7, stream: default, id: {}, ["and"]13977 [Thread-22] INFO backtype.storm.daemon.task - Emitting: count default [and, 64]13978 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["day"]13978 [Thread-20] INFO backtype.storm.daemon.executor - Processing received message source: split:6, stream: default, id: {}, ["day"]13978 [Thread-20] INFO backtype.storm.daemon.task - Emitting: count default [day, 34]13979 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["the"]13979 [Thread-20] INFO backtype.storm.daemon.executor - Processing received message source: split:7, stream: default, id: {}, ["the"]13979 [Thread-20] INFO backtype.storm.daemon.task - Emitting: count default [the, 134]13917 [Thread-17] INFO backtype.storm.util - Async loop interrupted!13985 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["seven"]13986 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["keeps"]13988 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["the"]13988 [Thread-20] INFO backtype.storm.daemon.executor - Processing received message source: split:6, stream: default, id: {}, ["the"]13988 [Thread-20] INFO backtype.storm.daemon.task - Emitting: count default [the, 135]13989 [Thread-32] INFO backtype.storm.daemon.task - Emitting: split default ["dwarfs"]13989 [Thread-22] INFO backtype.storm.daemon.executor - Processing received message source: split:7, stream: default, id: {}, ["dwarfs"]13989 [Thread-22] INFO backtype.storm.daemon.task - Emitting: count default [dwarfs, 29]13990 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["doctor"] 13991 [Thread-28] INFO backtype.storm.daemon.task - Emitting: split default ["away"]
問題:
運行bin/storm jar storm-test.jar storm.starter.WordCountTopology報錯: Exception in thread "main" java.lang.UnsupportedClassVersionError: Filter(Unsupported major.minor version 50.0).
解決:
1)可能是java的版本和javac不一致。
java -version和javac -version看看版本是否一致
解決的方法在PATH 最前面加上 $JAVA_HOME:$PATH
vi /etc/profile JAVA_HOME=/usr/java/jdk1.6.0_13/CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:PATH=$JAVA_HOME/bin:$PATH:$HOME/bin
2)解決Unsupported major.minor version 51.0錯誤
這個因為你的eclipse使用java 1.7JDK編譯class文件(導出的storm-test.jar),而安裝storm的機器上安裝的JDK是1.6
解決:打開eclipse中項目上的屬性—java compiler–選擇一個合適的版本后重新編譯即可。
具體步驟
解決:項目——>右鍵——>屬性——>Java Compiler——>Compiler Compliance Level——>選擇你使用的JDK版本-(1.6)—–>應用。
向集群提交任務
-
啟動Storm Topology:其中,allmycode.jar是包含Topology實現代碼的jar包,org.me.MyTopology的main方法是Topology的入口,arg1、arg2和arg3為org.me.MyTopology執行時需要傳入的參數。
storm jar allmycode.jar org.me.MyTopology arg1 arg2 arg3
2. 停止Storm Topology:
storm kill {toponame}
其中,{toponame}為Topology提交到Storm集群時指定的Topology任務名稱。
3.4 參考資料
https://github.com/nathanmarz/storm/
https://github.com/nathanmarz/storm/wiki
https://github.com/nathanmarz/storm/wiki/Setting-up-development-environment
https://github.com/nathanmarz/storm-starter/
Twitter Storm下載中文鏡像
Twitter Storm: 配置開發環境
centos的twitter storm安裝和storm-start的本地運行
此文通過親身體驗和總結網上資料
轉自:http://blog.csdn.net/hguisu/article/details/9246859
原創文章,作者:s19930811,如若轉載,請注明出處:http://www.www58058.com/2632