Skip to content

jiunnguo/docker-spark-hive-ipython

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

26 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

docker-spark-hive-ipython

前言

感謝各位參加Hadoop Conference 2015 為了方便各位實作,將協助各位使用docker在本機上建立spark教學環境. 熟悉Docker的朋友可以直接跳過這段.

Docker安裝教學

使用boot2docker特別注意

因為預設的記憶體只有2G,本包可能需要至少4G的記憶體,若執行時遇到記憶體不足的問題,請按照下列步驟修改.

  • vim ~/.boot2docker/profile
  • 在檔案中加入 Memory = 4096 !!以下步驟將會重置您的boot2docker,亦即所有的images都會刪除,請謹慎使用!!
  • boot2docker stop
  • boot2docker destroy
  • boot2docker init
  • boot2docker start

系統需求

  • CPU 4core
  • RAM 4G以上
  • HDD 10G以上(Docker images檔約4G)

方法一:直接拉取Docker Images

  • docker pull bryanyang0528/docker-spark-hive-ipython (拉取成功後就不用再自行Build Images,直接跳執行)

方法二:建立Docker Images

  • 請確認您的電腦上已經安裝git
  • 進入任意合適的目錄
  • git clone https://github.com/bryanyang0528/docker-spark-hive-ipython.git
  • cd docker-spark-hive-ipython
  • docker build . 此步驟將會開始建立docker images
  • docker images 確認新建立的images id (一個英數組合)
  • docker tag <images id> docker-spark-hive-ipython:latest

執行Docker Images

  • docker run -d -p 8888:8888 -p 4040:4040 --name pyspark bryanyang0528/docker-spark-hive-ipython

進入ipython

  • linux: 直接在瀏覽器輸入http://localhost:8888 , Spark的UI在http://localhost:4040
  • Mac: 請先在terminal中輸入 boot2docker ip 確認ip位置,再到瀏覽器中輸入http://<boot2docker ip>:8888

SparkContext(as sc) and SqlContext(as sqlContext) will launch automatically when you open a notebook.

About

Spark + Jupyer + Hive

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Shell 100.0%