Diferenzas

Isto amosa as diferenzas entre a revisión seleccionada e a versión actual da páxina.

Enlazar a esta vista de comparación

Both sides previous revisionPrevious revision
Next revision
Previous revision
inv:desenvolvemento:amazon_elastic_mapreduce [2015/11/12 19:01] – [Spark sobre EMR] ismael.rodriguezinv:desenvolvemento:amazon_elastic_mapreduce [2018/10/03 09:40] (actual) – [Configuración del cluster] diego.cougil
Liña 1: Liña 1:
 ====== Amazon Elastic MapReduce ====== ====== Amazon Elastic MapReduce ======
-Amazon Elastic MapReduce ([[http://aws.amazon.com/elasticmapreduce/|Amazon EMR]]) es un servicio web para la configuración y depliegue de un cluster basado en instancias de máquinas en el servicio Amazon Elastic Compute Cloud ([[http://aws.amazon.com/ec2/|Amazon EC2]]) y que es gestionado mediante [[https://hadoop.apache.org/|Hadoop]]. También se puede ejecutar en Amazon EMR otros marcos de trabajo distribuídos como [[https://spark.apache.org/|Spark]], e interactuar con los datos en otros almacenes de datos como [[http://aws.amazon.com/s3/|Amazon S3]].+Amazon Elastic MapReduce ([[http://aws.amazon.com/elasticmapreduce/|Amazon EMR]]) es un servicio web para la configuración y despliegue de un cluster basado en instancias de máquinas en el servicio Amazon Elastic Compute Cloud ([[http://aws.amazon.com/ec2/|Amazon EC2]]) y que es gestionado mediante [[https://hadoop.apache.org/|Hadoop]]. También se puede ejecutar en Amazon EMR otros marcos de trabajo distribuidos como [[https://spark.apache.org/|Spark]], e interactuar con los datos en otros almacenes de datos como [[http://aws.amazon.com/s3/|Amazon S3]].
  
 ===== Creación de un cluster con EMR ===== ===== Creación de un cluster con EMR =====
 Un cluster EMR suele tener un ciclo de vida totalmente automatizado y que se establece en el momento de su creación. El proceso general sería: Un cluster EMR suele tener un ciclo de vida totalmente automatizado y que se establece en el momento de su creación. El proceso general sería:
   * Lanzamiento de las instancias EC2 de las que se compone el cluster   * Lanzamiento de las instancias EC2 de las que se compone el cluster
-  * Ejecución de los scripts de instalación, tanto automáticos de amazon (como las imagenes preconfiguradas [[http://aws.amazon.com/es/amazon-linux-ami/|AMI]]) como los añadidos por el usuario en las acciones de inicialización (Bootstrap actions).+  * Ejecución de los scripts de instalación, tanto automáticos de amazon (como las imágenes preconfiguradas [[http://aws.amazon.com/es/amazon-linux-ami/|AMI]]) como los añadidos por el usuario en las acciones de inicialización (Bootstrap actions).
   * Trabajos a realizar (Steps) normalmente consistentes en carga de datos de entrada, procesamiento de los mismos, y almacenado de los resultados.   * Trabajos a realizar (Steps) normalmente consistentes en carga de datos de entrada, procesamiento de los mismos, y almacenado de los resultados.
   * Apagado automático del cluster una vez se han terminado todos los steps.   * Apagado automático del cluster una vez se han terminado todos los steps.
  
-En las siguientes subsecciones se explican todos lo básico para poder lanzar un cluster EMR y analizar los resultados de las ejecuciones.+En las siguientes subsecciones se explica todo lo básico para poder lanzar un cluster EMR y analizar los resultados de las ejecuciones.
  
 ==== Almacenamiento con S3 ==== ==== Almacenamiento con S3 ====
Liña 36: Liña 36:
 </code> </code>
  
-Una vez configurado el software, se continua con la configuración del hardware. La configuración más típica se compone por un nodo ''Master'' donde se lanzarán los trabajos y 1 o más instancias ''Core'' que harán de workers dentro del cluster hadoop (para realizar, por ejemplo, las tareas de mapper). Dependiendo del tipo de necesidad, amazon pone a disposición varios tipos de [[http://aws.amazon.com/ec2/instance-types/#instance-details|instancias EC2]].+Una vez configurado el software, se continúa con la configuración del hardware. La configuración más típica se compone por un nodo ''Master'' donde se lanzarán los trabajos y 1 o más instancias ''Core'' que harán de workers dentro del cluster hadoop (para realizar, por ejemplo, las tareas de mapper). Dependiendo del tipo de necesidad, amazon pone a disposición varios tipos de [[http://aws.amazon.com/ec2/instance-types/#instance-details|instancias EC2]].
 {{ :inv:desenvolvemento:emr_hw.png?nolink&700 |}} {{ :inv:desenvolvemento:emr_hw.png?nolink&700 |}}
  
Liña 69: Liña 69:
 Desde la versión 4 de la imagen de Hadoop de Amazon (''emr-4.0.0''), Spark está totalmente integrado y solamente es necesario añadir como ''Step'' un ''Spark application''. Desde la versión 4 de la imagen de Hadoop de Amazon (''emr-4.0.0''), Spark está totalmente integrado y solamente es necesario añadir como ''Step'' un ''Spark application''.
  
-==== Instalar Spark ==== 
-Para instalar Spark se añade una nueva bootstrap action, donde el script a ejecutar es el siguiente (sin argumentos): 
-<code bash> 
-s3://support.elasticmapreduce/spark/install-spark 
-</code> 
  
 ==== Ejecutar un trabajo ==== ==== Ejecutar un trabajo ====
-Por defecto, los steps de EMR son ejecutados mediante hadoop. Para evitar esto, amazon proporciona un programa en java para ejecutar scripts fuera de hadoop. De esta forma, para ejecutar un trabajo sobre Spark, las opciones son las siguientes (sustituir los argumentos entre <> por sus valores reales): +Para ejecutar un trabajo sobre Spark, las opciones son las siguientes (sustituir los argumentos entre <> por sus valores reales): 
-  * **Step type**: Custom JAR +  * **Step type**: Spark application 
-  * **JAR Location**: <code bash>s3://<CLUSTER_REGION>.elasticmapreduce/libs/script-runner/script-runner.jar</code> +  * **Deploy mode**: Cluster 
-  * **Arguments**: <code bash>/home/hadoop/spark/bin/spark-submit --deploy-mode cluster --master yarn-cluster --class <MAIN_CLASSs3://<BUCKET>/<FILE_JAR> <JAR_OPTIONS></code> +  * **Spark-submit options**: ''--class <MainClass>'' 
-Los argumentos son:  +  * **Applicaiton location**Ruta al archivo en una unidad S3. 
-  * ''/home/hadoop/spark/bin/spark-submit'' es el script de ejecución de trabajos sobre spark. +  * **Arguments**Argumentos necesarios del programa JAR anterior
-  * ''--deploy-mode cluster'' indica el despliegue de spark en modo cluster, aprovechando todos los nodos configurados en hadoop. +{{ :inv:desenvolvemento:step.png?nolink&700 |}}
-  ''--master yarn-cluster'' lanza spark sobre [[http://hadoop.apache.org/docs/stable/hadoop-yarn/hadoop-yarn-site/YARN.html|Apache Hadoop NextGen MapReduce]]. +
-  * ''--class <MAIN_CLASS>'' indica cual es la clase ''main'' del programa java. Esto es necesario, ya que un jar almacenado en S3 no hace disponible conocer su clase ''main''+
-  * ''%%s3://<BUCKET>/<FILE_JAR>%%'' es la localización del programa java que realizará el trabajo+
-  * ''<JAR_OPTIONS>'' son los argumentos necesarios del programa java. +
 ==== Lectura y escritura en S3 ==== ==== Lectura y escritura en S3 ====
 Spark es capaz de leer y escribir mediante el protocolo s3 sin necesidad de realizar cambios. Spark es capaz de leer y escribir mediante el protocolo s3 sin necesidad de realizar cambios.
  
 ===== Java 8 en EMR ===== ===== Java 8 en EMR =====
-La última versión AMI disponible (3.7.0) contiene como versión java 7. Para aquellos que usan java 8 (algo común en este tipo de entorno, por el uso de funciones lambda), pueden instalarlo en el cluster mediante un script ejecutado como bootstrap action. Para ello, solo es necesario almacenar en el contenedor S3 el siguiente script (([[https://gist.github.com/ericeijkelenboom/9951500|Bootstrap script for installing Java 8 on an Amazon Elastic MapReduce instance (AMI 3.0.1)]])), para luego añadirlo como acción bootstrap a la hora de lanzar un nuevo cluster:+La última versión de EMR (emr-4.0.0) contiene como versión java 7. Para aquellos que usan java 8 (algo común en este tipo de entorno, por el uso de funciones lambda), pueden instalarlo en el cluster mediante un script ejecutado como bootstrap action. Para ello, solo es necesario almacenar en el contenedor S3 el siguiente script (([[https://gist.github.com/ericeijkelenboom/9951500|Bootstrap script for installing Java 8 on an Amazon Elastic MapReduce instance (AMI 3.0.1)]])), para luego añadirlo como acción bootstrap a la hora de lanzar un nuevo cluster:
 <code bash> <code bash>
 # Check java version # Check java version
Liña 99: Liña 89:
 if [ "$JAVA_VER" -lt 18 ] if [ "$JAVA_VER" -lt 18 ]
 then then
-    # Download jdk 8 +    # Figure out how many versions of Java and javac we currently have 
-    echo "Downloading and installing jdk 8" +    NR_OF_JRE_OPTIONS=$(echo 0 | alternatives --config java 2>/dev/null | grep 'There ' | awk '{print $3}' | tail -1) 
-    wget --no-cookies --no-check-certificate --header "Cookie: gpw_e24=http%3A%2F%2Fwww.oracle.com%2F; oraclelicense=accept-securebackup-cookie" "http://download.oracle.com/otn-pub/java/jdk/8-b132/jdk-8-linux-x64.rpm"+    NR_OF_SDK_OPTIONS=$(echo 0 | alternatives --config javac 2>/dev/null | grep 'There ' | awk '{print $3}' | tail -1)
  
-    # Silent install +    # Silent install javac (includes jre) 
-    sudo yum -y install jdk-8-linux-x64.rpm+    sudo yum -y install java-1.8.0-devel
  
-    # Figure out how many versions of Java we currently have +    echo "Found $NR_OF_JRE_OPTIONS existing versions of java. Adding new version." 
-    NR_OF_OPTIONS=$(echo 0 | alternatives --config java 2>/dev/null | grep 'There ' | awk '{print $3}' | tail -1)+    echo "Found $NR_OF_SDK_OPTIONS existing versions of javac. Adding new version."
  
-    echo "Found $NR_OF_OPTIONS existing versions of java. Adding new version."+    # Make java 8 the default 
 +    echo $(($NR_OF_JRE_OPTIONS + 1)) | sudo alternatives --config java 
 +    echo $(($NR_OF_SDK_OPTIONS + 1)) | sudo alternatives --config javac
  
-    # Make the new java version available via /etc/alternatives +    # Fix wrong links 
-    sudo alternatives --install /usr/bin/java java /usr/java/default/bin/java 1 +    sudo rm /etc/alternatives/java_sdk_openjdk;sudo ln -/usr/lib/jvm/java-1.8.0-openjdk.x86_64 /etc/alternatives/java_sdk_openjdk 
- +    sudo rm /etc/alternatives/java_sdk_openjdk_exports;sudo ln -s /usr/lib/jvm-exports/java-1.8.0-openjdk.x86_64 /etc/alternatives/java_sdk_openjdk_exports
-    # Make java 8 the default +
-    echo $(($NR_OF_OPTIONS + 1)) | sudo alternatives --config java+
  
-    # Set some variables 
-    export JAVA_HOME=/usr/java/default/bin/java 
-    export JRE_HOME=/usr/java/default/jre 
-    export PATH=$PATH:/usr/java/default/bin 
 fi fi
  
Liña 126: Liña 112:
 JAVA_VER=$(java -version 2>&1 | sed 's/java version "\(.*\)\.\(.*\)\..*"/\1\2/; 1q') JAVA_VER=$(java -version 2>&1 | sed 's/java version "\(.*\)\.\(.*\)\..*"/\1\2/; 1q')
  
 +echo ""
 echo "Java version is $JAVA_VER!" echo "Java version is $JAVA_VER!"
 echo "JAVA_HOME: $JAVA_HOME" echo "JAVA_HOME: $JAVA_HOME"