Estes passos foram testados no Linux Ubuntu (parece que a versão não importa)

Documentos relacionados
Vamos transformar os seus Raspberry PI num cluster (Parte 2)

Aprenda a criar um "supercomputador" com vários Raspberry PI

Tutorial Hadoop - HBase

Backup do Samba 4. Introdução. Backup do samba4

Laboratório FTP. Francisco Edigleison da Silva Barbosa Professor: Kelvin Lopes Dias

Laboratório 5. Configurando o Serviço DNS

Apache Hadoop É hoje que vai instalar o seu primeiro cluster?

Instalação Wiser Discovery Sistema Operacional Windows

Instalação e Configuração de Servidores Web Server Apache. Prof. Alex Furtunato

Instalação Wiser. Sistema Operacional Linux Red Hat

Configuração. Ubuntu Server Sistemas Distribuídos Engenharia da Computação

Administração de Redes em Software Livre GNU/Linux SERVIDOR DNS

Linux - comando essenciais

Administração de Sistemas Operacionais. Prof.: Marlon Marcon

Instalação e Configuração do Servidor de DHCP

Instalando o software de gerencia (ANM2000)

Relatório contendo todos os comandos do Linux estudados

MANUAL DE INSTALAÇÃO SISTEMA DE GERÊNCIA CONSCIUS

Comandos. Sistema Operacional GNU/Linux. Para Manipulação de Contas

Introdução ao Linux. Marcelo Gomes de Paula

DNS. Adalton Júnior Christian Moreira Bernardes Júnior Ferreira do Nascimento Rodrigo Augusto Milleck Molinetti

SISTEMAS DE ARQUIVOS E DIRETÓRIOS DO LINUX. Prof. Gleison Batista de Sousa

Secure Client. Manual do Usuário. IPNv2. Secure Client IPNv2

Revisão dos comandos para instalação do Apache, PHP, MySQL, PostgreSQL, phpmyadmin, phppgadmin e Samba.

BIND 9 Instalação e configuração

Comandos de arquivos

Configurando VPS Proxy e SSH

1. Introdução. 2. Objetivo. 3. Procedimento

Implementando Zabbix 2.x Proxy em Ambiente CentOS

Tutorial para Instalação do dotproject

Instalação do Integração SGNFe no Servidor Linux:

Acesse o terminal e execute o comando abaixo para realizar a instalação do BIND, também será instalado a sua documentação.

Como instalar o Ubuntu Server

Transforme o seu Raspberry PI num servidor de DNS

VSMTransactionService Documentação

Configuração do Apache Cordova Lab. 13. Prof. Bruno C. Vani

Monitorando Banco de Dados IBM DB2

Laboratório de Redes Prof. Dinailton

Capítulo 2. Ambiente de Desenvolvimento. Rui Rossi dos Santos Programação de Computadores em Java Editora NovaTerra

Aprenda como interligar dois locais através de uma VPN

S.O.R. A Interface de comando

Aula 11 - Enjaulamento de SO

Entraremos em sistema linux para realizar algumas tarefas e aprender alguns comandos.

PRÁTICA DE NAT/PROXY - LINUX 1. TOPOLOGIA DE REDE PARA TODOS OS CENÁRIOS DIFERENÇAS NO ROTEIRO EM RELAÇÃO A IMAGEM DO DVD

GLPI Gestão total e gratuita do seu parque informático

Instalacao do Zabbix 2.x em Ambiente CentOS

Exercício de Roteamento Dinânico com OSPF

Procedimentos para Instalação do Sisloc (Estação de Trabalho) versão

Roteiro 3: Sistemas Linux arquivos e diretórios

Redes de Computadores

Número do documento: 101 Classificação: Não avaliado Última atualização: Thu, Apr 27, :39 AM

Marcelo Gomes de Paula

Criando um servidor de log

--Depois que o backup for concluído, restaurá-lo no servidor Mirror usando a opção WITH NORECOVERY.

TUTORIAL GIT Victor Breder Comp-19 Março de 2017

ICO60801 Introdução à Computação. Aula 22. Permissionamento. Professores: Maria Claudia Castro / Bruno Fontana Semestre letivo:

Questões e dicas. Servidores: Samba Sistema: Discos e partições Sistema: Rede Servidores: SSH Cliente: SSSD Servidores: BareOS/Bacula

Instalação Apache Tomcat 8.5 no Debian 8

Tutorial para Instalar e configurar o Xampp

Envio de alertas por utilizando SMTP autenticado

--========================================== MIRROR COM CERTIFICADO ===============================================

Disciplina: Segurança de Redes. Professor: Roitier Campos

Caso você seja estudante e não tenha uma conta na DO, recomendo fortemente que você crie

COORDENAÇÃO DE TECNOLOGIA (COTEC) MAIO/2010

Prof. Samuel Henrique Bucke Brito

Administração de Sistemas Operacionais Prof.: Marlon Marcon

Lab 2 MapReduce e o Console Web

MANUAL DO SECURE CLIENT

Administração de sistemas Linux. Gerenciamento de serviços

Laboratório SMTP. Francisco Edigleison da Silva Barbosa Professor: Kelvin Lopes Dias

Aula 14. Network File System. Prof. Roitier Campos

Laboratório 2. Configurando o Serviço DHCP

Curso. Virtualização com vsphere Free

MANUAL DE INSTALAÇÃO

Catálogo em Rede. Sumário

Instalação do serviço de FTP com o Proftpd

Permissionamento (Parte 3)

Instalacao do Zabbix em Ambiente CentOS

INSTALAÇÃO DO LOGIX COM BANCO SQL SERVER

Você pode testar se está tudo OK, abrindo um navegador no Debian Linux e acessando qualquer site.

Roteiro de Práticas de Roteamento EGP usando Quagga

OpenVZ Criação de containers e instalação do sistema operativo

Bruno Antunes da Silva UFSCar - Sorocaba

Laboratório Usar o CLI para reunir informações do dispositivo de rede

Laboratório 8. Configurando o Serviço de . Neste laboratório iremos configurar um servidor de usnado os serviços IMAP e POP3

Instalando o MySQL Server 5.0

Instalando o Eclipse e o Android

Revisão Q de 26/06/2015

Nimbus - Configuração de um Servidor de Backup

Configuração do Servidor Gateway Firewall e DHCP

Centro Paula Souza TUTORIAL PARA INSTALAÇÃO DO BOCA

CONVERSÃO PARA DBMAKER INSTALAÇÃO DO GERENCIADOR DE BANCO DE DADOS DBMAKER. 3. Criar um usuário dbmaker senha dbmaker com homedir /u/sav/dbmaker.

MÓDULO 01 INTRODUÇÃO AO LINUX

Como Instalar Nagios 4 E Monitorar Seus Servidores no Ubuntu 14 Introdução

Tutorial Zabbix Migração 2.4 para 3.0 CentOS 7.1 Português via Pacote

Esse é um post para mostrar os comandos básicos para administrar containers em docker.

Tutorial de Instalação do Moodle no Ubuntu

DUO Tecnologia. Guia de Atualização - LINUX

Sistema de Gestão Comercial Plataforma GSAN. Documento de Procedimento de Instalação

Transcrição:

Instalando o Hadoop Estes passos foram testados no Linux Ubuntu (parece que a versão não importa) Instalação da rede Todas as máquinas do cluster devem estar na mesma rede e serem mutuamente acessíveis. 1 Escolha uma máquina como master 2 Na máquina master defina o nome do host como master. Para fazer isto, execute: nano /etc/hostname e modifique o nome que estiver lá para master. 3 Defina o nome de host de cada slave como slavex. Por exemplo, na máquina slave 1, execute o mesmo comando do passo 2 e modifique o nome para slave1, faça o mesmo para slave 2 e modifique o nome para slave2, e assim por diante. 4 Supondo uma rede com prefixo 169.254.43.X, modifique o arquivo /etc/hosts (com usuário root) da seguinte forma para cada máquina: 169.254.43.1 master 127.0.0.1 master.localdomain localhost ::1 localhost6.localdomain6 localhost6 169.254.43.2 slave2 169.254.43.3 slave3... Na configuração acima a primeira linha sinaliza ao controlador da rede que a máquina local possui endereço IP 169.254.43.1, e que seu nome é master. As próximas 2 linhas resolvem dependências para localhost. Como cada máquina deve conhecer todas as outras, as linhas seguintes são os endereços IP e nomes de cada uma das máquinas da rede (isso será resolvido com um servidor DNS, porém, ainda não foi testado). A mesma configuração acima deve ser feita para cada máquina no cluster. Por exemplo, a máquina slave2 seria configurada da seguinte forma: 169.254.43.2 slave2 127.0.0.1 slave2.localdomain localhost ::1 localhost6.localdomain6 localhost6 169.254.43.1 master 169.254.43.3 slave3...

Desabilitando IPv6 É necessário desabilitar o IPv6 para que o Hadoop funcione corretamente no Ubuntu. Para desabilitá-lo, executar como usuário root: 1 nano /etc/sysctl.conf 2 Adicionar ao final do arquivo #disable IPv6 net.ipv6.conf.all.disable_ipv6 = 1 net.ipv6.conf.default.disable_ipv6 = 1 net.ipv6.conf.lo.disable_ipv6 = 1 3 Reiniciar a máquina 4 cat /proc/sys/net/ipv6/conf/all/disable_ipv6 5 Se o resultado do comando 4) for 1, o IPv6 terá sido desabilitado com sucesso. Criando usuário e configurando acessos Aqui vamos criar o usuário que irá executar o Hadoop bem como configurar o acesso SSH. Para executar os passos abaixo é necessário ter um servidor SSH instalado (ex. apt-get install openssh-server para instalar um destes servidores). Como usuário root, executar: 1 addgroup hadoop (cria grupo hadoop) 2 adduser ingroup hadoop hadoop (cria usuário hadoop dentro do grupo hadoop) 3 su hadoop (trocar para usuário hadoop) 4 shh-keygen t rsa P (cria chave RSA para acesso via SSH) 5 cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys (insere a chave SSH criada na lista de chaves autorizadas para este host) 6 ssh localhost (para realizar o primeiro acesso SSH à máquina local) Instalando o Hadoop Antes de instalar o Hadoop, é preciso instalar a JDK. O padrão sugerido é realizar a instalação dentro de /usr/local com o nome da pasta sendo jdk (o que vai gerar a pasta /usr/local/jdk). Instalação de um novo slave no cluster atual: 1 acessar algum dos slaves já instalados 2 cd /usr/local (acessar a pasta onde a instalação do Hadoop deve estar localizada) 3 scp r hadoop root@slavex:/usr/local (copia instalação do Hadoop para /usr/local do novo slave sendo instalado) 4 acessar o novo slave 5 cd /usr/local 6 su (modificar o usuário atual para superusuário) 7 chown R hadoop:hadoop hadoop (usuário hadoop do novo slave deve ser o dono da instalação) 8 rm r hadoop/tmp/* (apaga conteúdo temporário da nova instalação) 9 ssh-copy-id i $HOME/.ssh/id_rsa.pub hadoop@master (copia chave para o master) 10 entrar no master

11 ssh-copy-id i $HOME/.ssh/id_rsa.pub hadoop@slavex (copia chave RSI do master para novo slave, para permitir acesso SSH) Instalação de um novo slave 1 descompactar o arquivo de instalação dentro de /usr/local (ex. tar xzf hadoop.***.tar.gz) 2 mv hadoop-***** hadoop (renomeia diretório de instalação para hadoop apenas) 3 chown R hadoop:hadoop hadoop (usuário hadoop deve ser o dono da instalação) 4 nano hadoop/conf/hadoop-env.sh 5 descomentar #export JAVA_HOME=... 6 fazer JAVA_HOME=/usr/local/jdk 7 cd hadoop 8 mkdir tmp (cria diretório onde dados temporários são armazenados) 9 - mkdir logs (cria diretório onde logs serão gravados) 10 nano conf/core-site.xml (edita arquivo de configuração) 11 Acrescentar <!-- In: conf/core-site.xml --> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> <description>a base for other temporary directories.</description> <name>fs.default.name</name> <value>hdfs://master:54310</value> <description>the name of the default file system. A URI whose scheme and authority determine the FileSystem implementation. The uri's scheme determines the config property (fs.scheme.impl) naming the FileSystem implementation class. The uri's authority is used to determine the host, port, etc. for a filesystem.</description> 12 nano conf/mapred-site.xml 13 Acrescentar <!-- In: conf/mapred-site.xml --> <name>mapred.job.tracker</name> <value>master:54311</value> <description>the host and port that the MapReduce job tracker runs at. If "local", then jobs are run in-process as a single map and reduce task. </description>

14 nano conf/hdfs-site.xml 15 Acrescentar <!-- In: conf/hdfs-site.xml --> <name>dfs.replication</name> <value>1</value> <description>default block replication. The actual number of replications can be specified when the file is created. The default is used if replication is not specified in create time. </description> 16 nano conf/master 17 Retirar o que estiver escrito e colocar master Instalação do master O procedimento para instalação do master é idêntico ao procedimento de instalação de slaves, com dois passos extras: 1 nano conf/slaves 2 Acrescentar o nome de cada um dos slaves 3 executar /usr/local/hadoop/bin/hadoop namenode format (formata o namenode que conhece onde está cada bloco de dados) Iniciando o cluster, rodando um programa de teste e desligando o cluster Para inicializar o cluster, testá-lo e finalizá-lo, faça o seguinte: 1 - $HADOOP_HOME/bin/start-dfs.sh (inicializa sistema de arquivos distribuído HDFS) 2 - $HADOOP_HOME /bin/start-mapred.sh (inicializa os daemos MapReduce) *pode-se executar $HADOOP_HOME /bin/start-all.sh para inicializar tudo de uma vez 3 - $HADOOP_HOME/bin/hadoop dfs mkdir /usr/input (cria um diretório chamado input no HDFS)

4 - $HADOOP_HOME/bin/hadoop dfs copyfromlocal $HADOOP_HOME/docs/*.html /usr/input (copia o conteúdo HTML do diretório $HADOOP_HOME/docs para o diretório /usr/input no HDFS) 5 - $HADOOP_HOME/bin/hadoop jar hadoop***-examples.jar wordcount /usr/input /usr/output (executa o programa contador de palavras dentro do conteúdo do diretório /usr/input e coloca resultado em /usr/output) 6 - $HADOOP_HOME/bin/hadoop dfs ls /usr/output (verifica se o diretório está lá 7 - $HADOOP_HOME/bin/hadoop dfs cat /usr/output/nome_arquivo (visualiza conteúdo do arquivo) 8 - $HADOOP_HOME/bin/stop-all.sh (para o cluster. Alternativamente pode-se parar separadamente o HDFS e os daemons MapReduce) Detalhes 1 O diretório de destino dos Jobs MapReduce não podem existir antes da execução do job. O Hadoop faz isso para evitar que resultados anteriores sejam sobrescritos. 2 Se o Linux reportar o erro Agent admitted failure to sign using the key, executa-se: ssh-add $HOME/.ssh/id_rsa