Big Data Open Source com Hadoop
|
|
|
- Joana Angelim Sousa
- 9 Há anos
- Visualizações:
Transcrição
1 Big Data Open Source com Hadoop Palestrante: Marcio Junior Vieira Realização:
2 Marcio Junior Vieira 14 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de Gestão empresarial. Trabalhando com Software Livre desde 2000 com serviços de consultoria e treinamento. Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR. Palestrante em diversos Congressos relacionados a Software Livre tais como: CONISLI, SOLISC, FISL, LATINOWARE, SFD, JDBR, Campus Party, Pentaho Day. Fundador da Ambiente Livre.
3 Ecosistema Ambiente Livre
4 Colaborações
5 Big Data - Muito se fala...
6
7 Big Data É um novo conceito se consolidando. Grande armazenamento de dados e maior velocidade
8 Os 4 V's Velocidade, Volume, Variedade e Valor
9 Volume Modelos de Persistência da ordem de Petabytes, zetabytes ou yottabyte(yb). Geralmente dados não estruturados. Um Zettabyte corresponde a (10²¹) ou (2 elevado a 70) Bytes.
10 Velocidade Processamento de Dados Armazenamento Analise de Dados
11 Variedade Dados semi-estruturados Dados não estruturados Diferentes fontes Diferentes formatos
12 Valor Tomada de Decisão Benefícios Objetivo do Negócio.
13 O momento é agora
14 Onde podemos utilizar Big Data??
15 Sistema de Recomendação WWW em geral
16 Redes Sociais
17 Analise de Risco Crédito Seguros Mercado Financeiro
18 Dados Espaciais Clima Imagens Trafego Monitoramento
19 Big Data X BI Big Data e uma evolução do BI, devem caminhar juntos Data Warehouses são necessários para armazenar dados estruturados Previsão: BI Casos específicos Big Data Analise geral
20 Profissionais Novo profissional: Cientista de Dados
21 Competências do Cientista de dados Fonte
22 De onde?
23 Ferramentas de Big Data
24 Hadoop O Apache Hadoop é um projeto de software open-source escrito em Java. Escalável, confiável e com processamento distribuído. Filesystem Distribuido. Inspirado Originalmente pelo GFS e MapReduce da Google ( Modelo de programação MapReduce) Utiliza-se de Hardware Comum ( Commodity cluster computing ) Framework para computação distribuída infraestrutura confiável capaz de lidar com falhas ( hardware, software, rede )
25 Motivações Atuais Grande quantidade ( massiva ) de dados Dados não cabem em uma máquina Demoram muito para processar de forma serial Máquinas individuais falham Computação nas nuvens Escalabilidade de aplicações Computação sob demanda
26 A origem do Nome Segundo Doug Cutting, criador do Hadoop O nome que meu filho deu a um elefante amarelo de pelúcia. Curto, relativamente fácil de soletrar e pronunciar, sem sentido, e não usado em outro lugar: esses são os meus critérios de nomeação
27 Ecosistema
28 O que é HDFS Hadoop Filesystem Um sistema de arquivos distribuído que funciona em grandes aglomerados de máquinas de commodities.
29 Características do HDFS Inspirado em GFS Projetado para trabalhar com arquivos muito grandes e grandes volumes Executado em hardware comum Streaming de acesso a dados Replicação e localidade
30 HDFS Projetado para escalar a petabytes de armazenamento, e correr em cima dos sistemas de arquivos do sistema operacional subjacente.
31 Fonte:
32 HDFS - Replicação Dados de entrada é copiado para HDFS é dividido em blocos e cada blocos de dados é replicado para várias máquinas
33 MapReduce É um modelo de programação desenhado para processar grandes volumes de dados em paralelo, dividindo o trabalho em um conjunto de tarefas independentes
34 Programação Distribuída
35 MapReduce Você especifica o map (...) e reduce (...) funções map = (lista (k, v) -> lista (k, v)) reduce = (k, lista (v) -> k, v) O Framework faz o resto Dividir os dados Execute vários mappers sobre as divisões Embaralhar os dados para os redutores Execute vários redutores Guarde os resultados finais
36 MapReduce Map Reduce
37 Modos de Operação Standalone ( Local ) Pseudo-distributed Fully-distributed
38 Outros componentes PIG - linguagem de fluxo de dados e ambiente de execução para explorar grandes conjuntos de dados.executado no HDFS e grupos MapReduce. Hive - Armazém de dados (datawarehouse) distribuídos. Gerencia os dados armazenados no HDFS e fornece uma linguagem de consulta baseada em SQL para consultar os dados. Hbase Banco de dados orientada por colunas distribuída. HBase usa o HDFS por sua subjacente de armazenamento e suporta os cálculos de estilo lote usando MapReduce e ponto consultas (leituras aleatórias).
39 Outros componentes ZooKeeper Serviço de coordenação altamente disponível e distribuído. Fornece funções de bloqueios distribuídos que podem ser usados para a construção de aplicações distribuídas. Sqoop Ferramenta para a movimentação eficiente de dados entre bancos de dados relacionais e HDFS. Mahout - Aprendizagem de máquina escalável, de fácil uso comercial para a construção de aplicativos inteligentes
40 Distribuições Hadoop Open Source Apache Comercial Open Source - Cloudera - HortoWorks - MapR - AWS MapReduce - Microsoft HDInsight (beta)
41 Possibilidades de Uso DataWareHouse Business Intelligence Aplicações analíticas Mídias Sociais Sugestão de Compras Analise preditiva Compras Coletivas Recomendações
42 Modelo tradicional de Uso
43 Empresa Usando Hadoop Amazon Joost Facebook Last.fm Google New York Times IBM PowerSet Yahoo Veoh Linkedin Twitter Ebay
44 Hadoop no Brasil
45 Contatos Blog blogs.ambientelivre.com.br/marcio Facebook/ambientelivre
46 Convite Pentaho Day 17 de Maio SP FTSL - 18 e 19 de Setembro Software Freedom Day 20 de Setembro.
Elaborando uma plataforma de Big Data & Analytics 100% Open Source com apoio do Pentaho.
Open Source Data Science Elaborando uma plataforma de Big Data & Analytics 100% Open Source com apoio do Pentaho. Palestrante: Marcio Junior Vieira CEO e Data Scientist na Ambiente Livre [email protected]
PostgreSQL em um Ambiente Híbrido de Big Data Analytics. Palestrante: Marcio Junior Vieira [email protected]
PostgreSQL em um Ambiente Híbrido de Big Data Analytics Palestrante: Marcio Junior Vieira [email protected] Marcio Junior Vieira Trabalhando com Software Livre desde 2000 com serviços de consultoria
Bruno Antunes da Silva UFSCar - Sorocaba
Bruno Antunes da Silva UFSCar - Sorocaba Introdução HDFS Arquitetura Leitura e escrita Distribuição de nós Controle de réplicas Balancer MapReduce Conclusão Aplicações web com grandes quantidades de dados
Informática Parte 10 Prof. Márcio Hunecke
Escriturário Informática Parte 10 Prof. Márcio Hunecke Informática CONCEITOS DE MAPREDUCE E HDFS/HADOOP/YARN 2.7.4 Big Data O termo Big Data refere-se a um grande conjunto de dados armazenados e baseia-se
AVALIAÇÃO DE DESEMPENHO DE PROCESSAMENTO DISTRIBUÍDO EM LARGA ESCALA COM HADOOP
AVALIAÇÃO DE DESEMPENHO DE PROCESSAMENTO DISTRIBUÍDO EM LARGA ESCALA COM HADOOP Débora Stefani Lima de Souza [email protected] Orientador: Dr. Paulo Romero Martins Maciel INTRODUÇÃO Nem sempre os dados
Informática Parte 11 Prof. Márcio Hunecke
Escriturário Informática Parte 11 Prof. Márcio Hunecke Informática FERRAMENTAS DE INGESTÃO DE DADOS (SQOOP 1.4.6, FLUME 1.7.0, NIFI 1.3.0 E KAFKA 0.11.0) Visão geral sobre os quatro componentes Fazem
BUSINESS INTELLIGENCE E DATA WAREHOUSE. Big Data Conceitos, Técnicas, Ferramentas e Arquitetura. tutorpro.com.br cetax.com.br
BUSINESS INTELLIGENCE E DATA WAREHOUSE Big Data Conceitos, Técnicas, Ferramentas e Arquitetura tutorpro.com.br cetax.com.br Quem somos 2 3 Objetivos do Curso de Big Data 4 Alinhamento das expectativas
PÓS-GRADUAÇÃO ANÁLISE DE BIG DATA
PÓS-GRADUAÇÃO ANÁLISE DE BIG DATA OBJETIVOS Este curso tem como objetivo principal apresentar de forma clara, objetiva e com aplicações reais como as metodologias de Big Data, Inteligência Artificial e
Benjamin Bengfort Jenny Kim
Benjamin Bengfort Jenny Kim Novatec Authorized Portuguese translation of the English edition of Data Analytics with Hadoop, ISBN 9781491913703 2016 Benjamin Bengfort, Jenny Kim. This translation is published
MBA ANALYTICS EM BIG DATA
MBA ANALYTICS EM BIG DATA OBJETIVOS Este curso tem como objetivo principal apresentar de forma clara, objetiva e com aplicações reais como as metodologias de Big Data, Inteligência Artificial e Computação
Big Data. O que é Big Data! Como surgiu isso! Para que serve?!
Big Data O que é Big Data! Como surgiu isso! Para que serve?! Da teoria a prática:! 1! Dá mesmo para! fazer algo prático! com o! Big Data?! Como tudo! começou?!! Qual o! Problema?! PERCEBEU:! Informações
BIG DATA. Jorge Rady de Almeida Jr. Escola Politécnica da U SP
BIG DATA Jorge Rady de Almeida Jr. [email protected] Escola Politécnica da U SP BIG DATA - MOTIVAÇÃO Aumento da geração e armazenamento digital de dados Aumento da capacidade de processamento em geral:
QUESTIONÁRIO SOBRE HADOOP LEITURA DO MATERIAL FORNECIDO ALUNO/GRUPO ;
QUESTIONÁRIO SOBRE HADOOP LEITURA DO MATERIAL FORNECIDO ALUNO/GRUPO ; LEIA O MATERIAL ANTES DE FAZER O EXEMPLO DIDÁTICO. AS QUESTÕES ABAIXO PODEM SER RESPONDIDAS, USANDO, PREFERENCIALMENTE, SUA PRÓPRIAS
Solisc 2010 Uma Introdução ao Pentaho BI Open Source
Solisc 2010 Uma Introdução ao Pentaho BI Open Source Marcio Junior Vieira marcio @ ambientelivre.com.br Sobre o Palestrante A 10 anos trabalha nas áreas de análise, consultoria e desenvolvimento de sistemas.
A NOVA EXPERIÊNCIA ANALÍTICA
A NOVA EXPERIÊNCIA ANALÍTICA USANDO MELHOR O HADOOP COMO PEÇA DO QUEBRA-CABEÇA DO BIG DATA Rafael Aielo Gerente de Soluções AGENDA Era Big Data Hadoop O que é e como funciona SAS e Hadoop ERA BIG DATA
Community Builder Construção de Redes Sociais em Joomla. Marcio Junior Vieira marcio @ ambientelivre.com.br
Community Builder Construção de Redes Sociais em Joomla Marcio Junior Vieira marcio @ ambientelivre.com.br Sobre o Palestrante A 10 anos trabalha nas áreas de análise, consultoria e desenvolvimento de
COMPUTAÇÃO EM NUVEM E PROCESSAMENTO MASSIVO DE DADOS Conceitos, tecnologias e aplicações
COMPUTAÇÃO EM NUVEM E PROCESSAMENTO MASSIVO DE DADOS Conceitos, tecnologias e aplicações Jaqueline Joice Brito Slides em colaboração com Lucas de Carvalho Scabora Sumário Computação em Nuvem Definição
Solisc 2010 Gerenciamento de Projetos com dotproject
Solisc 2010 Gerenciamento de Projetos com dotproject Marcio Junior Vieira marcio em ambientelivre.com.br Sobre o Palestrante A 10 anos trabalha nas áreas de análise, consultoria e desenvolvimento de sistemas.
UNIVERSIDADE PRESBITERIANA MACKENZIE
1. Identificação do Curso a. Curso de Especialização em: Ciência de Dados (BIG DATA ANALYTICS) b. Área: Computação c. Área temática (tema): BIG DATA d. Linha de Pesquisa: Computação e Sistemas de Informação
Governança e Big Data. Celso Poderoso
Governança e Big Data Celso Poderoso [email protected] Celso Poderoso Formação Acadêmica: Economista Especialista em Sistemas de Informação Mestre em Tecnologia (Grid Computing/Cloud Computing)
Big Data. A Nova Onda
Big Data A Nova Onda Ricardo Rezende 18 anos em TI; 12 anos como DBA Oracle; Infrastructure Principal @ Accenture Enkitec Group; Oracle Certified Professional; IBM Certified Database Associate; Mestrando
Avaliação de desempenho e dependabilidade de processamento de dados em larga escala com Hadoop
Avaliação de desempenho e dependabilidade de processamento de dados em larga escala com Hadoop Débora Stefani Lima de Souza [email protected] Orientador: Paulo Romero Martins Maciel [email protected] Dados,
Sergio Adriano Blum Data Scientists
Big Data e Inovação Sergio Adriano Blum Data Scientists Instrutor Gerente de Projetos Consultor MBA Gestão Estratégia de Empresas pela Unisinos Bacharel em Administração de Empresas com Ênfase em Análise
Introdução a Big Data. Juciander L. Moreira Wallace Brito
Introdução a Big Data Juciander L. Moreira Wallace Brito 1 Sumário 1. 2. 3. 4. 5. 6. Introdução Os 3 Vs de Big Data Definição de Big Data Mitos sobre Big Data Aplicações Iniciando um projeto de Big Data
EMPREENDEDORISMO COM SOFTWARE LIVRE E SOFTWARE ABERTO.
Marcio Junior Vieira [email protected] EMPREENDEDORISMO COM SOFTWARE LIVRE E SOFTWARE ABERTO. Sobre o Palestrante A 10 anos trabalha nas áreas de análise, consultoria e desenvolvimento de sistemas.
BD e Cloud Gerenciamento de. Dados na Nuvem
CIn/UFPE In940 - Banco de Dados Gerenciamento de Dados na Nuvem Conceitos e Arquiteturas Chaina Santos Oliveira - cso2 Roteiro Motivação Computação em Nuvem Gerenciamento de dados na Nuvem Sistemas de
Apache Spark I NTRODUÇÃO À C OMPUTAÇÃO PARALELA E D ISTRIBUÍDA
Apache Spark CARLOS EDUARDO MART INS RELVAS I NTRODUÇÃO À C OMPUTAÇÃO PARALELA E D ISTRIBUÍDA Apache Hadoop Mudou a forma de armazenamento e processamento de dados em um cluster de computadores, trazendo
Negócios em FLOSS 1ª etapa do Circuito Curitibano de Software Livre
Negócios em FLOSS 1ª etapa do Circuito Curitibano de Software Livre Marcio Junior Vieira [email protected] Realização Promoção Apoio Marcio Junior Vieira 15 anos de experiência em informática,
O que é preciso para ser Cientista de Dados?
O que é preciso para ser Cientista de Dados? Cássio Socal Cervo Administração de Empresas - PUCRS Ciências Contábeis - PUCRS MBA Gerenciamento de Projetos - FGV/Decision MBA Big Data e Analytics - FGVSP
Como criar seu ecossistema de dados com o Tableau no AWS
Como criar seu ecossistema de dados com o Tableau no AWS Migrando seu BI para a nuvem Seu BI funciona e, provavelmente, funciona muito bem. Porém, continuar capacitando seus colegas com os dados será um
SOLUÇÃO HADOOP COM EMC ISILON E CLOUDERA ENTERPRISE
SOLUÇÃO HADOOP COM EMC ISILON E CLOUDERA ENTERPRISE PRINCÍPIOS BÁSICOS EMC ISILON Use a primeira e única solução NAS scale-out do setor com suporte nativo ao Hadoop Reduza os custos e acelere os resultados
CASSANDRA: BANCO DE DADOS NÃO RELACIONAL DE ALTO DESEMPENHO
Patrocínio, MG, outubro de 2016 ENCONTRO DE PESQUISA & EXTENSÃO, 3., 2016, Patrocínio. Anais... Patrocínio: IFTM, 2016. CASSANDRA: BANCO DE DADOS NÃO RELACIONAL DE ALTO DESEMPENHO Moises Wesley de Souza
GESTÃO DE DADOS NAS ORGANIZAÇÕES. Prof. Robson Almeida
GESTÃO DE DADOS NAS ORGANIZAÇÕES Prof. Robson Almeida INFRA-ESTRUTURA DE SISTEMAS DE INFORMAÇÃO 3 CONCEITOS Bit: Menor unidade de dados; dígito binário (0,1) Byte: Grupo de bits que representa um único
Técnicas de Big Data e Projeção de Medidas de Risco para de Negociação em Alta Frequência
12º CONTECSI Conferência Internacional sobre Sistemas de Informação e Gestão de Tecnologia Técnicas de Big Data e Projeção de Medidas de Risco para de Negociação em Alta Frequência Alcides Carlos de Araújo
APLICAÇÕES DE BIG DATA COM SPARK E PYTHON
CURTA DURAÇÃO APLICAÇÕES DE BIG DATA COM SPARK E PYTHON CARGA HORÁRIA: 48 horas DURAÇÃO: 3 meses COORDENAÇÃO: Prof. Dr. Adolpho Pimazoni Canton Prof.ª Dr.ª Alessandra de Ávila Montini APRESENTAÇÃO O crescente
Administração de Serviços de Redes. Introdução a Clusters. Prof. Dayvidson Bezerra Contato:
Administração de Serviços de Redes Introdução a Clusters Prof. Dayvidson Bezerra Contato: [email protected] Definição Cluster é um termo amplamente utilizado, significa computadores independentes
Sistemas de Apoio a Decisão
Sistemas de Apoio a Decisão (Inteligência nos Negócios - Business Inteligente) Sistemas de Informação/Ciências da Computação Aran Bey Tcholakian Morales, Dr. Eng. (Unidade 1) 1. Inteligência nos Negócios
COMPUTAÇÃO PARALELA E DISTRIBUÍDA
COMPUTAÇÃO PARALELA E DISTRIBUÍDA Aluno: Alessandro Faletti Orientadora: Noemi Rodriguez Introdução O objetivo inicial no projeto era aplicar a possibilidade de processamento em paralelo no sistema CSBase
Framework para Deduplicação de Dados com Apache Spark
Framework para Deduplicação de Dados com Apache Spark César Magrin - [email protected] Disciplina: Metodologia Científica - CI860 Professor: Alexandre Direne Sumário 1. Qualidade de Dados 2. Deduplicação
Introdução. Conceitos Básicos. Conceitos Básicos. Conceitos Básicos
Introdução Laboratório de Computação para Ciências Módulo II Prof. Guilherme Tavares de Assis Universidade Federal de Ouro Preto UFOP Instituto de Ciências Exatas e Biológicas ICEB Mestrado Profissional
Introdução à Informática
Introdução à Informática Aula 10 http://www.ic.uff.br/~bianca/introinfo/ Aula 10-05/10/2007 1 Ementa Conceitos Básicos de Computação (Hardware, Software e Internet) Softwares Aplicativos Tutorial: Word
HadoopDB. Edson Ie Serviço Federal de Processamento de Dados - SERPRO
HadoopDB Edson Ie Serviço Federal de Processamento de Dados - SERPRO Motivação Grandes massas de dados precisam ser processadas em clusters: 1 nó: 100TB@59MB/s = 23 dias Cluster com 1000 nós 33 min!!!
Pentaho Community Edition
Pentaho Community Edition UmaIntroduçãoaBusinessIntelligence eaopentahobiopensource RafaelaRaganham [email protected] MarcioJuniorVieira [email protected] Sobre o Palestrante Marcio
Big Data para Executivos e Profissionais de Mercado
LEIA E ENTENDA SOBRE BIG DATA, AS TECNOLOGIAS UTILIZADAS, AS APLICAÇÕES DE MERCADO, E AS CARREIRAS PROFISSIONAIS. Big Data para Executivos e Profissionais de Mercado Every company has Big Data in its future
Como analisar um Big Data com a Tecnologia Hadoop: Aplicação no Mercado Financeiro
Como analisar um Big Data com a Tecnologia Hadoop: Aplicação no Mercado Financeiro Sabrina Bojikian Rissi 1 Luís Alexandre da Silva 1 1 Centro Paula Souza - Faculdade de Tecnologia de Bauru (FATEC) Rua
Informática Parte 5 Prof. Márcio Hunecke
Escriturário Informática Parte 5 Prof. Márcio Hunecke Informática BANCO DE DADOS NOSQL (CONCEITOS BÁSICOS, BANCOS ORIENTADOS A GRAFOS, COLUNAS, CHAVE/VALOR E DOCUMENTOS) NoSQL (originalmente se referindo
UNIVERSIDADE DO SUL DE SANTA CATARINA GABRIEL BENJAMIM DA SILVA
UNIVERSIDADE DO SUL DE SANTA CATARINA GABRIEL BENJAMIM DA SILVA COMPARATIVO ENTRE DIFERENTES SOLUÇÕES DE PROCESSAMENTO DE DADOS PARA BIG DATA Florianópolis 2017 GABRIEL BENJAMIM DA SILVA COMPARATIVO ENTRE
ESPECIALIZAÇÃO A DISTÂNCIA EM. Ciência de Dados e Big Data Aplicada à Administração Tributária. Área de conhecimento: Tecnologia da Informação
ESPECIALIZAÇÃO A DISTÂNCIA EM Ciência de Dados e Big Data Aplicada à Administração Tributária Área de conhecimento: Tecnologia da Informação PUC MINAS VIRTUAL CORPO DOCENTE Raphael Rodrigues Campos (Mestre)
Introdução a Computação em Nuvem
Introdução a Computação em Nuvem Sistemas Distribuídos Mauro Lopes Carvalho Silva Professor EBTT DAI Departamento de Informática Campus Monte Castelo Instituto Federal de Educação Ciência e Tecnologia
Ementa. Workshop de Internet das Coisas: do Conceito à Realidade
Ementa Workshop de Internet das Coisas: do Conceito à Realidade Descritivo O Workshop de IoT do Conceito à realidade foi concebido em 2016 e desde então vem tendo seu conteúdo atualizado e renovado, focando
Introdução a Computação em Nuvem
Introdução a Computação em Nuvem Sistemas Distribuídos Mauro Lopes Carvalho Silva Professor EBTT DAI Departamento de Informática Campus Monte Castelo Instituto Federal de Educação Ciência e Tecnologia
Hadoop - HDFS. Universidade Federal de Goiás Ciência da Computação
Hadoop - HDFS Universidade Federal de Goiás Ciência da Computação O que é Hadoop? Um framework para lidar com aplicações distribuídas que fazem uso massivo de dados Originalmente construído para a distribuição
Treinamento em Apache Spark com Scala - Fundamental
Treinamento em Apache Spark com Scala - Fundamental O treinamento fundamental em Apache Spark prepara profissionais para o mercado de trabalho com Spark e Programação em Scala. Seu conteúdo programático
Apache Hadoop É hoje que vai instalar o seu primeiro cluster?
Apache Hadoop É hoje que vai instalar o seu primeiro cluster? Date : 16 de Março de 2016 Como processar grandes quantidades de dados de forma rápida e a baixo custo? A resposta é Hadoop! Esta framework
Desenvolvimento de Software no Contexto Big Data
Universidade de Brasília - UnB Faculdade UnB Gama - FGA Engenharia de Software Desenvolvimento de Software no Contexto Big Data Autor: Guilherme de Lima Bernardes Orientador: Prof. Dr. Fernando William
software as a service (saas) e service-oriented architecture (soa)
software as a service (saas) e service-oriented architecture (soa) engenharia de sistemas de informação Daniel Cordeiro 18 de agosto de 2017 Escola de Artes, Ciências e Humanidades EACH USP o que eles
BIG DATA,DATA SCIENCE e ANALYTICS aplicados ao MARKETING MANUAL DO CURSO ESPM. Rua Joaquim Távora, 1240 Vila Mariana São Paulo/SP.
BIG DATA,DATA SCIENCE e ANALYTICS aplicados ao MARKETING MANUAL DO CURSO ESPM Rua Joaquim Távora, 1240 Vila Mariana São Paulo/SP Informações Central de Relacionamento: (11) 5081-8200 (opção 1) Segunda
Introdução. Conceitos Básicos. Conceitos Básicos. Conceitos Básicos
Conceitos Básicos Introdução Tópicos Especiais Modelagem de Dados Prof. Guilherme Tavares de Assis Universidade Federal de Ouro Preto UFOP Instituto de Ciências Exatas e Biológicas ICEB Mestrado Profissional
Desenvolvimento de Software no Contexto Big Data
Universidade de Brasília - UnB Faculdade UnB Gama - FGA Engenharia de Software Desenvolvimento de Software no Contexto Big Data Autor: Guilherme de Lima Bernardes Orientador: Prof. Dr. Fernando William
Tecnologias da Informação TI /2 Material de apoio ler bibliografia recomendada (Stair)
Objetivos: Hardware, Software e Sistemas de gerenciamento de Banco de dados. Capítulos 3, 4 e 5 Stair. Hardware (HW) Qualquer maquinário que assiste nas atividades de: Entrada Processamento de um Sistema
NÍVEL SUPERIOR NÍVEL SUPERIOR
CIA. DE PROCESSAMENTO DE DADOS DO ESTADO DA BAHIA - PRODEB ESTADO DA BAHIA A N E X O I - D O S R E Q U I S I T O S E C O M P E T Ê N C I A S D O S E M P R E G O S E D I T A L D E P R O C E S S O S E L
SISTEMAS OPERACIONAIS
SISTEMAS OPERACIONAIS Introdução a Sistemas Operacionais Andreza Leite [email protected] Plano de Aula Introdução aos Sistemas Operacionais Fundamentação Teórica Evolução Histórica Características
Apache Hadoop. Conceitos teóricos e práticos, evolução e novas possibilidades. Daniel Cordeiro
Apache Hadoop Conceitos teóricos e práticos, evolução e novas possibilidades Daniel Cordeiro Departamento de Ciência da Computação Instituto de Matemática e Estatística Universidade de São Paulo Baseado
