Publicado por:
Caroline Rizzuti
A APLICAÇÃO DO BIG DATA NA EDUCAÇÃO

instituto federal de educação ciência e tecnologia do sudeste de minas gerais

A APLICAÇÃO DO BIG DATA NA EDUCAÇÃO

Caroline Rizzuti

Resumo

Este estudo objetivou em verificar de que maneira a aplicação do Big Data auxilia na educação, com a finalidade de facilitar a metodologia de ensino e contribuir para identificar cada mecanismo de aprendizagem, tornando o processo mais eficaz e atrativo, bem como explicar o que é Big Data e suas demais ferramentas e tecnologias utilizadas, identificar e apontar os problemas enfrentados na educação e descrever como é a aplicação do Big Data na educação. Para tanto, foi utilizado como método para coleta de dados a pesquisa bibliográfica, através do estudo levantado no referencial teórico sobre a Aplicação do Big Data na educação. A partir da análise de dados foi possível perceber a importância do Big Data na educação, tanto para os professores quanto para os alunos através de suas várias ferramentas. O Big Data ainda não é muito utilizado na educação na prática, porém se mostrou uma tecnologia de suma importância que vem para facilitar o ensino. Enfim, por meio de todo o estudo que foi realizado foi possível compreender que além da personalização do ensino proporcionado pelo Big Data na educação, ele também serve como apoio para os professores, auxiliando nas criações de perfis de cada estudante, podendo assim sugerir caminhos para a melhora e reorientando sua prática pedagógica para atender as necessidades de cada aluno.

Palavras-chave: Aplicação. Big Data. Educação.

Abstract

This study aimed to verify how the application of Big Data helps in education, with the purpose of facilitating teaching methodology and contributing to identify each learning mechanism, making the process more effective and attractive, as well as explaining what is Big Data and its other tools and technologies used, identify and point out the problems faced in education and describe how Big Data is applied in education. For this, the bibliographical research was used as a method for collecting data, through the study raised in the theoretical reference on the Application of Big Data in education. From data analysis it was possible to perceive the importance of Big Data in education, both for teachers and students through its various tools. Big Data is still not widely used in education in practice, but it has proved to be a very important technology that comes to facilitate teaching. Finally, through all the study that was carried out, it was possible to understand that in addition to the personalization of the teaching provided by Big Data in education, it also serves as a support for teachers, helping to create profiles of each student, thus Improving and reorienting their pedagogical practice to meet the needs of each student.

Palavras-chave: Application. Big Data. Education.

Introdução

Ha alguns anos a informática tem sofrido grandes transformações, dados são gerados e armazenados cada vez mais em escalas maiores. Junto dessa quantidade maciça de dados, surge também a necessidade de gerenciamento dessas informações, é onde o Big Data aparece com ferramentas de tratamento e soluções poderosas.

Dessa forma, o Big Data pode apresentar boas soluções na educação. A partir de um grande volume de dados é possível levantar e analisar uma série de informações sobre a aprendizagem de cada aluno, como por exemplo as dificuldades que apresentam, formato que aprendem melhor, nível de interações e horários mais produtivos.

Problema

Em uma época onde a tecnologia está por toda parte, o ideal é se unir a ela e não lutar contra. Nas escolas, professores enfrentam dificuldades em manter a atenção de alunos em suas aulas, diante de tantos atrativos tecnológicos.

Portanto, buscou-se reunir dados e informações com o propósito de responder ao seguinte problema de pesquisa: de que maneira a aplicação do Big Data auxilia educação?

OBJETIVOS 

Este estudo sobre Big Data na Educação, propõe atender ao objetivo geral e aos objetivos específicos a seguir.

OBJETIVO GERAL

O presente trabalho tem como objetivo verificar de que maneira a aplicação do Big Data auxilia na educação, com a finalidade de facilitar a metodologia de ensino e contribuir para identificar cada mecanismo de aprendizagem, tornando o processo mais eficaz e atrativo.

OBJETIVOS ESPECÍFICOS

Como objetivo específico, esse trabalho busca explicar o que é Big Data e suas demais ferramentas e tecnologias utilizadas, identificar e apontar os problemas enfrentados na educação e descrever como é a aplicação do Big Data na educação.

JUSTIFICATIVA

Até 2020, haverá mais de 44 trilhões de gigabytes de dados disponíveis no mundo, de acordo com o estudo Accenture Technology Vision 2016. Com tantas informações disponíveis, o uso do Big Data se tornará indispensável para analisar e consumir esses dados.

O Big Data não se aplica somente em meios empresariais, ele pode ser utilizado em várias áreas, dentre elas a educação. Essa ferramenta poderosa e de suma importância pode mudar a metodologia de ensino e a aprendizagem, tornando-a adaptada para cada tipo de aluno.

Devido à dificuldade na educação, essa pesquisa se justifica através da a aplicação do Big Data na educação, em contribuição para o seu público alvo, que são professores e alunos, proporcionando a vantagem de poder identificar cada mecanismo de aprendizagem, podendo assim transformar a metodologia de ensino, tornando-a mais eficaz e atrativa.

METODOLOGIA

A pesquisa se trata de uma atividade que tem por finalidade a descoberta de novos conhecimentos sobre um determinado assunto no qual não se possui nenhum conhecimento ou cujo conhecimento é limitado.

Entendemos por pesquisa a atividade básica da Ciência na sua indagação e construção da realidade. É a pesquisa que alimenta a atividade de ensino e a atualiza frente à realidade do mundo. Portanto, embora seja uma prática teórica, a pesquisa vincula o pensamento e ação, ou seja, nada pode ser intelectualmente um problema, se não tiver sido, em primeiro lugar, um problema da vida prática. (MINAYO, 1998, p. 17).

De acordo com Migueles (2004, p. 135), pesquisa exploratória: se trata de quando o elaborador não possui os conhecimentos ou informações necessárias para criar hipóteses ou estratégias para chegar ao objetivo da pesquisa.

A Pesquisa Exploratória é o primeiro passo de qualquer Trabalho Científico. É também denominada Pesquisa Bibliográfica. Proporciona maiores informações sobre o tema que o pesquisador pretende abordar; auxilia-o a delimitá-lo; ajuda-o a definir seus objetivos e a formular suas hipóteses de trabalho e também a descobrir uma forma original de desenvolver seu assunto. Pode ser feita através de Documentos, Bibliografias, Entrevistas, Observações e Visitas Web Site etc. (CIRIBELLI, 2003, p. 54).

Para Santos e Candeloro (2006, p. 73) as pesquisas exploratórias possuem como objetivo fundamental proporcionar uma visão ampla do determinado tema escolhido, não sendo necessário realizar a coleta de dados, ou seja, questionário ou entrevias, pois é dedicada ao levantamento bibliográfico e/ou documental.

Para melhor exploração desta pesquisa, observou-se que ela é classificada como pesquisa exploratória, e para acrescentar no valor deste projeto utilizou-se como técnicas para coleta de dados o levantamento bibliográfico.

"A pesquisa bibliográfica tem como principal característica o fato de que o campo onde será feita a coleta dos dados é a própria bibliografia sobre o tema ou o objetivo que se pretende investigar." (TOZONI-REIS, 2009, p. 42).

Notou-se a pesquisa bibliográfica no momento em que se fez uso de materiais já elaborados: livros, artigos científicos, revistas, documentos eletrônicos e enciclopédias na busca e abstração de conhecimento sobre o ensino a distância e presencial.

A pesquisa bibliográfica consiste na busca de elementos para a sua investigação em materiais impressos ou editados eletronicamente. Como fazemos parte de um universo de muita produção teórica, como estamos imersos numa tradição de pensadores clássicos, com muita produção e publicação disponível, às vezes caímos na tentação de buscar um comentador a ler o texto do clássico. Quando fizemos isso estamos fazendo uso de uma fonte secundária, mas por que não vamos buscar na origem? Devem-se priorizar as fontes primárias, isto é, documentos escritos do autor que se pesquisa e tomar a fonte secundária, aquela onde um escreve sobre a obra do outro, como o que se produziu a partir dali ou como interpretações de outro tempo. (SANTOS; CANDELORO, 2006, p. 70-71).

Segundo Pádua (2007, p. 55) a pesquisa qualificada como bibliográfica é fundamentada em documentação e em bibliografia, pois o pesquisador tem contato com o que já foi criado e produzido sobre o seu tema de pesquisa.

Toda pesquisa implica o levantamento de dados de variadas fontes. Quando o levantamento ocorre no próprio local onde os fenômenos acontecem, temos uma documentação direta (por exemplo, na entrevista). E, quando o pesquisador procura o levantamento que outros já fizeram temos a documentação indireta. A documentação indireta, por sua vez, pode ser encontrada nas fontes primárias, ou na bibliografia (livros e artigos). No primeiro caso, a pesquisa é documental; no segundo, bibliográfica. (RAMPAZZO, 2005, p. 51).

Portanto o objetivo principal deste estudo foi verificar de que maneira a aplicação do Big Data auxilia na educação, com a finalidade de facilitar a metodologia de ensino e contribuir para identificar cada mecanismo de aprendizagem.

Quanto a classificação, as fontes para coleta de dados foram secundárias. Para realização desta pesquisa foram utilizadas fontes secundárias, devido a pesquisa e coleta de informações bibliográficas pautadas no assunto deste estudo.

ESTRUTURA DA MONOGRAFIA

O trabalho de conclusão de curso estrutura-se em apenas 3 capítulos, apresentando-se no primeiro as explicações e definições acerca do Big Data, sua importância e os "V"s que o define. No segundo capítulo são abordadas as suas ferramentas como Data Mining, Hadoop e seus componentes, Redes Neurais, Apache Spark e Banco de Dados em SQL em vários autores. No terceiro capítulo é abordada a dificuldade encontrada na educação, mencionando não só as dificuldades metodológicas, mas também as fisiológicas presentes no dia a dia dos professores e alunos, apresentando também a aplicação do Big Data na educação, com o objetivo de responder o problema apresentado acima.

Big data

COnceitos

Todos os dias são gerados várias informações através de redes sociais, bancos, sistemas de gerenciamentos em empresas, dentre outros, e essas informações viram dados estruturados ou não estruturados. Isso é o Big Data, dados que são gerados, compartilhados e consumidos constantemente. Porém a importância do Big Data não gira em torno da quantidade desses dados, mas sim o que você faz com eles, permitindo personalização, identificação de tendências, decisões mais inteligentes, dentre outros. "Na verdade, o que faz o Big Data grande é o fato dele ser baseado em coletar vários dados de diversas fontes" (Hurwitz et al., 2015, p. 18).

O Big data trabalha com base em 4 pilares principais, sendo eles: a coleta de dados, o armazenamento, a interação entre os dados e a informação como é demonstrado na figura a seguir.

Pilares do Big DataPilares do Big DataMascarenhas e Pilan (p. 2)

Como bem nos assegura Hurwitz, Nugent, Halper, & Kaufman, (2015) pode-se dizer que Big Data se trata da capacidade de gerenciar e administrar grandes volumes de dados variados. Trabalhando assim com agilidade, diminuindo o tempo para realizar análises e ganhando prazo para reações em tempo real.

De acordo com o que foi citado acima, pode-se dizer que o Big Data tem a possibilidade de administração de dados em curto prazo. Neste contexto, fica claro que análises e reações em tempo real já são uma realidade, em todo esse processo a personalização e identificação de tendências, podem ser facilmente implementados.

Conforme verificado, o grande acumulo de dados gerou o conceito Big Data, porém é necessário distingui-los. Sendo assim:

Três características mostram a diferença entre Big Data e o volume de dados acumulado ao longo do tempo. Elas são conhecidas como os 3 "v"s do Big Data: Volume - A quantidade de dados gerada atinge escalas que necessitam de estrutura especializada para armazenagem e processamento. Os dados atingem grandezas, como terabytes, petabytes e caminham para zetabytes. Velocidade - Os dados são produzidos em grande velocidade. Volumes de dados que antes eram acumulados ao longo de anos são coletados em poucas horas ou minutos.Variadas fontes de dados - Os dados são obtidos de várias fontes, como: sistemas, computacionais, banco de dados, sensores etc., e possuem diferentes formatos e modelos de dados (Prado et al., 2014, p. 187).

Portanto o autor deixa claro que Big Data, dentre suas diversas concepções, busca facilitar o gerenciamento de grandes volumes de dados que são gerados em um curto espaço de tempo com análises e reações em tempo real, facilitando assim a personalização, identificações de tendências e padrões, etc. "Big Data é um conceito relacionado com o volume de dados gerado pela sociedade em uma escala exponencial e está ligado ao conceito dos 3Vs, cunhado pela IBM: volume, variedade e velocidade." (Prado et al., 2014, p. 53).

Conforme explicado acima, pode-se dizer que volume é um grande conteúdo de dados que não são estruturados, e que necessitam de um armazenamento e processamento específico, pois as soluções tradicionais não conseguem resolver de um modo prático e rápido. Neste contexto, fica claro que quando esses sistemas tradicionais perdem a capacidade de organizar a grande quantidade de dados heterogêneo chama-se variedade, e quando não é possível mais lidar com o grande fluxo de dados, por exemplo, é denominado de velocidade.

Big data se refere ao imenso volume de conjuntos de dados que alcançam elevadas ordens de magnitude (volume); mais diversos, incluindo dados estruturados, semiestruturados e não estruturados (variedade); e que chegam mais rápido (velocidade) do que você ou sua organização já teve de lidar [...]. Além disso, é heterogêneo e vem em muitos formatos, incluindo texto, documento, imagem, vídeo e outros. (INTEL, 2013, p.3).

O autor deixa claro, conforme citado acima, que o Big Data possui inúmeras possibilidades de aplicação, seja na educação, saúde, esportes, pecuária, mineração, dentre outros. Sendo assim, é necessário que sejam analisadas as três características principais: volume, variedade e velocidade para assim dar tratamento a essas informações.

Esses dados revelam muito mais do que apenas um novo termo que vem sido utilizado com frequência, eles apresentam uma tecnologia que ganha cada vez mais relevância, diante do aumento significativo de informações que são geradas todos os dias em diversas áreas. Em todo esse processo pode-se dizer de forma resumida que se trata de armazenamento, análise e tomada de decisões da forma mais eficaz e produtiva.

A importância do Big Data

A cada dia que se passa, a quantidade de dados e informações que são gerados a cada segundo tem aumentado, e todos esses dados não significam nada, se não forem analisados. E a análise de tantas informações não seria possível se não fosse o Big Data. "Um estudo da consultoria IDC indica que, de 2012 até 2020, o volume de dados armazenados na internet deverá dobrar a cada dois anos."(VILLELA,2014, p.1).

Como bem nos exemplifica Villela (2014), a razão que causou essa quantidade enorme de informações, se trata da expansão das redes sociais, o crescimento de vendas e lojas online, a crescente invasão dos dispositivos móveis e dentre outros. Todos esses dados não são e não significam nada se não forem analisados e geridos para colher informações, afim de identificar padrões, permitindo assim a utilização desses dados como por exemplo, para personalização, auxilio para tomada de decisões e identificação de tendências.

Conforme citado acima, o Big Data começou a se tornar indispensável a partir do momento em que os dados e informações começaram a se multiplicar de uma forma em que a análise convencional através de estatísticos e cientistas de dados não é mais possível sem a ajuda dessa ferramenta, chamada Big Data. "A proposta de uma solução de Big Data é a de oferecer uma abordagem ampla no tratamento do aspecto cada vez mais "caótico" dos dados para tornar as referidas aplicações e todas as outras mais eficientes e precisas."(Alecrim, 2015, p. 1).

"Big Data é importante porque permite que as organizações recolham, armazenem, administrem e manipulem grandes quantidades de dados na velocidade certa, no tempo certo para conseguir conhecimentos corretos." (HURWITZ et al., 2015, p. 10).

Sendo assim por todas essas razões Big Data nos tempos atuais se tornou indispensável nos locais onde existem um grande volume de dados e a necessidade de administrar e manipular essas informações no tempo certo para conseguir então os conhecimentos afim de gerar soluções, independente da área.

Os V's do Big Data

Com a ideia de deixar o conceito de Big Data mais claro, alguns autores começaram a descrever como base os 3 "V"s do Big Data, passando posteriormente para 5 "V"s. 

"Big Data = volume + variedade + velocidade. Hoje adiciono mais dois “V”s: veracidade e valor. As oportunidades que os cinco “V”s trazem não podem e nem devem ser desperdiçados." (Taurion, 2012, p. 1)

Os 5 "V"s do Big DataOs 5 "V"s do Big DataSalvador (2015)

Volume

Segundo Alecrim (2013) o primeiro "V" do Big Data: Volume, é uma enorme quantidade de dados que cresce exponencialmente a cada dia, sendo eles estruturados ou não estruturados. Como bem nos assegura (Netto et al.), diariamente muitos dados e informações são gerados devido ao volume de troca de e-mails, interações em rede sociais, serviços bancários e dentre outros. Esses exemplos servem para esclarecer a quantidade de dados existentes atualmente.

Não são terabytes e sim zetabytes e brontobytes. Só no Facebook são 10 bilhões de mensagens, 4,5 bilhões de curtidas e 350 milhões de fotos compartilhadas todos os dias. A tecnologia do Big Data serve exatamente para lidar com esse volume de dados, guardando-os em diferentes localidades e juntando-os através de software. (Canaltech, 2014, p. 1)

Conforme citado anteriormente o volume do Big Data está relacionado a quantidade de dados e informações gerados e armazenados diariamente, através de vários meios, como por exemplo, redes sociais, monitoramento de câmeras, transações bancárias, aplicativos em Smartphones e dentre outros.

Velocidade

Como nos exemplifica Alecrim (2015) para ser possível o tratamento dos dados para determinados casos, é necessário ser feito a análise em tempo hábil, na maioria das vezes em tempo real. Como é o caso de uma operadora de cartões de crédito, que deve analisar uma possível fraude e aprovar uma compra em questões de segundos.

"Velocidade por que muitas vezes precisamos agir praticamente em tempo real sobre este imenso volume de dados, como em um controle automático de tráfego nas ruas." (Taurion, 2012, p. 1).

Variedade

Diante do grande volume de dados, existe como consequência a diversidade ou variedade de informações. Existem dados não estruturados vindo de inúmeras fontes, como imagens, vídeos, áudios e dentre outros. E os dados estruturados, esses armazenados, em bancos de dados como PostgreSQL ou Oracle. Sendo assim, é necessário saber gerenciar toda essa variedade, pois um dado pode se tornar inútil se não for associado a outro. "Fotos e vídeos e gravações de áudio e mensagens de e-mail e documentos e livros e apresentações e tweets [...] são todos dados, mas eles são geralmente não estruturados e incrivelmente variados." (Gewirtz, 2016, p. 1).

Veracidade

Para conseguir alcançar um resultado satisfatório do processo do Big Data, é preciso obter dados verídicos, conforme a realidade.

O conceito de velocidade, já descrito, é bem alinhado ao conceito de veracidade pela necessidade constante de análise em tempo real, isso significa, de dados que condizem com a realidade daquele momento, pois dados passados não podem ser considerados dados verídicos para o momento em que é analisado (Netto et al., p. 1).

Sendo assim, de nada adianta lidar com os outros fatores já citados acima como, volume, velocidade e variedade, se todos esses dados e informações não forem reais.

Valor

O valor, é o resultado da combinação de todos os "V"s citados acima. Pois não há sentido algum, se a aplicação do Big Data não trouxer benefícios que justificam o investimento. Como nos assegura Taurion (2012) é necessário estar atento aos custos gerados nessa operação pois, o valor agregado de todo esse trabalho desenvolvido, tem que compensar os custos financeiros envolvidos inicialmente.

Para garantir que os outros 4 V´s tragam rentabilidade, é essencial gerar valor com os resultados que retornam do Big Data. O uso do Big Data torna-se imprescindível quando há foco na geração de valor, convertendo essa base de dados em informações relevantes, que serão aplicadas nas estratégias de negócio (Good Data, 2016, p. 1).

Sendo assim, com todos os itens citados acima, volume, velocidade, variedade, veracidade e valor, é definido o Big Data, porém alguns especialistas acreditam que não é preciso unir todos os fatores para ser considerado o Big Data. (Pozzebon, 2014).

Tecnologias utilizadas no Big Data

Data Mining

Data Mining ou Mineração de Dados, é a análise de informações afim de realizar extrações de pontos importantes, que possam influenciar para o aumento de produtividade e lucro em uma determinada organização. "Conhecido também como mineração de dados. Sua função principal é a varredura de grande quantidade de dados a procura de padrões e detecção de relacionamentos entre informações gerando novos sub-grupos de dados." (Accorsi, 2008, p. 1).

Como bem nos assegura Carvalho (2005), pode-se dizer que Data Mining é o uso técnicas automáticas para exploração de grandes quantidades de dados, nesse contexto fica claro que extração de dados de um grande volume de informações a olho nu não seria possível. Em todo esse processo pode-se dizer de forma resumida que a extração de informações tem como objetivo descobrir fatos ocultos, identificando assim, padrões e relações entre os mesmos, gerando regras que permitem prever resultados.

Processo de Data MiningProcesso de Data MiningQuoaniam et al. (2011, p. 22)

Pode-se dizer que Data Mining consiste em analisar informações e extrair somente os pontos importantes para que possa ser analisado e auxiliar na estratégia para, por exemplo, melhorar a produtividade e aumentar os lucros. Não é exagero afirmar que se explora um grande volume de dados, na procura por padrões a fim de utilizá-los para um melhor desempenho.

Conforme verificado, o autor deixa claro que Data Mining é uma técnica composta por um conjunto de ferramentas específicas. Trata-se inegavelmente de algoritmos de aprendizado ou muitas das vezes é baseada em redes neurais e estatísticas, permite buscar em uma grande base de dados as informações que aparentemente a olho nu não seriam identificadas. Sob essa ótica, ganha particular relevância, possibilitando a agilidade nas tomadas de decisões. (PORRUA, 2003).

Data Mining é indispensável para extração de dados e identificação de padrões. Assim, reveste-se de particular importância as ferramentas específicas como uso de algoritmos de aprendizado ou baseado em redes neurais e estatísticas, uma vez que não é possível realizar tais análises ao olho nu.

A popularização desse conceito o tem tornado uma ferramenta cada vez mais utilizada no gerenciamento de informação por revelar estruturas de conhecimento importantes para a tomada de decisões. Não seria exagero dizer que um leque de oportunidades se abre ao se utilizar o Data Mining (Raposo, 2010, p. 1).

Conforme explicado acima, a mineração de dados utiliza técnicas de recuperação de informação, inteligência artificial, reconhecimento de padrões afim de procurar correlações entre diferentes dados. É importante considerar que essas técnicas permitem a aquisição de conhecimentos benéficos tanto para uma empresa quanto para um indivíduo, por exemplo, o bom gerenciamento do turbilhão de informações existentes hoje em dia.

Data Mining é uma área de pesquisa da Inteligência Artificial que busca encontrar padrões em bases de dados. Geralmente, considerando como um dos passos no processo de KDD - Knowledge Discovery Database (Descobrimento de Conhecimento em Base de Dados).Data Mining refere-se à aplicação de algoritmos para extração de padrões de dados, sem os passos adicionais de KDD e da análise dos Resultados. (FERNANDES, 2003, p.21).

De acordo com o que foi citado acima, o autor deixa claro que Data Mining consiste em um processo analítico projetado para explorar grandes quantidades de dados e encontrar padrões nestas bases, podendo assim, validá-los aplicando os padrões detectados a novos subconjuntos de dados. O processo consiste em 3 etapas: exploração, definição do padrão e validação/verificação.

 Fica evidente, diante desse quadro que Data Mining é um processo analítico que foi desenvolvido para exploração de grandes volumes de dados, em busca de padrões, aplicando-os nos novos subconjuntos de dados.

Redes Neurais

Redes Neurais são técnicas computacionais que possuem um modelo inspirado na estrutura neural de organismos inteligentes. Dessa forma os conhecimentos são adquiridos através da experiência. Uma grande rede neural artificial pode ter milhares de unidades de processamento.

Exemplo de Rede Neural ilustrado na Figura 2 a seguir.

Exemplo de Rede Neural ArtificialExemplo de Rede Neural ArtificialCaldeira et al. (2007, p. 69)

Na visão de Loesch, 1996 apud FERNANDES (2003), Redes Neurais Artificiais imitam as "habilidades computacionais" do sistema nervoso biológico através de neurônios artificiais interconectados, sendo assim é importante constatar que possui implementação em hardware e software.

O emprego de redes neurais artificiais na solução de problemas é função de sua capacidade de aprender. O aprendizado (ou treinamento) de uma rede consiste no ajuste dos seus parâmetros, de forma que esta produza o resultado esperado, dada a apresentação de um conjunto de padrões específicos. Os padrões de treinamento contêm as informações que se deseja que interligam os neurônios. As redes neurais caracterizam-se pela utilização de diferentes técnicas de treinamento. (CALDEIRA, et al. 2007, p. 70).

É importante, aliás o aprendizado das redes neurais em seu ambiente, podendo assim melhorar seu desempenho. Esse aprendizado acontece quando a rede neural soluciona uma determinada classe de problemas.

Fica evidente diante desse caso que uma rede neural artificial é constituída por várias unidades de processamentos, cujo funcionamento é simples. Sendo assim, essas unidades são conectadas por canais de comunicação, que fazem operações apenas sobre seus dados locais. Em todo esse processo, os dados são recebidos pelas suas conexões.

Hadoop

Quando se trata de análise de Big Data, é necessário escolher a ferramenta adequada. O Hadoop é uma das melhores opções para isso, por ser uma estrutura de software que oferece um modelo simples de programação e permite processamentos distribuídos de grandes conjuntos de dados.

De acordo com Hurwitz, Nugent, Halper, & Kaufman (2015), Hadoop é um bloco de construção indispensável para que você possa capturar e processar dados em um modelo simples de programação. Em todo esse processo essa ferramenta acelera processamentos e esconde latências.

Hadoop pode simultaneamente absorver e armazenar qualquer tipo de dados de uma série de fontes, agregar e processar de forma arbitrária e entregar para qualquer que seja seu uso – que pode ser a oferta de dados de transações em tempo real ou o fornecimento de inteligência de negócio interativa através de seu sistema existente. (INTEL, 2012, p. 8)

Pode-se dizer que Hadoop é uma plataforma para análise de dados de código aberto. Neste contexto, fica claro que vem se tornando fundamental cada vez mais, para auxiliar as suas várias áreas de atuação a gerirem grandes volumes de dados. Dessa forma não importa qual o tamanho o formato dos dados nem a escala do volume dos arquivos, o Hadoop define como os dados são segmentados e distribuídos.

Conforme verificado Hadoop, trata-se inegavelmente de uma ferramenta indispensável em várias áreas de atuação. Seria um erro não atribuí-lo, assim reveste-se de particular importância por possuir vantagens significativas e de fundamental importância para análise de Big Data.

Pode-se dizer que Hadoop é uma plataforma para análise de dados de código aberto. Neste contexto, fica claro que vem se tornando fundamental cada vez mais, para auxiliar as suas várias áreas de atuação a gerirem grandes volumes de dados.

Por todas essas razões o Hadoop permite que as empresas obtenham informações valiosas a partir de um grande volume de dados não-estruturados e estruturados, com isso suas vantagens são significativas e de fundamental importância, dentre elas:

• Armazenamento de qualquer dado em formato nativo.

• Escala para Big Data.

• Redução de custos.

• Menor risco.

• Melhor disponibilidade.

Componentes Hadoop

MapReduce

MapReduce é um modelo de programação para processar dados de forma paralela e em grandes quantidades. O processo é dividido em partes, a primeira é Map, onde são realizados os mapeamentos e a validação dos dados, sendo a segunda Reduce, que gera o resultado final a partir do resultado da fase Map.

O MapReduce é um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído, geralmente em um cluster de computadores. Hoje, o Hadoop é utilizado em larga escala por grandes corporações, como Facebook e Twitter, em aplicações Big Data (Machado, 2014, p. 1).

Por exemplo, em uma indústria de gás, é possível obter vários arquivos de logs, com informações sobre pressão e temperatura de poços. Inicialmente será mapeado e validado os dados dos arquivos e em seguida obter a maior temperatura e pressão de todo o conjunto que foi analisado.

Logo MapReduceLogo MapReduce Grigorev (2015, p. 1)

HDFS

O HDFS é um sistema de arquivos distribuído, que foi projetado para armazenar dados e arquivos grandes, com acesso aos dados por streaming. Se tornou indispensável quando é preciso de muitos computadores para resolver um problema. Ele possui 2 tipos de nós: Datanodes onde ficam armazenados os dados. Namedone, onde é armazenado os locais onde os dados estão.

Um exemplo prático do HDFS é a computação em grade, onde são necessários um grande volume de computadores em que, na maioria das vezes seus usuários não utilizam seus recursos. Assim, a computação em grade utiliza-se destes recursos para fazer cálculos matemáticos, avanços em pesquisas científicas como, vacinas contra HPV, malária etc., tendo como resultado redução de custo, tempo e avanços na ciência. (Vieira et al., 2014, p. 27).

Portanto afim de disponibilizar um modelo otimizado de acesso a dados, o HDFS foi desenvolvido de forma para posicionar a lógica de processamento juntamente aos dados, ao invés de posicionar os dados próximos ao espaço do aplicativo.

Logo HDFSLogo HDFSGopinath (2014, p. 1)

Pig

Pig é uma plataforma para criar programas, sendo uma abstração do MapReduce, permite que os usuários utilizem uma linguagem de mais alto nível.

O Pig é um Projeto Apache que inclui dois componentes: Pig Latin, se trata de uma linguagem de procedimento scripting usada para expressar fluxos de dados e o ambiente de execução do Pig para executar programas Pig Latin, que pode ser executado em MapReduce ou em modo local.

"Os scripts em Pig Latin começam com os dados, aplicam transformações a eles até o script descrever os resultados desejados e executam todo o fluxo de processamento de dados como um job otimizado de MapReduce." (Bengfort et al., 2016, p. 229).

Logo PigLogo PigGopinath (2014, p. 1)

Hive e Hue

O Hive se trata de um framework que armazena dados desenvolvidos sobre o Hadoop. Caso programado em SQL ele permite a conversão deste código para ser trabalhado no MapReduce.

"O Hive oferece aos analistas de dados uma interface familiar para o Hadoop, baseada em SQL, que lhes permite associar esquemas estruturados a dados no HDFS, e acessar e analisar esses dados usando consultas SQL." (Bengfort et al., 2016, p. 176).

Logo HiveLogo HiveGopinath (2014, p. 1)

Hue tem funcionalidade de proporcionar uma interface gráfica baseada em navegador para que o trabalho que foi realizado em Hive seja executado.

Logo HueLogo HueHue (p. 1)

Sqoop

Sqoop foi projetado para transferir dados entre banco de dados relacional e o Hadoop, automatizando a maior parte do processo.

"O Sqoop nos oferece a flexibilidade para manter nossos dados em seu estado de produção, ao mesmo tempo que os copia para Hadoop, disponibilizando-os para futuras análises sem modificar o banco de dados de produção." (Bengfort et al., 2016, p. 208).

Logo SqoopLogo SqoopGopinath (2014, p. 1)

Oozie

Oozie se trata de um sistema de gerenciamento de fluxo de trabalho do Hadoop, auxiliando para que as ramificações sejam fornecidas. "Isso não substitui seu planejador e suas ferramentas de BPM, mas fornece a ramificação se-então-senão e controle dentro de seus trabalhos do Hadoop." (Lurie, 2012, p. 1).

Logo OozieLogo OozieGopinath (2014, p. 1)

Hbase

O Hbase, é um banco de dados orientado a coluna, possui fácil integração com o Hadoop, sendo possível utilizar o MapReduce, facilitando o processamento de um grande volume de dados. 

Sua melhor aplicabilidade é quando temos uma quantidade de dados muito grande, aproveitando assim o potencial do cluster Hadoop / HDFS. Com bases de dados que utilizem 5 nós ou mais o HBASE realmente mostra o seu potencial. O HBASE também é muito bom quando existe uma variabilidade nos schemas(ex. linhas diferentes), mas não recomendamos o uso para substituir aplicações transacionais baseadas em RDBMs. (Fonte, 2013, p. 1)

Foi criado com intuito de manter o desempenho enquanto aumenta a escalabilidade horizontal de vários nós.

Logo HBaseLogo HBaseGopinath (2014, p. 1)

FlumeNG

FlumeNG utilizado para transmissão de dados para Hadoop. Realiza o armazenamento de dados no HDFS e HBase.

Embora o Flume seja usado com mais frequência para direcionar dados de log em streaming para o Hadoop, geralmente para o HDFS ou o HBase, as fontes de dados do Flume, na verdade, são bem flexíveis e podem ser personalizadas de modo a transportar muitos tipos de dados de evento, incluindo dados de tráfego de rede, dados gerados por mídias sociais e dados de sensores para qualquer consumidor compatível com o Flume (Bengfort et al., 2016, p. 208).

 Se trata de um loader em tempo real para realizar transmissão de dados para o Hadoop, armazenando dados no HDFS e HBase.

Logo FlumeLogo FlumeGopinath (2014, p. 1)

Whirr

Disponibiliza espaço na nuvem para o Hadoop. Apenas com um arquivo pequeno de configuração é possível em alguns minutos iniciar um cluster.

Logo WhirrLogo WhirrApache (p. 1)

Mahout

Mahout se trata de uma biblioteca de aprendizagem de máquina, de código aberto, com objetivo de operar como uma máquina de recomendações, clustering e classificação.

As bibliotecas criadas dentro dessa ferramenta, por sua vez, dividem-se na implementação de soluções para três temas principais do Machine Learning: recomendação (capacidade de recomendar um item com base no perfil e nas escolhas anteriores do usuário), clustering (solução para analisar o conteúdo de arquivos e agrupar dados semelhantes em “clusters” ou agrupamentos de informação) e classificação (atividade de ler, analisar e classificar dados, aplicando o mesmo tipo de classificação para conteúdos com características em comum) (Fidel, 2014, p. 1).

Portanto Mahout se trata do aprendizado automático para Hadoop. Usado para análise preditiva e outras análises avançadas.

Logo MahoutLogo MahoutGopinath (2014, p. 1)

Fuse

Fuse faz com que o sistema HDFS pareça com um sistema comum, para que possa ser utilizado rm, cd e outros em dados do HDFS.

Zookeeper

Usado na sincronização e no gerenciamento para o cluster.

O Zookeeper roda em um cluster de servidores chamados de conjunto, os quais compartilham o estado dos seus dados entre si. Cada atualização de dados só é considerada uma alteração de sucesso, depois que metade das máquinas deste conjunto completa esta atualização. Um líder será eleito pelo conjunto e se duas atualizações conflitantes são enviadas para o conjunto, aquela que for processada pelo líder primeiro será a que prevalecerá, a outra irá falhar (Filho, 2014, p. 1).

Logo, Zookeeper se trata de um serviço de coordenação que oferece um conjunto de ferramentas para o gerenciamento de aplicações distribuídas.

Logo ZookeeperLogo ZookeeperGopinath (2014, p. 1)

Apache Spark

Apache Spark se trata de um framework para processamento de Big Data desenvolvido com seu maior foco na velocidade, facilidade de uso e análises mais complexas. Consegue processar uma grande variedade de conjuntos de dados como por exemplo: textos, grafos, etc., sejam eles de origem batch ou streaming de dados em tempo real.

O Apache Spark é uma ferramenta Big Data que tem o objetivo de processar grandes conjuntos de dados de forma paralela e distribuída. Ela estende o modelo de programação MapReduce popularizado pelo Apache Hadoop, facilitando bastante o desenvolvimento de aplicações de processamento de grandes volumes de dados. Além do modelo de programação estendido, o Spark também apresenta uma performance muito superior ao Hadoop, chegando em alguns casos a apresentar uma performance quase 100x maior. (Santana, 2016, p. 1)

O autor deixa claro na citação acima que o Apache Spark possui muitas vantagens quando comparado com outros frameworks de processamento de dados Big Data. Se trata de uma ferramenta completa com processamento diverso, ou seja, analisa dados que já estão armazenados ou também os dados que chegam em fluxo contínuo.

Outra grande vantagem do Spark, é que todos os componentes funcionam integrados na própria ferramenta, como o Spark Streamming, o Spark SQL e o GraphX, diferentemente do Hadoop, onde é necessário utilizar ferramentas que se integram a ele, mas que são distribuídas separadamente, como o Apache Hive. Além disso, outro aspecto importante é que ele permite a programação em três linguagens: Java, Scala e Python. (Santana, 2016, p. 1)

De acordo com Santana (2016) o Spark possui vários componentes para os mais diversos tipos de processamentos, fornecendo capacidades adicionais para as áreas da análise.

  • Spark Streaming: torna possível o processamento de dados em fluxos de tempo real. "O Spark Streaming pode ser usado para processar dados de streaming em tempo real baseado na computação de microbatch." (Penchikala, 2015, p. 1).
  • Spark GraphX: responsável por realizar processamento sobre os grafos incluindo uma coleção de algoritmos para simplificar as análises.
  • SparkSQL é utilizado para aplicação de SQL para consultas e processamento de dados no Spark.
  • MLlib se trata da biblioteca de aprendizado de máquina do Spark, com vários algoritmos diferentes, como por exemplo: regressão, clustering e etc.

Apache Spark se trata de umas das principais ferramentas de Big Data para análise e processamento de grandes quantidades de dados. Suporta mais do que apenas as funções Map e Reduce, tem APIs em Scala, Java e Phython.

Logo Apache SparkLogo Apache SparkGopinath (2014, p. 1)

Banco de Dados NoSQL

NoSQL é o termo que descreve bancos de dados não relacionais. Eles utilizam vários modelos de dados, como por exemplo: gráficos, chave-valor, colunas e documentos. Permitem uma escalabilidade mais em conta e menos trabalhosa, pois não são necessárias máquinas muito poderosas e sua manutenção é mais fácil.

Uma das mudanças mais óbvias trazidas pelo NoSQL é o afastamento do modelo relacional. Cada solução NoSQL possui um modelo diferente, os quais dividimos em quatro categorias amplamente utilizadas no ecossistemas NoSQL: chave-valor, documento, famílias de colunas e grafos (SadalageFowler, 2013, p. 42).

Esse novo tipo de banco de dados, foi criado devido aos bancos de dados tradicionais não conseguirem mais atender os requisitos de grandes volumes de dados, não estruturados e semiestruturados, que precisam de alta escalabilidade e disponibilidade.

Tendências em arquiteturas de computadores, como a computação na nuvem e a necessidade crescente de prover serviços escaláveis, estão pressionando bancos de dados numa direção onde eles necessitam oferecer escalabilidade horizontal. Bancos de dados NoSQL armazenam os dados com técnicas que visam atender a esse requisito. Há alguns exemplos proeminentes de softwares de código fechado que atendem estes requisitos, sendo alguns deles Google’s BigTable e Amazon’s DynamoDB. E alguns exemplos de software open-source como Apache Cassandra (originalmente desenvolvido para o Facebook), Apache HBase, LinkedIn’s e vários outros. (Salvi, 2013, p. 1).

De acordo com a citação acima, os bancos de dados relacionais nem sempre precisam ser a melhor opção onde é preciso armazenar estruturas dinâmicas ou tratar grandes volumes de dados. NoSQL possui algumas outras características que o diferencia dos bancos de dados tradicionais. Essas características são extremamente importantes para o armazenamento adequado dos dados.

De acordo com Fernandes (2013):

  • Escalabilidade horizontal: Conforme o volume de dados aumenta é preciso aumentar a escalabilidade para que o desempenho não caia. A escalabilidade vertical, aumenta o processamento e armazenamento das máquinas, já a horizonta, aumenta o número de máquinas.
  • Ausência de esquema: Existe uma fácil aplicação da escalabilidade e aumento na disponibilidade, porém não há garantia da integridade dos dados.
  • API Simples: O intuito do NoSQL é o acesso aos dados de forma rápida, para isso APIs são desenvolvidos para que qualquer aplicação possa ter acesso aos dados. 
  • Nem sempre consistente: Possui como princípio o teorema CAP, ou seja, em um determinado momento, só há a garantia de duas das três propriedades estejam ativas.

Conclui-se que o modelo de dados NoSQL é apropriado para aplicações onde será necessário lidar com enormes quantidades de dados, onde o modelo relacional não atende mais aos requisitos. Tendo como principal vantagem a escalabilidade horizontal, permitindo a distribuição de dados em diferentes servidores.

Principais Bancos de Dados

De acordo com Miranda (2016) os bancos de dados mais utilizados no mercado são: Oracle, MySQL, SQL Server, MongoDB, PostgreSQL.

  • Oracle, lançado em 1980, se trata de um banco de dados relacional,  exige bastante hardware para boa performance e profissionais bem capacitados.
  • MySQL, lançado em 1996, se trata de um banco de dados relacional, com sistema Open Source.
  • SQL Server, lançado em 1989, se trata de um banco de dados relacional, possui como vantagem o fato de ser da Microsoft sendo assim, se integra nativamente com seus produtos e tecnologias.
  • MongoDB, lançado em 2009, se trata de um banco de dados não relacional, possui código aberto, de alta performance, orientado a documentos, conceito de NoSQL.
  • PostgreSQL, lançado em 1989, se trata de um banco de dados relacional, com sistema Open Source, é mais utilizado para web.

BIG DATA NA EDUCAÇÃO

A DIFICULDADE NA EDUCAÇÃO

São vários os problemas que estão presentes na educação e são diversos os fatores que proporcionam resultados negativos nesta área, como a forma de ensino e avaliação que causam o desinteresse dos alunos, levando até a evasão.

As dificuldades podem vir de fatores emocionais ou até mesmo orgânicos e é importante que sejam descobertas a fim de auxiliar o desenvolvimento do processo educativo, considerando fatores que também desmotivam o aprendizado. "Assim, ao invés de generalizar a dificuldade de aprendizagem, o estudo dessa dificuldade exige, inevitavelmente, identificar com precisão onde está localizada."(CONSTANTINO, at al., 2003).

Do ponto de vista de Marchand (1985), a forma de ensinamento adotada em sala de aula acaba sendo mais importante que o seu próprio conteúdo abordado. Neste contexto, fica claro que a transmissão de um ensinamento seja ele qualquer, necessita de um comportamento favorável do professor, atraindo seus alunos e estabelecendo contato, porém, o mais preocupante, contudo, é o comportamento adequado de cada aluno em específico que também deve existir. Isso porque seria um erro dizer que, se obteve êxito com um aluno, os meios empregados com ele devem levar ao mesmo resultados com os demais alunos. 

Conforme citado acima, o professor possui a necessidade de se adaptar não só a cada turma em que leciona, mas sim para cada aluno em específico dessa turma. Adotando assim uma forma adaptativa de ensino, conseguindo identificar as necessidades de seus alunos, fornecendo um melhor entendimento e aumentando o rendimento em geral.

Conforme verificado, o ensino não pode e não deve ser generalizado em uma turma onde se existem várias formas de entendimento, rendimento e aprendizagem. Sob essa ótica, ganha uma particular relevância o ensino adaptativo e personalizado para cada tipo de aluno conforme as necessidades são identificadas. Seria um erro atribuir um ensino de forma massiva em uma turma de alunos. O autor deixa claro: "Entretanto, a dificuldade da educação reside no fato que as soluções que deram certo com um aluno precedente não precisam necessariamente dar o mesmo resultado com um novo aluno."(MARCHAND,1985).

Existe várias maneiras de definir e conceituar a dificuldade na aprendizagem. Fazendo uma breve pesquisa na literatura é possível perceber que não existe uma concordância entre os vários autores sobre o tema, deixando assim uma imprecisão conceitual. Os seguintes termos aparecem diversas vezes quando se refere à dificuldade de aprendizagem: dislexia, discalculia, disortografia, distúrbios de aprendizagem, problemas de aprendizagem, dificuldades no processo de alfabetização.

"As principais dificuldades de aprendizagem são associadas a algum comprometimento no funcionamento de certas áreas do cérebro. Porém, é arriscado falar somente em uma causa biológica.". O autor deixa claro que uma das maiores causas da dificuldade de aprendizagem está relacionado com o mal funcionamento fisiológico. Mas afinal de contas, estamos diante de uma dificuldade de aprendizagem ou de dificuldades de aprendizagem? Como foi possível perceber, há várias formas de se conceber a dificuldade de aprendizagem.

Ora em tese, conforme explicado acima, existem as dificuldades de aprendizagem associadas ao mal funcionamento de certas áreas do cérebro, sendo algumas delas, por exemplo, Dislexia: se trata de uma dificuldade de leitura, discalculia: dificuldade em matemática, disgrafia: dificuldade em escrever, principalmente erros de ortografia, dislalia: dificuldades na fala, dentre outros. É importante considerar que para diagnosticar qualquer que seja a dificuldade de aprendizagem é indispensável uma análise com um profissional da saúde. 

Nisto está a dificuldade: à medida que não se encontra nunca duas crianças rigorosamente idênticas, uma obra de educação não pode ser calcada sobre nenhuma outra. Ela é uma criação contínua e sempre original. Quantos pais e mães fracassam porque aplicam uma educação única, quando deveriam empreender tantos tipos de educação quantos fossem os seus filhos! (MARCHAND, 1985, p.107).

Conforme citado acima, o autor deixa claro que não existe nenhum aluno igual ao outro e logo dessa maneira, não há um motivo para a educação ser aplicada de uma forma massiva, generalizando todo e qualquer tipo de aprendizagem. Cabe ao professor aplicar tal método, e abolir o comportamento geral perante a uma classe inteira.

Por todas essas razões, fica evidente diante de todos esses dados, que existem várias formas de dificuldades de aprendizagem. Desde uma causa biológica a um desinteresse do aluno em aprender. Dessa forma, destaca-se ainda mais a importância de uma educação personalizada e específica para cada necessidade e tipo de aluno, buscando sempre instigar a vontade de aprender.

Aplicação do Big Data na Educação

Segundo Campos (2014) a utilização do Big Data na educação é o uso da tecnologia para identificar padrões e explorar dados com o objetivo de acompanhar e avaliar o desenvolvimento dos estudantes, fazendo com que provas ou exercícios se adaptem, conforme o mesmo vai se desenvolvendo na matéria. Como bem nos assegura Scaico (2014), o Utilização do Big Data na educação é reunir e analisar uma enorme quantidade de dados que são gerados nas escolas com relação ao ensino e aprendizagem. Coletar sequencias de raciocínio estratégico que foram utilizados por cada aluno para resolver um determinado problema, podendo identificar e analisar também o tempo que foi gasto para solução do mesmo.

Para (QMágico, 2015, p. 1) a aplicação do Big Data na educação facilita a aprendizagem dos alunos tornando possível uma metodologia de ensino personalizada e adaptada para cada perfil, auxiliando também os professores de forma que seus materiais fiquem online e organizados. Para esse autor:

As plataformas de aprendizagem personalizada permitem que os professores tenham todo seu material organizado, não precisam mais carregar pen drives, a tarefa de casa gera correção automática, a partir da interação do aluno com os materiais digitais é possível avaliar todo o comportamento dele na web, ou seja, se o aluno abriu um conteúdo, quantas vezes ele teve contato com o material, se respondeu as questões e qual a trajetória até respondê-las. Além disso, por meio dos dados, podemos refletir sobre a prática do professor, será que o conteúdo está bom? Será que ele dialoga com os alunos? Será que a ordem dos capítulos sugerida pelo professor está afetando o aprendizado dos alunos? Entre outros (QMágico, 2015, p. 1).

Como se pode verificar nessa citação, a aplicação do Big Data na educação é utilizado na aprendizagem e no gerenciamento da metodologia de ensino. Evidentemente essa aplicação é utilizada para melhorar a aprendizagem e o interesse do aluno em suas matérias, auxiliando também os professores na metodologia de ensino, tornando ela adaptativa, para cada necessidade e perfil de cada estudante.

Cada vez que um aluno realiza uma prova ou atividade online, acaba deixando rastros de dados, como por exemplo, quais as suas pesquisas, qual questão demorou mais para responder e dentre outras estatísticas. Essas informações são coletadas e analisadas, a fim de criar um ensino adaptativo, facilitando e melhorando o aprendizado de cada aluno. Cita-se, como exemplo, o uso de plataformas de ensino online da instituição, para coletar tais estatísticas.

As tecnologias digitais podem colaborar com os processos de ensino e aprendizagem, porém apenas o uso da tecnologia não é suficiente. O Ensino Híbrido, que combina o uso da tecnologia digital com as interações presenciais, visando a personalização do ensino e da aprendizagem é um modelo possível para facilitar a combinação, de forma sustentada, do ensino online com o ensino presencial.[...] Os resultados obtidos a partir de análises de planos de aula, vídeos e texto elaborado pelos professores indicam enriquecimento da prática pedagógica por meio do uso integrado das tecnologias digitais, motivação dos estudantes e possibilidades de personalização das ações de ensino e aprendizagem.Jorge(2016,p.1).

Nesse sentido, a aplicação do Big Data na educação permite o ensino adaptativo, de forma a melhorar o aprendizado individual, reconhecendo o que, onde, como e quando cada aluno aprende com mais facilidade, possui por finalidade também, responder algumas perguntas, que há algum tempo atrás não eram nem se quer consideradas, como por exemplo: O aluno tem maior afinidade com qual disciplina? Qual a sua maior facilidade? Em qual matéria ele possui mais dificuldade?

Segundo Domagala (2014) nas escolas do Colorado, nos EUA, os dados escolares são informações extremamente importantes e indispensáveis. O programa de educação guarda informações sobre seus 860 mil alunos de 2 mil escolas em 178 distritos, onde foi apresentado como um projeto significativo para a melhoria da educação, aproveitando todos esses dados e informações.

De acordo com Lorenzoni (2016) um exemplo do passo a passo de como o Big Data é aplicado na educação afim de responder as perguntas citadas anteriormente:

Inicialmente o aluno interage com uma plataforma de estudos online, com atividades como videoaulas, lendo matérias e realizando exercícios. De acordo com os resultados dos exercícios, o sistema identifica as dificuldades do aluno e as lacunas no aprendizado. A plataforma com base nesses resultados, realiza previsões quanto ao desempenho atual e o futuro do aluno. Sendo assim, são gerados relatórios que ficam disponíveis tanto para o aluno quanto para o professor, apresentando detalhes do resultado. O aluno por sua vez, recebe indicações de conteúdos para suas necessidades específicas, uma aprendizagem única e personalizada. O professor por sua vez, pode auxiliar também presencialmente e acompanhar de perto o desenvolvimento.

Infográfico Big Data na educaçãoInfográfico Big Data na educaçãoLorenzoni (2016, p. 1)

Logo, é importante compreender que além da personalização do ensino proporcionado pelo Big Data, ele também serve como apoio para os professores, auxiliando nas criações de perfis de cada estudante, podendo assim sugerir caminhos para a melhora e reorientando sua prática pedagógica para atender as necessidades de cada aluno.

Conclusão

O desenvolvimento do presente estudo possibilitou adquirir e levar o conhecimento de como o Big Data e suas ferramentas são importantes quando aplicadas na educação para auxiliar na metodologia de ensino.

De um modo geral, quando o Big Data é aplicado na educação, se torna possível a personalização, ou seja, uma aprendizagem única, adaptada às necessidades de cada aluno em específico, sendo assim, logo existe a diferenciação, um conjunto de matérias adaptadas, com base nas necessidades de aprendizagem.

Dada a importância do tema, torna-se necessário o desenvolvimento de projetos que visem à aplicação do Big Data na educação, para que possa se desencadear o ensino adaptativo, para uma melhor e maior qualidade na educação e assim atender as diferentes necessidades dos alunos.

Nesse sentido, a utilização deste recurso na educação permite aos professores mediarem o processo aprendizagem/ensino de uma forma mais enriquecedora, motivando o aluno a ter mais vontade de aprender e contribuir para que a aprendizagem seja realmente significativa.

Trabalhos mais lidos