Projeto FSI – Futuro dos Sistemas de Informações
1) Introdução
O advento da popularização da Internet
provocou uma mudança de comportamento nas pessoas, através das chamadas redes sociais.
A sociedade atual é essencialmente
comercial, ou seja, todos querem vender ou comprar, isto ou aquilo, na forma de
produtos ou serviços.
Já se foi o tempo em que a qualidade,
seja de produtos ou serviços apresentavam qualidades muito diferentes. Atualmente,
os produtos em geral apresentam qualidades similares, para um consumo normal demandado
por pessoas normais.
Para quem fabrica um produto ou elabora
um serviço, é preciso vender e a questão básica é como convencer as pessoas a
comprarem, se todos são muito parecidos.
Exemplificando: um carro médio na faixa
dos 70 mil reais: São várias opções no mercado e todos apresentam qualidades
similares. Como convencer os compradores a comprar A em detrimento do B?
As respostas a esta e muitas outras
perguntas estão encapsuladas em um universo extenso de dados que se acumula nas
redes sociais e que é denominado de Big Data. Os comportamentos dos compradores
estão embutidos neste conjunto de dados, postados nas redes de diversas formas,
seja em texto, imagens, áudio ou vídeo.
Os dados do Big Data não constituem dados
estruturados que possibilitem o uso de bancos de dados relacionais, pois, se
assem fosse, a técnica do BI – Business Intelligence daria conta do recado.
A quantidade de dados é muito grande e
diversificada, além de crescer de maneira absurda. Por outro lado, não há
garantias da veracidade dos dados postados. Estas características constituem os
4v’s do Big Data: volume, velocidade, variedade e veracidade. Se junta a este
conjunto, mais um v, v de valor, representado pelos insights que podem ser
extraídos, segundo aspectos de interesse.
Big data foi inicialmente citada pela
IBM, tendo fundado inclusive uma Universidade para formação de Cientistas de
Dados. São profissionais com amplo conhecimento em Programação, Estatística e
Lógica.
O FSI – Futuro do Sistema de Informações
é uma teorização de como deve ficar no futuro, a busca pelas informações
objetivando a tomada de decisões. Não se sabe ainda se ocorrerá a convivência
com o BI, ou até mesmo, uma utilização em conjunto subsidiando a tomada de
decisões.
O que é fato concreto é que os insights
residem nas redes sociais. É destas informações que será possível descobrir
como é ou como será no futuro o comportamento das pessoas (compradoras).
2) O fenômeno do Big Data
Dados são produzidos pelas pessoas e
empresas em volumes cada vez maiores, sendo armazenados principalmente nas
redes sociais. A celeridade do aumento destes dados ocorre em grande escala e
de forma exponencial. De acordo com dados apresentados pela IBM no “Smarter
Commerce Event” em Maio de 2013, em Nashville,
Tennessee, 90% dos dados foram gerados
nos últimos 2 anos, sendo 80% destes dados, não estruturados. Cita também a
quantidade de 1 trilhão de equipamentos conectados, gerando 2,5 quintilhões de
dados por dia.
Frost & Sullivan, empresa fundada em
1961, possui mais de 40 escritórios espalhados pelos continentes, contando com
mais de 1800 consultores da indústria, analistas de pesquisa de mercado,
analistas de tecnologia e de economia. De acordo com estudos feitos por
(Frost&Sullivan, 2014), o Big Data entrou na era dos Zettabytes, prevendo
um crescimento desde 1.2 Zettabytes em 2012 para 100.2 Zettabytes em 2020. O estudo
prevê também, o uso de reconhecimento da retina, face, voz, tato e gestos nos
equipamentos individuais, sugerindo diversas tecnologias.
Abstraindo-se sobre a questão acerca de
onde estão estes dados, pode-se considerar que estão armazenados “nas nuvens”. Esta prática está cada dia
mais freqüente, onde importa apenas ter a informação quando desejado, não
havendo nenhuma necessidade de se preocupar onde e quem armazena ou mantém os
dados. Obviamente existe a questão da privacidade e neste sentido, as
organizações têm a possibilidade de criar sua nuvem privada, com todos os
recursos de segurança.
Há pouco tempo atrás, a quantidade de
dados era irrisória se comparada com o cenário atual. Com o crescimento da
conectividade, através da Internet, a difusão de dados ganhou a velocidade da
luz, tornando-se disponível de imediato, em tempo real face aos acontecimentos,
avançando mundo afora. No contexto atual, o fluxo de dados e informações ganha
extrema agilidade e consequentemente o seu tratamento exige a mesma celeridade.
A competitividade entre as organizações
tem crescido na mesma direção dos dados, embora com menor ímpeto, e para fazer
frente a tal disputa, a informação se transformou em um elemento de grande
importância estratégica. Pode-se afirmar que a informação se tornou um dos
ativos mais valiosos tanto para pessoas como para as empresas. Possuir uma
informação estratégica pode levar a vantagens competitivas e de grande
significância para as organizações.
A era dos zettabytes caracteriza, portanto,
o conceito de Big Data que tem sido objeto de estudos e pesquisas por muitas
empresas que acreditam no potencial dos insights imersos nos dados não
estruturados. Pelo fato de tais dados não serem estruturados, tornam inviáveis
o tratamento e armazenamento em bancos de dados relacionais. Estes, em geral se
baseiam em quatro propriedades denominadas de ACID – atomicidade, consistência,
isolamento e durabilidade, constituindo restrições rígidas que não se adequam
ao Big Data. Por este motivo é que foi criada outra estratégia de armazenamento
intitulada de NoSQL – Not only SQL em contraponto ao SQL tradicional.
NoSQL são soluções de armazenamento que
não se limitam ao ACID permitindo guardar dados de diferentes maneiras, sendo
mais flexível e possuem a propriedade BASE – Basically, Available, Soft state,
Eventually consistency. Alguns exemplos de banco de dados NoSQL são: Redis, Apache
Cassandra, MongoDB, CouchDB relax, Apache HBase, dentre outros.
A grande dificuldade do Big Data consiste
no tratamento da enorme massa de dados. Métodos, software e técnicas de análise
específicas da Estatística são necessários, além de um significativo poder de
processamento.
Em linhas gerais, pode-se definir o
conceito de Big Data como conjuntos de dados amplos e que necessitam de técnicas
e ferramentas especiais, preparadas para tratar grandes volumes de dados, produzindo
resultados em tempo hábil para que possa ser aproveitado para a tomada de
decisões.
3) Estratégia do Big Data
Big Data tem como estratégia dois tipos
de análise sobre a massa de dados: a analítica descritiva e a analítica
preditiva.
A análise preditiva emprega inteligência
analítica e ajuda a descobrir certos padrões, muitas vezes ocultos e que podem fornecer
uma idéia do que está por vir. Os padrões identificados podem se referir a
itens gerais, regras de negócio ou algum item de interesse específico para a
Organização. A posse destes padrões pode proporcionar uma qualidade maior na
tomada de decisões. Diferentemente de outras tecnologias como BI - Business Intelligence,
a análise preditiva se preocupa com o futuro e não se interessa pelo passado da
empresa. A análise preditiva vale-se do poder computacional para aplicar um
conjunto de técnicas de estatística e matemática para extrair insights de
grande importância para a tomada de decisões.
A analítica descritiva tem como
finalidade apenas descrever sobre os fatos ocorridos através dos dados
armazenados. Nesse tipo de pesquisa não há interferência do pesquisador.
Deve-se apenas identificar parâmetros estatísticos e descrever como o fenômeno
acontece ou como é a sua estrutura e funcionamento.
Basicamente se efetua uma pesquisa na
massa de dados para descobrir quem, quando e onde algo se observa na massa de
dados. As variáveis podem se referir a pessoas, ao tempo ou outro parâmetro de
interesse.
4) Ferramentas do Big Data
Uma das ferramentas em uso para o
processamento do Big Data é o Hadoop. Constitui-se de um sistema distribuído de
código aberto, cuja marca é registrada para a Apache Software Foundation,
contando com a colaboração de diversas empresas como Google, Yahoo, Facebook e
a IBM. Possibilita o armazenamento e processamento distribuído de grandes
massas de dados estruturados ou não, utilizando clusters.
O projeto Hadoop teve se início em 2003 quando
a Google implementou uma estratégia de programação distribuída utilizando
hardware de baixo custo, para agilizar o processo de busca das informações, ao
qual atribuiu o nome de MapReduce. Meses depois, um novo recurso denominado de
Google File System foi disponibilizado para possibilitar o processamento
distribuído de dados pela rede, apresentando um conjunto de funcionalidades
básicas para determinar onde e como armazenar os dados, além de especificar o
procedimento de acesso, alteração e deleção das informações.
Em 2004, Mike Cafarella e Doug Cutting
criaram o projeto denominado de Nutch, onde foi desenvolvido um excelente motor
de busca, mas que apresentava uma dificuldade de escalonamento. Na mesma época,
Google tendo disponibilizado o GFS e o MapReduce para a comunidade open source,
permitiu a Mike e sua equipe a criação do NDFS – Nutch Distributed File System,
uma combinação de Nutch com os recursos da Google, resolvendo o problema do
escalonamento. Em 2006 a equipe Nutch disponibilizou então o projeto Haddop
para a comunidade de código aberto, tendo sido adotado pela Yahoo.
Hadoop possui diversos componentes para
integração de governança, acesso aos dados, segurança e operações. Para cada um
deste componente, a Apache oferece uma gama extensa de recursos para o Big
Data.
O acesso aos dados é feito através do
HDFS – Haddop Distributed File System que se constitui na tecnologia central da
camada de armazenamento, projetado para operar com hardware de baixo custo.
HDFS é um sistema de arquivos baseado em Java que proporciona escalabilidade com
grande confiabilidade.
Por outro lado a IBM incorporou três
novos módulos no IBM BigInsights: o BigInsights Analyst para processamento SQL
e a planilha intuitiva que permitem explorar e visualizar grandes massa de
dados, de maneira rápida e facilitada; o BigInsights Data Scientist, que apresenta
um novo recurso de aprendizado de máquina, juntamente com algoritmos
específicos, tais como o PageRank e Clustering para auxiliar a resolver
problemas complexos; e o BigInsights Enterprise Management, que agrega novas
ferramentas de gestão para a alocação de recursos e otimização de fluxos de
trabalho.
A IBM também apresentou a IBM Open
Platform para o Apache Hadoop, uma plataforma de código aberto para fornecer dados,
controle de acesso e autenticação.
O objetivo de criar soluções baseadas em
Hadoop é proporcionar uma plataforma coesa de análise ampla com uma visão acerca
dos dados.
Segundo Beth Smith, diretora geral de
plataformas analíticas da IBM:
"Num mundo em rápida transformação, a capacidade de transformar
dados em percepções pode ser a diferença entre o sucesso e o fracasso. Com os
novos módulos, nossa capacidade de atender às necessidades dos cientistas de
dados e melhorar o acesso para uma comunidade mais ampla de analistas, é o
valor que nossos clientes esperam de um sistema de big data."
Uma das vantagens do Haddop é o preço
acessível, o que leva muitas empresas a adotarem para processamento do Big
Data. Além disso, Hadoop é escalável e confiável e permite o processamento
distribuído de grande massa de dados.
Empresas como Yahoo, Facebook, Linkdin,
e-Bay dentre outras já utilizam esta ferramenta para extrair percepções
(insights) através do processamento e análise.
5) Visão de futuro
O futuro dos sistemas de informações aponta para o
Big Data e suas vertentes. Apesar de muitas empresas tomarem a iniciativa de
trabalhar neste assunto, esta estratégia ainda se mostra incipiente e fomenta
por novos estudos e pesquisas. Dentre as possíveis investidas pode-se citar:
a) Estudos sobre os dados e seu crescimento – Tem como
objetivo imaginar os limites deste crescimento. Possivelmente o volume destes
dados deve aproximar-se de uma assíntota no futuro, talvez pela eliminação de
dados não acessados, quando a deleção se tornar maior ou igual à geração de
dados;
b) Pesquisas sobre as ferramentas de extração de
percepções (insights) do Big Data – Há um crescente surgimento de sistemas de
software para processamento do Big Data;
c) Análise das ferramentas matemáticas de estatísticas
– compreende a prospecção de quais recursos dão suporte para a análise das
percepções;
d) Estudos sobre a fusão da análise preditiva do Big
Data com o sistema tradicional de análise descritiva BI – Business
Intelligence, estruturando um sistema de informações híbrido para tomada de
decisões;
e) Desenho de uma arquitetura futura de um sistema de
informações.
6)
Conclusão
Não há dúvida que o Big Data veio para ficar. A
questão é o que fazer com o crescente volume de dados que encapsulam
informações de alto valor para as Organizações.
Como se sabe, todos os executivos estão tomando
decisões importantes a cada minuto e as conseqüências de seus atos dependem do
suprimento de informações. Quanto melhor a qualidade da informação melhor serão
os resultados colhidos. Já não basta analisar dados passados para tomar
decisões. É preciso analisar o comportamento dos potenciais compradores e
inferir como trabalhar os cenários futuros que levem ao sucesso.
Os computadores têm seu poder computacional crescentes,
como acontece com os dados nas redes sociais. Embora apresentem crescimentos em
menor escala, os computadores podem ser escaláveis criando-se clusters de qualquer
tamanho o que multiplica o poder de processamento e permite o processamento
distribuído.
Desta forma, não parece uma questão preocupante o
processamento em tempo hábil. A questão importante volta-se para a análise dos
resultados do processamento o que requer conhecimentos que talvez ainda não
estejam devidamente esclarecidos, ensejando por mais pesquisas sobre o
comportamento humano.
Resumindo, a sociedade atual é essencialmente
comercial onde se vende produtos ou serviços. É fundamental entender aqueles
que compram e para isso é preciso descobrir seus anseios e vontades além de
seus comportamentos. Não basta apresentar qualidade, pois este pormenor já se
tornou um requisito conquistado pelos Clientes. É preciso adotar outra
estratégia que não seja a argumentação da qualidade do produto ou serviço.
Bibliografia
(eMarket, 2015)
http://www.emarketer.com/
(Ericson, 2014) http://www.ericsson.com/res/docs/2015/ericsson-mobility-report-june-2015.pdf
(Global Media, 2014) https://www.emarketer.com/public_media/docs/GMI-2014-ExecutiveSummary.pdf
(Frost&Sullivan, 2014)
http://www.investinbsr.com/ipaforum/wp-content/uploads/Iain-Jawad-IPA-Forum-2014-Presentation.pdf
Nenhum comentário:
Postar um comentário