Projeto FSI – Futuro dos Sistemas de Informações
1)   Introdução
O advento da popularização da Internet provocou uma mudança de comportamento nas pessoas, através das chamadas redes sociais.
A sociedade atual é essencialmente comercial, ou seja, todos querem vender ou comprar, isto ou aquilo, na forma de produtos ou serviços.
Já se foi o tempo em que a qualidade, seja de produtos ou serviços apresentavam qualidades muito diferentes. Atualmente, os produtos em geral apresentam qualidades similares, para um consumo normal demandado por pessoas normais.
Para quem fabrica um produto ou elabora um serviço, é preciso vender e a questão básica é como convencer as pessoas a comprarem, se todos são muito parecidos.
Exemplificando: um carro médio na faixa dos 70 mil reais: São várias opções no mercado e todos apresentam qualidades similares. Como convencer os compradores a comprar A em detrimento do B?
As respostas a esta e muitas outras perguntas estão encapsuladas em um universo extenso de dados que se acumula nas redes sociais e que é denominado de Big Data. Os comportamentos dos compradores estão embutidos neste conjunto de dados, postados nas redes de diversas formas, seja em texto, imagens, áudio ou vídeo.
Os dados do Big Data não constituem dados estruturados que possibilitem o uso de bancos de dados relacionais, pois, se assem fosse, a técnica do BI – Business Intelligence daria conta do recado.
A quantidade de dados é muito grande e diversificada, além de crescer de maneira absurda. Por outro lado, não há garantias da veracidade dos dados postados. Estas características constituem os 4v’s do Big Data: volume, velocidade, variedade e veracidade. Se junta a este conjunto, mais um v, v de valor, representado pelos insights que podem ser extraídos, segundo aspectos de interesse.
Big data foi inicialmente citada pela IBM, tendo fundado inclusive uma Universidade para formação de Cientistas de Dados. São profissionais com amplo conhecimento em Programação, Estatística e Lógica.
O FSI – Futuro do Sistema de Informações é uma teorização de como deve ficar no futuro, a busca pelas informações objetivando a tomada de decisões. Não se sabe ainda se ocorrerá a convivência com o BI, ou até mesmo, uma utilização em conjunto subsidiando a tomada de decisões.
O que é fato concreto é que os insights residem nas redes sociais. É destas informações que será possível descobrir como é ou como será no futuro o comportamento das pessoas (compradoras).
2)   O fenômeno do Big Data
Dados são produzidos pelas pessoas e empresas em volumes cada vez maiores, sendo armazenados principalmente nas redes sociais. A celeridade do aumento destes dados ocorre em grande escala e de forma exponencial. De acordo com dados apresentados pela IBM no “Smarter Commerce Event” em Maio de 2013, em Nashville, Tennessee, 90% dos dados foram gerados nos últimos 2 anos, sendo 80% destes dados, não estruturados. Cita também a quantidade de 1 trilhão de equipamentos conectados, gerando 2,5 quintilhões de dados por dia.
Frost & Sullivan, empresa fundada em 1961, possui mais de 40 escritórios espalhados pelos continentes, contando com mais de 1800 consultores da indústria, analistas de pesquisa de mercado, analistas de tecnologia e de economia. De acordo com estudos feitos por (Frost&Sullivan, 2014), o Big Data entrou na era dos Zettabytes, prevendo um crescimento desde 1.2 Zettabytes em 2012 para 100.2 Zettabytes em 2020. O estudo prevê também, o uso de reconhecimento da retina, face, voz, tato e gestos nos equipamentos individuais, sugerindo diversas tecnologias.
Abstraindo-se sobre a questão acerca de onde estão estes dados, pode-se considerar que estão armazenados “nas nuvens”. Esta prática está cada dia mais freqüente, onde importa apenas ter a informação quando desejado, não havendo nenhuma necessidade de se preocupar onde e quem armazena ou mantém os dados. Obviamente existe a questão da privacidade e neste sentido, as organizações têm a possibilidade de criar sua nuvem privada, com todos os recursos de segurança.
Há pouco tempo atrás, a quantidade de dados era irrisória se comparada com o cenário atual. Com o crescimento da conectividade, através da Internet, a difusão de dados ganhou a velocidade da luz, tornando-se disponível de imediato, em tempo real face aos acontecimentos, avançando mundo afora. No contexto atual, o fluxo de dados e informações ganha extrema agilidade e consequentemente o seu tratamento exige a mesma celeridade.
A competitividade entre as organizações tem crescido na mesma direção dos dados, embora com menor ímpeto, e para fazer frente a tal disputa, a informação se transformou em um elemento de grande importância estratégica. Pode-se afirmar que a informação se tornou um dos ativos mais valiosos tanto para pessoas como para as empresas. Possuir uma informação estratégica pode levar a vantagens competitivas e de grande significância para as organizações.
A era dos zettabytes caracteriza, portanto, o conceito de Big Data que tem sido objeto de estudos e pesquisas por muitas empresas que acreditam no potencial dos insights imersos nos dados não estruturados. Pelo fato de tais dados não serem estruturados, tornam inviáveis o tratamento e armazenamento em bancos de dados relacionais. Estes, em geral se baseiam em quatro propriedades denominadas de ACID – atomicidade, consistência, isolamento e durabilidade, constituindo restrições rígidas que não se adequam ao Big Data. Por este motivo é que foi criada outra estratégia de armazenamento intitulada de NoSQL – Not only SQL em contraponto ao SQL tradicional.
NoSQL são soluções de armazenamento que não se limitam ao ACID permitindo guardar dados de diferentes maneiras, sendo mais flexível e possuem a propriedade BASE – Basically, Available, Soft state, Eventually consistency. Alguns exemplos de banco de dados NoSQL são: Redis, Apache Cassandra, MongoDB, CouchDB relax, Apache HBase, dentre outros.
A grande dificuldade do Big Data consiste no tratamento da enorme massa de dados. Métodos, software e técnicas de análise específicas da Estatística são necessários, além de um significativo poder de processamento.
Em linhas gerais, pode-se definir o conceito de Big Data como conjuntos de dados amplos e que necessitam de técnicas e ferramentas especiais, preparadas para tratar grandes volumes de dados, produzindo resultados em tempo hábil para que possa ser aproveitado para a tomada de decisões.
3)   Estratégia do Big Data
Big Data tem como estratégia dois tipos de análise sobre a massa de dados: a analítica descritiva e a analítica preditiva.
A análise preditiva emprega inteligência analítica e ajuda a descobrir certos padrões, muitas vezes ocultos e que podem fornecer uma idéia do que está por vir. Os padrões identificados podem se referir a itens gerais, regras de negócio ou algum item de interesse específico para a Organização. A posse destes padrões pode proporcionar uma qualidade maior na tomada de decisões. Diferentemente de outras tecnologias como BI - Business Intelligence, a análise preditiva se preocupa com o futuro e não se interessa pelo passado da empresa. A análise preditiva vale-se do poder computacional para aplicar um conjunto de técnicas de estatística e matemática para extrair insights de grande importância para a tomada de decisões.
A analítica descritiva tem como finalidade apenas descrever sobre os fatos ocorridos através dos dados armazenados. Nesse tipo de pesquisa não há interferência do pesquisador. Deve-se apenas identificar parâmetros estatísticos e descrever como o fenômeno acontece ou como é a sua estrutura e funcionamento.
Basicamente se efetua uma pesquisa na massa de dados para descobrir quem, quando e onde algo se observa na massa de dados. As variáveis podem se referir a pessoas, ao tempo ou outro parâmetro de interesse.
4)   Ferramentas do Big Data
Uma das ferramentas em uso para o processamento do Big Data é o Hadoop. Constitui-se de um sistema distribuído de código aberto, cuja marca é registrada para a Apache Software Foundation, contando com a colaboração de diversas empresas como Google, Yahoo, Facebook e a IBM. Possibilita o armazenamento e processamento distribuído de grandes massas de dados estruturados ou não, utilizando clusters.
O projeto Hadoop teve se início em 2003 quando a Google implementou uma estratégia de programação distribuída utilizando hardware de baixo custo, para agilizar o processo de busca das informações, ao qual atribuiu o nome de MapReduce. Meses depois, um novo recurso denominado de Google File System foi disponibilizado para possibilitar o processamento distribuído de dados pela rede, apresentando um conjunto de funcionalidades básicas para determinar onde e como armazenar os dados, além de especificar o procedimento de acesso, alteração e deleção das informações.
Em 2004, Mike Cafarella e Doug Cutting criaram o projeto denominado de Nutch, onde foi desenvolvido um excelente motor de busca, mas que apresentava uma dificuldade de escalonamento. Na mesma época, Google tendo disponibilizado o GFS e o MapReduce para a comunidade open source, permitiu a Mike e sua equipe a criação do NDFS – Nutch Distributed File System, uma combinação de Nutch com os recursos da Google, resolvendo o problema do escalonamento. Em 2006 a equipe Nutch disponibilizou então o projeto Haddop para a comunidade de código aberto, tendo sido adotado pela Yahoo.
Hadoop possui diversos componentes para integração de governança, acesso aos dados, segurança e operações. Para cada um deste componente, a Apache oferece uma gama extensa de recursos para o Big Data.
O acesso aos dados é feito através do HDFS – Haddop Distributed File System que se constitui na tecnologia central da camada de armazenamento, projetado para operar com hardware de baixo custo. HDFS é um sistema de arquivos baseado em Java que proporciona escalabilidade com grande confiabilidade.
Por outro lado a IBM incorporou três novos módulos no IBM BigInsights: o BigInsights Analyst para processamento SQL e a planilha intuitiva que permitem explorar e visualizar grandes massa de dados, de maneira rápida e facilitada; o BigInsights Data Scientist, que apresenta um novo recurso de aprendizado de máquina, juntamente com algoritmos específicos, tais como o PageRank e Clustering para auxiliar a resolver problemas complexos; e o BigInsights Enterprise Management, que agrega novas ferramentas de gestão para a alocação de recursos e otimização de fluxos de trabalho.
A IBM também apresentou a IBM Open Platform para o Apache Hadoop, uma plataforma de código aberto para fornecer dados, controle de acesso e autenticação.
O objetivo de criar soluções baseadas em Hadoop é proporcionar uma plataforma coesa de análise ampla com uma visão acerca dos dados.
Segundo Beth Smith, diretora geral de plataformas analíticas da IBM:
"Num mundo em rápida transformação, a capacidade de transformar dados em percepções pode ser a diferença entre o sucesso e o fracasso. Com os novos módulos, nossa capacidade de atender às necessidades dos cientistas de dados e melhorar o acesso para uma comunidade mais ampla de analistas, é o valor que nossos clientes esperam de um sistema de big data."
Uma das vantagens do Haddop é o preço acessível, o que leva muitas empresas a adotarem para processamento do Big Data. Além disso, Hadoop é escalável e confiável e permite o processamento distribuído de grande massa de dados.
Empresas como Yahoo, Facebook, Linkdin, e-Bay dentre outras já utilizam esta ferramenta para extrair percepções (insights) através do processamento e análise.
5)   Visão de futuro
O futuro dos sistemas de informações aponta para o Big Data e suas vertentes. Apesar de muitas empresas tomarem a iniciativa de trabalhar neste assunto, esta estratégia ainda se mostra incipiente e fomenta por novos estudos e pesquisas. Dentre as possíveis investidas pode-se citar:
a)   Estudos sobre os dados e seu crescimento – Tem como objetivo imaginar os limites deste crescimento. Possivelmente o volume destes dados deve aproximar-se de uma assíntota no futuro, talvez pela eliminação de dados não acessados, quando a deleção se tornar maior ou igual à geração de dados;
b)   Pesquisas sobre as ferramentas de extração de percepções (insights) do Big Data – Há um crescente surgimento de sistemas de software para processamento do Big Data;
c)   Análise das ferramentas matemáticas de estatísticas – compreende a prospecção de quais recursos dão suporte para a análise das percepções;
d)   Estudos sobre a fusão da análise preditiva do Big Data com o sistema tradicional de análise descritiva BI – Business Intelligence, estruturando um sistema de informações híbrido para tomada de decisões;
e)   Desenho de uma arquitetura futura de um sistema de informações.
6)   Conclusão
Não há dúvida que o Big Data veio para ficar. A questão é o que fazer com o crescente volume de dados que encapsulam informações de alto valor para as Organizações.
Como se sabe, todos os executivos estão tomando decisões importantes a cada minuto e as conseqüências de seus atos dependem do suprimento de informações. Quanto melhor a qualidade da informação melhor serão os resultados colhidos. Já não basta analisar dados passados para tomar decisões. É preciso analisar o comportamento dos potenciais compradores e inferir como trabalhar os cenários futuros que levem ao sucesso.
Os computadores têm seu poder computacional crescentes, como acontece com os dados nas redes sociais. Embora apresentem crescimentos em menor escala, os computadores podem ser escaláveis criando-se clusters de qualquer tamanho o que multiplica o poder de processamento e permite o processamento distribuído.
Desta forma, não parece uma questão preocupante o processamento em tempo hábil. A questão importante volta-se para a análise dos resultados do processamento o que requer conhecimentos que talvez ainda não estejam devidamente esclarecidos, ensejando por mais pesquisas sobre o comportamento humano.
Resumindo, a sociedade atual é essencialmente comercial onde se vende produtos ou serviços. É fundamental entender aqueles que compram e para isso é preciso descobrir seus anseios e vontades além de seus comportamentos. Não basta apresentar qualidade, pois este pormenor já se tornou um requisito conquistado pelos Clientes. É preciso adotar outra estratégia que não seja a argumentação da qualidade do produto ou serviço.
Bibliografia
(eMarket, 2015) http://www.emarketer.com/
(Ericson, 2014) http://www.ericsson.com/res/docs/2015/ericsson-mobility-report-june-2015.pdf
(Global Media, 2014) https://www.emarketer.com/public_media/docs/GMI-2014-ExecutiveSummary.pdf
(Frost&Sullivan, 2014)
http://www.investinbsr.com/ipaforum/wp-content/uploads/Iain-Jawad-IPA-Forum-2014-Presentation.pdf


Nenhum comentário:

Postar um comentário