As oportunidades perdidas mais comuns no mundo do Big Data

As mudanças na tecnologia são aceleradas, muitas vezes parece impossível de se acompanhar, as vezes estamos no meio de uma implementação que está a anos de distância da descoberta que está sendo feita em algum lugar do mundo. O mesmo vale para a enorme quantidade de dados que os humanos estão produzindo coletivamente. Até 2020, os analistas esperam que esses dados atinjam uma capacidade total de 44 zettabytes. Apenas para comparar, isto é 40 vezes mais bytes do que estrelas no universo observável.

As pessoas estão criando enormes quantidades de dados e informações, e esse crescimento está acelerando em volume e complexidade ao mesmo tempo. Ele deu origem ao “big data”, um local ou plataforma que envolve a coleta, análise e implantação de tal conteúdo digital.

Hoje é possível analisar dados quase instantaneamente, por exemplo a Amazon, que faz recomendações de produtos com base no histórico de navegação recente de um cliente. No setor de assistência médica, os sensores em roupas adaptados para IoT podem informar aos médicos e enfermeiras como o paciente em recuperação está, a cada minuto.

Embora muitas instâncias de tecnologias de big data ofereçam algumas oportunidades interessantes, há tantas outras que passam despercebidas. Parte disso é devido ao tamanho dessas coleções de dados. Quase não há como ingerir, analisar e fazer uso de tudo, certamente não de uma só vez. Mas outra razão é que as pessoas ainda estão aprendendo a usar essas tecnologias em geral.

Compartilho algumas das oportunidades perdidas mais comuns com tecnologias de big data devido a falta de conhecimento e potência do conceito e tecnologias envolvidas:

Quanto é muito?

De acordo com um relatório da Pure Storage, a informação inacessível está a custar às empresas europeias cerca de 20 milhões de libras por ano . Embora o estudo se concentre especificamente em empresas europeias, certamente se aplica em um nível mais geral.

Cerca de três quartos, ou 72%, dos entrevistados disseram coletar dados, mas nunca usá-los, enquanto quase metade disse que o processamento de dados leva muito tempo.

Por causa de quantos canais diferentes estão disponíveis para coletar e gerar dados, muitas empresas estão armazenando tudo isso, em vez de selecionar o que poderia ser útil e remover o restante. Mas o problema é que a informação continua a crescer a ponto de ser quase impossível identificar o que é relevante usar. Muitas vezes acaba esquecido ou esquecido porque há muitos dados totais disponíveis.

Há algumas oportunidades perdidas significativas quando se trata de usar informações prontamente disponíveis. Qualquer empresa que implemente uma solução de Big Data deve encontrar uma maneira de otimizar como avalia e retém esses ativos. Dados excessivos são difíceis de lidar.

Falta de profissionais na área

Não é segredo que as tecnologias e soluções de Big Data são exigentes quanto à operação, desenvolvimento e manutenção. Mas a demanda por profissionais de Big Data, TI e computação em nuvem continua aumentando, apesar da crescente escassez de talentos. Não há corpos suficientes no campo, particularmente aqueles interessados ​​em ciência de dados. Profissionais de outras especializações precisarão se envolver ou aprender novos conceitos, ou as operações irão avançar através de um grave déficit.

Uma pesquisa da EMC revelou que 65% das empresas preveem uma escassez de talentos nos próximos cinco anos, com falta de habilidades ou treinamento, o que representa a barreira de adoção mais comum.

É crucial para as empresas investir tempo treinando especialistas internos em dados ou criando oportunidades lucrativas para candidatos em outros lugares. Envolver-se na divulgação em escolas e incentivar os alunos a seguir uma carreira em ciência de dados é uma excelente solução.

A falta de uma boa governança de dados

Os dados devem ser processados, organizados e agrupados antes de serem armazenados. É ineficaz e totalmente irresponsável manter dados não estruturados, ainda mais quando ninguém sabe o que contém. Não se trata apenas de conhecer a fonte dos dados, mas também de entender o que realmente é.

Para começar, se esse armazenamento de dados ficar comprometido, não há como saber qual informação está faltando e o que os hackers podem fazer com ela. Não só isso é perigoso, mas também é deliberadamente negligente.

Quando se trata de operações, no entanto, os líderes da empresa devem entender quais dados eles armazenaram e onde podem acessá-los quando necessário. O ponto principal de armazenar dados em quantidades tão grandes é que ainda pode ser acionável, mesmo que ninguém reconheça como naquele momento. As equipes devem poder chamar os dados mais tarde quando surgir uma oportunidade. Mas isso não é possível se não houver registro de quais são os dados ou o que eles contêm.

Por sua vez, isso significa mergulhar mais profundamente nos conjuntos de dados antes de guardá-los. Por exemplo, dados de fornecedores aparentemente irrelevantes coletados por um longo período podem entrar automaticamente no armazenamento em nuvem. Sem mais compreensão, tem pouco ou nenhum valor. Parece apenas um monte de sujeira sobre comportamentos, operações e conexões de fornecedores.

Mas um mergulho mais profundo pode revelar insights que uma equipe pode usar para criar uma consolidação de fornecedor ou uma estratégia de consolidação de fornecedores. Como isso resultaria em benefícios, incluindo níveis mais altos de eficiência, entrega mais barata e maior responsabilidade, seria uma pena deixar que os dados relacionados não fossem utilizados.

As empresas nunca devem despejar dados de forma crua e não estruturada e deixá-los apodrecer. Há muito valor potencial desperdiçado lá.

Custos estão subindo

O custo de coletar e reter dados é relativamente baixo. No entanto, há um grande contraste entre isso e o preço da análise. O IDC Worldwide Semiannual Big Data e o Analytics Spending Guide estimam que os gastos em serviços, ferramentas e aplicativos de análise de big data ultrapassem US $ 187 bilhões até o final de 2019.

Custo sozinho não é o único problema, no entanto. Não importa quantas dessas stores de dados sejam tecnicamente utilizáveis, a maioria das empresas usará apenas uma pequena porcentagem. As empresas devem priorizar o que estão gastando, às vezes negligenciando dados que eventualmente poderiam ser valiosos.

Não há como combater essa tendência diretamente. Vai acontecer independentemente. Mas implementar melhores estratégias de planejamento e implantação é necessário para escolher os dados certos e tomar a melhor ação possível. Toda empresa deve estabelecer um processo claro para definir o valor de seus dados, bem antes de enviá-lo para algum lugar para apodrecer.

Velocidades é um problema

Graças às restrições de orçamento, mão de obra e acessibilidade, a velocidade da análise é muitas vezes incrivelmente lenta, às vezes levando dias ou até semanas para se concretizar. Este problema é uma preocupação genuína, já que tempos mais longos são uma desvantagem competitiva no cenário atual de rápido movimento – é por isso que as soluções em tempo real são tão instrumentais.

Muitas empresas geralmente se concentram na integridade de seus dados, mas esse não é o único aspecto valioso do processamento. Se a informação que chega leva semanas ou até meses para ser usada, não há quase nenhum ponto positivo em coletá-la em primeiro lugar, especialmente quando se trata de reagir aos clientes no mercado de varejo.

Para evitar esse problema, todos os líderes devem se concentrar em desenvolver e otimizar as velocidades de tempo para resultados ao lado de outros elementos. Veracidade, quantidade e qualidade são todas cruciais, mas a velocidade de processamento é maior. Cerca de 99% dos tomadores de decisão de empresas dizem que seus negócios se beneficiariam de um processamento de dados mais rápido, com a mesma quantidade concordando em agir de acordo com os dados o mais rápido possível é “crítico” para sua operação.

O tempo de inatividade aumenta oportunidades perdidas

Naturalmente, qualquer operação ou sistema dependente de uma rede aberta sofrerá mais problemas quando essas conexões estiverem indisponíveis. Se e quando os sistemas de coleta, análise e implantação de dados estiverem desativados, isso significa que todos estão off-line, incluindo os clientes. Se um varejista, como a Amazon, experimentasse falhas no sistema de análise no meio do dia, imagine o quanto os dados e insights dos clientes estariam perdendo, especialmente porque esses clientes ainda estão comprando e navegando pelo site.

É uma armadilha, porque manter equipamentos e tecnologias operacionais envolve o uso de dados para prever e evitar falhas. Enquanto isso, os dados são necessários para manter os novos dados entrando.

É crucial minimizar os tempos de inatividade, quer isso signifique escolher outro provedor de nuvem ou descartar um centro de dados hospedado internamente para um serviço de terceiros.

2 visualizações0 comentário

Posts recentes

Ver tudo