top of page
NOSSAS SOLUÇÕES
image-removebg-preview (3).png
Spot-NetApp_Logo_Color_14oct20_RGB.png

Spark Serverless para Kubernetes - execute o Spark sem precisar gerenciar seus servidores.

Infraestrutura de nuvem confiável, automatizada e continuamente otimizada para cargas de trabalho de big data.

RealCloud_gradientes-08.png

AUTOMATIZE O PROVICIONAMENTO, GERENCIAMENTO E DIMENSIONAMENTO DE INFRAESTRUTURA PARA AMBIENTES DE NUVEM DE BIG DATA

wave kub.png

SOBRE O OCEAN PARA APACHE SPARK 

O Ocean para Apache Spark simplifica e automatiza a infraestrutura em nuvem utilizada no Spark, tendo o Kubernetes como programador. Da instalação e configuração ao provisionamento, gerenciamento e desmontagem de recursos, o Wave usa o mecanismo baseado em IA da Spot by Netapp para otimizar continuamente os clusters Spark, escolhendo a melhor infraestrutura para um aplicativo em tempo real, considerando sempre seus requisitos de infraestrutura. Tendo como base o Spot Ocean, o Wave possibilita a execução confiável de aplicativos Spark com instâncias spot, reservadas ou sob demanda, proporcionando economia de até 90% dos custos.

BIG DATA NATIVO DA NUVEM COM O OCEAN PARA APACHE SPARK

Gestão unificada

 

Implante várias cargas de trabalho no mesmo cluster Spark.

Isole cargas de trabalho em Spark

 

Reduza dificuldades de gerenciamento ao mover cargas de trabalho para ambientes diferentes.

Utilização eficiente da infraestrutura

Maximize a utilização do nó e a consequente eficiência do cluster.

O QUE O WAVE PODE FAZER POR VOCÊ?

1

ECONOMIZE ATÉ 90% EM CUSTOS DE INFRAESTRUTURA

Execute aplicativos de forma confiável em uma combinação ideal de instâncias spot, on-demand e reservadas para minimizar as marcas do cluster e reduzir os custos de nuvem.

2

OTIMIZE CONTINUAMENTE AS APLICAÇÕES SPARK

Monitore cargas de trabalho em Spark e otimize seus parâmetros de execução para utilizar os recursos de maneira mais eficiente e operar com alto desempenho.

3

USE O OCEAN PARA APACHE SPARK DE ONDE VOCÊ ESTIVER

Integrações pré-programadas com JupyterHub, Airflow, Spark History Server e spark-submit. Configure notebooks Jupyter ou Zeppelin localmente enquanto executa aplicativos Spark no Kubernetes remotamente. Com o suporte para uso integrado, não há necessidade de aprender e implementar novos fluxos de trabalho.

4

RIGHT-SIZING DE APLICAÇÕES SPARK

Compare as configurações de computação e memória com o uso real dos aplicativos para identificar o tamanho certo e reduzir o  superprovisionamento, evitando o controle de fluxo da CPU e condições de falta de memória.

CURIOSO PARA SABER COMO O OCEAN PARA APACHE SPARK PODE TE AJUDAR A OTIMIZAR OS CUSTOS DE NUVEM?

bottom of page