Nexvec

Nexvec™

Uma solução de infraestrutura aberta pronta para uso para IA empresarial

Lar

Lar

Rede aberta

Chips gerais: rápidos, baratos, inteligentes, padrão.

Computação componível

Edgecore + Liqid: computação dinâmica, verde e eficiente.

Gestão do ciclo de vida

Controlador Edgecore: controle de rede de IA inteligente e escalável.

Interconectividade

rede confiável, otimizada e sem complicações.

Computação componível

Em parceria com a Liqid, a solução de infraestrutura componível da Edgecore utiliza componentes de data center padrão do setor para criar uma arquitetura flexível e escalável, construída a partir de pools de recursos desagregados.

Alocação dinâmica de recursos, sob demanda

Computação, rede, armazenamento, GPU, FPGA e memória Intel® Optane™ são interconectados por meio de malhas inteligentes, permitindo servidores bare-metal configuráveis dinamicamente. Cada servidor é precisamente personalizado, considerando apenas os recursos físicos exigidos pela aplicação — nada mais, nada menos.

Melhore a eficiência e reduza o desperdício

Ao desagregar e realocar o hardware conforme necessário, você pode utilização dupla ou até tripla de recursos, reduzindo significativamente o consumo de energia e diminuindo sua pegada de carbono — especialmente valioso para implantações centradas em IA.

Desenvolvido pela tecnologia Liqid Matrix

A infraestrutura componível do Edgecore, impulsionada por Matriz Líquida, permite que a infraestrutura se adapte em tempo real às demandas da carga de trabalho. A utilização total torna-se possível, ao mesmo tempo em que melhora a escalabilidade e a capacidade de resposta.

Automação para cargas de trabalho de última geração

Os processos de infraestrutura podem ser totalmente automatizados, liberando novas eficiências para atender às demandas de dados de aplicativos de última geração.IA, IoT, DevOps, Nuvem, Computação de Ponta, e suporte para NVMe sobre tecido (NVMe-oF) e GPU sobre tecido (GPU-oF) tecnologias.

Maior desempenho de IA

Máxima Flexibilidade

Menor consumo de energia

Mais potência de GPU. Menos servidores. Melhores resultados de IA.

Aumente a escala para até 30 GPUs por servidor para atender às suas demandas de carga de trabalho de IA, reduzindo o consumo de energia e aumentando a utilização de IA.

Reduza os custos de IA com utilização mais inteligente da GPU

Obtenha até 100% de utilização de GPU para máximo de tokens por watt e dólar

Aproveite GPUs de vários fornecedores

Sua IA, sua escolha. Aproveite o poder da diversidade do silício para flexibilidade e agilidade incomparáveis.

O caminho para um tecido autônomo começa aqui

Crie sua própria nuvem privada de inferência de IA com o software LIQID Matrix®, Kubernetes e automação Nvidia NIM.

Acelere a IA com provisionamento de GPU sob demanda

Escolha sua própria aventura de infraestrutura. Aproveite nossa interface de usuário intuitiva, CLI e APIs Northbound para Kubernetes, VMware e SLURM.

Recurso relacionado

Catálogo de Produtos 2025