ネクスベック™

ネクスベック™

A Turnkey Open Infrastructure Solution for Enterprise AI

オープンネットワーキング

General chips: fast, cheap, smart, standard.

コンポーザブルコンピューティング

Edgecore + Liqid: dynamic, green, efficient compute.

Lifecycle Management

Edgecore Controller: smart, scalable AI network control.

Interconnectivity

reliable, optimized, hassle-free networking.

コンポーザブルコンピューティング

In partnership with Liqid, Edgecore’s composable infrastructure solution utilizes industry-standard data center components to create a flexible, scalable architecture—built from pools of disaggregated resources.

Dynamic Resource Allocation, On Demand

Compute, networking, storage, GPU, FPGA, and Intel® Optane™ memory are interconnected via intelligent fabrics, enabling dynamically-configurable bare-metal servers. Each server is precisely tailored with only the physical resources required by the application—nothing more, nothing less.

Improve Efficiency, Reduce Waste

By disaggregating and reallocating hardware as needed, you can double or even triple resource utilization, significantly reducing power consumption and lowering your carbon footprint—especially valuable for AI-centric deployments.

Powered by Liqid Matrix Technology

Edgecore’s composable infrastructure, driven by Liqid Matrix, allows infrastructure to adapt in real time to workload demands. Full utilization becomes achievable, while improving scalability and responsiveness.

Automation for Next-Gen Workloads

Infrastructure processes can be fully automated, unlocking new efficiencies to meet the data demands of next-generation applications—AI, IoT, DevOps, Cloud, Edge Computing, and support for NVMe-over-Fabric (NVMe-oF) そして GPU-over-Fabric (GPU-oF) technologies.

Highest AI Performance

Maximum Flexibility

Lower Power Consumption

More GPU Horsepower. Fewer Servers. Greater AI Results.

サーバーあたり最大30個のGPUを拡張して、AIワークロードの需要を満たしながら、消費電力を抑え、AIの利用率を高めます。

よりスマートな GPU 活用で AI コストを削減

最大100%のGPU使用率を達成し、ワットとドルあたりのトークンを最大化

マルチベンダーGPUを活用する

あなたのAI、あなたの選択。シリコンの多様性の力を活用して比類のない柔軟性と俊敏性を実現

自動運転ファブリックへの道はここから始まる

LIQID Matrix® ソフトウェア、Kubernetes、Nvidia NIM 自動化を使用して、独自のプライベート AI 推論クラウドを構築します。

オンデマンド GPU プロビジョニングで AI を加速

独自のインフラストラクチャ アドベンチャーを選択してください。Kubernetes、VMware、SLURM 向けの直感的な UI、CLI、Northbound API を活用します。

関連リソース

2025年製品カタログ