OTS

Heute ist der 21.05.2025

Datum: 21.05.2025 - Source 1 (https://www.ots.at/presseaussendung/OTS_20250520_OTS0001/von-rack-integration-bis-zu-ki-und-cloud-systemen-msi-stellt-auf-der-computex-2025-ein-umfassendes-server-portfolio-vor):
- MSI präsentiert auf der COMPUTEX 2025 (Stand #J0506) sein umfassendstes Serverangebot.
- Gezeigte Produkte: EIA-, OCP ORv3- und NVIDIA MGX-Racks, DC-MHS-basierte Core-Compute-Server, neue NVIDIA DGX Station.
- Fokus auf Rack-Ebene Integration, modulare Cloud-Infrastrukturen, KI-optimierte GPU-Systeme und Unternehmensserver-Plattformen.
- Ziel: Bereitstellung einsatzbereiter, auf Workload abgestimmter Infrastrukturen für Hyperscale-, Cloud- und Unternehmensumgebungen.
- Danny Hsu, Geschäftsführer von Enterprise Platform Solutions bei MSI, betont die modulare und offene Zukunft der Dateninfrastruktur.
- Vollständig konfiguriertes EIA 19 Zoll, OCP ORv3 21 Zoll und KI-Racks, die von NVIDIA MGX angetrieben werden.
- EIA-Rack: Hohe Rechendichte für private Cloud- und Virtualisierungsumgebungen, Standard-19-Zoll-Format.
- OCP ORv3-Rack: Offenes 21-Zoll-Gehäuse, höhere Rechen- und Speicherdichte, effiziente 48-V-Stromversorgung, ideal für Hyperscale-Rechenzentren.
- Enterprise AI Rack: Skalierbare GPU-Infrastruktur für KI und HPC, unterstützt Multi-Node-Einheiten.
- Erweiterung des Core-Compute-Angebots um sechs DC-MHS-Server mit AMD EPYC 9005 Series- und Intel Xeon 6-Prozessoren.
- Server in 2U4N- und 2U2N-Konfigurationen, optimiert für skalierbare Cloud-Implementierungen.
- Unterstützung für OCP DC-SCM, PCIe 5.0 und DDR5 DRAM.
- CD281-S4051-X2: 2OU 2-Node ORv3 Open-Compute-Server, optimiert für hyperskalierte Cloud-Infrastrukturen.
- CD270-S4051-X4: Flüssigkeitsgekühlter 2U 4-Node Server, bis zu 500W TDP, ideal für dichte Rechenleistung.
- CD270-S4051-X4 (Luftkühlung): Unterstützt bis zu 400W TDP, energieeffiziente Rechenleistung.
- CD270-S4051-X2: 2U 2-Node-Server, optimiert für Platzersparnis und Rechendichte.
- CD270-S3061-X4: 2U 4-Node Intel Xeon Server, ideal für containerisierte Dienste.
- CD270-S3061-X2: Kompaktes 2U-2-Node-System, leistungsstarke Rechen- und Speicherfunktionen.
- CD270-S3071-X2: 2U 2-Node Intel Xeon System, geeignet für I/O-lastige Workloads.
- KI-Plattformen: NVIDIA MGX-basierte Server und DGX Station.
- MGX-Reihe: 4U- und 2U-Formfaktoren, optimiert für KI-Training und -Inferenz.
- DGX Station: CT60-S8060, KI-Leistung von bis zu 20 PFLOPS, 784 GB Unified Memory, unterstützt Hochgeschwindigkeitsdatenübertragung.
- Zielgruppe: F&E-Teams, kann als eigenständige KI-Workstation oder zentrale Rechenressource eingesetzt werden.

Source 2 (https://www.prnewswire.co.uk/news-releases/from-rack-integration-to-ai-and-cloud-systems-msi-debuts-full-spectrum-server-portfolio-at-computex-2025-302456482.html):
- MSI präsentiert auf der COMPUTEX 2025 (Stand #J0506) eine umfassende Produktpalette für Hochleistungsserver.
- Die Produktlinie umfasst rack-level Integration, modulare Cloud-Infrastruktur, AI-optimierte GPU-Systeme und Unternehmensserver-Plattformen.
- Vorgestellte Systeme:
- Vollständig integrierte EIA, OCP ORv3 und NVIDIA MGX Racks.
- DC-MHS-basierte Core Compute Server.
- Neue NVIDIA DGX Station.
- Ziel: Bereitstellung von einsatzbereiter, arbeitslastoptimierter Infrastruktur für Hyperscale-, Cloud- und Unternehmensumgebungen.
- Rack-Integration:
- EIA Rack: Dichte Berechnung für private Cloud und Virtualisierung.
- OCP ORv3 Rack: 21" offenes Chassis, höhere Dichte, effiziente 48V-Stromversorgung.
- AI Rack mit NVIDIA MGX: Skalierbare GPU-Infrastruktur für AI und HPC.
- Core Compute Server:
- Sechs DC-MHS Server mit AMD EPYC 9005 und Intel Xeon 6 Prozessoren in 2U4N und 2U2N Konfigurationen.
- Hohe Dichte, flüssigkeits- oder luftgekühlt, optimiert für Energie- und Raumeffizienz.
- Einführung des CD281-S4051-X2, ein 2OU 2-Node ORv3 Open Compute Server.
- AMD EPYC 9005 Series Plattformen:
- CD270-S4051-X4: Flüssigkeitsgekühlter 2U 4-Node Server.
- CD270-S4051-X2: 2U 2-Node Server, optimiert für Raumeffizienz.
- Intel Xeon 6 Plattformen:
- CD270-S3061-X4: 2U 4-Node Server für containerisierte Dienste.
- CD270-S3071-X2: 2U 2-Node Server für I/O-intensive Workloads.
- AI-Plattformen:
- NVIDIA MGX-basierte Server und DGX Station.
- MGX Server in 4U und 2U Formfaktoren für AI-Training und Inferenz.
- DGX Station: Hohe Leistung für Modellentwicklung und Edge AI.
- MGX CG480-S5063 (Intel) / CG480-S6053 (AMD): 4U GPU-Server mit dualen Prozessoren.
- DGX Station CT60-S8060: AI-Station mit bis zu 20 PFLOPS Leistung und 784GB einheitlichem Speicher.

Source 3 (https://server-wissen.de/edge-ai-serveroptimierung-rechenzentren/):
- Paradigmenwechsel in der Serverinfrastruktur durch Edge Computing und künstliche Intelligenz (KI).
- Edge AI kombiniert Edge Computing mit KI zur effizienteren Serveroptimierung.
- Edge AI ermöglicht Datenverarbeitung am Entstehungsort, reduziert Latenzzeiten und verbessert Entscheidungsfindung.
- Vorteile der Edge AI für Serveroptimierung:
- Reduzierte Latenz und schnellere Entscheidungen, wichtig für Echtzeitanwendungen.
- Proaktive Wartung und Fehlervorhersage durch maschinelles Lernen.
- Erhöhte Energieeffizienz und Kosteneinsparungen durch intelligente Steuerung.
- Verbesserte Sicherheit durch Echtzeiterkennung von Anomalien im Netzwerkverkehr.
- Implementierung von Edge AI erfordert Anpassungen in der Rechenzentrumsarchitektur.
- Notwendigkeit spezialisierter Hardware (z.B. GPUs, TPUs) und neuer Softwarelösungen.
- Herausforderungen bei der Skalierbarkeit und Orchestrierung von Edge-Ressourcen.
- Wichtige Aspekte der Datenverwaltung und Governance, einschließlich Datenschutzmaßnahmen.
- Innovative Trends in Edge AI:
- Entwicklung selbstheilender Systeme zur automatischen Problemlösung.
- Nutzung digitaler Zwillinge zur Simulation und Vorhersage von Änderungen.
- Adaptive Systeme, die sich an veränderte Bedingungen anpassen.
- Branchenspezifische Edge AI-Lösungen für unterschiedliche Anwendungsfälle.
- Herausforderungen bei der Implementierung:
- Notwendigkeit leistungsfähiger Netzwerkinfrastruktur (z.B. 5G, Wi-Fi 6).
- Fehlende einheitliche Standards für Edge AI-Lösungen.
- Bedarf an qualifiziertem IT-Personal mit Kenntnissen in maschinellem Lernen und Edge-Computing.
- Praktische Anwendungen von Edge AI in Rechenzentren:
- Echtzeitüberwachung zur frühzeitigen Erkennung von Hardwareausfällen.
- Optimierung der Ressourcennutzung durch intelligente Verteilung von Workloads.
- Verbesserung der Benutzererfahrung durch reduzierte Latenzzeiten.
- Zukunftsperspektiven:
- Verbesserung der Zusammenarbeit zwischen IT-Teams und Geschäftsbereichen.
- Unternehmen, die in Edge AI investieren, können Wettbewerbsvorteile erzielen.
- Nachhaltigkeit durch verbesserte Energieeffizienz und dynamische Steuerung des Energieverbrauchs.
- Weiterentwicklung von KI-Algorithmen und Edge-Hardware wird Möglichkeiten der Serveroptimierung erweitern.

Ursprung:

OTS

Link: https://www.ots.at/presseaussendung/OTS_20250520_OTS0001/von-rack-integration-bis-zu-ki-und-cloud-systemen-msi-stellt-auf-der-computex-2025-ein-umfassendes-server-portfolio-vor

URL ohne Link:

https://www.ots.at/presseaussendung/OTS_20250520_OTS0001/von-rack-integration-bis-zu-ki-und-cloud-systemen-msi-stellt-auf-der-computex-2025-ein-umfassendes-server-portfolio-vor

Erstellt am: 2025-05-20 03:36:22

Autor:

OTS