AI in het datacenter: deze TCO-factoren zijn belangrijk

Redactie WINMAG Pro
Door: Manfred Berger, Senior Manager Business Development for Data Center Solutions and Platforms bij Western Digital Corporation

Steeds meer industrieën wenden zich tot kunstmatige intelligentie. Maar de stortvloed aan data die wordt verzameld en verwerkt voor AI-toepassingen en machine learning zorgt voor nieuwe uitdagingen. Hoe efficiënt bedrijven gegevens beheren en opslaginfrastructuren gebruiken, heeft invloed op hun financiële succes. Bedrijven kunnen de kosten van het datacenter aanzienlijk verlagen. In dit artikel wordt ingegaan op de fundamentele TCO-factoren (total cost of ownership) in gegevensopslag waarmee besluitvormers, cloudserviceproviders en systeemintegrators rekening moeten houden met betrekking tot AI-toepassingen.

Capaciteit en opslaginfrastructuur

De afgelopen jaren heeft er een enorme verschuiving plaatsgevonden in de houding van ondernemingen ten opzichte van hun gegevens. Data-analisten kennen nu potentiële en langetermijnwaarde toe aan veel gegevens en archieven zijn steeds actiever en in beweging. Data wordt continu gelezen en geschreven in het datawarehouse en data lake. Daarbij stelt de permanente verwerking van informatie eisen aan verschillende onderdelen van het datacenter.

Een startpunt voor het optimaliseren van de TCO is het moderniseren van de bestaande infrastructuur voor data-opslag. Nieuwe benaderingen, zoals het open-source, op standaarden gebaseerde Zoned Storage-initiatief, helpen hierbij. Het biedt ontwikkelaars en architecten de tools en bronnen om data op intelligente wijze op zowel HDD- als SSD-media te plaatsen. Voordelen zijn onder meer een geoptimaliseerde opslagdichtheid, hogere duurzaamheid, kortere latentie en voorspelbare quality-of-service-maatregelen.

Het datacenter van de toekomst moet niet alleen voorbereid zijn op groeiende capaciteiten, maar ook vooruitgang boeken op het gebied van verwerkingssnelheid en opslagdichtheid. Om gegevens zo snel mogelijk op te slaan als in de toekomst nodig is, zullen flash-technologieën nog meer ingang vinden. Dit omvat bijvoorbeeld Non-Volatile Memory Express (NVMe), een zeer krachtig protocol dat speciaal is ontworpen voor flash-opslagsystemen. Door lage latentie en parallelle wachtrijen te ondersteunen, kan het krachtige opslagsystemen beter faciliteren.

Een andere optie voor optimalisatie is het gebruik van een Composable Disaggregated Infrastructure (CDI). Dit is een architectonisch concept voor het inrichten van IT-middelen zoals rekenkracht, opslag en netwerken. In plaats van resources rechtstreeks beschikbaar te stellen aan de verschillende applicaties via fysieke systemen zoals individuele servers, worden de systemen gevirtualiseerd en worden de resources opgesplitst in logische pools. Workloads kunnen vervolgens vanuit deze pools worden bediend, waarbij NVMe over Fabric (NVMe-oF) voorop loopt aan de opslagkant.

Aan de orde van de dag: bespaar energie

Datacenters verbruiken enorme hoeveelheden elektriciteit. Energie besparen in dataopslag is niet alleen goed voor de ecobalans, maar cruciaal voor het verlagen van de TCO. In tijden van stijgende energieprijzen is dit extra belangrijk.

Een manier om energie te besparen bij gegevensopslag is het gebruik van met helium gevulde harde schijven in plaats van met lucht gevulde harde schijven. Omdat helium slechts een zevende van de dichtheid van lucht is, is er minder turbulentie in de harde schijf. Dit resulteert in minder weerstand op de roterende schijven, wat het stroomverbruik aanzienlijk vermindert. Het resultaat is dat een met helium gevulde harde schijf van 18 TB ongeveer 30 procent minder stroom nodig heeft en 61 procent minder stroom verbruikt (watt per TB) dan een met lucht gevulde schijf van 10 TB. Bovendien heeft een 18 TB schijf 80 procent meer capaciteit, wat opnieuw bijdraagt ​​aan de capaciteitsfactor.

Optimaliseer voor AI-workloads

Het is belangrijk om de prestaties en mogelijkheden van het opslagsysteem af te stemmen op de werklast en specifieke vereisten voor bandbreedte, latentie en beschikbaarheid van gegevens. Als een organisatie bijvoorbeeld beter inzicht wil krijgen door middel van AI, moet het opslagsysteem versnelde prestaties en schaalvereisten van analysewerklasten ondersteunen om het meeste uit hun GPU- of vector-CPU-investering te halen. Bedrijven die investeren in de juiste mix van HDD- en SSD-gebaseerde oplossingen die zijn afgestemd op hun analysewerklasten en datawarehouse vereisten, krijgen het hoogste niveau van optimalisatie en verlagen hun TCO.

Zelfs datacenters die al enkele jaren operationeel zijn, kunnen AI-workloads aan. Daarvoor moet wel hun complexiteit worden verminderd. Voor AI-training of deep learning-modellen is bijvoorbeeld minder nauwkeurigheid nodig dan voor wetenschappelijke berekeningen. 

Conclusie

TCO is complex en in de context van AI-toepassingen spelen specifieke factoren een rol. Bedrijven die hun datacenter nu en in de toekomst optimaliseren, moeten een meerlaagse aanpak overwegen om een efficiëntere en effectievere data-infrastructuur te creëren met de laagst mogelijke TCO. Belangrijke factoren zijn onder meer capaciteit, energie-efficiëntie en geoptimaliseerde AI-workloads in combinatie met de juiste infrastructuur voor gegevensopslag.

Redactie WINMAG Pro
Door: Redactie WINMAG Pro
Redactie

Redactie WINMAG Pro

Redactie