AI’s indflydelse flytter grænserne for datalagring i fremtidens applikationer. Følgende artikel giver et blik ind i, hvordan man nu og i fremtiden vil udvikle flash-IC’er og controllere til at opfylde de stigende krav til datalagring i AI-applikationer, og hvordan Silicon Motions strategier for fremtiden og visioner tager sig ud
Artiklen har været bragt i Aktuel Elektronik nr. 1 – 2026 og kan læses herunder uden illustrationer
(læs originaludgaven her)
Af Nelson Duann, senior VP of Client and Automotive Storage Business, Silicon Motion
AI er blevet en drivkraft i alles liv, og den kunstige intelligens påvirker nu alle produkter lige fra smartphones til healthcare-produkter. Forbrugerne oplever nu AI i meget forskellige sammenhænge, hvilket spænder lige fra real-time oversættelser af det talte sprog over hurtigere triagering inden for healthcare til bedre digitale fotografier – og i alle tilfælde med teknologiens mulighed for at flytte og behandle store datamængder ved meget høje hastigheder.
AI’s hurtige vækst både i edgen og clouden hænger sammen med den sømløse flytning af data. Både volumen og hastighed, som kræves i AI til behandling af information, er forrygende, i takt med at applikationer som generative AI-værktøjer er dukket op. Værktøjerne genererer tekst, billeder, video, audio og kode, og AI er nu overalt lige fra de mindste wearables til kraftige applikationer som genomisk sekvensering. Det er endda kun starten på en mere omfattende transformation, hvor AI vil blive dybt integreret i alle del af vores liv.
Stigende krav til computer-platformene
Overgangen til AI fra kun at være et klassificeringsværktøj har ført til generative bruger-cases, der er langt mere beregningstunge, og som er drevet fremad af fremskridt inden for hardwaren. Behovet for hurtigere processorer og heterogene computersystemer har banet vejen for AI-specifikke acceleratorer. Betydningen af memory-teknologier må i den sammenhæng ikke blive overset. Udviklingen af hurtigere memory-interfaces og større memory-kapacitet er kritiske faktorer inden for væksten af AI til praktisk brug.
AI’s grådighed efter data stiller i dag krav om langt højere interface-båndbredder og mere effektive memory-arkitekturer end tidligere. AI både forbruger og genererer massive datamængder især inden for den generative AI, hvor outputs – som syntetiserede billeder, audio og video – bliver skabt i enorme mængder.
AI’s betydning for memory-behovet
Den stigende tilstedeværelse af AI-applikationer, især inden for generativ AI som ChatGPT, har øget presset på memory-systemer betydeligt. De fleste nuværende AI-applikationer er endnu cloud-baserede med enorme datacentre som værter og drevet af tech-giganter som Google, Microsoft og Meta. Disse datacentre har investeret massivt i den hardware, der er i stand til at supportere den krævende natur fra AI-arbejdsbyrderne.
Men AI er begyndt at migrere til edge-platforme som pc’er, smartphones og selv biler, hvorfor memory- og beregningskravene også ændrer sig. Det er ikke mindst behovet for databeskyttelse, som trækker udviklingen i retning af edge-AI. Netop AI i edgen beskytter data mere effektivt, da AI-beregningerne bliver udført lokalt på de fysiske apparater, men det giver naturligt en enorm vækst i kravet om både memory og regnekraft i selv de mest almindelige daglige forbrugerprodukter.
NAND-flash-lagring for AI i fremtiden
I takt med at AI går mod edgen, er der behov for memory-løsninger, der kan opfylde de øgede krav til tæthed, hastighed og effektivitet. Her spiller NAND-flash-teknologier en væsentlig rolle, og innovative produkter som TLC- (Three-Level Cell) og QLC- (Quad-Level Cell) strukturer skubber kapacitetsgrænserne fremad og opad. Der findes i dag 3D NAND stacking-teknologier med over 200 lag, og SSD’er på Terabyte-niveau er ved at blive almindelige.
Silicon Motion har længe været i front af NAND-flash-udviklingen. Virksomheden var den første til at introducere en controller, der supporterer QLC NAND SSD’er og har dermed sat en høj standard for ydelse og dataholdbarhed i AI-applikationer. Large language-models (LLM’er) som GPT dokumenterer AI’s stress på memory-systemerne. Med milliarder af parametre kræver disse transformerbaserede modeller omfattende lagring med kontinuerte read/write-operationer under trænings- og inferensprocesserne. I takt med at både LLM’er og andre generative modeller udvikler sig, vil NAND-flash-lagring kræve fortsat højere hastigheder, større kapacitet og højere energieffektivitet.
Silicon Motions strategi for AI-æraen
Som svar på AI’s større rolle i forbrugerprodukter har Silicon Motion fokuseret på at udvikle hurtigere memory-løsninger med større kapacitet og lavere forbrug. Silicon Motion har dedikeret sin indsats mod at øge SSD-datatætheden og samtidigt finde på innovative måder at øge kapaciteten på uden også at øge energiforbruget proportionalt, og dét er selvfølgelig en stor udfordring.
Et fokusområde for Silicon Motion er de cutting-edge procesgeometrier, som virksomhedens foundry-partnere anvender samt nye teknikker som ”power-islands” til mere granuleret chip-styring. Desuden undersøger virksomheden avancerede metoder at organisere data på som Flexible Data Placement (FDP) til solid-state drives (SSD’er) og Zone Name Space (ZNS) til mobile applikationer, hvilket sikrer, at datalagringsløsninger bliver skræddersyet til de ofte varierende krav fra forskellige elektronikprodukter.
Et godt eksempel er også Silicon Motions nyligt lancerede SM2756 UFS 4.0-controller, der understreger virksomhedens innovationsniveau. SM2756-controlleren er fremstillet med en low-power 6nm-proces, som supporterer sekventielle read/write-hastigheder på op til 4300/4000+ MB/sekund samt håndtering af op til 2TB i 3D TLC og QLC NAND-flash, hvilket er ideelle løsninger til mobile AI-applikationer.
Sådan klarer vi fremtidens udfordringer
I takt med at AI fortsat udvikler sig, vil også udfordringerne til de omgivende datalagringsmedier blive mere intensive. Store AI-modeller som LLM kræver overførsel af enorme datamængder mellem apparater og clouden, hvad der sætter fokus på såvel drifts- som energieffektiviteten. Her er Silicon Motions solide erfaring inden for NAND-flash-styring afgørende for at kunne imødekomme de voksende krav.
Ser man ud i fremtiden, vil Silicon Motion fordoble sin udvikling af adaptiv firmware med stadigt bedre energieffektivitet og support af cutting-edge interfaces som UFS 4.0 til AI-smartphones og PCIe Gen5 low-power SSD-controllere til AI-pc’er. Virksomhedens MonTitan SSD-controllerplatform er også godt positioneret til support af de intense krav til datacenterlagring af AI-informationer.
Vinden blæser dog med al tydelig AI i retning af edgen, må konklusionen være. Enhver bruger af mobilprodukter vil i en nær fremtid anvende personlige AI-modeller på sin smartphone, hvilket medfører lagring af massive datamængder, så apparaterne kan håndtere de store og hurtige dataudvekslinger, fortsat med et minimalt forbrug. Silicon Motion flytter fortsat – og konstant – grænserne fremad med nye memory-strukturer og -teknikker, der kan opfylde både nuværende og kommende behov.
Med den fortsatte udbredelse af AI’s rækkevidde er Silicon Motion dedikeret til at fremelske nye memory-løsninger, der bakker op om den næste generation af AI-applikationer – uanset om der er tale om AI i datacentre, edge-produkter eller i den smartphone, vi har i lommen i fremtiden.
Billedtekst:
1: Grafisk repræsentation af Silicon Motions komponentstrategi for AI-markederne.

