• LinkedIn
  • KONTAKT
  • ANNONCERING
  • PARTNERLOGIN

ElektronikFOKUS

Fokus på elektronik

  • Branchenyt
  • Design & udvikling
  • Events
  • IoT & embedded
  • Komponenter & konnektorer
  • Power
  • Produktion
  • Test & mål
  • Wireless & data
  • Artikler fra Aktuel Elektronik

Artikler fra Aktuel Elektronik17. 06. 2025 | Pia Nielsen

Demokratisering af AI udfordrer designere af embeddede systemer

Artikler fra Aktuel Elektronik17. 06. 2025 By Pia Nielsen

Demokratisering af AI giver designere af embeddede systemer en række nye udfordringer, når de skal skabe nye ”ML i edgen”-applikationer, som fungerer effektivt, og som samtidigt belaster headrooms for processorer og memories mindst muligt med det mindst mulige forbrug i IoT-produkterne

Artiklen har været bragt i Aktuel Elektronik nr. 7 – 2025 og kan læses herunder uden illustrationer
(læs originaludgaven her)

Af Yann LeFaou, associate director for Microchips touch- & gestic-forretningsenhed

Fra overvågning og adgangskontrol til smarte fabrikker og forebyggende vedligehold vokser brugen af AI baseret på machine learning-modeller (ML), især inden for de industrielle IoT edge-applikationer. Konstruktion af AI-baserede systemer er blevet ”demokratiseret” i den forstand, at det ikke længere er en opgave for dataspecialister, men snarere noget, som alle designere af embeddede systemer forventes at forstå og have styr på. Udfordringen i en sådan demokratisering er, at designerne ikke nødvendigvis er klædt på til at definere det problem, der skal løses med datafangst på den mest hensigtsmæssige måde. Modsat forbrugerapplikationerne findes der endnu kun få datasæt til industrielle AI-implementeringer, så applikationerne skal ofte designes fra scratch med afsæt i brugerens egne data.
AI er blevet mainstream, og deep-/machine learning (DL/ML) står bag mange applikationer på en måde, vi nu tager for givet som med naturlig sprogbehandling, computer vision, forebyggende vedligehold og data mining. Tidlige implementeringer af AI var cloud- eller serverbaserede og med behov for rigeligt med regnekraft og memory samt stor båndbredde mellem AI/ML-applikationen og edgen (endpoint). Selv om disse setups fortsat er nødvendige i generative AI-applikationer som ChatGPT, DALL-E og Bard, så er der i de seneste år dukket edge-behandlet AI op, hvor data bliver behandlet i real-time på det punkt, hvor datafangsten sker. Edge-behandling reducerer afhængigheden af clouden markant og gør det overordnede system hurtigere med mindre pris og energi som sidegevinster. Mange oplever også en bedre sikkerhed, men det vil være mere korrekt at sige, at den væsentlige fokus på sikkerhed er skiftet fra at beskytte in-flight kommunikationen mellem clouden og endpoint for at gøre edge-komponenten mere sikker.
AI/ML i edgen kan implementeres i et traditionelt embedded system, hvis designerne har adgang til kraftige mikroprocessorer, GPU (grafiske processorer) og stakkevis af memory-komponenter – faktisk ressourcer på linje med en pc. Men med det stigende behov for IoT-apparater (kommercielle og industrielle) til AI/ML i edgen er hardwareressourcerne som regel meget begrænsede – og i mange tilfælde batteriforsynede.
Potentialet for AI/ML i edgen med afvikling på ressource- og energibegrænset hardware har affødt et begreb som TinyML. Eksempler på bruger-cases viser, at i industrien (til forebyggende vedligehold for eksempel), bygningsautomation, konstruktion (monitering af personalesikkerhed) og sikringsfunktioner er TinyML vigtig for AI i edgen.

Dataflowet
AI (og dermed også subsettet, ML) kræver et dataflow fra dataopsamlingen gennem en anvendt model (figur 1). Med hensyn til TinyML er optimering af hvert enkelt trin i arbejdsflowet vitalt på grund af de begrænsede ressourcer i det embeddede system.
Som et eksempel kan TinyML-ressourcekravene være processorhastigheder mellem 1- og 400MHz, 2 til 512KB RAM og 32KB til 2MB datalager (flash). Og med et effekttræk på mellem 150µW og 23,5mW er det en designudfordring, når man skal arbejde med så lille et effektbudget.
Der er også en endnu større overvejelse – eller trade-off – ved embedded AI i et ressourcebegrænset system. Modeller er afgørende for systemets behaviour, men designere bliver ofte fanget i kompromisser mellem modelkvaliteten/-præcisionen, der påvirker pålideligheden, og ydelsen, primært i forhold til hastighed og energiforbrug.
Meget afhænger af beslutningen om typen af AI/ML. Der er generelt tre typer af algoritmer, som kan bruges – og vi bruger hér de engelske udtryk: supervised, unsupervised og reinforced.

Løsningerne
Selv designere med en god forståelse af AI og ML kan slås med at optimere hvert trin af AI/ML arbejdsflowet for at opnå den perfekte balance mellem modelpræcisionen og systemydelsen, så hvordan kan designere af embeddede systemer og uden tidligere erfaringer komme udfordringerne i møde?
For det første må man ikke miste fokus på det forhold, at den anvendte model på et ressourcebegrænset IoT-produkt kun vil være effektiv, hvis modellen er lille og AI-opgaven begrænset til at løse et simpelt problem.
Heldigvis har fremkomsten af ML (og i særdeleshed TinyML) i den embeddede verden resulteret i nye (eller forbedrede) IDE’er (Integrated Development Environments), softwareværktøjer, arkitekturer og modeller, hvoraf mange endda er open source. TensorFlow Lite til mikrocontrollere (TF Lite Micro) er et eksempel på et gratis open source-softwarebibliotek til ML og AI. Det er designet til implementering af ML på komponenterne med nogle få KB memory. Programmer kan også skrives i Python, der er både open source og gratis.
Mikrochips’ MPLAB X er også et eksempel på et gratis IDE, som kan anvendes sammen med virksomhedens eget MPLAB ML, en MPLAB X plug-in specielt udviklet til at skrive optimeret AI IoT-sensorgenkendelseskode. MPLAB ML tager afsæt i AutoML og kan fuldautomatisere hvert trin i et AI/ML-arbejdsflow, så man eliminerer behovet for gentagne, kedelige og tidsrøvende modelopbygninger. Med funktioner som ekstraktion, træning, validering og test opnår man optimerede modeller, der overholder de memory constraints, som mikrocontrollere og mikroprocessorer måtte have, så designere hurtigt kan konstruere og anvende ML-løsninger på Microchips’ Arm Cortex-baserede 32-bit MCU’er eller CPU’er.

Kom ind i flowet
Optimering af flowet i arbejdsopgaver starter med off-the-shelf datasæt og modeller. Hvis et ML-enabled IoT-produkt skal udføre billedgenkendelsen, så vil det give mening at starte med et eksisterende datasæt af beskrevne statiske billeder og videoklip til modeltræningen (test og evaluering), og de beskrevne data er nødvendige for såkaldt ”supervised” ML-algoritmer.
Mange billeddatasæt eksisterer allerede til computervision-applikationer. Da de er udviklet med henblik på pc-, server- eller cloud-baserede applikationer, er de som regel meget store. ImageNet indeholder for eksempel mere end 14 millioner annoterede billeder.
Afhængigt af ML-applikationen kan man dog måske nøjes med nogle få og mindre subset som i måske mange billeder af mennesker, men kun få af ubevægelige objekter. Hvis ML-enablede kameraer skal bruges på en byggeplads, så skulle de måske give en alarm, hvis en person uden sikkerhedshjelm kommer ind i kameravinklen. ML-modellen skal uden tvivl trænes, men det kan gøres med nogle få billeder af personer med eller uden hjelm. Det kan dog være nødvendigt med større datasæt for forskellige hjelmtyper, ligesom der skal være den fornødne spændvidde i selve datasættet for at kompensere for forskellige faktorer som eventuelt forskellige belysningsforhold.
Med de korrekte live (data) inputs og datasæt tegner forberedelse af data og træning af modellen sig for trinnene 1 til 3 i figur 1. Modeloptimeringen (trin 4) er typisk et spørgsmål om kompression, som hjælper til at reducere memory-kravene (RAM under behandlingen og NVM under endelig lagring) samt beregningernes latency.
Med hensyn til beregningerne slås mange AI-algoritmer som konvolutionale neurale netværk (CNNs) med ganske komplekse modeller. En populær kompressionsteknik er ”pruning” (figur 2), som bedst kan oversættes til beskæring, og der er fire overordnede typer: vægtet pruning, unit/neuron pruning og iterativ pruning.
Kvantificering er en anden populær kompressionsteknik. Det er processen i at konvertere data i et højpræcisionsformat – som floating-point 32-bit (FP32) – til et lavere præcisionsformat som et 8-bit integer (INT8). Brugen af kvantificerede modeller (figur 3) kan indregnes i den maskinelle træning på én af to måder:
• Post-træningskvantificering involverer brug af modeller i – lad os sige – et FP32-format, og når træningen må betragtes som komplet, kvantificerer man modellen til implementering. Et standard TensorFlow kan for eksempel bruges til indledende modeltræning og optimering på en pc. Modellen kan siden kvantificeres og – gennem TensorFlow Lite – embeddes i en IoT-komponent.
• Kvantificeringsbevidst træning emulerer inferenstids-kvantificering, hvilket skaber en model, som værktøjer downstream kan bruge til at producere kvantificerede modeller.
Selv om kvantificering er brugbar, så skal teknikken ikke bruges overdrevent. Det vil svare til at komprimere et digitalt billede ved at repræsentere farverne med færre bits og pixels – og på et tidspunkt kan det blive vanskeligt at fortolke motivet på billedet.
AI er tydeligvis veletableret i den embeddede verden, men denne demokratisering betyder, at designere, som ikke tidligere har haft brug for at forstå AI og/eller ML, nu står over for de udfordringer, der ligger i at implementere AI-baserede løsninger i deres designs.
Det kan virke skræmmende at skulle få maksimalt udbytte ud af meget begrænsede hardwareressourcer, men det er ikke nogen ny udfordring i sig selv – i hvert fald ikke for garvede designere af embeddede systemer. Og der findes et væld af information (og træning) inden for ingeniørernes communities samt værktøjer og IDE’er som MPLAB X, modelbyggeløsninger som MPLAB ML samt open source-datasæt og modeller. Reelt er det faktisk muligt af implementere AI- og ML-løsninger på 16-bit og endda 8-bit mikrocontrollere.

Billedtekster:
Figur 1: Forenklet AI arbejdsflow. Det er ikke vist, men modelimplementeringen skal selv give et data-feedback til flowet, også selv om det kan påvirke dataopsamlingen.

Figur 2: Pruning reducerer tætheden i de neurale netværk. I det viste er vægten af visse forbindelser mellem neuronerne sat til nul. Det er ikke vist, men sommetider kan neuronerne også udsættes for pruning.

Figur 3: Kvantificerede modeller bruger en lavere præcision og reducerer dermed memory- og lagringskravene med en deraf følgende bedre energieffektivitet – selv om modellen opretholder den samme form.

Skrevet i: Artikler fra Aktuel Elektronik Tags: Ai, komponenter, mikrocontrollere

Seneste nyt fra redaktionen

Cybersikkerhedsbranchen går sammen om at løfte SMV’er i ny millionsatsning

AktueltWireless & data02. 02. 2026

Danske små og mellemstore virksomheder får nu en håndsrækning til bedre digital sikkerhed. Det er en realitet med offentliggørelsen af den nye satsning “Cybersikker virksomhed”.  I alt 23 virksomheder inden for cybersikkerhed bidrager med ydelser svarende til en værdi af 33,5 millioner

Kan AI-baserede systemer GxP valideres?

Design & udviklingTop02. 02. 2026

Life Science-industrien er for alvor gået i gang med at samle de muligheder op, som AI baserede systemer byder på. Kunstig intelligens (AI) er ikke længere en fremtidsvision. Den er en realitet, der transformerer måden, vi udvikler, tester og validerer systemer på. - En udvikling, som skaber

TouchConn ApS: Det starter med et touch hvor detaljen betyder alt

BranchenytDesign & udviklingProduktion02. 02. 2026

Markedet har fået en ny ambitiøs aktør. Touchconn ApS går ind i branchen for kundetilpassede betjeningspaneler med målet om at forene teknisk præcision, fleksibilitet og en kundeoplevelse i særklasse. - Det starter med et touch, den rigtige forbindelse og ét stærkt globalt samarbejde.Hos

ITT Cannon Veam MOVE-MOD konnektorfamilie med en alsidig og modulær snap-in arkitektur

Komponenter & konnektorer02. 02. 2026

Powell Electronics leverer nu ITT Cannons Veam MOVE-MOD familie af modulære konnektorer, en innovativ serie af konnektorer designet til at give en enestående fleksibilitet, høj ydelse og let brug i utallige moderne konnektivitetsløsninger til effekt, signaler og data. MOVE-MOD er opbygget omkring en

Kompakt 480W DIN-skinne AC/DC-forsyning til krævende miljøer

Power02. 02. 2026

Recom lancerer RACPRO1-S480, en ny omkostningseffektiv og kompakt DIN-skinne AC/DC-strømforsyning med en nominel effekt på 480W i konvektionskølede miljøer fra -40 °C til +60 °C og et format på kun 135mm x 140mm x 52mm. Forsyningen kan levere 576W i op til 45°C og 720W i fem sekunder, hvilket

Energi Fyn skifter fiberteknologi og fremtidssikrer fibernettet

Wireless & data02. 02. 2026

Energi Fyns fibernet er de seneste år blevet gjort klar til den moderne passive fiberteknologi XGS-PON. En teknologi, der gør det teknisk muligt at levere hastigheder på op til 10 Gbit/s i både upload og download modsat den nuværende hastighed på 1 Gbit/s. – Med den nye teknologi, som kaldes

22 milliarder IoT-enheder i 2026: Fem nye tendenser

AktueltIoT & embeddedWireless & data02. 02. 2026

Antallet af globale IoT-forbindelser ventes at nå 21,9 milliarder i 2026, ifølge en spritny prognose fra det velrenommerede IoT-analysehus Transforma Insights. Det svarer til en fortsat stabil vækst i markedet, men også til markant øget kompleksitet for virksomheder, der er afhængige af forbundne

DI: Kongeparrets besøg i Australien skal sætte skub i grønt eksporteventyr

Branchenyt30. 01. 2026

Dansk Industri – DI - deltager med en stor delegation af virksomheder i  det netop annoncerede statsbesøg i Australien i Melbourne, hvor H.M. Kongen og H.M. Dronningen leder en stor dansk erhvervsdelegation. Besøget foregår fra den 14. marts til 19. marts. - Vi har en helt særlig forbindelse

Intel Core Ultra Series 3 processorer leveres nu af Rutronik

BranchenytIoT & embeddedKomponenter & konnektorer30. 01. 2026

Med Intel Core Ultra Series 3-processorerne udvider Rutronik sin portefølje med en ny generation af kraftfulde og energieffektive mobile processorer. Serien kombinerer en moderne hybridarkitektur, integreret AI-acceleration og fremtidssikret tilslutningsmuligheder, der henvender sig til AI-PC'er og

Frankrig dropper Teams og Zoom

Wireless & data30. 01. 2026

Frankrig har nu besluttet at udfase amerikanske tjenester som Zoom og Microsoft Teams i landets statslige myndigheder til fordel for det egenudviklede værktøj Visio. Formålet er at styrke den nationale sikkerhed og mindske afhængigheden af teknologileverandører uden for Europa, forlyder det på

Tilmeld Nyhedsbrev

/Nyheder

  • Microchip Technology Inc.

    New Power Module Enhances AI Data Center Power Density and Efficiency

  • Microchip Technology Inc.

    PIC32CM PL10 MCUs Expand Microchip’s Arm® Cortex®-M0+ Portfolio

  • Eltraco Automation

    Inline vapor phase-maskine fra IBL åbner op for større volumen

  • ACTEC A/S

    Pålidelig energi til el-, vand-, gas- og varmefordelingsmålere

  • Rohde & Schwarz Danmark A/S

    Rohde & Schwarz invites the EMC community to the virtual DEMC 2026 conference.

  • Microchip Technology Inc.

    Microchip Expands maXTouch® M1 Touchscreen Controller Series for Broader Display Size Coverage

  • HIN A/S

    Stäubli’s MCS charging system sætter nye standarder for EV-megawatt ladning

  • ACTEC A/S

    Batteriløsninger til fremtidens sporings- og logistiksystemer

  • HIN A/S

    Mærkning af kabler er også grøn tankegang

  • Microchip Technology Inc.

    Microchip Expands PolarFire® FPGA Smart Embedded Video Ecosystem with New SDI IP Cores and Quad CoaXPress™ Bridge Kit

Vis alle nyheder fra vores FOKUSpartnere ›
 
 
 
 

Læs Aktuel Elektronik

Aktuel Elektronik avisforside

Annoncér i Aktuel Elektronik

Medieinformation

KONTAKT

TechMedia A/S
Naverland 35
DK - 2600 Glostrup
www.techmedia.dk
Telefon: +45 43 24 26 28
E-mail: info@techmedia.dk
Privatlivspolitik
Cookiepolitik