NVIDIA DGX Spark – en bokstor enhet som kan köra AI-modeller med 70 miljarder parametrar – representerar en ny era för desktop-AI-ägande.

1 Grundläggande
Varför lokal AI? Affärsfallet för egen äganderätt

I början av 2020-talet var artificiell intelligens en tjänst man hyrde – per timme, per token, per API-anrop. Vid 2026 har paradigmet skiftat. Hårdvaran som krävs för att köra GPT-4-klass intelligens får nu plats på ditt skrivbord och kostar mindre än en begagnad bil.

Fortsatt förlitan på enbart molnbaserad AI innebär ett strategiskt trilemma:

  • Eskalerande kostnader. Per-token-API-avgifter skalar linjärt med användning. Ett juridiskt företag som bearbetar 1 000 kontrakt per dag kan stå inför 325 000 kr+ i årliga API-kostnader.
  • Dataexponering. Varje fråga som skickas till ett moln-API är data som lämnar ditt nätverk och utsätts för säkerhets- och integritetsrisker.
  • Ingen eller kostsam anpassning. Molnmodeller är generiska. De kan inte enkelt eller kostnadseffektivt finjusteras för anpassad data, interna affärsprocesser eller affärsintelligens.

Lokal AI-hårdvara löser alla tre. Den omvandlar variabla API-avgifter till en fast kapitaltillgång, säkerställer att data aldrig lämnar LAN och möjliggör djup anpassning genom finjustering på affärsdata.

2 Kostnadsreducering
Kvantisering: Kör större AI-modeller på billigare hårdvara

Kvantisering är ett koncept som fundamentalt förändrar ekonomin i lokal AI.

Enkelt uttryckt komprimerar kvantisering en AI-modells minnesfotavtryck. Enje parameter som ett 16-bitars flyttal (FP16). Kvantisering reducerar detta till 8-bitars (Int8), 4-bitars (Int4) eller ännu lägre – och minskar dramatiskt mängden minne som krävs för att köra modellen.

Kvantisering resulterar i en liten kvalitetsminskning i utdata – ofta omärkbar för affärsuppgifter som sammanfattning, utkast och analys – i utbyte mot en massiv minskning av hukostnaden.

Minneskrav: 70B AI-modell vid olika precisionsnivåer
FP16
Full precision
~140 GB
Int8
Halv storlek
~70 GB
Int4
Kvart
~40 GB
FP16 – Maximal kvalitet, maximal kostnad
Int8 – Nästan perfekt kvalitet, halva kostnaden
Int4 – Hög kvalitet, fjärdedel av kostnaden
Affärspåverkan

En 70B-modell med full precision kräver ~140 GB minne – en 54 000 kr+ serverinvestering. Samma modell kvantiserad till Int4 kräver endast ~40 GB och kan köras på ett 27 000 kr begagnat arbetsstation med två GPU:er.

3 Minidatorer
AI-minidatorer 14 000 – 91 000 kr

HP ZGX Nano AI på en kvinnas hand

Den mest disruptiva utvecklingen 2026 är högkapacitets-Aberäkning i minidatorformat. Enheter inte större än en inbunden bok kör nu AI-modeller som krävde serverrum för två år sedan.

NVIDIA GB10-ekosystemet (DGX Spark)

Prestandaledare

NVIDIA logo

NVIDIA DGX Spark har definierat denna kategori. År 2026 har GB10 Superchip – en kombination av en ARM Grace och en Blackwell GPU – skapat ett helt ekosystem. ASUS, GIGABYTE, Dell, Lenovo, HP, MSI och Supermicro tillverkar alla GB10-baserade system, var och en med olika formfaktorer, kyllösningar och mjukvarupaket.

NVIDIA GB10-ekosystem ASUS, GIGABYTE, Dell, Lenovo, HP, MSI och Supermicro
Från 27 000 kr
Minne
128 GB
LPDDR5X Unified
Beräkning
~
FP8 AI-prestanda
Nätverk
10 GbE + Wi-Fi 7
ConnectX för klustring
Lagring
4 TB SSD
NVMe
Klustring
Ja (2 enheter)
256 GB poolat minne
Mjukvara
NVIDIA AI Enterprise
CUDA, cuDNN, TensorRT
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext
Klustring: 256 GB kapacitet

Genom att koppla samman två GB10-enheter via den dedikerade höghastighetsnätverksporten kombinerar systemet resurser till ett 256 GB minnesutrymme. Detta möjliggör körning av mycket stora modeller – 400B+ kvantiserade parametrar – helt på ditt skrivbord för en total hårdvaruinvestering på cirka 54 000 – 63 000.

AMD Ryzen AI Max (Strix Halo) minidatorer

Lägsta kostnad

AMD Ryzen AI Max+ Strix Halo

AMD:s Ryzen AI Max+ Strix Halo-arkitektur har skapat en helt ny kategori av budget-AI-minidatorer. En våg av tillverkare – GMKtec, Beelink, Corsair, NIMO, Bosgame, FAVM – levererar nu 128 GB unified memory-system för under 18 000 kr.

AMD Ryzen AI Max minidatorer GMKtec EVO-X2 · Beelink · Corsair · NIMO AI · Bosgame M5 · FAVM FA-EX9
Från 13 500 kr
Minne
128 GB
LPDDR5 Delat (CPU+GPU)
Beräkning
~0.2 PFLOP
Integrerad RDNA 3.5 GPU
Bandbredd
~200 GB/s
Minnesbandbredd
Effekt
~100W
Tyst drift
Klustring
Nej
Endast fristående
OS
Windows / Linux
ROCm / llama.cpp
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext

Apple Mac Studio (M4

Kapacitetsledare

Mac Studio intar en unik position i det lokala AI-landskapet. Apples Unified Memory Architecture (UMA) till 256 GB minne tillgängligt för både CPU och GPU i en enda kompakt desktopenhet – ingen klustring krävs.

Detta gör den till den enda prisvärda enheten som kan ladda de största modellerna med öppen källkod. En modell med 400 miljarder parametrar kvantiserad till Int4 får helt plats i minnet på 256 GB-konfigurationen.

Apple Mac Studio (M4 Ledaren i AI-kapacitet för en enhet
Från 36 000 kr
Minne
Upp till 256 GB
Unified Memory (UMA)
Beräkning
~0.5 PFLOP
Apple Neural Engine + GPU
Mjukvara
MLX-ramverk
Apple-optimerad inferens
Begränsning
Endast inferens
Långsam för träning/finjustering

Apple Mac Studio (M5 Ultra)

Kommande utmanare

Apples nästa generations M5 Ultra, som förväntas i slutet av 2026, sägs adressera M4:s främsta svaghet: AI-modellträningsprestanda. Byggd på TSMC:s 2nm-process förväntas den erbjuda konfigurationer upp till 512 GB unified memory med bandbredd över 1,2 TB/s.

Apple Mac Studio (M5 Ultra) Det förväntade AI-träningskraftverket
Ber. 108 000 kr
Minne
Upp till 512 GB
Nästa generations Unified Memory
Beräkning
~1.5+ PFLOP
2nm Neural Engine
Mjukvara
MLX 2.0+
Inbyggt stöd för träning
Kapacitet
Träning och inferens
CUDA-alternativ
Minnesbandbredd: 1,2 TB/s kapacitet32 000 kr

Den 512 GB M5 Ultra skulle bli den första konsumentenheten som kan köra okvantiserade (full precision) frontier-modeller. Den höga minnesbandbredden på 1,2+ TB/s stödjer agentiska AI-arbetsflöden som kräver ihållande hög genomströmning vid inferens med mycket långa kontextfönster.

Tenstorrent

Öppen källkods-hårdvara

Tenstorrent

Ledd av den legendariska chiparkitekten Jim Keller representerar Tenstorrent en fundamentalt annan filosofi: öppen källkods-hårdvara byggd på RISC-V, öppen källkods-mjukvara och modulär skalning via kedjesammanlänkning.

Tensix AI-kärnor är designade för linjär skalning: till skillnad från GPU:er som kämpas med kommunikationsöverhead när fler kort läggs till, är Tenstorrent-chip byggda för att effektivt sammanlänkas.

I partnerskap med Razer har Tenstorrent släppt en kompakt extern AI-accelerator som ansluter till vilken bärbara eller stationära dator som helst via Thunderbolt – och omvandlar befintlig hårdvara till en AI-arbetsstation utan att byta ut något.

Razer × Tenstorrent kompakt AI-accelerator Extern Thunderbolt AI-accelerator
Pris Okänt
Formfaktor
Extern enhet
Thunderbolt 5 / 4 / USB4
Chip
Wormhole n150
Tensix-kärnor · RISC-V
Skalning
Upp till 4 enheter
Kedjesammanlänkade
Mjukvara
Helt öppen källkod
GitHub · TT-Metalium
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext

AI NAS – Nätverksansluten lagring

Lagring + AI

Definitionen av NAS har förskjutits från passiv lagring till aktiv intelligens. En ny generation av nätverkslagringsenheter integrerar AI-bearbetning direkt - från lättviktsinferens baserad på NPU till fullskalig GPU-accelererad LLM-distribution.

En AI-kapabel NAS eliminerar behovet av en separat AI-enhet och möjliggör direktbearbetning av större datamängder utan nätverksöverföringslatens.

SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext

Behöver ni hjälp att välja rätt AI-minidator för ert företag?

Våra ingenjörer kan utvärdera era AI-hårdvarukrav och driftsätta ett fullt konfigurerat AI-system.

Få en gratis hårdvarubedömning →

4 Arbetsstationer
AI-arbetsstationer & skrivbordsdatorer 27 000 – 136 000 kr

Arbetsstationsnivån använder diskreta PCIe-grafikkort och standard tornchassin. Till skillnad från mini-datornivåns fasta enhetliga arkitekturer erbjuder denna nivå modularitet - ni kan uppgradera enskilda komponenter, lägga till fler GPU:er eller byta kort när teknologin utvecklas.

En dubbel RTX A6000-arbetsstation med NVLink-brygga erbjuder 96 GB samlat VRAM för cirka 63 000 kr.

Förståelse av VRAM kontra hastighet

Två konkurrerande faktorer definierar GPU-valet för AI:

📦
VRAM-kapacitet
Bestämmer storleken på modellen kan ladda. Mer VRAM betyder större, mer kapabla modeller. Detta är din intelligensgräns.
Beräkningshastighet
Bestämmer hur snabbt modellen svarar. Högre beräkningskapacitet innebär lägre latens per fråga. Detta är din användarupplevelse.

Konsumentkort (som RTX 5090) maximerar hastighet men erbjuder begränsat VRAM - typiskt 24-32 GB. Professionella kort (som RTX PRO 6000 Blackwell) maximerar VRAM - upp till 96 GB per kort - men kostar mer per beräkningsenhet.

VRAM är den begränsande faktorn. Ett snabbt kort med otillräckligt minne kan inte ladda AI-modellen alls. Ett långsammare kort med tillräckligt minne kör modellen - bara med längre svarstider.

Konsument-GPU:er

KonfigurationTotalt VRAMLänkningBeräknad kostnad
2× RTX 3090 (Begagnad)48 GBNVLink27 000 kr
2× RTX 409048 GBPCIe Gen 536 000 kr
2× RTX 509064 GBPCIe Gen 563 000 kr

Professionella GPU:er

KonfigurationTotalt VRAMLänkningBeräknad kostnad
2× RTX 6000 Ada96 GBPCIe Gen 5117 000 kr
1× RTX PRO 6000 Blackwell96 GBNVLink72 000 kr
4× RTX PRO 6000 Blackwell384 GBPCIe Gen 5289 000 kr

Datacenter-GPU:er

KonfigurationTotalt VRAMLänkningBeräknad kostnad
1× L40S48 GBPCIe 4.0 (passiv kylning)63 000 kr
1× A100 PCIe80 GBPCIe 4.090 000 kr
1× H200 NVL141 GBNVLink271 000 kr
4× H200 NVL564 GBNVLink1 084 000 kr
1× B200 SXM180 GBNVLink 5 (1,8 TB/s)271 000 kr
8× B200 SXM1 440 GBNVLink 5 (1,8 TB/s)2 168 000 kr

Kinesiska GPU:er

Kinas inhemska GPU-ekosystem har mognat snabbt. Flera kinesiska tillverkare erbjuder nu AI-GPU:er i arbetsstationsklass med konkurrenskraftiga specifikationer och betydligt lägre priser.

KonfigurationTotalt VRAMMinnestypBeräknad kostnad
1× Moore Threads MTT S400048 GBGDDR67 200 kr
4× Moore Threads MTT S4000192 GBGDDR632 000 kr
8× Moore Threads MTT S4000384 GBGDDR658 700 kr
1× Hygon DCU Z10032 GBHBM222 600 kr
1× Biren BR10432 GBHBM2e27 000 kr
8× Biren BR104256 GBHBM2e216 000 kr
1× Huawei Ascend Atlas 300I Duo96 GBHBM2e10 800 kr
8× Huawei Ascend Atlas 300I Duo768 GBHBM2e90 000 kr

Kommer snart

KonfigurationTotalt VRAMStatusBeräknad kostnad
RTX 5090 128 GB128 GBKinesisk mod. - inte en standard-SKU45 200 kr
RTX Titan AI64 GBFörväntas 202727 000 kr
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext

Förbyggda arbetsstationer

För små och medelstora företag som föredrar en leverantör, en garanti och en certifierad konfiguration, erbjuder olika leverantörer - som Dell och HP - förkonfigurerade system. Dessa är det säkra valet för icke-tekniska kontor - beställ, koppla in och börja arbeta.

NVIDIA DGX Station - en vattenkyld "datacenter på skrivbordet" som ansluts till ett vanligt vägguttag.

NVIDIA DGX Station

Enterprise Apex

NVIDIA DGX Station är en vattenkyld, skrivbordsnära superdator som för datacenterprestanda till en kontorsmiljö. Den senaste versionen använder GB300 Grace Blackwell Superchip.

NVIDIA DGX Station GB300 Framtidssäker Ultra
Beräknat pris ~1 807 tkr+

Blackwell Ultra-versionen ökar minnestäthet och beräkningskraft, designad för organisationer som behöver träna anpassade modeller från grunden eller köra massiva MoE-arkitekturer (Mixture of Experts) lokalt.

Minne
~1,5 TB+
HBM3e (ultrasnabbt)
Beräkning
~20+ PFLOPS
FP8 AI-prestanda
Användningsfall
Anpassäning
Modellutveckling
Effekt
Standarduttag
Inget serverrum krävs
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext
NVIDIA DGX Station A100 Tillgängligt AI-arbetskraftsdjur
Från ~406 000 kr

"Value King" för små och medelstora företag. Även om den är baserad på den tidigare generationens Ampere-arkitektur, förblir den industristandarden för pålitlig inferens och finjustering. Idealisk för team som kommer in i AI-världen utan budget för Blackwell.

Minne
320 GB
4x 80GB A100 GPU:er
Beräkning
2 PFLOPS
FP16 AI-prestanda
Flera användare
5–8 samtidiga
Måttlig samtidighet
Effekt
Standarduttag
Inget serverrum krävs

Även om den är dyr, ersätter DGX Station ett serverrack för 2,7 milj. kr+ och dess associerade kylinfrastruktur. Den ansluts till ett vanligt vägguttag. Detta eliminerar kostnaderna för ett serverrum helt.

Behöver ni hjälp att välja rätt AI-arbetsstation för ert företag?

Våra ingenjörer kan utvärdera era AI-hårdvarukrav och driftsätta ett fullt konfigurerat AI-system.

Få en gratis hårdvarubedömning →

5 Servrar
AI-servrar 136 000 – 1 807 000 kr

När ditt företag behöver betjäna 50 eller fler anställda samtidigt, köra grundläggande modeller med full precision eller finjustera anpassade modeller på proprietär data - kommer du in på servernivån.

Det här är domänen för dedikerade AI-acceleratorkort med minne med hög bandbredd (HBM), specialiserade interconnects och rackmonterade eller skrivbordsnära formfaktorer. Hårdvaran är dyrare, men kostnaden per användare minskar dramatiskt i stor skala.

Intel Gaudi 3

Bästa pris-prestanda i stor skala

Intels Gaudi 3-accelerator designades från grunden som ett AI-tränings- och inferenchip - inte ett återanvänt grafikkort. Varje kort ger 128 GB HBM2e-minne med integrerad 400 Gb Ethernet-nätverksteknik, vilket eliminerar behovet av separata nätverkskort.

En 8-korts Gaudi 3-server levererar 1 TB totalt AI-minne till mycket lägre kostnad än ett jämförbart NVIDIA H100-system. För små och medelstora företag som behöver serverklass-AI men inte kan motivera NVIDIAs prissättning, är Gaudi 3 det mest övertygande alternativet som finns idag.

💾
Minne per kort
128 GB
HBM2e - matchar DGX Spark i ett enda kort
8-korts totalt
1 TB
1 024 GB samlat minne för de största modellerna
💰
Systemkostnad
~1 355 tkr
40–50% billigare än motsvarande NVIDIA H100-installation
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext

Den integrerade 400 GbE-nätverkstekniken på varje Gaudi 3-kort möjliggör direkt kort-till-kort-kommunikation utan externa switchar - vilket förenklar serverarkitekturen och minskar den totala systemkostnaden. En 8-korts server kör de största öppen källkod-modellerna med interaktiva hastigheter för dussintals samtidiga användare.

AMD Instinct MI325X

Maximal densitet

AMD Instinct MI325X har 256 GB HBM3e-minne per kort - dubbelt så mycket som Intel Gaudi 3, dubbelt så mycket som NVIDIA H100. Endast 4 kort behövs för att nå 1 TB totalt AI-minne, jämfört med 8 kort för Intel eller NVIDIA.

💾
4-korts totalt minne
1 TB
Hälften så många kort som Intel för samma kapacitet
Bandbredd
6 TB/s
Per kort - möjliggör samtidiga användare
💰
Systemkostnad
~1 807 tkr
Högre kostnad, högre prestanda
SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext

MI325X är dyrare per system än Gaudi 3, men snabb tätare. För arbetsbelastningar som kräver maximal genomströmning - realtidsinferens för hundratals användare eller träning av anpassade modeller på stora datamängder - lönar sig den högre investeringen genom minskad latens och enklare infrastruktur.

Huawei Ascend

Fullständigt alternativ

Huawei

Huawei har replikerat hela AI-infrastrukturstacken: anpassade kisel (Ascend 910B/C), proprietära interconnects (HCCS) och ett komplett programvaruramverk (CANN). Resultatet är ett självständigt ekosystem som fungerar oberoende av västliga leveranskedjor och till mycket lägre kostnad än jämförbara NVIDIA H100-kluster.

SEO-bildtext
SEO-bildtext
SEO-bildtext
SEO-bildtext

Intel Xeon 6 (Granite Rapids)

Budgetserver

En tyst revolution 2026 är framväxten av CPU-baserad AI-inferens. Intel Xeon 6-processorer inkluderar AMX (Advanced Matrix Extensions) som möjliggör AI-arbetsbelastningar på standard DDR5-RAM - vilket är dramatiskt billigare än GPU-minne.

Avvägningen

En dubbelsocket Xeon 6-server kan ha 1 TB till 4 TB DDR5-RAM till en bråkdel av kostnaden för GPU-minne. Inferenshastigheter är långsamma, men för batchbearbetning - där hastighet är irrelevant men intelligens och kapacitet är avgörande - är detta revolutionerande.

Exempel: Ett SMF laddar upp 100 000 skannade fakturor över natten. Xeon 6-servern kör en AI-modell på +400B för att extrahera data perfekt. Uppgiften tar 10 timmar, men hårdvarukostnaden är mycket lägre än för en GPU-server.

Behöver du hjälp att välja rätt AI-serverinfrastruktur?

Vårt infrastrukturteam designar och implementerar kompletta AI-serverlösningar – från Intel Gaudi till NVIDIA DGX – kombinerat med skräddarsydd mjukvara – för att frigöra AI:s möjligheter för ditt företag.

Begär ett serverarkitekturförslag →

6 Edge AI
Edge AI & Retrofit Uppgradering av befintlig infrastruktur

Inte varje SMF behöver en dedikerad AI-server eller mini-PC. Många kan integrera intelligens i befintlig infrastruktur – uppgradera bärbara datorer, stationära datorer och nätverksenheter med AI-funktioner till minimal kostnad.

M.2 AI-acceleratorer: Hailo-10

Hailo-10 är en standard M.2 2280-modul – samma slits som används för SSD:er – som lägger till dedikerad AI-bearbetning i vilken befintlig PC som helst. Till ~1 500 kr per enhet och med ett strömförbrukning på endast 5–8W möjliggör den företagsomfattande AI-uppgraderingar utan att byta hårdvara.

📎
Formfaktor
M.2 2280
Passar i vilken standard-SSD-slit som helst
Prestanda
20–50 TOPS
Optimerad för edge-inferens
💰
Kostnad
~1 500 kr
Per enhet – flottuppgradering för under 27 000 kr

Användningsområden: Lokal mötestranskription (Whisper), realtidstextning, röstdiktamen, inferens av små modeller (Phi-3 Mini). Dessa kort kan inte köra stora LLM:er, men de utmärker sig på specifika, kontinuerliga AI-uppgifter – säkerställer att röstdata bearbetas lokalt och aldrig skickas till molnet.

Copilot+ datorer (NPU-bärbara)

Bärbara datorer med Qualcomm Snapdragon X Elite, Intel Core Ultra eller AMD Ryzen AI-chip innehåller dedikerade NPU:er. Dessa kan inte köra stora LLM:er, men hanterar små, kontinuerliga AI-uppgifter: livetranskription, bakgrundsoskärpa, lokala Recall-funktioner och körning av lätta modeller som Microsoft Phi-3.

9 AI-modeller
Open-Source AI-modeller (2026–2027)

Valet av AI-modell styr hårdvarukraven – men som kapitlet om AI Model Quantization visade, tillåter kvantisering att toppmoderna modeller kan köras på hårdvara som kostar en bråkdel av vad fullprecision kräver.

Tabellen nedan ger en översikt över nuvarande och kommande open-source AI-modeller.

ModellStorlekArkitekturMinne (FP16)Minne (INT4)
Llama 4 Behemoth288B (aktiv)MoE (~2T totalt)~4 TB~1 TB
Llama 4 Maverick17B (aktiv)MoE (400B totalt)~800 GB~200 GB
Llama 4 Scout17B (aktiv)MoE (109B totalt)~220 GB~55 GB
DeepSeek V4~70B (aktiv)MoE (671B totalt)~680 GB~170 GB
DeepSeek R137B (aktiv)MoE (671B totalt)~140 GB~35 GB
DeepSeek V3.2~37B (aktiv)MoE (671B totalt)~140 GB~35 GB
Kimi K2.532B (aktiv)MoE (1T totalt)~2 TB~500 GB
Qwen 3.5397B (aktiv)MoE (A17B)~1.5 TB~375 GB
Qwen 3-Max-ThinkingStorDense~2 TB~500 GB
Qwen 3-Coder-Next480B (A35B aktiv)MoE~960 GB~240 GB
Mistral Large 3123B (41B aktiv)MoE (675B totalt)~246 GB~62 GB
Ministral 3 (3B, 8B, 14B)3B–14BDense~6–28 GB~2–7 GB
GLM-544B (aktiv)MoE (744B totalt)~1.5 TB~370 GB
GLM-4.7 (Thinking)StorDense~1.5 TB~375 GB
MiMo-V2-Flash15B (aktiv)MoE (309B totalt)~30 GB~8 GB
MiniMax M2.5~10B (aktiv)MoE (~230B totalt)~460 GB~115 GB
Phi-5 Reasoning14BDense~28 GB~7 GB
Phi-414BDense~28 GB~7 GB
Gemma 327BDense~54 GB~14 GB
Pixtral 2 Large90BDense~180 GB~45 GB
Stable Diffusion 4~12BDiT~24 GB~6 GB
FLUX.2 Pro15BDiT~30 GB~8 GB
Open-Sora 2.030BDiT~60 GB~15 GB
Whisper V41.5BDense~3 GB~1 GB
Med-Llama 470BDense~140 GB~35 GB
Legal-BERT 202635BDense~70 GB~18 GB
Finance-LLM 315BDense~30 GB~8 GB
CodeLlama 470BDense~140 GB~35 GB
Molmo 280BDense~160 GB~40 GB
Granite 4.032B (9B aktiv)Hybrid Mamba-Transformer~64 GB~16 GB
Nemotron 38B, 70BDense~16–140 GB~4–35 GB
EXAONE 4.032BDense~64 GB~16 GB
Llama 5 Frontier~1.2T (totalt)MoE~2.4 TB~600 GB
Llama 5 Base70B–150BDense~140–300 GB~35–75 GB
DeepSeek V5~600B (totalt)MoE~1.2 TB~300 GB
Stable Diffusion 5TBDDiT
Falcon 3200BDense~400 GB~100 GB
Strategisk rådgivning

Köp inte hårdvara först. Identifiera den modellklass som passar dina affärsbehov, applicera sedan kvantisering för att bestämma den mest kostnadseffektiva hårdvarunivån.

Skillnaden mellan en 27 000 kr och en 1 355 tkr investering beror ofta på modellstorlekskrav och antalet samtidiga användare.

Trender som formar AI-modellandskapet

  • Inbyggd multimodalitet som standard. Nya modeller tränas på text, bilder, ljud och video samtidigt – inte som separata funktioner som läggs till efter träning. Detta innebär att en enda modell hanterar dokumentanalys, bildförståelse och röstinteraktion.
  • Små modeller uppnår stora modellers kapacitet. Phi-5 (14B) och MiMo-V2-Flash demonstrerar att arkitekturinnovation kan komprimera toppmoderna resonemang till modeller som körs på en bärbar dator. "Större är bättre"-eran håller på att ta slut.
  • Specialisering framför generalisering. Istället för en massiv modell för allt, går trenden mot ensembler av specialiserade modeller – en kodningsmodell, en resonemangsmodell, en bildmodell – orkestrerade av ett agentramverk. Detta minskar hårdvarukraven per modell samtidigt som den övergripande kvaliteten förbättras.
  • Agentisk AI. Modeller som Kimi K2.5 och Qwen 3 är designade för att självständigt dekomponera komplexa uppgifter, anropa externa verktyg och samordna med andra modeller. Detta agentsvärm-paradigm kräver ihållande dataflöde under långa sessioner – vilket gynnar hårdvara med hög bandbredd som GB10 och M5 Ultra.
  • Video- och 3D-generering mognar. Open-Sora 2.0 och FLUX.2 Pro signalerar att lokal videogenerering blir praktiskt genomförbar. Inom 2027 kan du förvänta dig realtidsvideoredigeringsassistenter som körs på arbetsstationsklassad hårdvara.

10 Säkerhet
Arkitektur för maximal säkerhet

Att skaffa kraftfull hårdvara är bara steg ett. För SMF som hanterar känslig data är arkitekturen för anslutningen mellan dina anställda och AI-systemet lika kritisk som hårdvaran själv.

Standard säkerhetsmodell för lokal AI 2026 är Air-Gapped API-arkitekturen: ett designmönster som fysiskt isolerar AI-servern från internet samtidigt som den gör den tillgänglig för auktoriserade anställda via ett API-gränssnitt.

Air-Gapped API-arkitektur
👤 Anställd Standardarbetsstation
🔀 Brokerserver Auth + UI + Routning
🔒 AI-server Air-gapped · Ingen internetanslutning
AI-valv

Denna arkitektur skapar ett Digitalt Valv. Även om Brokerservern äventyras, kan en angripare bara skicka textfrågor – de kunde inte komma åt AI-serverns filsystem, modellvikter, finjusteringsdata eller några lagrade dokument.

Behöver du en säker AI-implementering med skräddarsydda AI-lösningar?

Våra ingenjörer designar och implementerar air-gapped AI-arkitekturer som säkerställer att data aldrig lämnar lokalen samtidigt som ditt företag förses med toppmoderna AI-möjligheter.

Diskutera säker AI-arkitektur →

11 Ekonomi
Det ekonomiska utlåtandet: Lokalt vs. moln

Övergången till lokal AI-hårdvara är en förskjutning från OpEx (operativa utgifter – månatliga moln-API-avgifter) till CapEx (investeringsutgifter – en engångsinvestering i hårdvara som blir en tillgång i din balansräkning).

Tänk på ett juristföretag som kör en 70B-modell för att analysera kontrakt:

☁️ Moln-API
325 000 kr
per år (i skala)
1 000 kontrakt/dag × ~$0.01/1K tokens × 365 dagar. Skalar linjärt med användning. Data lämnar nätverket.
🖥️ Lokal hårdvara (DGX Spark)
36 000 kr
engångsinvestering
+ ~150 kr/månad el. Obegränsad användning. Data lämnar aldrig LAN. Tillgång i balansräkningen.

Vid 100 frågor per dag (en typisk arbetsbelastning för ett litet team), betalar en 36 000 kr DGX Spark för sig själv på under 2 månader jämfört med moln-API-kostnader. Vid högre användningsnivåer förkortas break-even-perioden till veckor.

Ekonomin blir ännu mer fördelaktig när du tar hänsyn till:

  • Flera anställda delar samma hårdvara (DGX Spark hanterar 2–5 samtidiga användare)
  • Inget pris per token - komplexa, flerstegsresonemang kostar inget extra
  • Finjustering med egenutvecklade data - omöjligt med de flesta moln-API:er, gratis på lokal hårdvara
  • Andrahandsvärde för hårdvara - AI-hårdvara behåller betydande värde på andrahandsmarknaden