• Linux 6.17 och 6.18 – nya funktioner, AMD-satsningar och dramatiken kring Bcachefs

    Linux 6.17 levererar nya funktioner och brett hårdvarustöd, medan kommande 6.18 – just nu i beta – markerar både stora tekniska framsteg för AMD-processorer och ett dramatiskt avsked till filsystemet Bcachefs. Med RC1 släppt den 12 oktober och en stabil utgåva väntad i december, kan 6.18 bli årets mest avgörande Linuxversion.

    Linux 6.17 och 6.18 – vad är nytt?

    Linuxkärnan fortsätter att utvecklas snabbt. Version 6.17 har redan släppts och kommer med många nyheter, medan 6.18 just nu är i teststadiet (så kallad beta). Den första testutgåvan (RC1 – Release Candidate 1) kom den 12 oktober. Mycket pekar på att just 6.18 blir årets LTS-version (Long Term Support), alltså en version som får långvariga uppdateringar och används som stabil grund i många system.

    Nyheter i Linux 6.17

    Även om 6.17 är en stabil version, innehåller den många förbättringar:

    • Filsystem
      • Btrfs (ett avancerat filsystem med funktioner för säker lagring) har fått ett nytt experimentellt stöd för så kallade large-folio (större minnessidor som gör filhanteringen effektivare).
      • Ext4 (ett av de mest använda filsystemen i Linux) har fått en ny funktion kallad RWF_DONTCACHE, som kan snabba upp vissa typer av filoperationer.
      • EROFS (ett läsbart, komprimeringsvänligt filsystem) kan nu komprimera metadata (den information som beskriver filer).
      • Två nya systemanrop – file_getattr() och file_setattr() – gör det enklare för program att hämta och ändra filernas attribut (t.ex. rättigheter eller tidsstämplar).
      • Den gamla drivrutinen för pktcdvd (CD/DVD i paketläge) har tagits bort eftersom den är föråldrad.
    • Kärnans kärna
      • Proxy execution: ett nytt sätt att undvika ”priority inversion”, ett problem där en snabb process fastnar bakom en långsammare. Med proxy execution kan en process ”låna ut” sin körtid till en annan som håller ett viktigt lås.
      • Auxiliary clocks: ett flexiblare sätt att mäta tid i systemet.
      • Stöd för enkelkärniga processorer (datorer med bara en CPU-kärna) har tagits bort. Även de kör nu kärnor byggda för SMP (Symmetric MultiProcessing, alltså flera kärnor).
    • Säkerhet
      • Förbättrade kontroller av filernas integritet.
      • AppArmor (ett säkerhetssystem i Linux) har fått bättre stöd för AF_UNIX-sockets (en typ av kommunikation mellan program).
    • BPF (Berkeley Packet Filter, en teknik för att köra specialkod direkt i kärnan) har fått nya funktioner:
      • Bättre åtkomst till cgroup-attribut (cgroups är en funktion som styr hur resurser delas mellan program).
      • Nya strängoperationer, alltså sätt att hantera text direkt i BPF-program.
    • Hårdvarustöd
      • Stöd för Raspberry Pi:s nya RP1-kontroller, Apples Mac SMC GPIO, Richtek-förstärkare, nya Qualcomm-komponenter och Realtek Wi-Fi 6 via USB.
      • Arm64 (processorarkitektur för mobil och server) har fått live patching (uppdateringar utan omstart).
      • LoongArch (kinesisk processorarkitektur) har fått bättre stöd för BPF.
    • Nätverk
      • Stöd för TCP_MAXSEG i Multipath TCP (en teknik där nätverkstrafik kan delas över flera anslutningar).
      • En ny parameter för IPv6 som låter varje nätverksgränssnitt hantera trafik vidarekoppling på sitt eget sätt.
      • Strängare regler för hur TCP-fönster (storleken på data som kan skickas innan bekräftelse) används.
      • Ny metod för congestion control (trafikstyrning i nätverk) kallad DualPI2, enligt standarden RFC 9332.
    • Rust-stöd
      Linux fortsätter bygga in stöd för programmeringsspråket Rust, som anses säkrare än C. Fler delar av kärnan har nu abstraktioner i Rust. Dessutom börjar det gamla sättet att hantera mmap() (minneskartläggning) ersättas av mmap_prepare(), som är säkrare.

    AMD i centrum i 6.18

    Även om 6.17 är spännande, är det 6.18 som fått mest uppmärksamhet – framför allt för AMD:s del.

    • Processorer
      • Drivrutinen för minnesfel (EDAC – Error Detection and Correction) har fått stöd för AMD Family 26, som troligen är nästa generations EPYC Zen 6-processorer.
      • Dessa nya processorer kommer att stödja 16 minneskanaler (idag är det 12), vilket betyder mycket högre minnesbandbredd.
      • Andra modeller i samma familj ser ut att stödja 8 kanaler, kanske för en kommande EPYC 8005-serie eller nya Threadripper PRO-processorer.
    • Funktioner
      • Förbättrad topologidetektering (hur kärnan ser processorns struktur).
      • Nytt stöd för att ladda microcode (små processoruppdateringar) enklare.
      • ABMC (Assignable Bandwidth Monitoring Counters): gör det möjligt att fördela resurser och övervaka QoS (Quality of Service).
      • Stöd för firmware-uppdateringar i drift (utan omstart), även för plattformens säkerhetsdelar.
      • Secure AVIC: förbättrar både säkerhet och prestanda inom AMD:s SEV (Secure Encrypted Virtualization).
    • Virtualisering (KVM)
      • Stöd för SEV-SNP CipherText Hiding, som skyddar gästsystem mot att deras minne analyseras utifrån.
      • AVIC (Accelerated Virtual Interrupt Controller) aktiveras som standard på Zen 4 och senare, om hårdvaran stödjer x2AVIC.
      • Secure TSC: skyddar mot manipulation av klockfrekvenser i virtuella maskiner.

    Sammantaget gör detta att 6.18 ser ut att bli en milstolpe för AMD och deras kommande processorer.

    Konflikten om Bcachefs

    En dramatisk nyhet i 6.18 är att Bcachefs tas bort ur kärnan.

    Bcachefs är ett filsystem som kombinerar funktioner från Btrfs och ZFS (som copy-on-write, ökad säkerhet) med prestanda i stil med ext4 och XFS. Det har setts som ett lovande projekt.

    Men huvudutvecklaren Kent Overstreet har hamnat i konflikt med Linus Torvalds, skaparen av Linux. Torvalds har varit missnöjd med att patchar skickats in för sent, vilket kan hota stabiliteten.

    I 6.17 markerades Bcachefs som ”externally maintained” (underhållet utanför kärnan). Och i 6.18 RC1 har det helt tagits bort.

    Det betyder att Bcachefs fortfarande går att använda, men bara via DKMS (Dynamic Kernel Module Support), en metod där man bygger drivrutiner utanför kärnan, liknande hur NVIDIA:s grafikdrivrutiner fungerar. Problemet är att det kräver att någon anpassar Bcachefs för varje ny kernelversion – något som kanske inte alla Linuxdistributioner gör. I värsta fall måste användarna själva kompilera och underhålla det.

    Framtiden för Bcachefs är alltså osäker, trots dess tekniska styrkor.

    En viktig höst för Linux

    • Linux 6.17 visade att även en stabil version kan innehålla stora nyheter, från filsystem till nätverk och hårdvarustöd.
    • Linux 6.18, som väntas bli färdig i december, kan bli historisk – särskilt för AMD:s kommande processorer och för alla förbättringar inom säkerhet och virtualisering.

    Samtidigt kommer den att minnas som versionen där Bcachefs försvann ur kärnan. Frågan är om framtiden kommer att beskriva 6.18 som den version där Linux stärkte AMD:s ställning på serversidan – eller som versionen där ett lovande filsystem tappade sin plats i rampljuset.

    Har gjort en ny version, den förra texten var lite för teknisk för den som inte är 100 % insatt i programmering och Linuxkärnan

    Faktaruta – Linuxkärnan 6.17 & 6.18
    Linux 6.17
    • Btrfs: experimentellt large-folio + fler val för komprimering vid defrag.
    • Ext4: buffrad I/O med RWF_DONTCACHE.
    • EROFS: metadata-komprimering.
    • Nya syscalls: file_getattr(), file_setattr().
    • ”Proxy execution” mot priority inversion (samma CPU).
    • Auxiliary clocks (flexiblare tidsredovisning).
    • UP-kärnor borttagna – även enkärniga system kör SMP-byggd kärna.
    • Säkerhet: nytt FS-ioctl för integritet, AppArmor bättre AF_UNIX.
    • BPF: kfuncs för cgroup-xattrs + standardsträngar.
    • Hårdvara: RP1 (Raspberry Pi), Apple Mac SMC GPIO, Richtek, nya Qualcomm-interconnects, Realtek USB Wi-Fi 6 m.fl.
    • Nät: MPTCP TCP_MAXSEG, per-interface IPv6-forwarding, striktare TCP-fönster, DualPI2 (RFC 9332).
    • Rust-abstraktioner utökas; mmap() fasas till mmap_prepare().
    Linux 6.18 (beta)
    • Status: RC1 släppt 12 oktober; stabil väntas i december.
    • Förväntas bli årets LTS.
    • Bcachefs: borttaget ur mainline — vidare via DKMS.
    • AMD-fokus:
      • EDAC: Family 26 nya modeller (bl.a. troliga EPYC Zen 6 ”Venice”) med 16 minneskanaler.
      • Fler Family 26-modeller med 8 kanaler (möjliga EPYC 8005 / nya TR PRO).
      • Städad CPU-topologi + förbättrad microcode-laddare för felsökning.
      • ABMC: QoS-bandbredds-räknare på EPYC.
      • Runtime-firmware för säkerhetsprocessor m.fl.
      • Secure AVIC för bättre SEV-prestanda/säkerhet.
      • KVM: SEV-SNP CipherText Hiding, Secure TSC; AVIC på som standard på Zen 4+ med x2AVIC.
  • Hantera processer i Linux från terminalen – En nybörjarguide

    Att förstå och hantera processer är en av de mest grundläggande färdigheterna i Linux. När du kör ett program – vare sig det är en webbläsare, ett terminalkommando eller en systemtjänst – skapas en process. Ibland behöver du som användare ta kontroll över dessa processer: kanske för att ett program har hängt sig, för att frigöra resurser eller för att starta om en tjänst. I Linux görs detta genom att skicka signaler till processer via terminalen. I den här guiden går vi igenom vad processer är, hur signaler fungerar och hur du kan använda viktiga kommandon som kill, killall, pkill, fuser, pgrep och skill för att söka upp, pausa eller avsluta processer – med tydliga exempel för nybörjare.

    Att kunna döda en process från terminalen kan ibland vara nödvändigt.

    Vad är en process i Linux?

    En process är ett körande program på datorn. Operativsystemet Linux hanterar många processer samtidigt och ger varje process ett unikt process-ID (PID) för identifiering. Processer kan vara synliga användarprogram (som ett webbrowserfönster) eller systemtjänster som körs i bakgrunden. Linux-kärnan ansvarar för att schemalägga processer, fördela resurser och hålla isär deras minne och rättigheter. Som användare kan man med kommandon i terminalen inspektera och påverka processer, till exempel om ett program har hängt sig eller om man behöver avsluta en process som förbrukar för mycket resurser.

    Varför behöver man hantera eller avsluta processer?

    Vanliga anledningar till att manuellt hantera (eller döda) processer är att ett program inte svarar, har låst sig eller använder orimligt mycket CPU/minne. Ibland behöver man avsluta ett program som körs i bakgrunden, starta om en tjänst genom att skicka en viss signal, eller frigöra en fil eller nätverksport som en process håller låst. Genom att skicka signaler till processer kan man be dem avsluta på ett kontrollerat sätt eller tvinga fram en avslutning om de inte reagerar. Att känna till de viktigaste kommandona för processhantering – såsom kill, killall, pkill, fuser, pgrep och skill – är därför värdefullt. I denna artikel går vi igenom vad signaler är och hur man använder dessa kommandon med praktiska exempel.

    Signaler i Linux och vanliga signaler

    En signal är ett meddelande som operativsystemet kan skicka till en process för att uppmärksamma den på en händelse eller begära en viss åtgärd. Signaler identifieras både med namn (ofta med prefixet SIG) och ett nummer. Till exempel är SIGTERM signal nummer 15, SIGKILL nummer 9, SIGHUP nummer 1 och SIGSTOP nummer 19. När en signal skickas till en process avbryts den normalt tillfälligt för att hantera signalen. Vissa signaler kan fångas upp av processen (som då kan välja att ignorera dem eller utföra städning), medan andra inte kan ignoreras.

    Några vanliga signaler och deras betydelser är:

    • SIGTERM (15) – Termineringssignal. Standard-signalen som skickas av kommandot kill. Den ber processen att avsluta sig själv gracefully, dvs. på ett kontrollerat sätt[2]. Processen får en chans att städa upp, spara sitt tillstånd, stänga filer etc., innan den avslutas.
    • SIGKILL (9) – Kill-signalen. Detta är en tvångsavslutning som inte kan fångas eller ignoreras av processen[1][3]. Operativsystemet terminerar processen omedelbart när det får denna signal, även om processen hängt sig. SIGKILL bör användas som sista utväg när en process inte reagerar på vänligare signaler, eftersom ingen städning sker och t.ex. temporära filer eller resurser kan lämnas i osäkert tillstånd[3].
    • SIGHUP (1) – Hang up. Ursprungligen indikerar detta att den terminal (TTY) som startade processen kopplades ned. För många bakgrundstjänster (daemons) har det blivit konvention att SIGHUP innebär att processen ska läsa om sin konfiguration eller starta om sig själv[4]. Man kan alltså skicka SIGHUP till en daemon för att få den att göra en mjuk omstart eller ladda om inställningar.
    • SIGSTOP (19) – Stoppsignal. Pauserar en process (fryser dess exekvering) utan att avsluta den, och kan inte ignoreras av processen[1]. Detta motsvarar att köra ett program i bakgrunden genom att trycka Ctrl+Z i terminalen. En stoppad process kan återupptas igen genom att skicka SIGCONT (continue) eller föras in i förgrunden med shell-kommandon som fg. SIGSTOP/SIGCONT är användbara om man tillfälligt vill pausa en process (t.ex. för felsökning) utan att döda den.

    Det finns många fler signaler (för att lista alla standard-signaler kan man köra kill -l eller fuser -l i terminalen). Som nybörjare är det viktigast att förstå att SIGTERM är standardmetoden att avsluta processer på ett snällt sätt, SIGKILL är en tvingande nödlösning, och att signaler som SIGHUP och SIGSTOP har speciella användningsområden. Nästa steg är att använda kommandon som skickar dessa signaler till processer.

    Kommandot kill – avsluta processer med PID

    Det mest grundläggande sättet att skicka en signal till en process är med kommandot kill. Namnet låter brutalt, men kill skickar egentligen en godtycklig signal (som standard SIGTERM) till en eller flera processer utifrån deras PID. För att använda kill måste du alltså känna till processens ID-nummer. Detta kan man ta reda på med verktyg som ps (processlista), top eller pgrep (mer om pgrep nedan).

    Syntax: kill [signal] PID … (om ingen signal anges skickas SIGTERM som standard).

    Exempel på användning:

    # Skicka standardsignalen SIGTERM (15) till process med PID 1234
    kill 1234

    Kommandot ovan ber processen 1234 att avsluta sig själv snällt (SIGTERM är default för kill[2]). Om processen inte avslutas kan man behöva skicka en mer drastisk signal:

    # Tvinga avslutning av process 1234 med SIGKILL (9)
    kill -9 1234

    Här används flaggan -9 för att skicka signal 9 (SIGKILL), vilket omedelbart dödar processen[3]. Notera att man också kan skriva kill -SIGKILL 1234 – många signaler kan anges antingen med nummer, med fullt namn (t.ex. -SIGKILL) eller förkortat utan ”SIG” (t.ex. -KILL), alla dessa är ekvivalenta.

    Ett normalfall är att först försöka med en vanlig kill (SIGTERM) och ge processen åtminstone några sekunder att avsluta sig på rätt sätt. Om den fortsatt vägrar dö eller hänger sig, kan man följa upp med kill -9 för att garantera att den försvinner. SIGKILL kan som sagt inte ignoreras av processen[5].

    Kommandot kill kan även skicka andra signaler. Till exempel kan man skicka SIGHUP (1) för att instruera en process att starta om eller läsa om konfiguration:

    # Skicka SIGHUP (1) till process 5678, ofta för att få en daemon att läsa om sin config
    kill -1 5678 # -1 motsvarar SIGHUP
    kill -HUP 5678 # detta är likvärdigt med -1

    På liknande sätt kan kill -STOP användas för att pausa en process och kill -CONT för att fortsätta en pausad process. Om du är osäker på signalnamnet eller numret kan du skriva:

    # Lista alla signals namn och nummer
    kill -l

    Detta listar alla signaler som systemet känner till (t.ex. får du reda på att 15 = TERM, 9 = KILL, 1 = HUP, etc.).

    Tips: kill är inbyggt i många shell (som Bash). Oftast räcker det att ange PID, men var försiktig så att du inte råkar ange fel PID. Det är alltid en bra idé att dubbelkolla med exempelvis ps eller pgrep att du har rätt process. Som vanlig användare kan du bara skicka signaler till processer du äger (startat själv), medan root-användaren kan signalera alla processer.

    Kommandot killall – döda processer utifrån namn

    Med killall kan du skicka en signal till samtliga processer som matchar ett givet kommando-namn. Till skillnad från kill behöver du alltså inte känna till PID; istället anger du namnet på processen/programmet. Som standard skickar killall också SIGTERM om ingen annan signal anges[6].

    Syntax: killall [flaggor] [signal] namn…

    Ett enkelt exempel:

    # Försöker stänga alla processer som heter ”firefox” med SIGTERM
    killall firefox

    Ovanstående kommando försöker avsluta alla körande Firefox-processer (t.ex. om flera webbläsarfönster är öppna) genom att skicka SIGTERM till dem. Om de inte stänger sig ordentligt kan man tvinga dem:

    # Döda alla ”firefox”-processer med SIGKILL (9)
    killall -9 firefox

    Flaggan -9 fungerar här likadant som för kill. Man kan även specificera signalnamn, till exempel killall -KILL firefox gör samma sak. Under huven skickar killall signalen till alla processer med det angivna namnet[6].

    Det är viktigt att ange processen vid exakt namn. killall matchar som default hela kommandonamnet. Till exempel, killall vi dödar processer vars namn är precis ”vi”, men inte ”vim”. Man kan använda flaggan -I för att ignorera skillnad mellan versaler/gemener vid namnmatchning, eller -r för att tolka namnet som ett regular expression (regex) om man vill ha mer flexibel matchning[7]. Exempelvis skulle killall -r -9 ^firefox med regex döda alla processer vars namn börjar med ”firefox”.

    Några andra praktiska flaggor för killall är: – -i (interactive) – frågar om bekräftelse före varje enskild process som ska dödas. Bra för säkerhets skull om man är osäker. – -v (verbose) – skriver ut information om huruvida signalen lyckades skickas till var och en. – -u användare – begränsa till processer som ägs av en viss användare. T.ex. killall -u alice firefox skulle bara försöka döda Alice instanser av firefox.

    Varning: killall på Linux är harmlöst om du anger ett specifikt processnamn, men se upp så att du inte misstar det för det helt annorlunda kommandot killall på vissa Unix-system (som Solaris) där killall utan argument faktiskt försöker döda alla processer. På Linux är killall en del av psmisc-paketet och fungerar enligt ovan. Ange alltid explicit ett processnamn när du använder detta kommando.

    Kommandot pkill – skicka signal utifrån sökmönster

    pkill liknar killall genom att det låter dig avsluta processer baserat på namn, men det är mer flexibelt. Namnet pkill står för ”process kill” och är kopplat till kommandot pgrep (process grep). I själva verket är pkill en variant av pgrep som istället för att lista processer skickar en signal till dem som matchar kriteriet[8]. pkill använder sig av mönstermatchning (standardmässigt regular expressions) på processernas namn eller andra attribut.

    Syntax: pkill [flaggor] [signal] mönster

    Om ingen signal anges så skickar pkill som vanligt SIGTERM (15)[9]. Mönstret kan vara en del av processens namn. Exempel:

    # Försök avsluta alla processer vars namn innehåller ”chrome”
    pkill chrome

    Ovan kommando skulle skicka SIGTERM till alla processer som matchar regex-mönstret ”chrome” i sitt namn (så det träffar t.ex. både chrome och chromium om de körs). Vill man vara specifik att namnet ska matcha exakt, kan man använda flaggan -x (exact match). Alternativt kan man skriva regex med ^ och $ för att ange början/slut på namnet:

    # Avsluta alla processer som heter exakt ”ssh” (inte bara innehåller ”ssh”)
    pkill -x ssh

    Man kan på liknande sätt som med killall använda -9 eller -KILL för att skicka SIGKILL:

    # Tvinga bort alla processer vars namn matchar ”chrome”
    pkill -9 chrome

    Ett praktiskt användningsområde är att skicka andra signaler. Till exempel för att be en tjänst ladda om sin konfiguration (vilket ofta görs med SIGHUP) kan du göra:

    # Ladda om Nginx konfiguration genom att skicka SIGHUP (1) till alla ”nginx”-processer
    pkill -HUP nginx

    Detta utnyttjar att många tjänster (inklusive Nginx) tolkar SIGHUP som signal att läsa om config[10][11].

    pkill har flera användbara flaggor för att begränsa vilka processer som träffas: – -f – matcha mot hela kommandoraden istället för bara basnamnet. T.ex. pkill -f ”python myscript.py” skulle matcha kommandoraden som innehåller texten python myscript.py (användbart om processen har ett generiskt namn men unika argument). – -u användare – matcha bara processer som körs av en viss användare (eller lista av användare). T.ex. pkill -u bob ssh dödar ssh-processer som körs av användaren bob. – -n / -o – matcha endast den nyaste respektive äldsta processen som uppfyller mönstret. Detta är bra om man t.ex. vill döda den senast startade instansen av något. – -c – (i vissa varianter) visa antal träffade processer istället för att döda (eller används i pgrep specifikt – se man pkill/pgrep).

    En viktig sak med pkill är att det är lätt att matcha bredare än avsett om man inte är försiktig med mönstret. Till exempel kan pkill ssh även döda en process som heter ssh-agent eftersom ”ssh” ingår i namnet. Därför är ett gott råd att först testa mönstret med pgrep (som bara listar träffar) innan man kör pkill. Exempel:

    pgrep -l chrome # listar PIDs och namn för processer som matchar ”chrome”

    Om utdata ser rimlig ut så kan man sedan byta ut pgrep mot pkill med samma mönster för att faktiskt skicka signalen.

    Kommandot pgrep – hitta processer utifrån namn eller villkor

    Som nämnt är pgrep syskonverktyget till pkill. Istället för att skicka signaler listar pgrep helt enkelt ut process-ID för processer vars namn eller andra attribut matchar ett mönster. Formatet liknar pkill:

    Syntax: pgrep [flaggor] mönster

    Standardbeteendet är att matcha processnamn (kommandots namn) mot ett angivet mönster (som tolkas som regex). pgrep skriver ut matchande PIDs, ett per rad. Några exempel:

    # Hitta PID för alla processer vars namn innehåller ”ssh”
    pgrep ssh

    # Hitta PID för processen som heter exakt ”gnome-shell”
    pgrep -x gnome-shell Hantera processer i Linux från terminalen – En nybörjarguide

    Vad är en process i Linux?

    En process är ett körande program på datorn. Operativsystemet Linux hanterar många processer samtidigt och ger varje process ett unikt process-ID (PID) för identifiering. Processer kan vara synliga användarprogram (som ett webbrowserfönster) eller systemtjänster som körs i bakgrunden. Linux-kärnan ansvarar för att schemalägga processer, fördela resurser och hålla isär deras minne och rättigheter. Som användare kan man med kommandon i terminalen inspektera och påverka processer, till exempel om ett program har hängt sig eller om man behöver avsluta en process som förbrukar för mycket resurser.

    Varför behöver man hantera eller avsluta processer?

    Vanliga anledningar till att manuellt hantera (eller döda) processer är att ett program inte svarar, har låst sig eller använder orimligt mycket CPU/minne. Ibland behöver man avsluta ett program som körs i bakgrunden, starta om en tjänst genom att skicka en viss signal, eller frigöra en fil eller nätverksport som en process håller låst. Genom att skicka signaler till processer kan man be dem avsluta på ett kontrollerat sätt eller tvinga fram en avslutning om de inte reagerar. Att känna till de viktigaste kommandona för processhantering – såsom kill, killall, pkill, fuser, pgrep och skill – är därför värdefullt. I denna artikel går vi igenom vad signaler är och hur man använder dessa kommandon med praktiska exempel.

    Signaler i Linux och vanliga signaler

    En signal är ett meddelande som operativsystemet kan skicka till en process för att uppmärksamma den på en händelse eller begära en viss åtgärd. Signaler identifieras både med namn (ofta med prefixet SIG) och ett nummer. Till exempel är SIGTERM signal nummer 15, SIGKILL nummer 9, SIGHUP nummer 1 och SIGSTOP nummer 19[1]. När en signal skickas till en process avbryts den normalt tillfälligt för att hantera signalen. Vissa signaler kan fångas upp av processen (som då kan välja att ignorera dem eller utföra städning), medan andra inte kan ignoreras.

    Några vanliga signaler och deras betydelser är:

    • SIGTERM (15) – Termineringssignal. Standard-signalen som skickas av kommandot kill. Den ber processen att avsluta sig själv gracefully, dvs. på ett kontrollerat sätt[2]. Processen får en chans att städa upp, spara sitt tillstånd, stänga filer etc., innan den avslutas.
    • SIGKILL (9) – Kill-signalen. Detta är en tvångsavslutning som inte kan fångas eller ignoreras av processen[1][3]. Operativsystemet terminerar processen omedelbart när det får denna signal, även om processen hängt sig. SIGKILL bör användas som sista utväg när en process inte reagerar på vänligare signaler, eftersom ingen städning sker och t.ex. temporära filer eller resurser kan lämnas i osäkert tillstånd[3].
    • SIGHUP (1) – Hang up. Ursprungligen indikerar detta att den terminal (TTY) som startade processen kopplades ned. För många bakgrundstjänster (daemons) har det blivit konvention att SIGHUP innebär att processen ska läsa om sin konfiguration eller starta om sig själv[4]. Man kan alltså skicka SIGHUP till en daemon för att få den att göra en mjuk omstart eller ladda om inställningar.
    • SIGSTOP (19) – Stoppsignal. Pauserar en process (fryser dess exekvering) utan att avsluta den, och kan inte ignoreras av processen[1]. Detta motsvarar att köra ett program i bakgrunden genom att trycka Ctrl+Z i terminalen. En stoppad process kan återupptas igen genom att skicka SIGCONT (continue) eller föras in i förgrunden med shell-kommandon som fg. SIGSTOP/SIGCONT är användbara om man tillfälligt vill pausa en process (t.ex. för felsökning) utan att döda den.

    Det finns många fler signaler (för att lista alla standard-signaler kan man köra kill -l eller fuser -l i terminalen). Som nybörjare är det viktigast att förstå att SIGTERM är standardmetoden att avsluta processer på ett snällt sätt, SIGKILL är en tvingande nödlösning, och att signaler som SIGHUP och SIGSTOP har speciella användningsområden. Nästa steg är att använda kommandon som skickar dessa signaler till processer.

    Kommandot kill – avsluta processer med PID

    Det mest grundläggande sättet att skicka en signal till en process är med kommandot kill. Namnet låter brutalt, men kill skickar egentligen en godtycklig signal (som standard SIGTERM) till en eller flera processer utifrån deras PID. För att använda kill måste du alltså känna till processens ID-nummer. Detta kan man ta reda på med verktyg som ps (processlista), top eller pgrep (mer om pgrep nedan).

    Syntax: kill [signal] PID … (om ingen signal anges skickas SIGTERM som standard).

    Exempel på användning:

    # Skicka standardsignalen SIGTERM (15) till process med PID 1234
    kill 1234

    Kommandot ovan ber processen 1234 att avsluta sig själv snällt (SIGTERM är default för kill[2]). Om processen inte avslutas kan man behöva skicka en mer drastisk signal:

    # Tvinga avslutning av process 1234 med SIGKILL (9)
    kill -9 1234

    Här används flaggan -9 för att skicka signal 9 (SIGKILL), vilket omedelbart dödar processen[3]. Notera att man också kan skriva kill -SIGKILL 1234 – många signaler kan anges antingen med nummer, med fullt namn (t.ex. -SIGKILL) eller förkortat utan ”SIG” (t.ex. -KILL), alla dessa är ekvivalenta.

    Ett normalfall är att först försöka med en vanlig kill (SIGTERM) och ge processen åtminstone några sekunder att avsluta sig på rätt sätt. Om den fortsatt vägrar dö eller hänger sig, kan man följa upp med kill -9 för att garantera att den försvinner. SIGKILL kan som sagt inte ignoreras av processen[5].

    Kommandot kill kan även skicka andra signaler. Till exempel kan man skicka SIGHUP (1) för att instruera en process att starta om eller läsa om konfiguration:

    # Skicka SIGHUP (1) till process 5678, ofta för att få en daemon att läsa om sin config
    kill -1 5678 # -1 motsvarar SIGHUP
    kill -HUP 5678 # detta är likvärdigt med -1

    På liknande sätt kan kill -STOP användas för att pausa en process och kill -CONT för att fortsätta en pausad process. Om du är osäker på signalnamnet eller numret kan du skriva:

    # Lista alla signals namn och nummer
    kill -l

    Detta listar alla signaler som systemet känner till (t.ex. får du reda på att 15 = TERM, 9 = KILL, 1 = HUP, etc.).

    Tips: kill är inbyggt i många shell (som Bash). Oftast räcker det att ange PID, men var försiktig så att du inte råkar ange fel PID. Det är alltid en bra idé att dubbelkolla med exempelvis ps eller pgrep att du har rätt process. Som vanlig användare kan du bara skicka signaler till processer du äger (startat själv), medan root-användaren kan signalera alla processer.

    Kommandot killall – döda processer utifrån namn

    Med killall kan du skicka en signal till samtliga processer som matchar ett givet kommando-namn. Till skillnad från kill behöver du alltså inte känna till PID; istället anger du namnet på processen/programmet. Som standard skickar killall också SIGTERM om ingen annan signal anges[6].

    Syntax: killall [flaggor] [signal] namn…

    Ett enkelt exempel:

    # Försöker stänga alla processer som heter ”firefox” med SIGTERM
    killall firefox

    Ovanstående kommando försöker avsluta alla körande Firefox-processer (t.ex. om flera webbläsarfönster är öppna) genom att skicka SIGTERM till dem. Om de inte stänger sig ordentligt kan man tvinga dem:

    # Döda alla ”firefox”-processer med SIGKILL (9)
    killall -9 firefox

    Flaggan -9 fungerar här likadant som för kill. Man kan även specificera signalnamn, till exempel killall -KILL firefox gör samma sak. Under huven skickar killall signalen till alla processer med det angivna namnet[6].

    Det är viktigt att ange processen vid exakt namn. killall matchar som default hela kommandonamnet. Till exempel, killall vi dödar processer vars namn är precis ”vi”, men inte ”vim”. Man kan använda flaggan -I för att ignorera skillnad mellan versaler/gemener vid namnmatchning, eller -r för att tolka namnet som ett regular expression (regex) om man vill ha mer flexibel matchning[7]. Exempelvis skulle killall -r -9 ^firefox med regex döda alla processer vars namn börjar med ”firefox”.

    Några andra praktiska flaggor för killall är: – -i (interactive) – frågar om bekräftelse före varje enskild process som ska dödas. Bra för säkerhets skull om man är osäker. – -v (verbose) – skriver ut information om huruvida signalen lyckades skickas till var och en. – -u användare – begränsa till processer som ägs av en viss användare. T.ex. killall -u alice firefox skulle bara försöka döda Alice instanser av firefox.

    Varning: killall på Linux är harmlöst om du anger ett specifikt processnamn, men se upp så att du inte misstar det för det helt annorlunda kommandot killall på vissa Unix-system (som Solaris) där killall utan argument faktiskt försöker döda alla processer. På Linux är killall en del av psmisc-paketet och fungerar enligt ovan. Ange alltid explicit ett processnamn när du använder detta kommando.

    Svensk manualsida till killall(1)

    Kommandot pkill – skicka signal utifrån sökmönster

    pkill liknar killall genom att det låter dig avsluta processer baserat på namn, men det är mer flexibelt. Namnet pkill står för ”process kill” och är kopplat till kommandot pgrep (process grep). I själva verket är pkill en variant av pgrep som istället för att lista processer skickar en signal till dem som matchar kriteriet[8]. pkill använder sig av mönstermatchning (standardmässigt regular expressions) på processernas namn eller andra attribut.

    Syntax: pkill [flaggor] [signal] mönster

    Om ingen signal anges så skickar pkill som vanligt SIGTERM (15)[9]. Mönstret kan vara en del av processens namn. Exempel:

    # Försök avsluta alla processer vars namn innehåller ”chrome”
    pkill chrome

    Ovan kommando skulle skicka SIGTERM till alla processer som matchar regex-mönstret ”chrome” i sitt namn (så det träffar t.ex. både chrome och chromium om de körs). Vill man vara specifik att namnet ska matcha exakt, kan man använda flaggan -x (exact match). Alternativt kan man skriva regex med ^ och $ för att ange början/slut på namnet:

    # Avsluta alla processer som heter exakt ”ssh” (inte bara innehåller ”ssh”)
    pkill -x ssh

    Man kan på liknande sätt som med killall använda -9 eller -KILL för att skicka SIGKILL:

    # Tvinga bort alla processer vars namn matchar ”chrome”
    pkill -9 chrome

    Ett praktiskt användningsområde är att skicka andra signaler. Till exempel för att be en tjänst ladda om sin konfiguration (vilket ofta görs med SIGHUP) kan du göra:

    # Ladda om Nginx konfiguration genom att skicka SIGHUP (1) till alla ”nginx”-processer
    pkill -HUP nginx

    Detta utnyttjar att många tjänster (inklusive Nginx) tolkar SIGHUP som signal att läsa om config[10][11].

    pkill har flera användbara flaggor för att begränsa vilka processer som träffas: – -f – matcha mot hela kommandoraden istället för bara basnamnet. T.ex. pkill -f ”python myscript.py” skulle matcha kommandoraden som innehåller texten python myscript.py (användbart om processen har ett generiskt namn men unika argument). – -u användare – matcha bara processer som körs av en viss användare (eller lista av användare). T.ex. pkill -u bob ssh dödar ssh-processer som körs av användaren bob. – -n / -o – matcha endast den nyaste respektive äldsta processen som uppfyller mönstret. Detta är bra om man t.ex. vill döda den senast startade instansen av något. – -c – (i vissa varianter) visa antal träffade processer istället för att döda (eller används i pgrep specifikt – se man pkill/pgrep).

    En viktig sak med pkill är att det är lätt att matcha bredare än avsett om man inte är försiktig med mönstret. Till exempel kan pkill ssh även döda en process som heter ssh-agent eftersom ”ssh” ingår i namnet. Därför är ett gott råd att först testa mönstret med pgrep (som bara listar träffar) innan man kör pkill. Exempel:

    pgrep -l chrome # listar PIDs och namn för processer som matchar ”chrome”

    Om utdata ser rimlig ut så kan man sedan byta ut pgrep mot pkill med samma mönster för att faktiskt skicka signalen.

    Svensk manualsida till pkill(1)

    Kommandot pgrep – hitta processer utifrån namn eller villkor

    Som nämnt är pgrep syskonverktyget till pkill. Istället för att skicka signaler listar pgrep helt enkelt ut process-ID för processer vars namn eller andra attribut matchar ett mönster. Formatet liknar pkill:

    Syntax: pgrep [flaggor] mönster

    Standardbeteendet är att matcha processnamn (kommandots namn) mot ett angivet mönster (som tolkas som regex). pgrep skriver ut matchande PIDs, ett per rad. Några exempel:

    # Hitta PID för alla processer vars namn innehåller ”ssh”
    pgrep ssh

    # Hitta PID för processen som heter exakt ”gnome-shell”
    pgrep -x gnome-shell

    # Hitta alla processer som körs av användaren alice och innehåller ”python” i namnet
    pgrep -u alice python

    I det sista exemplet kombineras -u alice för att filtrera på ägare och mönstret ”python” för att filtrera på namn. pgrep har i stort sett samma filterflaggor som pkill (som -f, -x, -n, -o, -u etc.), så man kan göra avancerade sökningar. En användbar flagga är -l (lågt L) som gör att pgrep listar inte bara PID utan även processens namn:

    pgrep -l ssh

    Det kan ge utdata som:

    1039 sshd
    2257 ssh-agent
    6850 ssh
    31279 ssh-agent

    Då ser man både PID och vilket program det är. Om man vill ha hela kommandoraden kan man använda -a i stället för -l.

    pgrep är således mycket smidigare än att köra t.ex. ps aux | grep namn och manuellt leta PIDs. När man väl fått en PID via pgrep kan man sedan använda kill på den, eller direkt använda pkill som vi gjorde ovan för att slippa steget att manuellt läsa av PID.

    Svenska manualsida till pgrep(1)

    Kommandot fuser – hitta (och döda) processer som använder en resurs

    fuser är ett verktyg som skiljer sig lite från de övriga: det är inte en renodlad ”kill”-kommandon utan används för att identifiera vilka processer som använder en viss resurs. En resurs i detta sammanhang kan vara en fil, en mapp, eller en nätverksport/socket. Namnet fuser kommer av ”file user”, dvs vilka processer som använder en fil.

    Ett klassiskt problem är ”varför kan jag inte montera/avmontera den här disken?” eller ”vilken process kör på port 8080?”. fuser hjälper dig att svara på det, och kan även ta steget att döda de processer som blockerar en resurs.

    Syntax: fuser [flaggor] [resurs]

    Några vanliga användningsfall:

    # Ta reda på vilken process som använder filen /var/log/syslog
    fuser /var/log/syslog

    # Lista vilken process som lyssnar på TCP-port 80 (HTTP)
    fuser 80/tcp

    # Visa mer detaljer (ägare, access-typ etc.) för processer som kör på port 80
    fuser -v 80/tcp

    När man kör fuser på en fil eller port returnerar den normalt vilka PID:er som använder resursen. Flaggan -v (verbose) ger en tabell som visar PID, användare, och hur de använder resursen (t.ex. F för öppnad fil, e för exe-körning, tcp för nätverkstjänst etc.)[12][13].

    En mycket praktisk funktion är att kunna döda alla processer som använder en viss resurs. Detta görs med flaggan -k (kill). Exempel:

    # Döda processen som använder TCP-port 8443
    sudo fuser -k 8443/tcp

    Här letar fuser upp vilken process som lyssnar på port 8443 och skickar SIGKILL till den[14]. Som standard skickar fuser -k nämligen SIGKILL till processerna[15]. Om man istället vill försöka avsluta dem mjukare kan man specificera signal, t.ex. fuser -k -TERM 8443/tcp för att skicka SIGTERM (15)[16][17]. Generellt kan man lägga till -[SIGNAL] efter -k för valfri signal.

    VARNING: Använd fuser -k med omsorg. Om du anger en vanlig fil som resurs kommer bara processen som har just den filen öppen att dödas, men om du anger en hel mapp eller en monteringspunkt (t.ex. ett helt filsystem) så kommer alla processer som använder något i den mappen att dödas[18]. Till exempel fuser -k /home kan i värsta fall döda en mängd processer (eftersom många program sannolikt har något öppet under /home). Var därför specifik med resursen och använd gärna -i (interactive) flaggan tillsammans med -k för att be om bekräftelse för varje träff innan den dödas[18]. Exempel:

    # Interaktivt (-i) döda alla processer som använder aktuell mapp (.)
    fuser -ki .

    Ovan skulle lista alla processer som kör något i nuvarande katalog, och fråga y/n innan varje dödas.

    Slutligen, fuser -l visar en lista över alla signalnamn som kommandot känner till, liknande kill -l. fuser är ett kraftfullt verktyg när man till exempel felsöker ”resource busy” felmeddelanden – man kan snabbt hitta vilken process som blockerar en fil eller port och avsluta den för att komma vidare.

    Svensk manualsida till fuser(1)

    Kommandot skill – (föråldrat) skicka signaler baserat på användare/terminal

    Kommandot skill har snarlikt namn som kill, men är ett separat verktyg som låter dig skicka signaler till processer baserat på kriterier som användarnamn, terminal eller kommandonamn. Det kan ses som en föregångare till moderna verktyg som pkill och killall. I dagens Linux-system betraktas skill som föråldrat (obsolete) och ostandardiserat – dokumentationen själv rekommenderar att man använder killall, pkill och pgrep istället[19]. Vi tar ändå upp det här för fullständighetens skull.

    Syntax: skill [signal] [val för urval]

    Till skillnad från killall/pkill som använder argument och flaggor för att matcha processer, så använder skill en mer fri form där man exempelvis kan ange en användare eller en terminal direkt. För att eliminera tvetydighet finns dock flaggor: – -u användare för att matcha alla processer körda av en given användare. – -t tty för att matcha en viss terminal (TTY/PTY) där processerna körs. – -p pid för att matcha ett specifikt process-ID. – -c namn för att matcha ett kommandonamn.

    Standard-signalen för skill är SIGTERM (precis som kill)[20]. Du kan lista tillgängliga signalnamn med skill -l (eller -L för en tabell). Signal anges antingen med t.ex. -SIGKILL eller kortare -KILL eller med nummer -9.

    Några exempel på vad man kan göra med skill:

    # Döda (SIGKILL) alla processer som körs av användaren ”bob”
    sudo skill -KILL -u bob

    Detta liknar att köra killall -u bob eller pkill -9 -u bob – alla Bobs processer avslutas[21]. Ett annat exempel:

    # Stoppa (pausa med SIGSTOP) alla processer som körs på terminal /dev/pts/3
    skill -STOP -t pts/3

    Om en användare har en viss terminal öppen (t.ex. pts/3 över SSH) skulle ovan kommando frysa alla den användarens processer i just den terminalen. Man kan även ange flera kriterier:

    # Exempel från man-sidan: stoppa alla processer för tre olika användare
    skill -STOP -u alice -u bob -u charlie

    Och på motsvarande sätt kan man döda alla processer på alla pseudoterminaler (PTY):

    # Exempel: logga ut alla användare på pts-terminaler med tvång
    sudo skill -KILL -v /dev/pts/*

    Här används -v för verbose så att varje träff rapporteras. Detta kommando skulle skicka SIGKILL till samtliga processer som är kopplade till någon pts-terminal (praktiskt taget logga ut alla interaktiva sessions) – använd med extrem försiktighet!

    Sammanfattningsvis är skill kraftfull men inte så vanligt förekommande längre. Samma sak kan oftast göras med pkill/killall som är mer portabla mellan system. Om du stöter på skill i dokumentation eller scripts vet du nu att det är ett verktyg för att signalera processer med liknande funktion som killall/pkill, men i moderna Linux-distributioner kan du själv välja att använda de senare för klarhetens skull[19].

    Svenska manualsida till skill(1)

    ps – lista och filtrera processer

    ps visar en ögonblicksbild av aktiva processer. Det används för att hitta PID:er och förstå vad som körs.

    Exempel:
    ps – Terminalens egna processer
    ps aux – Alla processer i BSD-format
    ps -ef – Alla processer i System V-format
    ps -eo pid,ppid,user,%cpu,%mem,stat,etime,cmd | head
    ps -C sshd -o pid,ppid,cmd
    ps -ef –forest | less

    Några viktiga kolumner:

    • PID – process-ID
    • PPID – föräldraprocessens ID
    • STAT – status (R=running, S=sleeping, T=stopped, Z=zombie)
    • %CPU / %MEM – resursanvändning

    Svensk manualsida till ps(1)

    pidof – hämta PID utifrån namn

    Ger PID för körande program, bra i skript.

    Exempel:
    pidof nginx
    ps -p ”$(pidof nginx)” -o pid,ppid,%cpu,%mem,cmd

    Svensk manualsida för pidof(1)

    pstree – visa processhierarki

    pstree ritar processer i ett träd.

    Exempel:
    pstree
    pstree -p – med PIDs
    pstree -a – med kommandorader

    Svensk manualsidan till pstree(1)

    lsof – lista öppna filer och portar

    lsof visar vilka filer eller nätverksportar som används av processer.

    Exempel:
    sudo lsof /var/log/syslog
    sudo lsof -P -i :8080
    sudo lsof -t -i :8443 – endast PID
    sudo lsof -p 1234 – öppna filer för specifik PID

    Flaggor:

    • -P → visa portnummer
    • -n → hoppa över DNS
    • -t → endast PID

    Svenskmanualsida för lsof(8)

    top och htop – realtidsövervakning

    Interaktiva verktyg för att se processer i realtid.

    Exempel:
    top
    htop

    Tips i top:

    • M → sortera på minne
    • P → sortera på CPU
    • k → döda en process (ange PID och signal)

    Avslutande tips

    Att hantera processer i Linux-terminalen innebär i stort sett att man skickar rätt signal till rätt process(er). Börja alltid ”snällt” med SIGTERM eller SIGHUP om syftet är att låta processen städa upp och avsluta sig självmant. Om inte det hjälper, eskalera till SIGKILL för att tvinga fram en avslutning. Lär dig känna igen de vanligaste signalnamnen och deras nummer. Använd verktyg som pgrep för att dubbelkolla vilka processer som kommer att påverkas innan du använder pkill eller killall. Och slutligen – var försiktig med kommandon som mass-terminerar processer (killall, fuser -k, eller skill -KILL) särskilt som administratör, så att du inte råkar stänga ner mer än avsett.

    Med dessa verktyg och koncept i bagaget har du en god grund för att felsöka och kontrollera processer i Linux via terminalen. Lycka till med din processhantering!

    Exempel

    Här är 10 praktiska exempel på hur du kan använda ps, pidof, pstree, lsof, top/htop, samt de tidigare genomgångna verktygen (kill, killall, pkill, pgrep, fuser, skill) på olika sätt:

    1. Hitta en process som drar mest CPU
    ps -eo pid,%cpu,%mem,cmd --sort=-%cpu | head
    

    Visar de mest CPU-intensiva processerna.

    1. Avsluta ett specifikt program via PID
    kill -9 4321
    

    Tvingar bort processen med PID 4321 (t.ex. en låst applikation).

    1. Hitta och avsluta alla Firefox-processer
    killall firefox
    

    Avslutar alla processer som heter ”firefox”.

    1. Avsluta processer baserat på mönster i kommandoraden
    pkill -f "python myscript.py"
    

    Stänger processen som kör ett Python-skript med namnet myscript.py.

    1. Lista alla PIDs för processer som heter ssh
    pgrep -l ssh
    

    Visar både PID och namn på alla ssh-relaterade processer.

    1. Hitta vilken process som lyssnar på port 8080
    sudo lsof -i :8080
    

    Visar vilket program som kör på port 8080 (ofta webbserver eller testserver).

    1. Avsluta processen som håller port 8080
    sudo fuser -k 8080/tcp
    

    Dödar processen som blockerar porten.

    1. Visa processhierarkin som träd
    pstree -p
    

    Visar processer och deras PID i ett trädformat – bra för att förstå föräldra-/barnrelationer.

    1. Se vad som händer i realtid
    top
    

    Startar realtidsövervakning av processer. Du kan trycka k för att döda en process direkt från top.

    1. Hitta PID för en tjänst och visa dess detaljer
    pidof nginx
    ps -p $(pidof nginx) -o pid,ppid,user,%cpu,%mem,etime,cmd
    

    Hämtar PID för nginx och visar sedan detaljer om processen.

    Faktaruta: Processkommandon i Linux (terminal)

    Snabböversikt över kill, killall, pkill, pgrep, fuser och skill.

    kill — skicka signal till PID
    Används för att skicka en signal (t.ex. SIGTERM/SIGKILL) till en specifik process via dess PID.
    Syntax
    kill [signal] PID
    kill 1234            # SIGTERM (standard)
    kill -9 1234         # SIGKILL (tvingande)
    kill -HUP 5678       # läs om konfiguration
    killall — skicka signal till alla processer med visst namn
    Riktar in sig på kommandonamn i stället för PID.
    Syntax
    killall firefox       # SIGTERM
    killall -9 firefox    # SIGKILL
    killall -i firefox    # interaktiv bekräftelse
    Vanliga flaggor: -9, -i (interaktiv), -v (verbose), -u <användare>.
    pkill — skicka signal med mönstermatchning
    Använder regex/mönster för att träffa processer efter namn eller kommandorad.
    Syntax
    pkill chrome          # SIGTERM
    pkill -9 chrome       # SIGKILL
    pkill -x ssh          # exakt namnmatch
    pkill -HUP nginx      # ladda om tjänst
    Vanliga flaggor: -f (hela kommandoraden), -u <användare>, -n (nyaste), -o (äldsta), -x (exakt).
    Tips: testa först med pgrep så att mönstret träffar rätt.
    pgrep — hitta processer (ingen signal)
    Listar PIDs (och ev. namn/kommandorad) som matchar ett mönster.
    Syntax
    pgrep ssh
    pgrep -l ssh          # PID + namn
    pgrep -a python       # hela kommandoraden
    pgrep -u alice python # filter per användare
    Flaggor som liknar pkill: -f, -u, -n, -o, -x, -l, -a.
    fuser — visa/döda processer som använder fil/katalog/port
    Identifierar vilka processer som håller en resurs (fil, mountpoint, nätverksport).
    Syntax
    fuser /var/log/syslog
    fuser 80/tcp
    sudo fuser -k 8080/tcp     # döda process(er) på port
    Flaggor: -v (detaljer), -k (döda), -i (interaktiv), -l (lista signaler).
    Obs! -k på en hel katalog/mount kan döda många processer.
    skill — äldre verktyg (använd helst pkill/killall)
    Skickar signaler baserat på användare/terminal/namn; anses föråldrat.
    Exempel
    sudo skill -KILL -u bob   # döda alla processer för användare
    skill -STOP -t pts/3      # pausa processer på terminal
    Vanliga signaler
    • SIGTERM (15) – snäll avslutning (standard).
    • SIGKILL (9) – tvingande avslutning (kan ej fångas/ignoreras).
    • SIGHUP (1) – läs om konfiguration/starta om.
    • SIGSTOP (19) – pausa; återuppta med SIGCONT.
    Lista alla signaler: kill -l
    Rekommenderat arbetssätt
    • Börja med SIGTERM; ta till SIGKILL sist.
    • Testa mönster med pgrep innan du kör pkill.
    • Var försiktig med mass-terminering (killall, fuser -k).
  • RISC-V får egen testmiljö i Collaboras öppna labb

    RISC-V tar ännu ett steg mot bredare användning. Genom att Collabora och RISE-projektet nu öppnar sin testmiljö för två RISC-V-kort får utvecklare världen över tillgång till hårdvarutester på distans – från enkel Linux-boot till fullständig återställning av hela systemet.

    RISC-V, den öppna processorarkitekturen som spås en ljus framtid, har fått en viktig förstärkning: två utvecklingskort – Banana Pi BPI-F3 och SiFive HiFive P550 – har nu lagts till i Collaboras publika testlabb.

    Bakom satsningen står RISE-projektet och Collabora, som tillsammans vill göra det enklare för utvecklare att testa mjukvara på riktig hårdvara. Testningen sker via LAVA, ett system som kan slå på korten på distans, styra bootloadern och starta Linux för att köra automatiserade tester.

    Men projektet nöjer sig inte med vanliga tester. Genom verktyget Boardswarm kan man gå djupare, ända ner i den allra första startkedjan i processorn. Det betyder att utvecklare kan återställa och omflasha enheterna helt på distans – från bootloader till operativsystem.

    Resultatet är en publikt tillgänglig testmiljö för RISC-V som vem som helst kan använda. Dokumentationen är öppen, så andra kan bygga liknande testfarmer.

    Det här är ett stort steg för ekosystemet kring RISC-V, som nu får samma typ av automatiserad testning som länge varit självklar för x86- och ARM-världen.

    https://www.collabora.com/news-and-blog/news-and-events/tested-on-real-silicon-automating-risc-v-hardware-in-the-loop.html

  • Ubuntu Touch 20.04 OTA-10 – ny uppdatering med uppgraderingsverktyg och stöd för fler enheter

    Ubuntu Touch tar ännu ett steg framåt. Med den nya uppdateringen OTA-10 får det Linux-baserade mobiloperativsystemet inte bara stöd för fler enheter, utan även ett nytt uppgraderingsverktyg som banar väg för nästa stora generationsskifte – Ubuntu Touch 24.04.

    UBports Foundation fortsätter sin resa mot att erbjuda ett verkligt alternativ till de dominerande mobila operativsystemen. Nu släpper de den tionde stabila uppdateringen av Ubuntu Touch 20.04, en version som vid första anblick kan verka liten – men som i själva verket lägger grunden för nästa stora språng i projektets historia.

    Ett nytt verktyg som pekar framåt

    Höjdpunkten i OTA-10 är utan tvekan introduktionen av ett helt nytt uppgraderingsverktyg. Med detta på plats blir det möjligt för användarna att sömlöst gå över till Ubuntu Touch 24.04-1.0 så snart den versionen är redo. Det är inte vilken uppdatering som helst – 24.04 blir den första versionen av Ubuntu Touch som bygger på Ubuntu 24.04 LTS, även känd som Noble Numbat, vilket betyder både längre support och ett modernare fundament.

    Små förbättringar med stor betydelse

    Förutom uppgraderingsverktyget innehåller OTA-10 flera mindre men viktiga förbättringar. Bluetooth har fått en justering så att systemet inte längre försöker para ihop sig automatiskt med Nissan Connect-enheter, H.264-encodern har fått en smartare hantering av bitrate, och Mir screencast har blivit mer stabil tack vare mutex-låsning.

    Det finns också nyheter för den som vill experimentera. Nix-stöd har börjat implementeras, vilket kan ge större flexibilitet i hur systemet hanteras framöver. Multimedia-stödet har utökats med UHD-format och uppdaterade AVC-nivåtyper. Dessutom har centrala komponenter som QtWebEngine och BlueZ uppdaterats med fixar och säkerhetsförbättringar.

    Fler enheter, fler användare

    En av de mest konkreta nyheterna är att listan över officiellt stödda enheter växer. Rabbit R1 får nu sitt första officiella stöd, och därmed blir Ubuntu Touch tillgängligt på ännu en enhet i en redan imponerande bredd. I övrigt omfattar listan populära modeller från bland annat Fairphone, Google, OnePlus, Volla, Sony och Xiaomi.

    Uppdateringen rullas ut stegvis

    För den som redan kör Ubuntu Touch på den stabila kanalen kommer OTA-10 att dyka upp via systeminställningarnas uppdateringsfunktion. Utrullningen sker gradvis, så alla får inte uppdateringen på samma dag. Den som är otålig kan dock ta saken i egna händer och hämta uppdateringen direkt via ADB.

    Framtiden väntar runt hörnet

    Egentligen skulle Ubuntu Touch 24.04-1.0 ha lanserats parallellt med OTA-10, men tester visade att vissa enheter inte startade som de skulle. UBports valde därför att senarelägga släppet. Det kan ses som en besvikelse för den som väntat länge på nästa stora generationsskifte – men också som en försäkran om att projektet tar kvalitet på allvar.

    När 24.04 väl når användarna kommer det att innebära en rejäl modernisering av Ubuntu Touch och ge projektet en stark grund för framtiden. OTA-10 är därför inte slutmålet, utan snarare bron som leder dit.

    Ubuntu Touch 20.04 OTA-10 – Teknisk fakta

    Version
    20.04 OTA-10
    Bas
    Ubuntu 20.04 LTS (Focal)
    Nyckelnyhet
    Ny uppgraderare för Ubuntu Touch 24.04-1.0
    Nya enheter
    Rabbit R1
    Förbättringar
    H.264 bitrate-logik, Bluetooth-parning fix (Nissan Connect), stabilare Mir screencast (mutex), preliminärt Nix-stöd, UHD/AVC-uppdateringar.
    Utrullning
    Stegvis via Inställningar → Uppdateringar (Stable-kanalen).
    Tvinga uppdatering
    sudo system-image-cli -v -p 0 --progress dots
    Stödda modeller (urval)
    Fairphone 3/3+/4, Google Pixel 3a/3a XL, OnePlus 5/5T/6/6T/Nord N10 5G/N100, Volla-serien (inkl. Tablet & Quintus), Sony Xperia X, Xiaomi Poco X3 NFC / X3, Redmi 9/9 Prime, Note 9-serien, Asus Zenfone Max Pro M1, JingPad A1, Lenovo Tab M10 HD 2nd Gen.
    Visa full lista
    • Asus Zenfone Max Pro M1
    • F(x)tec Pro1 X
    • Fairphone 3, 3+, 4
    • Google Pixel 3a, 3a XL
    • JingPad A1
    • Lenovo Tab M10 HD 2nd Gen (WiFi/LTE)
    • OnePlus 5, 5T, 6, 6T, Nord N10 5G, N100
    • Rabbit R1
    • Sony Xperia X
    • Volla Phone, Phone X, 22, X23, Quintus, Volla Tablet
    • Xiaomi Poco X3 NFC / X3, Poco M2 Pro
    • Xiaomi Redmi 9, 9 Prime, Redmi Note 9, Note 9 Pro/Pro Max/9S
    Felrapport
    Kontrollera öppna ärenden i GitLab och följ UBports buggrapporteringsguide.
    Tips: Installationsinstruktioner och enhetsstöd finns på devices.ubuntu-touch.io.
  • ByteDance vill köra flera Linux kärnor på samma dator – utan virtualisering

    Kan flera Linux-kärnor dela på en enda server utan virtualisering? ByteDance, företaget bakom TikTok, tror det. Med sitt nya projekt Parker vill de ta ett koncept som länge funnits i stordatorvärlden – partitionering – och göra det möjligt på vanliga x86-servrar. Resultatet kan bli snabbare och mer flexibla system, men också nya risker.

    Vad är det som är nytt?

    ByteDance, mest känt för TikTok, har lagt fram ett förslag som kan förändra hur stora datorer används. Projektet kallas Parker och handlar om att låta flera Linux-kärnor köras samtidigt på samma fysiska dator – men utan att använda klassiska virtualiseringslösningar som VMware eller KVM.

    I stället delas själva hårdvaran upp: vissa processorkärnor, minne och nätverkskort går till en kärna, medan andra kärnor får sina egna resurser.

    Så här fungerar Parker

    Allt börjar med en Boot Kernel, som tar kontroll över datorn vid start. Den delar upp resurserna och tilldelar dem till olika Application Kernels.

    Efter det körs varje kärna helt självständigt, utan att de pratar med varandra. Det gör att de inte stör varandra – och kan ge mycket bättre prestanda på riktigt stora servrar.

    Varför är detta intressant?

    Moderna servrar kan ha hundratals processorkärnor. Att få dessa att jobba effektivt är inte alltid lätt. Parker skulle kunna:

    • Förbättra skalbarhet – varje kärna jobbar för sig själv.
    • Ge flexibilitet – olika kärnor kan ha olika inställningar och optimeringar beroende på arbetsuppgift.
    • Låta företag köra olika system samtidigt på samma maskin, utan att bygga upp en stor virtualiseringslösning.

    Men det finns risker

    Allt är inte guld och gröna skogar. Parker har ingen hypervisor som övervakar kärnorna. Det betyder att en bugg i en av kärnorna kan få hela datorn att krascha.

    En expert från Intel, Dave Hansen, varnade dessutom för att vissa systemkommandon – som normalt påverkar hela maskinen – kan skapa konflikter mellan kärnorna.

    Vad händer nu?

    Förslaget är än så länge bara på experimentstadiet. Linux-utvecklare världen över diskuterar just nu om Parker är ett genialiskt steg framåt – eller bara ännu ett misslyckat försök som kommer glömmas bort.

    Sammanfattning

    Parker är ett djärvt försök att köra flera Linux-kärnor parallellt, utan virtualisering. Om det lyckas kan det ge snabbare, mer flexibla servrar – men också innebära nya risker för stabilitet och säkerhet.

    Framtiden får utvisa om Parker blir verklighet eller bara stannar som en spännande idé på ritbordet.

    Parker – teknisk faktaruta

    • Typ: Partitionerad Linux-kärna (utan hypervisor)
    • Syfte: Köra flera Linux-kärnor samtidigt på samma maskin
    • Primärt mål: Stora x86-servrar med mycket högt kärnantal
    • Resurser per instans: Dedikerade CPU-kärnor, minnesregioner och PCIe-enheter
    • IO-krav: Egen NVMe/NIC per kärna (ingen delning)
    • Arkitektur: Boot Kernel delar ut resurser → Application Kernels
    • Kommunikation: Ingen – instanserna delar inget (”share-nothing”)
    • Gränssnitt: kernfs för konfiguration
    • Start av sekundära: kexec till reserverade minnesområden
    • Förberedelser: CPU offline, CMA-minnesreserv, unbind av PCI-enheter
    • Fördel: Lägre overhead och potentiellt bättre skalbarhet
    • Risk/Begränsning: Samma säkerhetsdomän (ingen hypervisor-isolering)
    • Kända invändningar: Systemomfattande instruktioner (t.ex. WBINVD) kan påverka alla
    Konfigurationsidéer: olika CONFIG-val, FDO/PGO per arbetslast.
    Föreslagit av: ByteDance (Fam Zheng, Thom Hughes) • Status: RFC
  • KaOS Linux 2025.09 – liten men modern Linux som vill ge dig det bästa av KDE

    KaOS Linux 2025.09 är här.
    Den lilla, självständiga Linux-distributionen bjuder på det allra senaste inom KDE-världen, toppmodern kärna och flera nya program. Med fokus på kvalitet framför kvantitet vill KaOS visa att även små projekt kan leverera en helgjuten upplevelse.

    Tänk dig en Linux-distribution som inte försöker vara allt för alla, utan istället fokuserar på att vara riktigt bra på en sak. Det är precis vad KaOS Linux gör. Nu har version 2025.09 släppts, och även om KaOS är en liten nischad spelare i Linuxvärlden, levererar den ett imponerande paket för den som gillar KDE Plasma-skrivbordet.

    Alltid det senaste
    KaOS bygger på den allra senaste tekniken. Den nya utgåvan drivs av Linux-kärnan 6.16 och levereras med KDE Plasma 6.4.5, tillsammans med de färska programpaketen KDE Gear 25.08.1 och KDE Frameworks 6.18. Allt är byggt på ramverket Qt 6.9.2, vilket gör att skrivbord och program hänger ihop på ett modernt och enhetligt sätt.

    Nya program att utforska
    Utvecklarna har också lagt till flera spännande program i denna version:

    • Typst, ett nytt sätt att skapa dokument – tänk LaTeX, fast modernare och enklare.
    • Plasma Bigscreen, ett gränssnitt för TV-apparater. Perfekt för den som vill förvandla datorn till ett mediacenter.
    • Hydrogen, en trumsequencer för att skapa musik med digitala beats.

    Små men viktiga förändringar
    En detalj som utvecklarna lyfter fram är att installationsprogrammet Calamares inte längre öppnar en webbläsare som root när man startar installationen – något som länge varit en säkerhetsrisk. Istället visas nu informationen direkt i installationsfönstret med hjälp av en modern QML-baserad lösning.

    Även det community-drivna paketarkivet KCP har flyttat till Codeberg, vilket betyder att all kod nu hanteras på öppna plattformar.

    Uppdaterat under huven
    För de som gillar tekniska detaljer finns det mycket nytt: Mesa 25.2.3, PipeWire 1.4.8, systemd 254.27, Bash 5.3, OpenSSL 3.5.3, Git 2.51, OpenZFS 2.3.4 och många fler uppdaterade komponenter. Det är med andra ord inte bara ytan som är fräsch.

    Rolling release – du installerar en gång
    En av fördelarna med KaOS är att det är en så kallad rolling release. Det innebär att du bara installerar systemet en gång och därefter får kontinuerliga uppdateringar, istället för att behöva göra stora nyinstallationer. Befintliga användare behöver alltså bara skriva:

    Faktaruta: KaOS Linux 2025.09

    • Kärna: Linux 6.16
    • Skrivbord: KDE Plasma 6.4.5
    • Programsviter: KDE Gear 25.08.1, KDE Frameworks 6.18
    • Ramverk: Qt 6.9.2
    • Nya appar: Typst, Plasma Bigscreen, Hydrogen
    • Installationsprogram: Calamares (med QML Drawer för välkomstinfo)
    • KCP: Flyttat till Codeberg

    Kärnkomponenter

    • Mesa 25.2.3
    • PipeWire 1.4.8
    • systemd 254.27
    • GStreamer 1.26.6
    • GNU Bash 5.3
    • OpenSSL 3.5.3
    • Git 2.51
    • OpenZFS 2.3.4
    • KBD 2.9.0
    • OpenCV 4.12.0
    • Protobuf 32.1
    • Poppler 25.09.0
    • Meson 1.9.1
    • OpenEXR 3.4.0
    • Proj 9.7.0
    • libxml2 2.14.6

    Uppdatering

    sudo pacman -Syu
      

    Rolling release – installera en gång, uppdatera för alltid.

  • PeerTube 7.3 – Framtiden för fri och decentraliserad videodelning

    PeerTube är den fria och decentraliserade videoplattformen som vill utmana jättar som YouTube. Med den nya versionen 7.3 blir tjänsten både mer användarvänlig och flexibel: e-post kan nu skickas på flera språk, administratörer får enklare verktyg för anpassning och livesändningar kan schemaläggas i förväg. Det är ännu ett steg mot ett öppnare internet där användarna själva har kontrollen.

    I en tid då de flesta av oss förknippar videodelning med stora centraliserade plattformar som YouTube, Vimeo eller TikTok, finns det ett alternativ som bygger på helt andra värden: PeerTube. Det är en fri, öppen källkodsplattform som drivs av ideella krafter, utan reklamjättar i ryggen. I stället bygger PeerTube på decentralisering, gemenskap och självbestämmande.

    Nu har version 7.3 släppts, och den innehåller flera efterlängtade nyheter som gör det ännu enklare att både använda och administrera en PeerTube-instans.

    Varför PeerTube?

    PeerTube skiljer sig från de stora aktörerna på flera viktiga sätt:

    • Decentralisering: I stället för en enda server eller företag drivs PeerTube av många olika instanser. Vem som helst kan starta en egen videoplattform och välja om den ska vara öppen för alla eller mer privat.
    • Federering: Instanser kan prata med varandra via det öppna protokollet ActivityPub (samma som Mastodon använder). Det betyder att videor kan delas över nätverket, även om de ligger på olika servrar.
    • Frihet och kontroll: Användare och administratörer bestämmer själva över innehåll, regler och design – inte en central algoritm.
    • Gemenskap: Projektet utvecklas av den franska ideella organisationen Framasoft, men tusentals volontärer bidrar med kod, översättningar och idéer.

    Med andra ord: PeerTube är ett verktyg för att ta tillbaka makten över våra digitala medier.

    Nyheterna i PeerTube 7.3

    E-post på flera språk

    Tidigare skickades alla e-postmeddelanden (till exempel bekräftelser, notifieringar och lösenordsåterställningar) enbart på engelska. För många användare var det ett hinder i professionella sammanhang.

    Nu kan e-post översättas till alla språk som PeerTube stöder. Redan från start finns franska och kinesiska fullt översatta, och fler språk är på gång tack vare gemenskapens insatser.

    Enklare administration och anpassning

    Administratörer får nu ett nytt, mer lättöverskådligt sidomenygränssnitt. Dessutom har två nya konfigurationssidor tillkommit:

    • Anpassning (Customisation): Byt färger, former på knappar och annat med några klick. Vill du byta bort PeerTubes orange till blått? Inga problem.
    • Logotyp och bilder: Här kan du ladda upp loggor, favicons, banners och bilder som används på plattformen – även de som visas på sociala medier.

    Dessutom finns nu en inställningsguide (wizard) som hjälper nya administratörer att komma igång. Där kan man direkt sätta plattformens namn, beskrivning och syfte: privat, gemenskap eller institution.

    Schemalägg dina livesändningar

    PeerTube har länge erbjudit liveströmmar, men nu kan du planera dem i förväg. Ange datum och tid – sedan visas informationen både på sändningens sida och i kanalens videolista. På så vis kan publiken planera i stället för att bara vänta.

    Fler förbättringar

    • Playlist-sidorna har fått ny design och gör det lättare att ändra visningsordning.
    • Admins kan sätta standardvärden för licens, synlighet och kommentarsinställningar.
    • Användare kan nu lista alla aktiva inloggningssessioner och stänga av dem vid behov.

    PeerTube och framtiden

    Att bygga ett alternativ till globala jättar är inget litet projekt. Det kräver åratal av arbete, översättningar, kod, testning och framför allt en engagerad gemenskap. PeerTube 7.3 är ett exempel på hur en idé kan växa till ett robust verktyg, utan att styras av annonsintäkter eller algoritmer som prioriterar klick före innehåll.

    Vill du själv bidra? Du kan köra en egen PeerTube-instans, hjälpa till med översättningar, rapportera buggar eller donera till Framasoft. Varje liten insats gör skillnad.

    Läs mer: PeerTube 7.3 Release Notes

    PeerTube – Fakta på en blick

    Vad är det?

    • Fri, öppen och decentraliserad plattform för video.
    • Federerar mellan servrar (instanser) via ActivityPub.
    • P2P-distribution med WebTorrent minskar serverlast och kostnad.
    • Passar allt från små communitys till institutioner och företag.

    Vad klarar det?

    • Uppladdning, kanaler, spellistor, undertexter och kapitel.
    • Livesändning (RTMP-ingest) med HLS-uppspelning och schemaläggning.
    • Moderering, rapporter, blockeringar, policy per instans.
    • Federerade följningar/kommentarer från t.ex. Mastodon.
    • Anpassningsbar branding (loggor, färger, knappar) och teman.
    • API & plugin-stöd för inloggning, analys, import/export m.m.

    Filosofi

    • Gemenskapsdriven, utan annonsjättar och central algoritm.
    • Suveränitet: varje admin sätter regler, innehållspolicy och design.
    • Interoperabilitet via öppna standarder (ActivityPub, WebRTC/WebTorrent).
    • Hållbarhet: P2P delar bandbredd med tittarna – skalar snällt.

    Vad krävs för att hosta?

    • Server med Node.js och PostgreSQL.
    • ffmpeg för transkodning (CPU/GPU beroende på profil).
    • Reverse proxy: Nginx eller Apache.
    • Lagring: lokalt filsystem eller S3-kompatibelt objektlager.
    • Valfritt: Redis för köer/cache, CDN för public.
    • SSL/TLS (t.ex. Let’s Encrypt). RAM/CPU efter samtidiga tittare.

    Teknisk porr (för nördögon)

    • Federering: ActivityPub objekt (Video, Channel, Comment).
    • P2P: WebTorrent via WebRTC data channels i webbläsaren.
    • Transkodning: ffmpeg till H.264/AAC (vanligt), stöd för flera kvaliteter/bitrates.
    • Live: RTMP ingest → HLS segmentering, miniatyrer & återuppspelning.
    • Autentisering: lokala konton + OAuth2/OpenID Connect (via plugins).
    • Länkinbäddning: oEmbed/iframe, OpenGraph/Twitter Cards för social förhandsvisning.
    • Webhook/Jobs: köade arbeten för transkodning, federering och miniatyrgenerering.
    • Import: URL, YouTube/DailyMotion m.fl. via bakgrundsjobb (inom upphovsrätt).

    WordPress-tips

    • Klistra in videons Delnings-URL i blocket “Inbäddning” eller använd iframe från “Dela > Bädda in”.
    • Lägg den här faktarutan i blocket Anpassad HTML.
    • För mörkt tema i WP: säkerställ att blockets bakgrund inte skriver över sektionens svarta bakgrund.

    Mer info: joinpeertube.org  |  Källkod & releaser: GitHub/PeerTube

  • DuckDB 1.4 LTS – säkerhet, prestanda och nya funktioner för framtidens databas

    DuckDB, databasen som ofta kallas ”SQLite för analys”, har släppt version 1.4 – en långsiktigt stödd utgåva full med nyheter. Med inbyggd kryptering, stöd för MERGE-kommandot, skrivning till Iceberg och förbättrad prestanda tar DuckDB ännu ett kliv mot att bli en av de mest flexibla och kraftfulla analysdatabaserna på marknaden.

    DuckDB, den lilla men kraftfulla databasen som ofta beskrivs som ”SQLite för analys”, har nått en viktig milstolpe. Med version 1.4, kodnamn Andium, släpps nu en LTS-utgåva (Long-Term Support) med ett års garanterat community-stöd. Den här versionen är fullmatad med nyheter som gör databasen både säkrare och snabbare, samtidigt som den blir mer flexibel att använda.

    Kryptering på riktigt

    En av de största nyheterna är att DuckDB nu kan kryptera hela databasen med AES-256 i det säkra GCM-läget. Det innebär att inte bara själva databasen, utan även loggfiler och temporära filer skyddas. Krypteringsnyckeln anges enkelt via en parameter när databasen kopplas in. För den som använder OpenSSL kan man dessutom dra nytta av hårdvaruacceleration, vilket gör krypteringen riktigt snabb.

    MERGE INTO – smartare uppdateringar

    Fram till nu har DuckDB-användare varit hänvisade till tricket INSERT INTO … ON CONFLICT för att hantera uppdateringar och konflikter. Med version 1.4 får vi istället det betydligt mer flexibla kommandot MERGE INTO, som gör det möjligt att kombinera insättningar, uppdateringar och raderingar i ett och samma kommando – perfekt för avancerade dataströmmar.

    Iceberg-stöd på nästa nivå

    DuckDB har länge kunnat läsa från Apache Iceberg, det populära lagringsformatet för storskaliga dataset. Men nu kan databasen även skriva data till Iceberg. Det öppnar för helt nya arbetsflöden där man kan flytta data mellan DuckDB, DuckLake och Iceberg. Dock krävs att schemat redan är skapat på Iceberg-sidan.

    Små detaljer som gör stor skillnad

    Version 1.4 innehåller också flera förbättringar som gör vardagen enklare:

    • En förloppsindikator i terminalen med uppskattad tid (ETA).
    • En ny FILL-funktion som fyller i saknade värden i dataserier.
    • En Teradata-anslutning för bättre integration med befintliga system.

    Prestanda i fokus

    Prestanda har alltid varit DuckDB:s styrka, och här fortsätter förbättringarna:

    • Sortering använder nu en modern k-way merge-metod.
    • CTE:er (Common Table Expressions) materialiseras automatiskt för att snabba upp beräkningar.
    • Minnestabeller har fått stöd för checkpointing, med möjlighet till komprimering.

    Distribution och ekosystem

    Slutligen har utvecklarna även putsat på distributionen:

    • Binärerna för macOS är nu notariserade.
    • Python-stödet har flyttat till sitt eget repository, duckdb/duckdb-python, för smidigare utveckling.

    DuckDB 1.4 visar att projektet inte bara växer i popularitet, utan också mognar som plattform. Med inbyggd kryptering, modernare SQL-stöd och förbättrad prestanda stärker DuckDB sin position som det självklara valet för analys – oavsett om du jobbar på din laptop eller i stora datacentermiljöer.

    DuckDB – Fakta & användning

    Typ: In-process, kolumnorienterad SQL-databas för analys (OLAP).
    Distribution: Inbäddad i processen – ingen separat server krävs.
    Plattformar: Linux, macOS, Windows; fungerar i Python, R, C/C++, Java (JDBC), ODBC m.fl.
    Filformat: Eget .duckdb on-disk-format + direktläsning av Parquet/CSV/JSON/Arrow.
    Lagring: Kolumnlagring med komprimering (t.ex. dictionary, bitpackning, RLE) och statistik/zonkartor.
    Transaktioner: ACID med WAL; snapshot isolation; flertrådad, vektoriserad exekvering.
    Index: Inga användarhanterade B-träd; förlitar sig på kolumnstatistik/zonkartor och adaptiva tekniker.
    Skalning: Optimerad för enmaskin/enkelt deployment; out-of-core för stora dataset (strömmande/externa filer).
    Kryptering: AES-256-GCM för databas/WAL/temp (från 1.4; nyckel via ENCRYPTION_KEY vid ATTACH).
    SQL-stöd: ANSI-nära dialekt med CTE/rekursiva CTE, fönsterfunktioner, MERGE INTO, ON CONFLICT, typerna STRUCT/LIST/MAP, omfattande JSON-funktioner.
    Extensions (urval): Parquet/JSON, httpfs (fjärrfiler), Arrow-integration, Iceberg-läs/skriv (via duckdb-iceberg), m.fl.
    Prestanda: Vektoriserad motor, parallellisering inom fråga, omskriven k-vägs mergesort, materialiserade CTE:er som standard.
    CLI/verktyg: Interaktiv duckdb-CLI (med progressbar/ETA), inbyggd COPY/IMPORT/EXPORT till Parquet/CSV.
    Integrationer: Pandas/Polars/Arrow i Python, dplyr/dbplyr i R, BI-verktyg via ODBC/JDBC.


    Vad används DuckDB till?
    • Interaktiv analys (OLAP) direkt i laptops/notebooks utan databasserver.
    • Snabb SQL över datafiler (Parquet/CSV/JSON) – lokalt eller över httpfs.
    • ETL/ELT-steg i pipeline: läsa, transformera och skriva Parquet/Iceberg.
    • Prototyping/experiment i Python/R – kör SQL nära dataframes/Arrow-tabeller.
    • Inbäddade applikationer som behöver kolumnlagrad analysdatabas i processen.
    • Datakvalitet, ad-hoc-frågor, testning av SQL-logik innan produktion.
    Typiska styrkor
    • Zero-install/zero-server: enkel att paketera och distribuera.
    • Hög hastighet på kolumnära, analytiska frågor; effektiv komprimering.
    • Direkt arbetsflöde med datafiler (ingen import nödvändig).
    • Stark integration med dataekosystemet (Arrow, Pandas, Parquet, Iceberg).
    Begränsningar att känna till
    • Inte en fleranvändarserver som PostgreSQL; bäst i enprocess-/enmaskinsscenarier.
    • Inga manuella B-trädindex; arbetsset och filstatistik är nyckeln till prestanda.
  • Från Microsoft till öppen källkod – när Österrikes armé tog tillbaka kontrollen

    Österrikes försvarsmakt byter från Microsoft Office till LibreOffice – inte för att spara pengar, utan för att ta hem kontrollen över sina data. Med öppna standarder, egen infrastruktur och bidrag tillbaka till koden markerar armén en tydlig kurs: digital suveränitet före molnberoende.

    Det är en tidig höstdag i Wien när Michael Hillebrand från Österrikes försvarsmakt ställer sig på scenen vid LibreOffice-konferensen 2025. Publiken, en blandning av utvecklare, akademiker och myndighetsrepresentanter från hela världen, lyssnar nyfiket när han berättar hur en av Europas arméer valde att byta från Microsoft Office till LibreOffice.

    Och nej – det handlar inte om att spara pengar.

    Digital självständighet som strategi

    ”Vi gör inte detta för att spara pengar”, säger Hillebrand. ”Vi gör det för att försvarsmakten, som måste fungera även när allt annat ligger nere, ska ha verktyg som vi själva kontrollerar.”

    Beslutet är en del av något större. Över hela Europa pratar myndigheter om digital suveränitet – rätten att styra över sin egen infrastruktur, sina egna data och sina egna verktyg, utan att vara beroende av amerikanska molnjättar.

    För Österrikes försvarsmakt blev det tydligt redan 2020 att Microsoft Office gradvis skulle flyttas in i molnet. För ett landets militära försvar var det ett rött skynke. Molnbaserade lösningar må vara praktiska för företag, men för en organisation som måste fungera när internet inte gör det är de en risk.

    Fem års resa bort från Microsoft

    Då började en lång process:

    • 2020–2021: Beslutsprocessen genomfördes, där LibreOffice pekades ut som ersättare.
    • 2022: Interna utvecklare utbildades för att kunna vidareutveckla den öppna programvaran. Anställda fick redan då välja LibreOffice frivilligt.
    • 2023: Ett tyskt företag kopplades in för support och extern utveckling, och armén startade e-learning-kurser. De första avdelningarna gjorde LibreOffice obligatoriskt.
    • 2024–2025: Microsoft Office 2016 rensades bort från alla datorer. LibreOffice blev standard.

    Än finns undantag. Vissa VBA- och Access-lösningar lever kvar, och den som absolut behöver Microsofts verktyg kan ansöka om att få installera en modul från MS Office 2024 LTSC. Men för majoriteten av soldater och anställda är det nu LibreOffice som gäller.

    Från användare till utvecklare

    Beslutet har också gjort armén till en aktiv del av open source-gemenskapen. Istället för att bara konsumera programvaran har man investerat i dess utveckling.

    Hittills har försvarsmakten finansierat över fem mansår av programmering – förbättringar och funktioner som inte bara används av militären, utan som integrerats direkt i LibreOffice-projektet och därmed kommer alla till nytta.

    Det är en liten men viktig illustration av hur öppen källkod fungerar: ett samarbete där även en konservativ institution som en armé kan bidra till verktyg som används i skolor, på kontor och av privatpersoner världen över.

    Europa och kampen om kontrollen

    Österrikes beslut är inte unikt, men det är symboliskt. Frankrike, Tyskland och flera andra länder har på olika sätt försökt frigöra sig från beroendet av amerikanska moln- och programvaruleverantörer.

    Digital suveränitet har blivit en fråga om nationellt oberoende – lika viktig som energiförsörjning eller infrastruktur. För vad händer om en konflikt uppstår och tillgången till centrala IT-tjänster stryps? Eller om licensvillkor plötsligt ändras på ett sätt som gör det omöjligt att arbeta självständigt?

    ”Verktyg som fungerar när allt annat ligger nere”

    För Österrikes försvarsmakt är svaret tydligt: man måste kunna lita på sina egna system. Och då är öppen källkod inte bara en teknisk lösning, utan en strategisk tillgång.

    När publiken på LibreOffice-konferensen applåderar åt Hillebrands berättelse är det inte bara för att en ny stor organisation börjat använda deras favoritprogramvara. Det är för att en hel nation valt att säga: vi tar kontrollen själva.

    Källa : https://www.heise.de/en/news/Austria-s-armed-forces-switch-to-LibreOffice-10660761.html

    Faktaruta: Österrikes försvarsmakt & LibreOffice

    Byte från Microsoft Office till LibreOffice för att stärka digital suveränitet, undvika molnberoende och behandla data internt. Försvarsmakten har finansierat >5 mansår utveckling som skickats upstream.


    Konkreta bidrag till LibreOffice

    • Writer: Förbättrad hantering av dokumentmallar för myndighetsbruk.
    • Calc: Optimeringar för stora kalkylblad och förbättrad pivot-tabellprestanda.
    • Impress: Nya exportfunktioner och förbättrad medieintegration i presentationer.
    • Base: Förbättrad kompatibilitet med Microsoft Access och databasformulär.
    • Filformat: Stärkt interoperabilitet med DOCX, XLSX och PPTX vid import/export.
    • Administration: Centrala policyinställningar för driftsättning i stor skala.
    • Stabilitet: Härdning av systemet för drift i känsliga miljöer.

    Teknisk översikt

    • Motiv: Digital suveränitet, lokal databehandling, kontroll över IKT-infrastruktur.
    • Tidslinje: 2020–2021 beslut → 2022 intern utvecklarutbildning → 2023 e-learning & extern partner → 2024–2025 LibreOffice standard.
    • Miljö: Självhostade Linux-servrar (Samba); egna e-post/samarbetslösningar.
    • Standardformat: ODF som primärt; interop med MS Office-format upprätthålls.
    • Undantag: MS Office 2024 LTSC kan beviljas i specialfall; viss Access/VBA kvar.
    • Typsnitt: Separata licenser upphandlade för specifika fonter.
    • Utrullning: Centralt paketerad LibreOffice + policyer/konfig för stora installationer.
    Delområde Nytta
    Dokumentkompatibilitet Säker utväxling internt/externa parter (ODF ↔ MS-format)
    Driftsättning Policy-styrning, massrullning, låga beroenden
    Resiliens Fungerar även vid nätstörningar/kris (in-house drift)
  • Raspberry Pi 500+: En modern hemdator med retroanda

    Raspberry Pi fortsätter att tänja på gränserna för vad små datorer kan vara. Med nya Raspberry Pi 500+ tar de allt-i-ett-konceptet till nästa nivå: ett stilrent mekaniskt tangentbord med RGB-belysning, inbyggd 256 GB SSD, hela 16 GB RAM och kraften från Raspberry Pi 5. Det är en modern hyllning till hemdatorerna från 80-talet – fast starkare, snabbare och mer anpassningsbar än någonsin.

    Raspberry Pi överraskar igen – och denna gång med sitt mest påkostade allt-i-ett-paket hittills. Raspberry Pi 500+ är inte bara en dator, det är en hyllning till de klassiska hemdatorerna som många av oss växte upp med, men i modern tappning.

    Från Pi 400 till Pi 500+

    Resan började redan 2020 med Raspberry Pi 400, en dator inbyggd i ett membrantangentbord. Den blev en succé bland hobbyister och spelade en viktig roll under pandemin då tusentals delades ut till barn som studerade hemifrån.

    Förra året kom Raspberry Pi 500, uppföljaren med mer kraft och ett mer gediget utförande. Men många lade märke till att det fanns tomma platser på kretskortet, som om något mer var på gång. Nu vet vi svaret: Raspberry Pi 500+, modellen som skruvar upp allt till nästa nivå.

    Mekaniskt tangentbord med stil

    Den mest påtagliga nyheten är tangentbordet. Istället för membranteknik får vi nu ett mekaniskt tangentbord med Gateron KS-33 Blue-brytare. Varje tangent ger ett tydligt klick och en respons som gör skrivandet och programmerandet till en ren fröjd.

    Dessutom har varje tangent individuellt adresserbara RGB-lysdioder, vilket öppnar för allt från subtil bakgrundsbelysning till avancerade ljuseffekter. Tangentbordet styrs av en RP2040-krets med QMK, vilket betyder att anpassningarna är nästan obegränsade – och ja, någon lär snart porta Doom till tangentbordet.

    För entusiaster som vill byta ut tangenterna är det enkelt: Raspberry Pi 500+ är kompatibel med de flesta eftermarknadens keycaps och levereras med ett verktyg för att ta bort tangenterna.

    Inbyggd SSD och M.2-expansion

    En annan stor nyhet är lagringen. Till skillnad från tidigare modeller levereras Raspberry Pi 500+ med en inbyggd 256GB SSD via M.2, komplett med Raspberry Pi OS förinstallerat.

    Vill du uppgradera? Inga problem. Chassit är utformat för att kunna öppnas försiktigt, och du kan installera vilken M.2 2280-enhet du vill – allt från större SSD:er till andra PCIe-enheter. Om du föredrar flexibilitet stöds även uppstart från SD-kort eller externa USB-SSD:er.

    Mer minne än någonsin

    För att hantera de tyngsta uppgifterna är Raspberry Pi 500+ utrustad med hela 16GB LPDDR4X-4267 RAM. Det är den största minnesmängd som någonsin byggts in i en Raspberry Pi.

    Det öppnar för användningsområden långt bortom vanlig hobbyprogrammering:

    • Byggservrar
    • Simuleringar inom beräkningsvätskedynamik
    • Lokala AI-modeller
    • Eller varför inte – hundratals öppna webbläsarflikar

    En modern hyllning till klassikerna

    Raspberry Pi 500+ är inte bara en dator, det är också ett slags retrohommage. Den för tankarna till de klassiska hemdatorerna från 80-talet, men med modern hårdvara, moderna gränssnitt och prestanda som kan konkurrera med vanliga PC-datorer i många vardagliga användningsområden.

    Hos Raspberry Pi kallar de det själva för deras mest polerade produkt hittills – och det är lätt att förstå varför.

    Tekniska specifikationer – Raspberry Pi 500+

    EgenskapSpecifikation
    ProcessorRaspberry Pi 5 SoC (samma som i Pi 500)
    RAM16GB LPDDR4X-4267 SDRAM
    Lagring256GB M.2 SSD (förinstallerad med Raspberry Pi OS)
    ExpansionIntern M.2 2280-plats (PCIe)
    TangentbordMekaniskt, Gateron KS-33 Blue-switchar, lågprofil
    BelysningIndividuellt adresserbara RGB-lysdioder per tangent
    KeycapsAnpassade, spraymålade och lasergraverade (kompatibla med aftermarket-set)
    Styrning tangentbordRP2040 med QMK
    UppstartsmöjligheterSSD (M.2), SD-kort, externa USB-SSD:er
    DesignSilvergrå (RAL 7001), verktyg för att öppna chassit medföljer

    Toms Hardware åsikt om pi 500+

    Efter succén med Raspberry Pi 500 kommer nu Raspberry Pi 500+, en uppgraderad modell med 16 GB RAM och 256 GB NVMe SSD. Priset är 200 dollar, vilket placerar den i nivå med enklare bärbara datorer. Startpaketet med mus, nätadapter, HDMI-kabel och guide kostar 220 dollar.

    Designen domineras av det mekaniska tangentbordet med Gateron Blue-switchar och RGB-belysning, som kan styras via mjukvara eller Python. Chassit är större än Pi 500 för att rymma SSD:n, men portarna är i stort sett desamma. Däremot saknas CSI/DSI-gränssnitt, så kamera får anslutas via USB.

    Inuti finns ett moderkort med stor kylfläns, plats för NVMe och en RP2040-mikrokontroller som hanterar tangentbord och ljus. Kylningen fungerar bra – enheten blir något varmare än Pi 500 men drar lite mindre ström tack vare ett nytt chip-stepp. Vid överklockning når processorn nästan 3 GHz utan att gå över 70 °C, men en starkare strömförsörjning behövs.

    NVMe-SSD:n ger bättre läs- och skrivhastigheter än microSD-kort, men märkligt nog tar själva uppstarten längre tid från NVMe än från microSD. GPIO-stiften finns kvar på kortet, men de sitter horisontellt längs baksidan och är därför svåra att komma åt direkt. För att använda dem på ett praktiskt sätt behöver man en så kallad breakout-adapter som vinklar ut eller sprider stiften. Dessutom är stödet för HAT-tillägg fortfarande begränsat på Pi 5-serien.

    Raspberry Pi 500+ är i grunden en Pi 500 med mer minne och snabbare lagring. Tangentbordet är en höjdpunkt och datorn fungerar bra som enkel desktop, tunn klient eller skol-PC. Däremot gör priset att den känns mer som en billig ARM-baserad dator än en klassisk budget-Pi.

    Läs hela artikel på : https://www.tomshardware.com/raspberry-pi/raspberry-pi-500-plus-review

    Raspberry Pi 500+ – Sammanfattning

    Fördelar

    • 16 GB RAM och 256 GB NVMe SSD – mycket bättre än microSD-lagring.
    • Mekaniskt tangentbord med Gateron Blue-switchar – klickigt och skönt att skriva på.
    • RGB-belysning på tangenterna – med flera effekter och egen kodning via Python.
    • Passiv kylning med stor aluminiumkylfläns – håller sig sval även vid överklockning.
    • Bättre strömförbrukning tack vare nytt chip (D0-stepping).
    • Kan fungera som enkel hemmadator, tunn klient eller skol-PC.

    Nackdelar

    • Dyrare än tidigare modeller – cirka 2750 kr gör att den lämnar budgetsegmentet.
    • Desktop Kit kostar runt 3025 kr, vilket närmar sig priset för enklare bärbara datorer.
    • Boot från NVMe långsammare än från microSD.
    • Inget CSI/DSI-gränssnitt – alltså ingen kameraanslutning, bara USB.
    • Begränsat HAT-stöd på GPIO med Pi 5-serien.
    • Lite tråkig design (helt vit), saknar “raspberry & white”-estetiken från Pi 400.

    Priset är omräknat från dollarpriset och inkluderar svensk moms på 25 %.

    Jämförelse mellan Raspberry Pi 400, 500 och 500+

    Jämförelse: Raspberry Pi 400 vs 500 vs 500+
    Modell Processor RAM Lagring Tangentbord Expansion Belysning Släppår
    Raspberry Pi 400 Pi 4 SoC 4 GB microSD Membrantangentbord Ingen Nej 2020
    Raspberry Pi 500 Pi 5 SoC 8 GB microSD Membrantangentbord Förberedd M.2 (ej aktiverad) Nej 2024
    Raspberry Pi 500+ Pi 5 SoC 16 GB 256 GB M.2 SSD
    (RPi OS)
    Mekaniskt (Gateron Blue) Full M.2 2280
    (PCIe)
    Ja, RGB 2025
  • Franz – appen som samlar alla dina meddelanden på ett ställe

    Meddelandeapparna blir allt fler – men Franz samlar dem alla under ett och samma tak. Från WhatsApp och Slack till Telegram och Facebook Messenger erbjuder den österrikiska appen en enkel lösning för den som vill slippa jonglera mellan olika fönster och konton.

    I en tid när vi jonglerar mellan otaliga chatt- och meddelandeappar har en österrikisk utvecklare hittat en lösning på problemet. Applikationen Franz låter användare samla tjänster som WhatsApp, Slack, Telegram, Facebook Messenger, Discord och många fler i ett och samma fönster.

    Franz startade som ett sidoprojekt av utvecklaren Stefan Malzner, men har sedan dess vuxit till ett internationellt open source-projekt med hundratals bidragsgivare. Sedan version 5 distribueras programmet under den fria Apache License 2.0.

    Byggd på webben – körs på skrivbordet

    Tekniskt sett bygger Franz på ramverket Electron, som i sin tur använder Node.js och Chromium. Det innebär att applikationen i grunden är en webbtjänst, men levereras som ett vanligt skrivbordsprogram för Linux, macOS och Windows.

    Stöd för det mesta – och lite till

    Listan över kompatibla tjänster är lång: WhatsApp, WeChat, HipChat, Messenger, Google Hangouts, Skype, Zendesk, Trello, Gmail, Google Kalender – och många fler. Dessutom kan användaren lägga till samma tjänst flera gånger, vilket gör Franz särskilt användbar för den som vill hålla isär jobb- och privatkonton.

    För den som behöver mer finns även en plugin-arkitektur, där integrationerna kallas recipes. På bara några minuter kan man skapa en egen anpassad integration, och tack vare det aktiva communityt växer utbudet hela tiden.

    Säkerhet i fokus

    Samtalen i Franz skyddas med end-to-end-kryptering, och appen stöder såväl textchattar som konferenssamtal och filöverföringar. För extra trygghet går det även att verifiera enhetsfingeravtryck och aktivera så kallad framåt- och bakåtsekretess.

    Ett globalt projekt

    Franz finns tillgänglig som AppImage för både 32- och 64-bitars system och används världen över. Tack vare frivilliga översättare finns stöd för ett stort antal språk, från katalanska och japanska till ryska och ukrainska.

    Mer än bara en app

    Det som började som ett verktyg för att få ordning på vardagens notiser har utvecklats till en mångsidig kommunikationsplattform. Med funktioner som stavningskontroll, synkronisering mellan enheter och möjligheten att bjuda in vänner, har Franz blivit ett alternativ till både renodlade appar som Signal och större företagslösningar.

    Projektets hemvist finns på meetfranz.com, och därifrån länkas även hjälpdokumentation, ändringslogg och källkod på GitHub.

    Franz – allt-i-ett-meddelanden

    • Öppen källkod: Apache License 2.0 (fr.o.m. v5)
    • Plattformar: Linux, macOS, Windows (Electron)
    • Tjänster: WhatsApp, Slack, Telegram, Messenger, Discord, Skype, Gmail, Google Kalender m.fl.
    • Flera konton: Lägg till samma tjänst flera gånger
    • Synk: Inbyggd tjänstesynkronisering
    • Plugins: “Recipes” för egna integrationer
    • Språk: Stöd för många språk via community
    • Övrigt: Stavningskontroll, valbar hårdvaruacceleration
    • Paket: AppImage (32/64-bit)
    • Webb: meetfranz.com
  • Andrew Tanenbaum, skaparen av MINIX, intervjuas på Nerdearla – gratis att följa online

    Andrew Tanenbaum, skaparen av MINIX och inspirationskälla till Linux, intervjuas live på årets Nerdearla i Buenos Aires. För oss i Sverige går det att följa gratis via livestream – direkt från datorn, på engelska, lördagen den 27 september klockan 15.

    MINIX är ett namn som de flesta Linuxintresserade stöter på när de gräver i historien. Operativsystemet, skapat av Andrew Tanenbaum 1987, blev inte bara en pedagogisk plattform utan också den gnista som inspirerade Linus Torvalds att börja bygga Linux. På sätt och vis kan man säga att om Torvalds är Linux pappa, så är Tanenbaum dess farfar.

    Senare i september kommer Tanenbaum, numera 81 år och professor emeritus vid Vrije Universiteit i Amsterdam, att intervjuas på scen under den stora open source-konferensen Nerdearla i Buenos Aires. För oss i Sverige är det kanske för långt bort för ett spontant besök – men det gör inget, för intervjun livestreamas gratis.

    Gratis och på engelska

    Nerdearla är i grunden en spanskspråkig konferens, men just intervjun med Tanenbaum hålls på engelska. Precis som hela konferensen är även sändningen fri att följa online. Det enda som krävs är en registrering.

    Intervjun inleder konferensen lördagen den 27 september klockan 10 lokal tid i Buenos Aires. Det motsvarar klockan 15 svensk tid – en perfekt eftermiddagsstart för den som vill höra en av datorvärldens mest inflytelserika personer berätta om sitt arbete och sin syn på öppen källkod.

    Nerdearla växer i världen

    Nerdearla startade i Argentina men har vuxit till ett av Latinamerikas största evenemang inom öppen källkod. På senare tid har det även hållits i Mexiko och i november tar man steget till Europa med en konferens i Madrid.

    Tidigare har arrangören lyckats få stora namn på scen, bland annat WordPress-grundaren Matt Mullenweg. I Buenos Aires är det Nicolás Wolovick, professor i datavetenskap vid Universidad Nacional de Córdoba och ansvarig för universitetets superdatorcenter, som håller i samtalet med Tanenbaum.

    Varför är Tanenbaum viktig?

    För oss Linuxanvändare är det svårt att överskatta hans roll. När han utvecklade MINIX var målet att ge studenter en fri och pedagogisk Unix-klon, som kunde köras på vanliga hemdatorer. Det blev startskottet för Linus Torvalds, som via en mailinglista för MINIX-användare presenterade sitt eget hobbyprojekt – Linux. Resten är, som man säger, historia.

    Intervjun kommer att inleda konferensen lördagen den 27 september klockan 15 svensk tid. Även om livestreamen är gratis måste du registrera dig.

    Faktaruta: MINIX


    • Skapare: Andrew S. Tanenbaum
    • Första version: 1987
    • Typ: Unix-liknande operativsystem med mikrokärna
    • Syfte: Undervisning och forskning i operativsystem
    • Känd påverkan: Inspirerade Linus Torvalds att starta Linux (1991)
    • Licens (MINIX 3): BSD-liknande
    • Plattformar: Ursprungligen x86; används ofta i undervisning och som forskningsplattform
    • Arkitektur: Drivrutiner och tjänster körs i användarrymden för högre robusthet

    Tips: MINIX 3 fokuserar på tillförlitlighet och självläkning av systemtjänster – en kontrast mot monolitiska kärnor.

  • När Pi:n får vingar — Kali Linux 2025.3 öppnar upp inbyggd Wi‑Fi för säkerhetstestning


    Den 23 september 2025 släppte Kali‑projektet version 2025.3 — en punktuppdatering som i praktiken återger Raspberry Pi‑användare en efterfrågad förmåga: att använda den inbyggda Wi‑Fin för monitor mode och paketinjektion utan externa adaptrar. Samtidigt har distributionen moderniserat sina virtuella byggen och adderat verktyg som pekar mot en framtid där artificiell intelligens, pivoteringstekniker och mobilenheter blir allt viktigare för både angripare och försvarare.

    En teknisk återkomst med praktiska konsekvenser

    Kali 2025.3 återintroducerar stödet för Nexmon — en uppsättning firmwarepatchar för vissa Broadcom‑ och Cypress‑chip som möjliggör avancerade radiouppgifter. I praktiken betyder det att en modern Raspberry Pi, inklusive Pi 5, åter kan agera som portabel sniffer och injectionsenhet. För utbildare, labbmiljöer och fältforskare öppnar detta nya, billigare möjligheter att demonstrera och utföra trådlösa tester.

    Men Nexmon är inte en universell lösning. Funktionaliteten beror på chipset‑version, kernel och drivrutinskombination — och därför har Kali samtidigt uppgraderat hur de bygger sina Raspberry Pi‑kärnor, vilket kräver att användare är noga med att välja rätt image och följa dokumentationen.

    Från byggverkstaden: Vagrant, DebOS och reproducerbara VM‑bilder

    Bakom kulisserna har Kali gjort en tyst, men viktig, förändring i sin infrastruktur. Virtuella maskiner och Vagrant‑bilder har fräschats upp — byggena har flyttats mot mer konsekventa arbetsflöden (DebOS) och Packer‑skripten har uppgraderats till modernare standarder. För företag och forskare som kör Kali i virtuella miljöer innebär det jämnare och mer reproducerbara bilder — men också ett krav på att hålla CI‑verktyg och beroenden i takt med utvecklingen.

    Det här är ett typexempel på hur underhåll av verktygskedjor kan göra större praktisk nytta än mindre funktionstillägg: stabilare byggverktyg ger bättre upprepbarhet i experiment och förenklar automatiserade tester.

    Tio nya verktyg — vad säger de om hotbilden?

    Den här releasen lägger till tio nya paket i Kali‑arkivet. Tillskotten visar två tydliga trender:

    • AI möter säkerhetstestning: Verktyg som terminal‑AGI\:er och LLM‑stöd för klassiska verktyg gör att analys och rapportering kan automatiseras i högre grad. Det snabbar upp arbetet — men kan också underlätta automatiserade attacker om verktygen missbrukas.
    • Pivotering och autentiseringsmissbruk: Verktyg för Kerberos‑reläer och multiplayer‑pivotering speglar en verklighet där angripare ofta lockar intrång till följdaktiga laterala rörelser, snarare än enkla, ytliga attacker.

    Sammantaget ger detta försvarare tydliga fokusområden: upptäckt av laterala rörelser, skydd av autentiseringsmekanismer och förståelse för hur AI‑assisterade arbetsflöden kan förändra incidenthantering.

    Nya verktyg i Kali Linux 2025.3

    VerktygFunktion
    Caido / Caido-cliWebbauditering, klient och CLI för analys av webbapplikationer
    Detect It Easy (DiE)Identifierar filtyper och packade binärer, nyttigt vid reverse engineering
    Gemini CLITar AI-assistans till terminalen för analys och automatisering
    krbrelayxVerktyg för Kerberos-relä och unconstrained delegation abuse
    ligolo-mpBygger säkra tunnlar för pivotering i nätverk
    llm-tools-nmapIntegrerar språkmodeller med nmap för bättre scanning och tolkning
    mcp-kali-serverMCP-konfiguration för att koppla AI-agenter till Kali
    patchleaksAnalyserar patchar för att upptäcka säkerhetsfixar och läckor
    vwifi-dkmsSkapar virtuella Wi-Fi-nätverk för test av anslutning och frånkoppling

    Sammanfattning:
    De nya verktygen i Kali Linux 2025.3 visar tydligt två trender inom cybersäkerhet:

    • en växande integration mellan klassiska verktyg och AI/LLM (exempelvis Gemini CLI och llm-tools-nmap),
    • samt ett allt större fokus på interna nätverksrörelser och autentiseringsattacker (ligolo-mp, krbrelayx).

    Tillsammans gör de att Kali inte bara förblir en komplett plattform för penetrationstester, utan också en testbädd för framtidens hot och försvarstekniker.

    Samsung Galaxy S10 i Kali NetHunter

    Med Kali Linux 2025.3 har Samsung Galaxy S10 blivit en officiellt stödd enhet för Kali NetHunter.

    Det betyder att telefonen kan användas för avancerade tester av trådlösa nätverk direkt via sin inbyggda Wi-Fi – något som tidigare ofta krävde extra utrustning som USB-adaptrar eller en separat dator.

    I praktiken innebär det att en vanlig mobiltelefon kan förvandlas till ett komplett verktyg för att undersöka hur trådlösa nätverk fungerar, hitta svagheter och förstå hur angripare kan agera.
    För säkerhetsforskare och utbildare gör detta tekniken mer portabel och lättillgänglig: du kan bära med dig enheten i fickan och ändå ha tillgång till funktioner som annars kräver en hel arbetsstation.

    För den som inte är tekniskt insatt kan det enklast beskrivas som att telefonen får ”superkrafter” – den kan inte bara ansluta till nätverk som vanliga mobiler, utan även lyssna på trafik och simulera attacker i en kontrollerad miljö.
    Det här gör det möjligt att lära sig mer om hur nätverk kan skyddas, men det understryker också vikten av att använda verktygen ansvarsfullt och endast på nätverk där man har tillstånd.

    CARsenal i Kali NetHunter

    I Kali Linux 2025.3 har CARsenal, verktygslådan för bilsäkerhet i NetHunter, fått en stor uppdatering.
    Syftet med CARsenal är att ge forskare och tekniker en möjlighet att testa hur moderna bilar kommunicerar digitalt – ungefär som en bilverkstad som undersöker motorns elektronik, men på en mer avancerad nivå.

    Med den nya versionen har simulatorn skrivits om och blivit enklare att använda.
    Det betyder att man kan träna och experimentera på en virtuell bilmiljö i stället för på en riktig bil, vilket gör det säkrare och mer pedagogiskt.
    Dessutom har integrationen med andra säkerhetsverktyg som Metasploit blivit tätare, vilket gör det enklare att testa olika scenarier på ett och samma ställe.

    För den som inte är tekniskt insatt kan man beskriva det så här:
    CARsenal fungerar som en digital körskola för bilsäkerhet, där man kan öva i en simulator och se hur bilar reagerar på olika tester.
    Det är ett viktigt steg eftersom dagens bilar i allt större utsträckning är datorer på hjul, och säkerheten i deras system är lika avgörande som bromsar och airbags.

    Precis som med övriga Kali-verktyg är målet inte att hacka verkliga bilar ute på vägarna, utan att skapa en trygg miljö där man kan förstå svagheterna och lära sig hur de kan förebyggas.

    Ett pragmatiskt farväl: ARMel lämnar scenen

    I linje med Debian har Kali tagit beslutet att slopa stöd för ARMel‑arkitekturen. Det berör äldre enheter som Raspberry Pi 1 och Pi Zero W. Anledningen är praktisk: underhållskostnader och begränsad användarbas. För aktörer som bygger på extremt budget‑ eller retro‑plattformar innebär det en uppmaning att planera migrering eller att förbli på äldre, underhållna utgåvor.

    Avslutande perspektiv

    Kali 2025.3 är mer än en numerisk uppgradering. Den återför funktionalitet som kortvarigt försvunnit från moderna SBC‑plattformar, moderniserar bygg­kedjor och adderar verktyg som tydligt pekar mot en framtid där AI, mobilitet och intern pivotering dominerar angriparnas arbetsflöde.

    För läsare: om du är sugen på att prova — gör det i en labb och med tillstånd. Teknisk nyfikenhet är en styrka, men utan etik och kontroll blir den farlig.

    Läs mer om Kali Linux i vår wiki, där finns även länkar för nerladdning.

    https://wiki.linux.se/index.php/Kali_Linux

    Kali linux egna annonsering om denna version.

    https://www.kali.org/blog/kali-linux-2025-3-release

    Faktaruta — Kali Linux 2025.3

    Release
    23 september 2025 (Kali 2025.3)
    Kärnnyhet
    Nexmon-stöd för Broadcom/Cypress → inbyggd Wi-Fi på Raspberry Pi (inkl. Pi 5) får monitor mode & paket-injektion utan extern adapter.
    Virtuella byggen
    Uppfräschade Vagrant-bilder; workflow byggt om (DebOS), konsoliderade & uppgraderade Packer-skript (v2), konsekventa preseed-exempel.
    10 nya verktyg
    • Caido & Caido-cli (webbauditering)
    • Detect It Easy (DiE)
    • Gemini CLI (AI i terminalen)
    • krbrelayx (Kerberos-relä/abuse)
    • ligolo-mp (pivotering)
    • llm-tools-nmap (LLM + nmap)
    • mcp-kali-server
    • patchleaks
    • vwifi-dkms (dummy-Wi-Fi)
    NetHunter
    Ny stödlinje bl.a. Samsung Galaxy S10 med intern monitor & injektion; stor CARsenal-uppdatering (ny simulator, MSF-integration, UI-förbättringar).
    ARM-rekommendation
    Raspberry Pi 5: använd arm64-image. Pi 2 m.fl.: armhf finns kvar.
    Arkitektur
    ARMel stöds ej längre (bl.a. Raspberry Pi 1, Pi Zero W) — fokus mot modernare arkitekturer (inkl. RISC-V).
    Uppgradering
    sudo apt update && sudo apt full-upgrade
    Användning
    Kör alltid tester i kontrollerad labbmiljö och endast med uttryckligt tillstånd.
  • Från 70-tal till 2025 – klassiska Linuxkommandon får nya muskler

    När vi startar datorn och skriver ls för att lista filer, eller cp för att kopiera något, tänker de flesta inte på det. Men bakom dessa små kommandon ligger en mjukvaruskatt med rötter tillbaka till 1970-talets Unix. Den heter GNU coreutils, och nu har den fått en ny stor uppdatering – version 9.8.

    En osynlig ryggrad i datorvärlden

    Coreutils är ett paket med de mest grundläggande verktygen i Linux och andra Unixliknande system. Det är program som hjälper oss att läsa textfiler, räkna ord, jämföra innehåll, sortera, hålla reda på datum eller visa hur många processorer datorn har. I princip varje gång du öppnar terminalen är det coreutils som gör jobbet i bakgrunden.

    Och nu – över 40 år efter att de första varianterna såg dagens ljus – fortsätter utvecklingen.

    Nya språk för säkerhet och enkelhet

    I den nya versionen är det särskilt två förbättringar som sticker ut.
    För det första kan verktyget cksum nu använda den moderna SHA3-algoritmen för att skapa säkra kontrollsummor. Kontrollsummor används för att försäkra sig om att en fil är intakt och inte manipulerad, och SHA3 är det senaste inom kryptografisk standardisering.

    För det andra får kodningsverktyget basenc stöd för Base58 – en metod att representera data utan de tecken som ofta misstas för varandra, som nollan och bokstaven O. Perfekt i en tid då vi allt oftare scannar QR-koder och hanterar kryptovalutaadresser.

    Smartare hantering av dagens datorer

    Dagens datorer ser annorlunda ut än på 80-talet, och coreutils hänger med. Kommandot nproc, som visar hur många processorer som finns att tillgå, tar nu hänsyn till cgroup v2 – en teknik som används i moderna Linuxsystem för att begränsa resurser i containrar. Det betyder att program i en container får en mer realistisk bild av vad de faktiskt får använda.

    Även stty, som styr inställningar för terminalen, kan nu sätta godtyckliga överföringshastigheter på vissa system. Och textverktyget fold har blivit medvetet om att världen består av fler tecken än bara ASCII – till exempel emojis och asiatiska tecken – och radbryter dem på rätt sätt.

    Fixar under huven

    Det kanske inte märks direkt för vanliga användare, men version 9.8 rättar också till en lång rad buggar. Till exempel fungerar nu cp --sparse=always bättre när det gäller att spara diskutrymme, tail riskerar inte längre att skriva ut extra rader i vissa situationer, och od (ett program för att visa filer i olika nummerformat) har blivit stabilare.

    För den som arbetar med stora tal har verktyget factor fått en rejäl hastighetsökning, och seq, som används för att generera talföljder, hanterar nu mycket stora startvärden med högre precision.

    Ett internationellt samarbete

    Bakom kulisserna är coreutils ett samarbete mellan utvecklare världen över. Den senaste versionen bygger på 348 kodändringar från åtta olika personer, varav veteranerna Paul Eggert och Padraig Brady står för merparten. Det visar att även de mest grundläggande programmen i datorvärlden behöver ständig omvårdnad – och att arbetet ofta sker i det tysta.

    Fortsatt relevant

    Att ett verktygspaket som skapades i Unix miljö på 1970-talet fortfarande utvecklas aktivt år 2025 är i sig en historia. Det påminner oss om att digital infrastruktur inte alltid handlar om de mest uppmärksammade apparna eller sociala nätverken. Ofta är det små, diskreta verktyg – kommandon på några få bokstäver – som får hela det moderna IT-samhället att fungera.

    För den nyfikne finns den nya versionen att ladda ner på GNU:s hemsida:
    https://gnu.org/s/coreutils/

    https://linuxiac.com/gnu-coreutils-9-8-released-with-sha3-support

  • OBS Studio 32.0 – stora nyheter för videoentusiaster

    OBS Studio 32.0 är här och bjuder på både smarta nyheter och förberedelser för framtiden. Med förbättrad videoinspelning, en helt ny plugin-hanterare, stöd för fler format och optimeringar för både NVIDIA och AMD tar det fria och öppna streamingverktyget ännu ett stort kliv framåt.

    OBS Studio, det fria och öppna programmet som används av allt från hobby-streamers till proffsproducenter, har nu släppts i version 32.0. Programmet, som fungerar på Linux, macOS och Windows, får i denna uppdatering flera funktioner som både gör livet enklare för användarna och förbättrar kvaliteten på sändningar.

    En av de mest intressanta nyheterna är en ny plugin-hanterare. Den gör det lättare att installera och hålla ordning på tillägg som utökar OBS funktioner. Samtidigt läggs grunden för framtida, större förändringar i användargränssnittet – bland annat genom nya anpassade widgets.

    För den som använder PipeWire på Linux blir videoinspelningen smidigare med förbättrat formatstöd. Dessutom introduceras Hybrid MOV, vilket bland annat ger ProRes-stöd på macOS och ett mer allmänt kompatibelt alternativ med HEVC/H.264 och PCM-ljud på alla plattformar.

    På hårdvarusidan märks flera förbättringar för NVIDIA RTX-effekter, inklusive en lite oväntad nyhet – möjligheten att automatiskt ta bort en stol i bakgrunden. För AMD-kodare har standardinställningarna uppdaterats, och på Apple Silicon-Macar finns nu ett experimentellt stöd för Metal-rendering.

    4Andra förändringar är mer praktiska: standardbithastigheten för video har höjts från 2500 till 6000 Kbps, Hybrid MP4/MOV är nu standardformat, och en ny funktion gör att ljud inte längre kan dupliceras av misstag vid vissa inställningar. På Windows och macOS kan man även välja att skicka in kraschloggar automatiskt.

    Kort sagt: OBS Studio 32.0 är en version som både slipar på detaljerna och förbereder för större förändringar framöver. För den som livestreamar eller spelar in video betyder det stabilare, enklare och mer kraftfulla verktyg.

    https://obsproject.com

    https://linuxiac.com/obs-studio-32-0-released-with-plugin-manager-metal-renderer

    OBS Studio 32.0 — Fakta & Nyheter
    Plattformar: Linux · macOS · Windows
    Huvudnyheter 32.0:
     • Ny plugin-hanterare (grund för större UI-uppdateringar)
     • Anpassade OBS-widgets (för kommande UI-förändringar)
     • Förbättrad PipeWire-videoinspelning (Linux) + bättre formatval
     • Hybrid MP4/MOV = standard för nya profiler (kapitelmarkörer mer precisa)
     • Hybrid MOV ger: ProRes-stöd (macOS) + HEVC/H.264 + PCM-ljud (alla plattformar)
     • NVIDIA RTX Audio Effects: VAD (bättre brusreducering för tal)
     • NVIDIA Effects: optimeringar + “chair removal” i Background Removal
     • AMD: uppdaterade standardinställningar för encoders
     • Apple Silicon: experimentell Metal-renderer
     • Ljuddeduplicering: förbättrad logik för nästlade scener/grupper/flera canvas
     • Standard-bithastighet höjd: 2500 → 6000 Kbps
     • Kraschhantering: ny sentinel-plats + valfri automatisk kraschlogg-upload (Win/mac)
     • Säkerhet/kompatibilitet: laddar ej plugins byggda för nyare OBS-versioner
     • Förhindrar dubbel-ljud när “Monitor and Output” och enheten samtidigt fångas
    
    Vad OBS Studio kan:
     • Liveströmmar (Twitch, YouTube, RTMP/SRT) & lokal inspelning
     • Scenkomposition med flera källor: skärm, fönster, spel, kamera, ljud, media, browser
     • Ljudmixning med monitorering, filtrering, VST-pluginstöd, ducking, VAD
     • Kodning: x264/x265 (FFmpeg), NVENC, AMD AMF, Intel QSV, Apple VT; AV1/HEVC/H.264; ProRes (macOS)
     • Behållare/format: Hybrid MP4/MOV (standard), MKV, FLV m.fl.; ljud bl.a. PCM/AAC; 44.1/48 kHz
     • Renderers: OpenGL/Direct3D; Metal (experimentell på Apple Silicon)
     • Linux: PipeWire/Wayland- och Xorg-källor, Audio/Video-capture via PipeWire
     • Studio Mode, flerscen-produktion, hotkeys, makron/streamdeck-workflows
     • Skript & automation: Lua/Python; omfattande plugin-ekosystem
     • Virtuell kamera (skicka OBS-utdata till mötesappar)
     • Hybrid MP4/MOV kapitelmarkörer (noggrannare i 32.0)
    
    Bra att veta:
     • 32.0 laddar inte plugins byggda för nyare OBS—minskar framtida krascher
     • Nya profiler använder Hybrid MP4/MOV + 6000 Kbps som startpunkt
     • Binaries: Windows, macOS; Ubuntu 24.04 LTS (färdiga paket)
      
    Tips: Justera bithastighet efter upplösning/codec/nätverk. Prova AV1/HEVC där hårdvara stöds.
  • IPFire 2.29 Core Update 197 – stor uppdatering med snabbare, säkrare VPN och smartare energihantering

    Den populära brandväggsdistributionen IPFire har släppt Core Update 197. Uppdateringen bjuder på en total omarbetning av OpenVPN, energisnålare CPU-hantering, stöd för TPM 2.0-emulering och en lång rad paketuppdateringar.

    Den öppna brandväggsdistributionen IPFire har fått en rejäl uppdatering: Core Update 197. Det här är inte en liten putsning i hörnen, utan en release som förändrar både prestanda och säkerhet på djupet.

    Största nyheten: OpenVPN 2.6

    OpenVPN har fått en total makeover och uppdaterats till version 2.6. Det innebär:

    • Starkare kryptering och mer flexibla algoritmer
    • Enklare klientkonfiguration – allt samlas i en enda fil i stället för flera
    • Större IP-pooler eftersom gamla subnät-topologin försvinner
    • Bättre kompatibilitet med både nya och äldre klienter – utan att du som användare behöver ändra något

    Kort sagt: VPN blir både säkrare och enklare.

    Energisnålare brandvägg

    Tidigare körde IPFire alltid CPU:n i full fart för att undvika fördröjningar i nätverket. Men moderna processorer kan växla hastighet blixtsnabbt, så nu låter IPFire processorn klocka ner som standard.

    • På Intel används P-State
    • Annars används den nya schedutil-tekniken i Linuxkärnan

    Resultatet? Mindre strömförbrukning och svalare datorer – utan att brandväggen tappar tempo.

    Fler förbättringar

    • WireGuard: Importerar nu konfigurationer med Windows-radbrytningar och ignorerar IPv6-rutter som ändå inte används
    • Säkerhetskopior: Nu kan även riktigt stora backupfiler (över 2 GB) återställas direkt via webbgränssnittet
    • Intrusion Prevention System: Städats upp genom att ta bort en gammal, nedlagd SSL-lista
    • Buggfixar: Bland annat en irriterande start-bugg som kunde stoppa nätverksgränssnitt
    • TPM 2.0-emulering: Möjliggör virtuella maskiner med Windows 11
    • arpwatch: Nytt verktyg som skickar e-post när en ny enhet dyker upp på ditt nätverk

    Massor av paketuppdateringar

    Kärnan har bumpats till Linux 6.12.41 LTS och med det följer en hel rad nya och säkrare versioner av kända verktyg och bibliotek: Apache, Bash, OpenSSL, Suricata, SQLite, GnuTLS, strongSwan, BIND och många fler.

    Även tillägg (add-ons) har fått kärlek: Samba, Git, HAProxy, FreeRADIUS, Zabbix och andra har uppdaterats till senaste versionerna. Dessutom har en kinesisk översättning lagts till.

    Sammanfattning

    IPFire 2.29 Core Update 197 är en milstolpe: snabbare, svalare och betydligt säkrare. Framför allt tack vare OpenVPN-lyftet och energisnålare CPU-hantering. För dig som kör IPFire är det här en uppdatering du inte vill missa!

    https://www.ipfire.org/downloads/ipfire-2.29-core194

    IPFire – vad är det?

    IPFire är en fri, härdad Linux-distribution för nätverkssäkerhet. Den körs som brandvägg/router och erbjuder paketinspektion, VPN, IDS/IPS och ett webbgränssnitt för enkel administration.

    Taggar: Öppen källkod, Brandvägg/Router, IDS/IPS, VPN, Webb-UI, Add-ons

    Kärnfunktioner

    • Stateful brandvägg och zonmodell (rött/grönt/blått/orange nät)
    • VPN: OpenVPN och WireGuard med klientexport och fjärråtkomst
    • IDS/IPS: Suricata med regler och larm
    • DNS & DHCP: inbyggd resolver (Unbound/BIND), DHCP-server
    • Webbgränssnitt för uppdateringar, loggar, nätverksöversikt
    • Add-ons: Samba, HAProxy, FreeRADIUS, Zabbix m.fl.
    • Backup/restore via webbgränssnittet, inklusive stora arkiv

    Nyheter i Core Update 197

    • OpenVPN 2.6 – total översyn: starkare säkerhet, enklare klientexport, större IP-pooler, slopad kompression
    • Energihantering: CPU klockas ner som standard (Intel P-State eller schedutil)
    • WireGuard: stöd för Windows-radbrytningar, ignorerar IPv6-rutter i importer
    • Säkerhetskopior: återställning av filer > 2 GB direkt i webbgränssnittet
    • Nätverk: fix för race condition som hindrade vissa gränssnitt vid uppstart
    • Kärna: Linux 6.12.41 LTS med nya mitigeringar
    • Nya verktyg: TPM 2.0-emulering, arpwatch
    • Paketuppdateringar: Apache, Bash, OpenSSL, Suricata, SQLite, GnuTLS, strongSwan, BIND, Samba, Git, HAProxy, FreeRADIUS, Zabbix m.fl.

  • RPM 6.0 – En ny era för Linux-paket

    När Linuxvärldens klassiska pakethanterare RPM nu når version 6.0 markerar det det största lyftet på över tjugo år. Med ett nytt paketformat, modern kryptering och striktare säkerhetsskydd tar RPM ett kliv in i framtiden – utan att tappa kompatibiliteten bakåt.

    RPM 6.0 – En ny era för Linux-paket

    Ett av de mest klassiska verktygen i Linuxvärlden, RPM-pakethanteraren, har tagit sitt största versionskliv på över två decennier. Den 22 september 2025 släpptes RPM 6.0, och med det introduceras ett helt nytt paketformat, modernare säkerhet och en uppdaterad infrastruktur som ska bära RPM långt in i framtiden.

    Från 4 till 6 – varför hoppet?

    Sedan slutet av 1990-talet har RPM huvudsakligen levt i versionsserien 4.x. Med tiden har det lagts till nya funktioner, men grunderna har varit desamma. Med version 6 introduceras så stora förändringar i format och funktion att det motiverar ett rejält versionssprång.

    Den största nyheten är RPM v6-paketformatet, som ersätter de tidigare begränsningarna:

    • Alla storlekar och gränsvärden flyttas till 64-bitars, vilket gör att mycket större paket kan hanteras.
    • Gamla och osäkra kryptografiska algoritmer som MD5 och SHA-1 försvinner helt.
    • Nya och starka algoritmer tar över: SHA-512 och SHA3-256 används nu för både paketens innehåll och metadata.
    • Varje fil i ett paket får inbäddad MIME-information – vilket gör det enklare att direkt se vilken typ av innehåll filerna har.

    Säkerheten i fokus

    Linuxvärlden rör sig snabbt mot starkare kryptering och signeringsmetoder, och RPM 6.0 ligger i framkant.

    • Signaturkontroller är nu påslagna som standard – det blir alltså svårare att av misstag installera opålitliga paket.
    • Stöd finns för OpenPGP v6 och till och med post-kvantkryptografi (PQC), något som redan förbereder för en framtid där dagens kryptering kan bli för svag.
    • Varje paket kan bära på flera oberoende signaturer, vilket ökar flexibiliteten.

    Verktygen bli kraftfullare

    De klassiska kommandona har också blivit smartare:

    • rpmkeys kan nu uppdatera importerade nycklar, exportera dem och hantera dem med fulla fingeravtryck istället för korta ID:n.
    • rpmsign kan använda både GnuPG och Sequoia för signering, och man kan lägga till flera signaturer utan att skriva över gamla.
    • Byggverktyget rpmbuild kan skapa både v4- och v6-paket – men som standard gäller nu v6.

    En ny hjälpare, rpm-setup-autosign, gör det dessutom enkelt att ställa in automatisk signering av paket.

    Dokumentation i ny kostym

    Ett återkommande problem med RPM har varit dokumentation som spretat eller saknat detaljer. Nu har man tagit ett helhetsgrepp:

    • Alla manualer har skrivits om i en konsekvent stil.
    • Nya man-sidor har lagts till för tidigare odokumenterade delar, till exempel filformat och makrosystem.
    • Dokumentationen finns versionerad och lättillgänglig på rpm.org/docs.

    Under huven – modernisering

    Bakom kulisserna har mycket av koden flyttats till C++20, vilket både moderniserar och gör det lättare att utveckla vidare. Testsviten har förbättrats, interna datatyper har bytts till modernare strukturer, och byggprocessen har gjorts mer reproducerbar med verifierbara källarkiv.

    Pythonbindningarna kräver nu Python 3.10 eller senare, och själva byggsystemet använder verktyg som scdoc för man-sidor och Doxygen för API-dokumentation.

    Bakåtkompatibilitet – men med gränser

    En av styrkorna med RPM har alltid varit dess utbredda användning i distributioner som Red Hat Enterprise Linux, Fedora och openSUSE. Därför är bakåtkompatibilitet en viktig fråga.

    • RPM v4-paket stöds fullt ut och fungerar precis som tidigare.
    • RPM v3-paket kan inte längre installeras, men de kan fortfarande läsas och packas upp med rpm2cpio.
    • V6-paket kan hanteras av äldre RPM-versioner (minst 4.14 för installation).

    Sammanfattning

    Med RPM 6.0 markerar projektet en tydlig brytpunkt:

    • Nytt paketformat som är starkare, säkrare och framtidssäkert.
    • Striktare signeringskrav och stöd för post-kvantkrypto.
    • Bättre verktyg, smidigare paketsignering och tydligare dokumentation.
    • Moderniserad kodbas byggd på C++20.

    För slutanvändaren kommer mycket att kännas som vanligt – kommandona är desamma, paketen installeras som förr. Men under ytan har RPM nu fått en helt ny grund att stå på, redo för de kommande decennierna.

    ████████████████████████████████████████████████████████████
    █                                                        █
    █   RPM 6.0 – FAKTARUTA                                  █
    █                                                        █
    █   Vad är RPM?                                          █
    █   RPM står för "Red Hat Package Manager".              █
    █   Ett av de äldsta och mest spridda                    █
    █   pakethanteringssystemen i Linuxvärlden.              █
    █                                                        █
    █   Nyheter i RPM 6.0                                    █
    █   • Nytt paketformat: v6 (64-bitars storlekar)         █
    █   • Starka digests: SHA-512 & SHA3-256                 █
    █   • OpenPGP v6 + stöd för PQC                          █
    █   • Signaturkontroller på som standard                 █
    █   • Flera signaturer per paket                         █
    █   • Inbäddad MIME-info per fil                         █
    █                                                        █
    █   Krav (bygga/köra vissa delar)                        █
    █   • C++20-kompilator + C99                             █
    █   • Python ≥ 3.10 för Python-bindings                  █
    █   • rpm-sequoia ≥ 1.9.0 (vid Sequoia-signering)        █
    █                                                        █
    █   Distributioner som använder RPM                      █
    █   • Red Hat Enterprise Linux (RHEL)                    █
    █   • Fedora                                             █
    █   • openSUSE                                           █
    █   • CentOS Stream                                      █
    █   • Mageia                                             █
    █   • AlmaLinux, Rocky Linux                             █
    █                                                        █
    ████████████████████████████████████████████████████████████
    
    
      
  • VLC 3.0.22 RC1 – tillbaka med Qt6-stöd, ARM64 och förbättrad säkerhet

    Efter ett års tystnad är VLC tillbaka med version 3.0.22 RC1. Den nya utgåvan bjuder på stöd för Qt6, inbyggd Windows ARM64-kompatibilitet och mängder av säkerhetsfixar – vilket gör den till en av de mest stabila och trygga VLC-versionerna någonsin.

    Efter ett års uppehåll är en av världens mest använda mediespelare, VLC, tillbaka med en ny utgåva: version 3.0.22 RC1 (”Vetinari”). Även om mycket av uppmärksamheten just nu riktas mot den kommande VLC 4.0 – som lovar stora förändringar – innehåller denna version flera intressanta nyheter.

    En av de mest betydelsefulla förbättringarna är stöd för att bygga VLC med Qt6, något som lär uppskattas särskilt bland KDE-användare. Dessutom introduceras inbyggt stöd för Windows ARM64, i takt med att ARM-baserad hårdvara får allt större spridning på bärbara datorer och surfplattor.

    Utvecklarna har även gjort en rad justeringar i de underliggande biblioteken: äldre komponenter som liba52, libmpeg2 och libdca är numera avstängda som standard, och användarna uppmuntras att i stället använda libavcodec.

    På uppspelningssidan väntar förbättringar för AV1, Opus, ProRes, FLAC och JPEG, samt mer tillförlitlig sökning över SFTP. Stödet för Matroska och DVD-undertexter har också slipats till.

    När det gäller säkerhet markerar version 3.0.22 ett stort steg framåt: den åtgärdar fler säkerhetsproblem än någon tidigare VLC-version. Många av dessa upptäcktes genom Googles oss-fuzz-projekt och tack vare finansiering från Sovereign Tech Fund, vilket gör detta till en av de mest betydelsefulla uppdateringarna på länge vad gäller stabilitet och säkerhet.

    För Windows-användare finns dessutom några praktiska nyheter: det går nu att byta namn på, flytta eller radera den fil som spelas upp, och kompatibiliteten med Windows XP SP3 har oväntat nog återställts – något som kan glädja entusiaster och specialsystem där det fortfarande används.

    Några höjdpunkter i VLC 3.0.22 RC1

    • Nytt mörkt Qt-gränssnitt
    • Qt6-kompilering och stöd för nyare Qt5-versioner
    • Windows ARM64-byggnader
    • Förbättrad Opus-kanalmappning
    • Fixar för ProRes 4:4:4:4 och XVID MPEG-4 via VideoToolbox
    • Förbättrad Matroska-hantering och stöd för A_ATRAC/AT1
    • Stabilare FLAC-sökning och bättre bildhantering i FLAC
    • Korrigerad hantering av vissa JPEG- och ASF-filer
    • Förfinat stöd för DVD-undertexter (CEA-608)
    • Nytt stöd för AMD GPU Frame Rate Doubler (Direct3D11)

    Med stöd från Sovereign Tech Agency och oss-fuzz är VLC 3.0.22 inte bara en rutinmässig uppdatering – utan den mest omfattande säkerhetsfixade versionen hittills. För användare betyder det både bättre prestanda, ökad stabilitet och högre säkerhet.

    Faktaruta – VLC 3.0.22 RC1 “Vetinari”
    • Nytt: Qt6-byggstöd, Windows ARM64-byggen
    • Säkerhet: Flest fixar någonsin (oss-fuzz, Sovereign Tech Fund)
    • Uppspelning: Förbättringar för AV1, Opus, ProRes, FLAC, JPEG
    • Protokoll/format: Stabilare SFTP-sökning, MKV/DVD-caption-fixar
    • Windows: Byt namn/flytta/ta bort spelande fil, XP SP3-fix
    • Bibliotek: liba52/libmpeg2/libdca avstängda → använd libavcodec

Månad: september 2025

  • Linux 6.17 och 6.18 – nya funktioner, AMD-satsningar och dramatiken kring Bcachefs

    Linux 6.17 levererar nya funktioner och brett hårdvarustöd, medan kommande 6.18 – just nu i beta – markerar både stora tekniska framsteg för AMD-processorer och ett dramatiskt avsked till filsystemet Bcachefs. Med RC1 släppt den 12 oktober och en stabil utgåva väntad i december, kan 6.18 bli årets mest avgörande Linuxversion. Linux 6.17 och 6.18…

  • Hantera processer i Linux från terminalen – En nybörjarguide

    Att förstå och hantera processer är en av de mest grundläggande färdigheterna i Linux. När du kör ett program – vare sig det är en webbläsare, ett terminalkommando eller en systemtjänst – skapas en process. Ibland behöver du som användare ta kontroll över dessa processer: kanske för att ett program har hängt sig, för att…

  • RISC-V får egen testmiljö i Collaboras öppna labb

    RISC-V tar ännu ett steg mot bredare användning. Genom att Collabora och RISE-projektet nu öppnar sin testmiljö för två RISC-V-kort får utvecklare världen över tillgång till hårdvarutester på distans – från enkel Linux-boot till fullständig återställning av hela systemet. RISC-V, den öppna processorarkitekturen som spås en ljus framtid, har fått en viktig förstärkning: två utvecklingskort…

  • Ubuntu Touch 20.04 OTA-10 – ny uppdatering med uppgraderingsverktyg och stöd för fler enheter

    Ubuntu Touch tar ännu ett steg framåt. Med den nya uppdateringen OTA-10 får det Linux-baserade mobiloperativsystemet inte bara stöd för fler enheter, utan även ett nytt uppgraderingsverktyg som banar väg för nästa stora generationsskifte – Ubuntu Touch 24.04. UBports Foundation fortsätter sin resa mot att erbjuda ett verkligt alternativ till de dominerande mobila operativsystemen. Nu…

  • ByteDance vill köra flera Linux kärnor på samma dator – utan virtualisering

    Kan flera Linux-kärnor dela på en enda server utan virtualisering? ByteDance, företaget bakom TikTok, tror det. Med sitt nya projekt Parker vill de ta ett koncept som länge funnits i stordatorvärlden – partitionering – och göra det möjligt på vanliga x86-servrar. Resultatet kan bli snabbare och mer flexibla system, men också nya risker. Vad är…

  • KaOS Linux 2025.09 – liten men modern Linux som vill ge dig det bästa av KDE

    KaOS Linux 2025.09 är här.Den lilla, självständiga Linux-distributionen bjuder på det allra senaste inom KDE-världen, toppmodern kärna och flera nya program. Med fokus på kvalitet framför kvantitet vill KaOS visa att även små projekt kan leverera en helgjuten upplevelse. Tänk dig en Linux-distribution som inte försöker vara allt för alla, utan istället fokuserar på att…

  • PeerTube 7.3 – Framtiden för fri och decentraliserad videodelning

    PeerTube är den fria och decentraliserade videoplattformen som vill utmana jättar som YouTube. Med den nya versionen 7.3 blir tjänsten både mer användarvänlig och flexibel: e-post kan nu skickas på flera språk, administratörer får enklare verktyg för anpassning och livesändningar kan schemaläggas i förväg. Det är ännu ett steg mot ett öppnare internet där användarna…

  • DuckDB 1.4 LTS – säkerhet, prestanda och nya funktioner för framtidens databas

    DuckDB, databasen som ofta kallas ”SQLite för analys”, har släppt version 1.4 – en långsiktigt stödd utgåva full med nyheter. Med inbyggd kryptering, stöd för MERGE-kommandot, skrivning till Iceberg och förbättrad prestanda tar DuckDB ännu ett kliv mot att bli en av de mest flexibla och kraftfulla analysdatabaserna på marknaden. DuckDB, den lilla men kraftfulla…

  • Från Microsoft till öppen källkod – när Österrikes armé tog tillbaka kontrollen

    Österrikes försvarsmakt byter från Microsoft Office till LibreOffice – inte för att spara pengar, utan för att ta hem kontrollen över sina data. Med öppna standarder, egen infrastruktur och bidrag tillbaka till koden markerar armén en tydlig kurs: digital suveränitet före molnberoende. Det är en tidig höstdag i Wien när Michael Hillebrand från Österrikes försvarsmakt…

  • Raspberry Pi 500+: En modern hemdator med retroanda

    Raspberry Pi fortsätter att tänja på gränserna för vad små datorer kan vara. Med nya Raspberry Pi 500+ tar de allt-i-ett-konceptet till nästa nivå: ett stilrent mekaniskt tangentbord med RGB-belysning, inbyggd 256 GB SSD, hela 16 GB RAM och kraften från Raspberry Pi 5. Det är en modern hyllning till hemdatorerna från 80-talet – fast…

  • Franz – appen som samlar alla dina meddelanden på ett ställe

    Meddelandeapparna blir allt fler – men Franz samlar dem alla under ett och samma tak. Från WhatsApp och Slack till Telegram och Facebook Messenger erbjuder den österrikiska appen en enkel lösning för den som vill slippa jonglera mellan olika fönster och konton. I en tid när vi jonglerar mellan otaliga chatt- och meddelandeappar har en…

  • Andrew Tanenbaum, skaparen av MINIX, intervjuas på Nerdearla – gratis att följa online

    Andrew Tanenbaum, skaparen av MINIX och inspirationskälla till Linux, intervjuas live på årets Nerdearla i Buenos Aires. För oss i Sverige går det att följa gratis via livestream – direkt från datorn, på engelska, lördagen den 27 september klockan 15. MINIX är ett namn som de flesta Linuxintresserade stöter på när de gräver i historien.…

  • När Pi:n får vingar — Kali Linux 2025.3 öppnar upp inbyggd Wi‑Fi för säkerhetstestning

    Den 23 september 2025 släppte Kali‑projektet version 2025.3 — en punktuppdatering som i praktiken återger Raspberry Pi‑användare en efterfrågad förmåga: att använda den inbyggda Wi‑Fin för monitor mode och paketinjektion utan externa adaptrar. Samtidigt har distributionen moderniserat sina virtuella byggen och adderat verktyg som pekar mot en framtid där artificiell intelligens, pivoteringstekniker och mobilenheter blir…

  • Från 70-tal till 2025 – klassiska Linuxkommandon får nya muskler

    När vi startar datorn och skriver ls för att lista filer, eller cp för att kopiera något, tänker de flesta inte på det. Men bakom dessa små kommandon ligger en mjukvaruskatt med rötter tillbaka till 1970-talets Unix. Den heter GNU coreutils, och nu har den fått en ny stor uppdatering – version 9.8. En osynlig…

  • OBS Studio 32.0 – stora nyheter för videoentusiaster

    OBS Studio 32.0 är här och bjuder på både smarta nyheter och förberedelser för framtiden. Med förbättrad videoinspelning, en helt ny plugin-hanterare, stöd för fler format och optimeringar för både NVIDIA och AMD tar det fria och öppna streamingverktyget ännu ett stort kliv framåt. OBS Studio, det fria och öppna programmet som används av allt…

  • IPFire 2.29 Core Update 197 – stor uppdatering med snabbare, säkrare VPN och smartare energihantering

    Den populära brandväggsdistributionen IPFire har släppt Core Update 197. Uppdateringen bjuder på en total omarbetning av OpenVPN, energisnålare CPU-hantering, stöd för TPM 2.0-emulering och en lång rad paketuppdateringar. Den öppna brandväggsdistributionen IPFire har fått en rejäl uppdatering: Core Update 197. Det här är inte en liten putsning i hörnen, utan en release som förändrar både…

  • RPM 6.0 – En ny era för Linux-paket

    När Linuxvärldens klassiska pakethanterare RPM nu når version 6.0 markerar det det största lyftet på över tjugo år. Med ett nytt paketformat, modern kryptering och striktare säkerhetsskydd tar RPM ett kliv in i framtiden – utan att tappa kompatibiliteten bakåt. RPM 6.0 – En ny era för Linux-paket Ett av de mest klassiska verktygen i…

  • VLC 3.0.22 RC1 – tillbaka med Qt6-stöd, ARM64 och förbättrad säkerhet

    Efter ett års tystnad är VLC tillbaka med version 3.0.22 RC1. Den nya utgåvan bjuder på stöd för Qt6, inbyggd Windows ARM64-kompatibilitet och mängder av säkerhetsfixar – vilket gör den till en av de mest stabila och trygga VLC-versionerna någonsin. Efter ett års uppehåll är en av världens mest använda mediespelare, VLC, tillbaka med en…