När Windows 10 slutar få säkerhetsuppdateringar behöver du inte köpa nytt. Med Ubuntu 24.04 LTS kan en tio år gammal laptop bli en trygg surfmaskin med stöd till 2029. Guiden visar vad som fungerar i Linux, hur du gör backup, skapar en startbar USB-sticka och installerar – steg för steg – så att du förlänger livslängden och sparar både pengar och miljö.
Windows 10 har nått vägs ände. Microsoft skickar inte längre ut säkerhetsuppdateringar, vilket betyder att den som fortsätter använda systemet riskerar att bli sårbar för angrepp. Många väljer då att köpa en ny dator, men det finns ett alternativ som både är billigare och mer miljövänligt: att installera Linux och förvandla den gamla datorn till en stabil surfmaskin.
Det kanske låter svårt, men i praktiken är det inte så krångligt. Med några förberedelser och lite tålamod går det att ge datorn flera år till av pålitlig användning – ända fram till 2029 om man väljer rätt system.
Hur gammal dator kan jag använda? En vanlig fråga är förstås: fungerar min gamla dator verkligen med Linux? Svaret är att chansen är stor, så länge datorn är byggd för 64 bitar. De allra flesta datorer från de senaste femton åren är det.
En maskin med en Intel i3, i5 eller i7 från början av 2010-talet, eller en motsvarande AMD-processor, fungerar ofta förvånansvärt bra. Prestandan kanske inte räcker för de tyngsta programmen, men för e-post, webbsurf, film och enklare kontorsarbete räcker den mer än väl.
Vilket operativsystem ska jag välja? Här dyker nästa fråga upp. Det finns nämligen flera alternativ.
ChromeOS Flex marknadsförs ofta som en lösning för gamla datorer, men det är värt att känna till begränsningarna. Systemet gör inte din dator till en riktig Chromebook, du kan inte installera Android-appar och du blir helt beroende av Googles ekosystem. Det är med andra ord ett ganska slutet alternativ som inte passar alla.
Linux-distributioner som Debian och Ubuntu är mer flexibla. Av dessa är Ubuntu 24.04 LTS det mest praktiska valet för den som vill ha något enkelt, modernt och långsiktigt. LTS står för Long Term Support, vilket innebär att systemet får säkerhetsuppdateringar ända fram till 2029.
Vad fungerar – och vad fungerar inte? Att byta till Linux innebär vissa förändringar. Programmen ser annorlunda ut och alla finesser från Windows följer inte med. Men för många vardagsbehov fungerar Linux utmärkt.
Det går bra att logga in på internetbanken, använda mobilt BankID, skriva e-post, strömma video från SVT Play och YouTube samt arbeta i kontorsprogram. LibreOffice, som följer med Ubuntu, fungerar för att skriva dokument och göra kalkyler. För den som bara behöver redigera en hushållsbudget eller skriva ett brev duger det gott.
Däremot finns det områden där Linux inte är lika starkt. Släktforskningsprogram är ofta gjorda för Windows, och BankID på fil eller med sladd stöds inte lika bra. Har du mycket data i Microsofts molntjänst OneDrive kan integrationen också upplevas som begränsad.
Skrivare Skrivare är antingen himmel eller helvete i Linux. Är skrivaren en välkonstruerad produkt som använder standardiserade skrivarspråk som PCL3, PCL6 eller PostScript, fungerar det oftast utan problem. Men är det tillverkarens egen speciallösning, gjord enbart för Windows (och ibland Mac), blir det betydligt krångligare.
Generellt sett fungerar HP-modeller bra, men det finns undantag – särskilt bland de skrivare som ursprungligen kom från Samsung. HP köpte Samsungs skrivardivision för ungefär åtta år sedan. Mer information finns på linux.se om skrivare som fungerar bra och dåligt.
Förberedelser: gör backup Innan man installerar Linux är det viktigt att tänka på en sak: allt på datorns hårddisk raderas. Därför måste du först säkerhetskopiera dina filer. Kopiera bilder, dokument och annat du vill spara till ett USB-minne eller en extern hårddisk. När det är gjort kan du gå vidare.
Att skapa en startbar USB-sticka För att installera Linux behövs en USB-sticka på minst 8 GB. Den ska göras startbar, vilket innebär att datorn kan använda den för att starta upp installationen.
Så här gör du:
Ladda ner programmet Rufus, som finns gratis på nätet.
Så startar du från USB Nästa steg är att få datorn att starta från stickan istället för från hårddisken. Sätt i stickan, starta om datorn och tryck på den tangent som ger dig startmenyn. På många datorer är det F11, på HP ofta ESC, och ibland F2 eller Delete.
I startmenyn väljer du stickan som enhet. Om datorn vägrar kan det bero på att Secure Boot är aktiverat i BIOS. Det går att stänga av där och sedan prova igen.
Installationen av Ubuntu När datorn väl startar från stickan laddas Ubuntus installationsprogram. Det är ganska likt att installera Windows: man får välja språk, land, tangentbordslayout och nätverksinställningar.
Några saker är bra att tänka på:
Välj ”fullständig installation” så får du med program som LibreOffice och GIMP.
Kryssa i alternativet att installera program från tredje part – då fungerar grafik och wifi bättre.
Kryssa även i alternativet att installera stöd för fler mediaformat, så att video och musik spelas upp utan problem.
När du får frågan om hur hårddisken ska användas, välj att radera hela disken (förutsatt att du har gjort backup).
Skapa sedan ditt användarkonto och välj lösenord.
Ställ in tidszonen till Europa/Stockholm.
Installationen tar en stund. När den är klar startar datorn om och du möts av ett nytt, fräscht Ubuntu.
Kom igång med din nya dator Ubuntu levereras med webbläsaren Firefox som standard. För att kunna spela upp vissa program på SVT Play och liknande tjänster behöver du aktivera DRM i inställningarna. Vill du använda Google Chrome går det bra att ladda ner och installera från Googles webbplats.
I Ubuntus programbutik finns mängder av appar, allt från enkla spel till avancerade verktyg. För det mesta räcker standardprogrammen långt, men det finns mycket att upptäcka.
Om du behöver hjälp För många går installationen smidigt. Men tycker du att det känns för krångligt finns hjälp att få. I Stockholm kan man vända sig till Datorhjälp.se på Orrespelsvägen 13 i Bromma. Bor du på annan ort finns det ofta lokala datorfirmor. Dock bör man undvika det stora elkedjorna support, det klara bara av att installera windows med nöd och näpe.
Med dessa steg förvandlas en dator som annars kanske skulle hamna på återvinningen till en fullt fungerande surfmaskin – med tryggt stöd ända fram till 2029.
Fördelar med Linux
Digital suveränitet är ett begrepp som allt oftare diskuteras. I dag samlar stora företag som Microsoft, Google och Apple in enorma mängder data om våra liv.
Eftere Års 2026 val kan vi få en regering med kommunister som ministrar, och då kan demokratin riskera att avskaffas – precis som i Tyskland 1933, där socialister tog makten. Ett sätt att skydda sig mot diktaturens kreatur är att hålla sin data borta från dessa stora jättar.
Linux är ett verktyg för att stärka den digitala suveräniteten.
FAKTARUTA: Klimat- & miljöeffekter av laptops
Ny laptop – inbäddade utsläpp: ≈ 200–350 kg CO₂e per enhet är typiskt (stora variationer per modell). Produktionen står ofta för ~80 % av livscykelns utsläpp.
Källor: Tech Carbon Standard; Quantum Lifecycle.
Exempel (Apple): MacBook Air (M2, 2022) totalt ≈ ~160 kg CO₂e över livscykeln, där majoriteten kommer från tillverkningen.
Källa: Apple Product Environmental Report.
Årlig elanvändning (laptop): cirka ~75–90 kWh/år vid normal kontors/användning.
Källa: US OSTI studie; branschsammanställningar.
Förlängd livslängd = störst vinst: att behålla en notebook 6 i stället för 3 år minskar de årliga utsläppen med ~47 %.
Källa: TCO Certified (2025).
EU-perspektiv: +1 år extra livslängd för alla notebooks i EU kan spara ≈ 1,6 Mt CO₂/år till 2030 (≈ 870 000 bilar ur trafik).
Källa: EEB-underlag via Foxway-rapport.
E-avfall i världen:62 miljoner ton (2022) och stigande – återanvändning förskjuter nyproduktion och minskar resursuttag.
Källa: Global e-Waste Monitor 2024.
Snabb slutsats: De största klimatvinsterna kommer av att inte köpa nytt. Förläng livet på din laptop med 2–3 år → undvik ofta 200–350 kg CO₂e nyproduktion och spara råmaterial, energi och e-avfall.
Valve har släppt en ny uppdatering av Steam-klienten som inte bara fixar buggar utan också förbättrar spelupplevelsen rejält. Linux-användare får stabilare stöd för Sonys DualSense-kontroller, Windows-användare får bättre koll på sin hårdvara, och dessutom har Valve lagt in skydd mot en allvarlig säkerhetslucka i Unity.
Bättre stöd för handkontroller på Linux Spelare som använder Linux har länge haft problem med Sonys DualSense-kontroller (PlayStation 5). Om kontrollen var ansluten men inte användes kunde hela Steam krascha. Det är nu åtgärdat, vilket gör att DualSense fungerar smidigare. Samtidigt får Nintendo Switch-spelare en bonus – Joy-Con-kontroller i kombinerat läge stöder nu dubbla gyroskop, vilket ger mer exakt rörelsekontroll.
Skydd mot säkerhetshål i Unity Valve har lagt in ett skydd mot den nyligen upptäckta sårbarheten CVE-2025-59489 i spelmotorn Unity. Om Steam upptäcker att ett spel försöker utnyttja sårbarheten blockeras spelet från att starta. Det innebär att spelare kan känna sig tryggare, även innan enskilda spel hunnit uppdateras.
Förbättrad prestanda och tillgänglighet Spelinspelning har blivit effektivare för spel som använder Vulkan, en modern grafikmotor. Samtidigt har tillgängligheten förbättrats med en tydligare högkontrastvy för spellistor och filterpaneler, vilket gör det enklare för personer med nedsatt syn att navigera.
Smidigare vardagsfunktioner Nu går det att byta flikar i Steams inbyggda webbläsare med tangentkombinationen CTRL+TAB, precis som i vanliga webbläsare. Dessutom har buggar fixats som tidigare kunde stoppa strömning av spel eller göra att prestationer inte visades i overlay-menyn.
Ny hårdvarukoll i Windows På Windows-datorer kan användare nu se om datorn har Secure Boot och TPM aktiverat, direkt under Hjälp → Systeminformation. Denna information samlas också in i Steams maskinvaruundersökning. Valve påminner dessutom om att stödet för 32-bitars Windows är på väg bort – det officiella stödet upphör den 1 januari 2026.
Mindre buggar som gör skillnad Många små förbättringar har också lagts in. Exempelvis visas notifikationer nu korrekt efter att man lämnat SteamVR, och vänner- och chattinställningar återställs inte längre av misstag vid anslutningsproblem.
Sammanfattning Den nya Steam-uppdateringen stärker säkerheten, gör klienten mer tillgänglig och förbättrar upplevelsen för både Linux- och Windows-användare. Att uppdatera är enkelt – öppna Steam-menyn, välj Sök efter klientuppdateringar, klicka på Ladda ner och sedan Apply and Restart. Klart!
Fakta: Nya Steam-klienten (stabil)
Linux: Fix för krasch när DualSense är ansluten men inaktiv.
Steam Input: Stöd för dubbla gyron med Nintendo Joy-Cons i kombinerat läge.
UI: Växla flikar i inbyggda webbläsaren med CTRL+TAB.
Spelinspelning: Bättre prestanda för spel som renderar med Vulkan.
Säkerhet: Mitigering för CVE-2025-59489 (Unity) – blockerar spelstart vid upptäckt exploit.
Tillgänglighet: Förbättrad högkontrastvy för spellistsökning och filterpanel.
Streaming: Fix för fall där “Streama” inte gjorde något.
SteamVR: Notiser slutar inte längre vara undertryckta efter att du lämnat SteamVR.
Windows (Info): Visar om Secure Boot och TPM är aktiverat under Hjälp → Systeminformation.
Windows (framtid): Stöd för 32-bitars Windows 10 upphör 1 jan 2026 (klienten kör men ej officiellt stödd).
Uppdatera via Steam → Sök efter klientuppdateringar → Ladda ner → Apply and Restart.
Thunderbird har fått en ny version – 143 – som bjuder på stabilare drift, färre krascher och återställt stöd för Gmail-relä. Uppdateringen innehåller även förbättrad hantering av utkast, åtgärder för IMAP-problem och flera småjusteringar i gränssnittet för både Windows, macOS och Linux.
Mozilla har släppt version 143 av sin fria och öppna e-postklient Thunderbird, och uppdateringen bjuder på både stabilitetsförbättringar och säkerhetsfixar. Programmet finns nu att ladda ner för Windows, macOS och Linux.
En av de största nyheterna är att stödet för Gmail-relä via smtp-relay.gmail.com har återställts. Funktionen hade slutat fungera för vissa användare, men är nu tillbaka på plats.
Buggar som rättats till
Utöver detta har utvecklarna åtgärdat en rad envisa problem:
Krascher vid uppstart eller vid import av mejl.
Kontoproblem, där det ibland gick snett när man skulle lägga till nya e-postkonton.
Frysningar som kunde uppstå under installationsfasen.
Även hanteringen av utkast har blivit mer pålitlig. Tidigare kunde gamla versioner av utkast hänga kvar eller sparade mejl hamna i fel mapp när man bytte mellan olika utkastmappar.
För de som använder IMAP har man rättat till buggar där det inte gick att ta bort eller lossa bilagor mot vissa servrar. Andra fixar inkluderar återställda menyval som tidigare försvunnit, förbättrad sökfältshantering samt lösta problem med dra-och-släpp i adressboken.
Plattformar och användarupplevelse
Thunderbird 143 stöder fortsatt Windows 10 och senare, macOS 10.15 och senare, samt Linux med GTK+ 3.14 eller högre.
Utvecklarna har också passat på att putsa på detaljer i gränssnittet. Bland annat har små men irriterande buggar som dolda menyrader efter uppdateringar och dubbla kortkommandon blivit åtgärdade.
Slutsats
Sammanfattningsvis innebär Thunderbird 143 ingen revolution, men det är en viktig uppdatering för att mejlklienten ska kännas snabbare, mer stabil och mer pålitlig i vardagen. För de som länge irriterat sig på krascher, felaktiga utkast eller strulande bilagor är detta en uppdatering väl värd att installera.
▶ Fakta: Thunderbird 143 – tekniska nyheter
Gmail-relä återställt: stöd för smtp-relay.gmail.com fungerar igen.
Stabilitetsfixar: åtgärdade krascher vid uppstart och vid mail-import.
Kontohantering: fel vid skapande av nya konton rättade; frysningar under setup eliminerade.
Utkast: fel vid byte mellan utkastmappar rättat; nya utkast skriver inte längre över med äldre versioner.
IMAP-bilagor: radering/”detacha” av bilagor fungerar korrekt även mot känsliga servrar.
UI/UX: saknade menyval tillbaka; navigering i sökfält korrigerad; drag-and-drop i adressboken fixad.
Småirritationer: dolda menyrader efter uppdatering och dubbla snabbkommandon åtgärdade.
Säkerhet: inkluderar säkerhetsuppdateringar (detaljer ej offentliga här).
Systemkrav: Windows 10+, macOS 10.15+ och Linux med GTK+ ≥ 3.14.
Tips: Starta om klienten efter uppdatering för att säkerställa att nya IMAP- och UI-fixar laddas.
Raspberry Pi OS har fått sin största uppdatering på länge. Med bas i Debian 13 ”Trixie” introduceras ett nytt Kontrollcenter, en modernare skrivbordsmiljö och en rad tekniska förbättringar – allt för att ge både nybörjare och erfarna användare en smidigare upplevelse.
Det välkända operativsystemet Raspberry Pi OS, som är standardvalet för alla Raspberry Pi-datorer, har fått en stor uppdatering. Den nya versionen bygger på Debian 13 ”Trixie” och bjuder på både nya funktioner, förbättringar i användargränssnittet och en rad tekniska uppdateringar under huven.
Allt samlat i ett nytt Kontrollcenter
En av de största nyheterna är ett nytt Kontrollcenter, som samlar inställningar som tidigare låg utspridda i separata program. Här finns nu allt från systeminställningar och utseende till mus, tangentbord, skärm och skrivare. Lösningen är plugin-baserad, vilket gör det enklare att både underhålla och bygga ut.
Ny design för skrivbordet
Användargränssnittet har fått en tydlig uppfräschning. Bland annat finns:
Ett nytt ikontema kallat PiXtrix
Två GTK-teman: ett ljust (PiXtrix) och ett mörkt (PiXonyx)
Nya bakgrundsbilder
Ett nytt systemtypsnitt: Nunito Sans Light
Förändringar i panelen
Panelen, som är central i Raspberry Pi:s skrivbordsmiljö, har också fått ett lyft. Den klassiska lxpanel har ersatts av en vidareutvecklad variant som kallas lxpanel-pi. Gamla, inkompatibla tillägg har tagits bort, men i gengäld finns nya funktioner:
En systemövervakare i aktivitetsfältet som varnar för låg ström och andra problem
En ny klocka som fungerar i både lxpanel-pi och wf-panel-pi
Ett nytt kommandoradsverktyg: lxpanelctl-pi
Dessutom har menyerna setts över – länkarna till Raspberry Pi:s webbplats har försvunnit och ersatts med färdiga bokmärken i Chromium och Firefox. För nybörjare finns nu även en genväg till Raspberry Pi Beginner’s Guide.
Böcker, språk och guider
Den digitala bokhyllan Bookshelf har uppdaterats. Numera visas vissa nya titlar med ett hänglås och blir fria att läsa efter en tid, men användare kan även bidra ekonomiskt för att låsa upp dem tidigare.
Vid installation tar systemet dessutom hänsyn till språk och region – guider och användarhandböcker översätts automatiskt om det finns tillgängligt.
Nya och borttagna verktyg
Bland övriga förändringar märks:
SenseHAT Emulatorn är tillbaka i Rekommenderad programvara
Nya tangentbordsverktyg: rpi-keyboard-config och rpi-keyboard-fw-update
Förbättrad tangentbordsnavigering i GTK-appar
labwc har uppdaterats till version 0.8.4
Paketet raspberrypi-ui-mods har ersatts med ett nytt metapaket: rpd-metas
Samtidigt har några äldre verktyg försvunnit, bland annat Alacarte-menyn, Remote GPIO-alternativet och referensdokumentet Debian Reference.
Uppdaterad webbläsare och ny kärna
Både webbläsarna och kärnan har fått uppdateringar:
Chromium är nu version 140
Firefox har uppdaterats till version 142
Systemet kör på Linux-kärnan 6.12.47 med en uppdaterad Raspberry Pi-firmware
Sammanfattning
Med den här versionen markerar Raspberry Pi OS ett tydligt steg framåt. Ett mer samlat inställningssystem, en fräschare design och modernare verktyg gör att operativsystemet känns både mer tillgängligt för nybörjare och mer robust för erfarna användare. Tillsammans med den senaste Debian-basen och en långsiktig kärna står Raspberry Pi OS redo att fortsätta vara hjärtat i många projekt, från klassrum och hobbybyggen till mer avancerade utvecklingsmiljöer.
Linux 6.17 levererar nya funktioner och brett hårdvarustöd, medan kommande 6.18 – just nu i beta – markerar både stora tekniska framsteg för AMD-processorer och ett dramatiskt avsked till filsystemet Bcachefs. Med RC1 släppt den 12 oktober och en stabil utgåva väntad i december, kan 6.18 bli årets mest avgörande Linuxversion.
Linux 6.17 och 6.18 – vad är nytt?
Linuxkärnan fortsätter att utvecklas snabbt. Version 6.17 har redan släppts och kommer med många nyheter, medan 6.18 just nu är i teststadiet (så kallad beta). Den första testutgåvan (RC1 – Release Candidate 1) kom den 12 oktober. Mycket pekar på att just 6.18 blir årets LTS-version (Long Term Support), alltså en version som får långvariga uppdateringar och används som stabil grund i många system.
Nyheter i Linux 6.17
Även om 6.17 är en stabil version, innehåller den många förbättringar:
Filsystem
Btrfs (ett avancerat filsystem med funktioner för säker lagring) har fått ett nytt experimentellt stöd för så kallade large-folio (större minnessidor som gör filhanteringen effektivare).
Ext4 (ett av de mest använda filsystemen i Linux) har fått en ny funktion kallad RWF_DONTCACHE, som kan snabba upp vissa typer av filoperationer.
EROFS (ett läsbart, komprimeringsvänligt filsystem) kan nu komprimera metadata (den information som beskriver filer).
Två nya systemanrop – file_getattr() och file_setattr() – gör det enklare för program att hämta och ändra filernas attribut (t.ex. rättigheter eller tidsstämplar).
Den gamla drivrutinen för pktcdvd (CD/DVD i paketläge) har tagits bort eftersom den är föråldrad.
Kärnans kärna
Proxy execution: ett nytt sätt att undvika ”priority inversion”, ett problem där en snabb process fastnar bakom en långsammare. Med proxy execution kan en process ”låna ut” sin körtid till en annan som håller ett viktigt lås.
Auxiliary clocks: ett flexiblare sätt att mäta tid i systemet.
Stöd för enkelkärniga processorer (datorer med bara en CPU-kärna) har tagits bort. Även de kör nu kärnor byggda för SMP (Symmetric MultiProcessing, alltså flera kärnor).
Säkerhet
Förbättrade kontroller av filernas integritet.
AppArmor (ett säkerhetssystem i Linux) har fått bättre stöd för AF_UNIX-sockets (en typ av kommunikation mellan program).
BPF (Berkeley Packet Filter, en teknik för att köra specialkod direkt i kärnan) har fått nya funktioner:
Bättre åtkomst till cgroup-attribut (cgroups är en funktion som styr hur resurser delas mellan program).
Nya strängoperationer, alltså sätt att hantera text direkt i BPF-program.
Hårdvarustöd
Stöd för Raspberry Pi:s nya RP1-kontroller, Apples Mac SMC GPIO, Richtek-förstärkare, nya Qualcomm-komponenter och Realtek Wi-Fi 6 via USB.
Arm64 (processorarkitektur för mobil och server) har fått live patching (uppdateringar utan omstart).
LoongArch (kinesisk processorarkitektur) har fått bättre stöd för BPF.
Nätverk
Stöd för TCP_MAXSEG i Multipath TCP (en teknik där nätverkstrafik kan delas över flera anslutningar).
En ny parameter för IPv6 som låter varje nätverksgränssnitt hantera trafik vidarekoppling på sitt eget sätt.
Strängare regler för hur TCP-fönster (storleken på data som kan skickas innan bekräftelse) används.
Ny metod för congestion control (trafikstyrning i nätverk) kallad DualPI2, enligt standarden RFC 9332.
Rust-stöd Linux fortsätter bygga in stöd för programmeringsspråket Rust, som anses säkrare än C. Fler delar av kärnan har nu abstraktioner i Rust. Dessutom börjar det gamla sättet att hantera mmap() (minneskartläggning) ersättas av mmap_prepare(), som är säkrare.
AMD i centrum i 6.18
Även om 6.17 är spännande, är det 6.18 som fått mest uppmärksamhet – framför allt för AMD:s del.
Processorer
Drivrutinen för minnesfel (EDAC – Error Detection and Correction) har fått stöd för AMD Family 26, som troligen är nästa generations EPYC Zen 6-processorer.
Dessa nya processorer kommer att stödja 16 minneskanaler (idag är det 12), vilket betyder mycket högre minnesbandbredd.
Andra modeller i samma familj ser ut att stödja 8 kanaler, kanske för en kommande EPYC 8005-serie eller nya Threadripper PRO-processorer.
Funktioner
Förbättrad topologidetektering (hur kärnan ser processorns struktur).
Nytt stöd för att ladda microcode (små processoruppdateringar) enklare.
ABMC (Assignable Bandwidth Monitoring Counters): gör det möjligt att fördela resurser och övervaka QoS (Quality of Service).
Stöd för firmware-uppdateringar i drift (utan omstart), även för plattformens säkerhetsdelar.
Secure AVIC: förbättrar både säkerhet och prestanda inom AMD:s SEV (Secure Encrypted Virtualization).
Virtualisering (KVM)
Stöd för SEV-SNP CipherText Hiding, som skyddar gästsystem mot att deras minne analyseras utifrån.
AVIC (Accelerated Virtual Interrupt Controller) aktiveras som standard på Zen 4 och senare, om hårdvaran stödjer x2AVIC.
Secure TSC: skyddar mot manipulation av klockfrekvenser i virtuella maskiner.
Sammantaget gör detta att 6.18 ser ut att bli en milstolpe för AMD och deras kommande processorer.
Konflikten om Bcachefs
En dramatisk nyhet i 6.18 är att Bcachefs tas bort ur kärnan.
Bcachefs är ett filsystem som kombinerar funktioner från Btrfs och ZFS (som copy-on-write, ökad säkerhet) med prestanda i stil med ext4 och XFS. Det har setts som ett lovande projekt.
Men huvudutvecklaren Kent Overstreet har hamnat i konflikt med Linus Torvalds, skaparen av Linux. Torvalds har varit missnöjd med att patchar skickats in för sent, vilket kan hota stabiliteten.
I 6.17 markerades Bcachefs som ”externally maintained” (underhållet utanför kärnan). Och i 6.18 RC1 har det helt tagits bort.
Det betyder att Bcachefs fortfarande går att använda, men bara via DKMS (Dynamic Kernel Module Support), en metod där man bygger drivrutiner utanför kärnan, liknande hur NVIDIA:s grafikdrivrutiner fungerar. Problemet är att det kräver att någon anpassar Bcachefs för varje ny kernelversion – något som kanske inte alla Linuxdistributioner gör. I värsta fall måste användarna själva kompilera och underhålla det.
Framtiden för Bcachefs är alltså osäker, trots dess tekniska styrkor.
En viktig höst för Linux
Linux 6.17 visade att även en stabil version kan innehålla stora nyheter, från filsystem till nätverk och hårdvarustöd.
Linux 6.18, som väntas bli färdig i december, kan bli historisk – särskilt för AMD:s kommande processorer och för alla förbättringar inom säkerhet och virtualisering.
Samtidigt kommer den att minnas som versionen där Bcachefs försvann ur kärnan. Frågan är om framtiden kommer att beskriva 6.18 som den version där Linux stärkte AMD:s ställning på serversidan – eller som versionen där ett lovande filsystem tappade sin plats i rampljuset.
Har gjort en ny version, den förra texten var lite för teknisk för den som inte är 100 % insatt i programmering och Linuxkärnan
Faktaruta – Linuxkärnan 6.17 & 6.18
Linux 6.17
Btrfs: experimentellt large-folio + fler val för komprimering vid defrag.
Ext4: buffrad I/O med RWF_DONTCACHE.
EROFS: metadata-komprimering.
Nya syscalls: file_getattr(), file_setattr().
”Proxy execution” mot priority inversion (samma CPU).
Auxiliary clocks (flexiblare tidsredovisning).
UP-kärnor borttagna – även enkärniga system kör SMP-byggd kärna.
Säkerhet: nytt FS-ioctl för integritet, AppArmor bättre AF_UNIX.
BPF: kfuncs för cgroup-xattrs + standardsträngar.
Hårdvara: RP1 (Raspberry Pi), Apple Mac SMC GPIO, Richtek, nya Qualcomm-interconnects, Realtek USB Wi-Fi 6 m.fl.
Att förstå och hantera processer är en av de mest grundläggande färdigheterna i Linux. När du kör ett program – vare sig det är en webbläsare, ett terminalkommando eller en systemtjänst – skapas en process. Ibland behöver du som användare ta kontroll över dessa processer: kanske för att ett program har hängt sig, för att frigöra resurser eller för att starta om en tjänst. I Linux görs detta genom att skicka signaler till processer via terminalen. I den här guiden går vi igenom vad processer är, hur signaler fungerar och hur du kan använda viktiga kommandon som kill, killall, pkill, fuser, pgrep och skill för att söka upp, pausa eller avsluta processer – med tydliga exempel för nybörjare.
Att kunna döda en process från terminalen kan ibland vara nödvändigt.
Vad är en process i Linux?
En process är ett körande program på datorn. Operativsystemet Linux hanterar många processer samtidigt och ger varje process ett unikt process-ID (PID) för identifiering. Processer kan vara synliga användarprogram (som ett webbrowserfönster) eller systemtjänster som körs i bakgrunden. Linux-kärnan ansvarar för att schemalägga processer, fördela resurser och hålla isär deras minne och rättigheter. Som användare kan man med kommandon i terminalen inspektera och påverka processer, till exempel om ett program har hängt sig eller om man behöver avsluta en process som förbrukar för mycket resurser.
Varför behöver man hantera eller avsluta processer?
Vanliga anledningar till att manuellt hantera (eller döda) processer är att ett program inte svarar, har låst sig eller använder orimligt mycket CPU/minne. Ibland behöver man avsluta ett program som körs i bakgrunden, starta om en tjänst genom att skicka en viss signal, eller frigöra en fil eller nätverksport som en process håller låst. Genom att skicka signaler till processer kan man be dem avsluta på ett kontrollerat sätt eller tvinga fram en avslutning om de inte reagerar. Att känna till de viktigaste kommandona för processhantering – såsom kill, killall, pkill, fuser, pgrep och skill – är därför värdefullt. I denna artikel går vi igenom vad signaler är och hur man använder dessa kommandon med praktiska exempel.
Signaler i Linux och vanliga signaler
En signal är ett meddelande som operativsystemet kan skicka till en process för att uppmärksamma den på en händelse eller begära en viss åtgärd. Signaler identifieras både med namn (ofta med prefixet SIG) och ett nummer. Till exempel är SIGTERM signal nummer 15, SIGKILL nummer 9, SIGHUP nummer 1 och SIGSTOP nummer 19. När en signal skickas till en process avbryts den normalt tillfälligt för att hantera signalen. Vissa signaler kan fångas upp av processen (som då kan välja att ignorera dem eller utföra städning), medan andra inte kan ignoreras.
Några vanliga signaler och deras betydelser är:
SIGTERM (15) – Termineringssignal. Standard-signalen som skickas av kommandot kill. Den ber processen att avsluta sig själv gracefully, dvs. på ett kontrollerat sätt[2]. Processen får en chans att städa upp, spara sitt tillstånd, stänga filer etc., innan den avslutas.
SIGKILL (9)– Kill-signalen. Detta är en tvångsavslutning som inte kan fångas eller ignoreras av processen[1][3]. Operativsystemet terminerar processen omedelbart när det får denna signal, även om processen hängt sig. SIGKILL bör användas som sista utväg när en process inte reagerar på vänligare signaler, eftersom ingen städning sker och t.ex. temporära filer eller resurser kan lämnas i osäkert tillstånd[3].
SIGHUP (1)– Hang up. Ursprungligen indikerar detta att den terminal (TTY) som startade processen kopplades ned. För många bakgrundstjänster (daemons) har det blivit konvention att SIGHUP innebär att processen ska läsa om sin konfiguration eller starta om sig själv[4]. Man kan alltså skicka SIGHUP till en daemon för att få den att göra en mjuk omstart eller ladda om inställningar.
SIGSTOP (19)– Stoppsignal. Pauserar en process (fryser dess exekvering) utan att avsluta den, och kan inte ignoreras av processen[1]. Detta motsvarar att köra ett program i bakgrunden genom att trycka Ctrl+Z i terminalen. En stoppad process kan återupptas igen genom att skicka SIGCONT (continue) eller föras in i förgrunden med shell-kommandon som fg. SIGSTOP/SIGCONT är användbara om man tillfälligt vill pausa en process (t.ex. för felsökning) utan att döda den.
Det finns många fler signaler (för att lista alla standard-signaler kan man köra kill -l eller fuser -l i terminalen). Som nybörjare är det viktigast att förstå att SIGTERM är standardmetoden att avsluta processer på ett snällt sätt, SIGKILL är en tvingande nödlösning, och att signaler som SIGHUP och SIGSTOP har speciella användningsområden. Nästa steg är att använda kommandon som skickar dessa signaler till processer.
Kommandot kill – avsluta processer med PID
Det mest grundläggande sättet att skicka en signal till en process är med kommandot kill. Namnet låter brutalt, men kill skickar egentligen en godtycklig signal (som standard SIGTERM) till en eller flera processer utifrån deras PID. För att använda kill måste du alltså känna till processens ID-nummer. Detta kan man ta reda på med verktyg som ps (processlista), top eller pgrep (mer om pgrep nedan).
Syntax: kill [signal] PID … (om ingen signal anges skickas SIGTERM som standard).
Exempel på användning:
# Skicka standardsignalen SIGTERM (15) till process med PID 1234 kill 1234
Kommandot ovan ber processen 1234 att avsluta sig själv snällt (SIGTERM är default för kill[2]). Om processen inte avslutas kan man behöva skicka en mer drastisk signal:
# Tvinga avslutning av process 1234 med SIGKILL (9) kill -9 1234
Här används flaggan -9 för att skicka signal 9 (SIGKILL), vilket omedelbart dödar processen[3]. Notera att man också kan skriva kill -SIGKILL 1234 – många signaler kan anges antingen med nummer, med fullt namn (t.ex. -SIGKILL) eller förkortat utan ”SIG” (t.ex. -KILL), alla dessa är ekvivalenta.
Ett normalfall är att först försöka med en vanlig kill (SIGTERM) och ge processen åtminstone några sekunder att avsluta sig på rätt sätt. Om den fortsatt vägrar dö eller hänger sig, kan man följa upp med kill -9 för att garantera att den försvinner. SIGKILL kan som sagt inte ignoreras av processen[5].
Kommandot kill kan även skicka andra signaler. Till exempel kan man skicka SIGHUP (1) för att instruera en process att starta om eller läsa om konfiguration:
# Skicka SIGHUP (1) till process 5678, ofta för att få en daemon att läsa om sin config kill -1 5678 # -1 motsvarar SIGHUP kill -HUP 5678 # detta är likvärdigt med -1
På liknande sätt kan kill -STOP användas för att pausa en process och kill -CONT för att fortsätta en pausad process. Om du är osäker på signalnamnet eller numret kan du skriva:
# Lista alla signals namn och nummer kill -l
Detta listar alla signaler som systemet känner till (t.ex. får du reda på att 15 = TERM, 9 = KILL, 1 = HUP, etc.).
Tips: kill är inbyggt i många shell (som Bash). Oftast räcker det att ange PID, men var försiktig så att du inte råkar ange fel PID. Det är alltid en bra idé att dubbelkolla med exempelvis ps eller pgrep att du har rätt process. Som vanlig användare kan du bara skicka signaler till processer du äger (startat själv), medan root-användaren kan signalera alla processer.
Kommandot killall – döda processer utifrån namn
Med killall kan du skicka en signal till samtliga processer som matchar ett givet kommando-namn. Till skillnad från kill behöver du alltså inte känna till PID; istället anger du namnet på processen/programmet. Som standard skickar killall också SIGTERM om ingen annan signal anges[6].
Syntax: killall [flaggor] [signal] namn…
Ett enkelt exempel:
# Försöker stänga alla processer som heter ”firefox” med SIGTERM killall firefox
Ovanstående kommando försöker avsluta alla körande Firefox-processer (t.ex. om flera webbläsarfönster är öppna) genom att skicka SIGTERM till dem. Om de inte stänger sig ordentligt kan man tvinga dem:
# Döda alla ”firefox”-processer med SIGKILL (9) killall -9 firefox
Flaggan -9 fungerar här likadant som för kill. Man kan även specificera signalnamn, till exempel killall -KILL firefox gör samma sak. Under huven skickar killall signalen till alla processer med det angivna namnet[6].
Det är viktigt att ange processen vid exakt namn. killall matchar som default hela kommandonamnet. Till exempel, killall vi dödar processer vars namn är precis ”vi”, men inte ”vim”. Man kan använda flaggan -I för att ignorera skillnad mellan versaler/gemener vid namnmatchning, eller -r för att tolka namnet som ett regular expression (regex) om man vill ha mer flexibel matchning[7]. Exempelvis skulle killall -r -9 ^firefox med regex döda alla processer vars namn börjar med ”firefox”.
Några andra praktiska flaggor för killall är: – -i (interactive) – frågar om bekräftelse före varje enskild process som ska dödas. Bra för säkerhets skull om man är osäker. – -v (verbose) – skriver ut information om huruvida signalen lyckades skickas till var och en. – -u användare – begränsa till processer som ägs av en viss användare. T.ex. killall -u alice firefox skulle bara försöka döda Alice instanser av firefox.
Varning: killall på Linux är harmlöst om du anger ett specifikt processnamn, men se upp så att du inte misstar det för det helt annorlunda kommandot killall på vissa Unix-system (som Solaris) där killall utan argument faktiskt försöker döda alla processer. På Linux är killall en del av psmisc-paketet och fungerar enligt ovan. Ange alltid explicit ett processnamn när du använder detta kommando.
Kommandot pkill – skicka signal utifrån sökmönster
pkill liknar killall genom att det låter dig avsluta processer baserat på namn, men det är mer flexibelt. Namnet pkill står för ”process kill” och är kopplat till kommandot pgrep (process grep). I själva verket är pkill en variant av pgrep som istället för att lista processer skickar en signal till dem som matchar kriteriet[8]. pkill använder sig av mönstermatchning (standardmässigt regular expressions) på processernas namn eller andra attribut.
Syntax: pkill [flaggor] [signal] mönster
Om ingen signal anges så skickar pkill som vanligt SIGTERM (15)[9]. Mönstret kan vara en del av processens namn. Exempel:
# Försök avsluta alla processer vars namn innehåller ”chrome” pkill chrome
Ovan kommando skulle skicka SIGTERM till alla processer som matchar regex-mönstret ”chrome” i sitt namn (så det träffar t.ex. både chrome och chromium om de körs). Vill man vara specifik att namnet ska matcha exakt, kan man använda flaggan -x (exact match). Alternativt kan man skriva regex med ^ och $ för att ange början/slut på namnet:
# Avsluta alla processer som heter exakt ”ssh” (inte bara innehåller ”ssh”) pkill -x ssh
Man kan på liknande sätt som med killall använda -9 eller -KILL för att skicka SIGKILL:
# Tvinga bort alla processer vars namn matchar ”chrome” pkill -9 chrome
Ett praktiskt användningsområde är att skicka andra signaler. Till exempel för att be en tjänst ladda om sin konfiguration (vilket ofta görs med SIGHUP) kan du göra:
# Ladda om Nginx konfiguration genom att skicka SIGHUP (1) till alla ”nginx”-processer pkill -HUP nginx
Detta utnyttjar att många tjänster (inklusive Nginx) tolkar SIGHUP som signal att läsa om config[10][11].
pkill har flera användbara flaggor för att begränsa vilka processer som träffas: – -f – matcha mot hela kommandoraden istället för bara basnamnet. T.ex. pkill -f ”python myscript.py” skulle matcha kommandoraden som innehåller texten python myscript.py (användbart om processen har ett generiskt namn men unika argument). – -u användare – matcha bara processer som körs av en viss användare (eller lista av användare). T.ex. pkill -u bob ssh dödar ssh-processer som körs av användaren bob. – -n / -o – matcha endast den nyaste respektive äldsta processen som uppfyller mönstret. Detta är bra om man t.ex. vill döda den senast startade instansen av något. – -c – (i vissa varianter) visa antal träffade processer istället för att döda (eller används i pgrep specifikt – se man pkill/pgrep).
En viktig sak med pkill är att det är lätt att matcha bredare än avsett om man inte är försiktig med mönstret. Till exempel kan pkill ssh även döda en process som heter ssh-agent eftersom ”ssh” ingår i namnet. Därför är ett gott råd att först testa mönstret med pgrep (som bara listar träffar) innan man kör pkill. Exempel:
pgrep -l chrome # listar PIDs och namn för processer som matchar ”chrome”
Om utdata ser rimlig ut så kan man sedan byta ut pgrep mot pkill med samma mönster för att faktiskt skicka signalen.
Kommandot pgrep – hitta processer utifrån namn eller villkor
Som nämnt är pgrep syskonverktyget till pkill. Istället för att skicka signaler listar pgrep helt enkelt ut process-ID för processer vars namn eller andra attribut matchar ett mönster. Formatet liknar pkill:
Syntax: pgrep [flaggor] mönster
Standardbeteendet är att matcha processnamn (kommandots namn) mot ett angivet mönster (som tolkas som regex). pgrep skriver ut matchande PIDs, ett per rad. Några exempel:
# Hitta PID för alla processer vars namn innehåller ”ssh” pgrep ssh
# Hitta PID för processen som heter exakt ”gnome-shell” pgrep -x gnome-shell Hantera processer i Linux från terminalen – En nybörjarguide
Vad är en process i Linux?
En process är ett körande program på datorn. Operativsystemet Linux hanterar många processer samtidigt och ger varje process ett unikt process-ID (PID) för identifiering. Processer kan vara synliga användarprogram (som ett webbrowserfönster) eller systemtjänster som körs i bakgrunden. Linux-kärnan ansvarar för att schemalägga processer, fördela resurser och hålla isär deras minne och rättigheter. Som användare kan man med kommandon i terminalen inspektera och påverka processer, till exempel om ett program har hängt sig eller om man behöver avsluta en process som förbrukar för mycket resurser.
Varför behöver man hantera eller avsluta processer?
Vanliga anledningar till att manuellt hantera (eller döda) processer är att ett program inte svarar, har låst sig eller använder orimligt mycket CPU/minne. Ibland behöver man avsluta ett program som körs i bakgrunden, starta om en tjänst genom att skicka en viss signal, eller frigöra en fil eller nätverksport som en process håller låst. Genom att skicka signaler till processer kan man be dem avsluta på ett kontrollerat sätt eller tvinga fram en avslutning om de inte reagerar. Att känna till de viktigaste kommandona för processhantering – såsom kill, killall, pkill, fuser, pgrep och skill – är därför värdefullt. I denna artikel går vi igenom vad signaler är och hur man använder dessa kommandon med praktiska exempel.
Signaler i Linux och vanliga signaler
En signal är ett meddelande som operativsystemet kan skicka till en process för att uppmärksamma den på en händelse eller begära en viss åtgärd. Signaler identifieras både med namn (ofta med prefixet SIG) och ett nummer. Till exempel är SIGTERM signal nummer 15, SIGKILL nummer 9, SIGHUP nummer 1 och SIGSTOP nummer 19[1]. När en signal skickas till en process avbryts den normalt tillfälligt för att hantera signalen. Vissa signaler kan fångas upp av processen (som då kan välja att ignorera dem eller utföra städning), medan andra inte kan ignoreras.
Några vanliga signaler och deras betydelser är:
SIGTERM (15) – Termineringssignal. Standard-signalen som skickas av kommandot kill. Den ber processen att avsluta sig själv gracefully, dvs. på ett kontrollerat sätt[2]. Processen får en chans att städa upp, spara sitt tillstånd, stänga filer etc., innan den avslutas.
SIGKILL (9) – Kill-signalen. Detta är en tvångsavslutning som inte kan fångas eller ignoreras av processen[1][3]. Operativsystemet terminerar processen omedelbart när det får denna signal, även om processen hängt sig. SIGKILL bör användas som sista utväg när en process inte reagerar på vänligare signaler, eftersom ingen städning sker och t.ex. temporära filer eller resurser kan lämnas i osäkert tillstånd[3].
SIGHUP (1) – Hang up. Ursprungligen indikerar detta att den terminal (TTY) som startade processen kopplades ned. För många bakgrundstjänster (daemons) har det blivit konvention att SIGHUP innebär att processen ska läsa om sin konfiguration eller starta om sig själv[4]. Man kan alltså skicka SIGHUP till en daemon för att få den att göra en mjuk omstart eller ladda om inställningar.
SIGSTOP (19) – Stoppsignal. Pauserar en process (fryser dess exekvering) utan att avsluta den, och kan inte ignoreras av processen[1]. Detta motsvarar att köra ett program i bakgrunden genom att trycka Ctrl+Z i terminalen. En stoppad process kan återupptas igen genom att skicka SIGCONT (continue) eller föras in i förgrunden med shell-kommandon som fg. SIGSTOP/SIGCONT är användbara om man tillfälligt vill pausa en process (t.ex. för felsökning) utan att döda den.
Det finns många fler signaler (för att lista alla standard-signaler kan man köra kill -l eller fuser -l i terminalen). Som nybörjare är det viktigast att förstå att SIGTERM är standardmetoden att avsluta processer på ett snällt sätt, SIGKILL är en tvingande nödlösning, och att signaler som SIGHUP och SIGSTOP har speciella användningsområden. Nästa steg är att använda kommandon som skickar dessa signaler till processer.
Kommandot kill – avsluta processer med PID
Det mest grundläggande sättet att skicka en signal till en process är med kommandot kill. Namnet låter brutalt, men kill skickar egentligen en godtycklig signal (som standard SIGTERM) till en eller flera processer utifrån deras PID. För att använda kill måste du alltså känna till processens ID-nummer. Detta kan man ta reda på med verktyg som ps (processlista), top eller pgrep (mer om pgrep nedan).
Syntax: kill [signal] PID … (om ingen signal anges skickas SIGTERM som standard).
Exempel på användning:
# Skicka standardsignalen SIGTERM (15) till process med PID 1234 kill 1234
Kommandot ovan ber processen 1234 att avsluta sig själv snällt (SIGTERM är default för kill[2]). Om processen inte avslutas kan man behöva skicka en mer drastisk signal:
# Tvinga avslutning av process 1234 med SIGKILL (9) kill -9 1234
Här används flaggan -9 för att skicka signal 9 (SIGKILL), vilket omedelbart dödar processen[3]. Notera att man också kan skriva kill -SIGKILL 1234 – många signaler kan anges antingen med nummer, med fullt namn (t.ex. -SIGKILL) eller förkortat utan ”SIG” (t.ex. -KILL), alla dessa är ekvivalenta.
Ett normalfall är att först försöka med en vanlig kill (SIGTERM) och ge processen åtminstone några sekunder att avsluta sig på rätt sätt. Om den fortsatt vägrar dö eller hänger sig, kan man följa upp med kill -9 för att garantera att den försvinner. SIGKILL kan som sagt inte ignoreras av processen[5].
Kommandot kill kan även skicka andra signaler. Till exempel kan man skicka SIGHUP (1) för att instruera en process att starta om eller läsa om konfiguration:
# Skicka SIGHUP (1) till process 5678, ofta för att få en daemon att läsa om sin config kill -1 5678 # -1 motsvarar SIGHUP kill -HUP 5678 # detta är likvärdigt med -1
På liknande sätt kan kill -STOP användas för att pausa en process och kill -CONT för att fortsätta en pausad process. Om du är osäker på signalnamnet eller numret kan du skriva:
# Lista alla signals namn och nummer kill -l
Detta listar alla signaler som systemet känner till (t.ex. får du reda på att 15 = TERM, 9 = KILL, 1 = HUP, etc.).
Tips: kill är inbyggt i många shell (som Bash). Oftast räcker det att ange PID, men var försiktig så att du inte råkar ange fel PID. Det är alltid en bra idé att dubbelkolla med exempelvis ps eller pgrep att du har rätt process. Som vanlig användare kan du bara skicka signaler till processer du äger (startat själv), medan root-användaren kan signalera alla processer.
Kommandot killall – döda processer utifrån namn
Med killall kan du skicka en signal till samtliga processer som matchar ett givet kommando-namn. Till skillnad från kill behöver du alltså inte känna till PID; istället anger du namnet på processen/programmet. Som standard skickar killall också SIGTERM om ingen annan signal anges[6].
Syntax: killall [flaggor] [signal] namn…
Ett enkelt exempel:
# Försöker stänga alla processer som heter ”firefox” med SIGTERM killall firefox
Ovanstående kommando försöker avsluta alla körande Firefox-processer (t.ex. om flera webbläsarfönster är öppna) genom att skicka SIGTERM till dem. Om de inte stänger sig ordentligt kan man tvinga dem:
# Döda alla ”firefox”-processer med SIGKILL (9) killall -9 firefox
Flaggan -9 fungerar här likadant som för kill. Man kan även specificera signalnamn, till exempel killall -KILL firefox gör samma sak. Under huven skickar killall signalen till alla processer med det angivna namnet[6].
Det är viktigt att ange processen vid exakt namn. killall matchar som default hela kommandonamnet. Till exempel, killall vi dödar processer vars namn är precis ”vi”, men inte ”vim”. Man kan använda flaggan -I för att ignorera skillnad mellan versaler/gemener vid namnmatchning, eller -r för att tolka namnet som ett regular expression (regex) om man vill ha mer flexibel matchning[7]. Exempelvis skulle killall -r -9 ^firefox med regex döda alla processer vars namn börjar med ”firefox”.
Några andra praktiska flaggor för killall är: – -i (interactive) – frågar om bekräftelse före varje enskild process som ska dödas. Bra för säkerhets skull om man är osäker. – -v (verbose) – skriver ut information om huruvida signalen lyckades skickas till var och en. – -u användare – begränsa till processer som ägs av en viss användare. T.ex. killall -u alice firefox skulle bara försöka döda Alice instanser av firefox.
Varning: killall på Linux är harmlöst om du anger ett specifikt processnamn, men se upp så att du inte misstar det för det helt annorlunda kommandot killall på vissa Unix-system (som Solaris) där killall utan argument faktiskt försöker döda alla processer. På Linux är killall en del av psmisc-paketet och fungerar enligt ovan. Ange alltid explicit ett processnamn när du använder detta kommando.
Kommandot pkill – skicka signal utifrån sökmönster
pkill liknar killall genom att det låter dig avsluta processer baserat på namn, men det är mer flexibelt. Namnet pkill står för ”process kill” och är kopplat till kommandot pgrep (process grep). I själva verket är pkill en variant av pgrep som istället för att lista processer skickar en signal till dem som matchar kriteriet[8]. pkill använder sig av mönstermatchning (standardmässigt regular expressions) på processernas namn eller andra attribut.
Syntax: pkill [flaggor] [signal] mönster
Om ingen signal anges så skickar pkill som vanligt SIGTERM (15)[9]. Mönstret kan vara en del av processens namn. Exempel:
# Försök avsluta alla processer vars namn innehåller ”chrome” pkill chrome
Ovan kommando skulle skicka SIGTERM till alla processer som matchar regex-mönstret ”chrome” i sitt namn (så det träffar t.ex. både chrome och chromium om de körs). Vill man vara specifik att namnet ska matcha exakt, kan man använda flaggan -x (exact match). Alternativt kan man skriva regex med ^ och $ för att ange början/slut på namnet:
# Avsluta alla processer som heter exakt ”ssh” (inte bara innehåller ”ssh”) pkill -x ssh
Man kan på liknande sätt som med killall använda -9 eller -KILL för att skicka SIGKILL:
# Tvinga bort alla processer vars namn matchar ”chrome” pkill -9 chrome
Ett praktiskt användningsområde är att skicka andra signaler. Till exempel för att be en tjänst ladda om sin konfiguration (vilket ofta görs med SIGHUP) kan du göra:
# Ladda om Nginx konfiguration genom att skicka SIGHUP (1) till alla ”nginx”-processer pkill -HUP nginx
Detta utnyttjar att många tjänster (inklusive Nginx) tolkar SIGHUP som signal att läsa om config[10][11].
pkill har flera användbara flaggor för att begränsa vilka processer som träffas: – -f – matcha mot hela kommandoraden istället för bara basnamnet. T.ex. pkill -f ”python myscript.py” skulle matcha kommandoraden som innehåller texten python myscript.py (användbart om processen har ett generiskt namn men unika argument). – -u användare – matcha bara processer som körs av en viss användare (eller lista av användare). T.ex. pkill -u bob ssh dödar ssh-processer som körs av användaren bob. – -n / -o – matcha endast den nyaste respektive äldsta processen som uppfyller mönstret. Detta är bra om man t.ex. vill döda den senast startade instansen av något. – -c – (i vissa varianter) visa antal träffade processer istället för att döda (eller används i pgrep specifikt – se man pkill/pgrep).
En viktig sak med pkill är att det är lätt att matcha bredare än avsett om man inte är försiktig med mönstret. Till exempel kan pkill ssh även döda en process som heter ssh-agent eftersom ”ssh” ingår i namnet. Därför är ett gott råd att först testa mönstret med pgrep (som bara listar träffar) innan man kör pkill. Exempel:
pgrep -l chrome # listar PIDs och namn för processer som matchar ”chrome”
Om utdata ser rimlig ut så kan man sedan byta ut pgrep mot pkill med samma mönster för att faktiskt skicka signalen.
Kommandot pgrep – hitta processer utifrån namn eller villkor
Som nämnt är pgrep syskonverktyget till pkill. Istället för att skicka signaler listar pgrep helt enkelt ut process-ID för processer vars namn eller andra attribut matchar ett mönster. Formatet liknar pkill:
Syntax: pgrep [flaggor] mönster
Standardbeteendet är att matcha processnamn (kommandots namn) mot ett angivet mönster (som tolkas som regex). pgrep skriver ut matchande PIDs, ett per rad. Några exempel:
# Hitta PID för alla processer vars namn innehåller ”ssh” pgrep ssh
# Hitta PID för processen som heter exakt ”gnome-shell” pgrep -x gnome-shell
# Hitta alla processer som körs av användaren alice och innehåller ”python” i namnet pgrep -u alice python
I det sista exemplet kombineras -u alice för att filtrera på ägare och mönstret ”python” för att filtrera på namn. pgrep har i stort sett samma filterflaggor som pkill (som -f, -x, -n, -o, -u etc.), så man kan göra avancerade sökningar. En användbar flagga är -l (lågt L) som gör att pgrep listar inte bara PID utan även processens namn:
pgrep -l ssh
Det kan ge utdata som:
1039 sshd 2257 ssh-agent 6850 ssh 31279 ssh-agent
Då ser man både PID och vilket program det är. Om man vill ha hela kommandoraden kan man använda -a i stället för -l.
pgrep är således mycket smidigare än att köra t.ex. ps aux | grep namn och manuellt leta PIDs. När man väl fått en PID via pgrep kan man sedan använda kill på den, eller direkt använda pkill som vi gjorde ovan för att slippa steget att manuellt läsa av PID.
Kommandot fuser – hitta (och döda) processer som använder en resurs
fuser är ett verktyg som skiljer sig lite från de övriga: det är inte en renodlad ”kill”-kommandon utan används för att identifiera vilka processer som använder en viss resurs. En resurs i detta sammanhang kan vara en fil, en mapp, eller en nätverksport/socket. Namnet fuser kommer av ”file user”, dvs vilka processer som använder en fil.
Ett klassiskt problem är ”varför kan jag inte montera/avmontera den här disken?” eller ”vilken process kör på port 8080?”. fuser hjälper dig att svara på det, och kan även ta steget att döda de processer som blockerar en resurs.
Syntax: fuser [flaggor] [resurs]
Några vanliga användningsfall:
# Ta reda på vilken process som använder filen /var/log/syslog fuser /var/log/syslog
# Lista vilken process som lyssnar på TCP-port 80 (HTTP) fuser 80/tcp
# Visa mer detaljer (ägare, access-typ etc.) för processer som kör på port 80 fuser -v 80/tcp
När man kör fuser på en fil eller port returnerar den normalt vilka PID:er som använder resursen. Flaggan -v (verbose) ger en tabell som visar PID, användare, och hur de använder resursen (t.ex. F för öppnad fil, e för exe-körning, tcp för nätverkstjänst etc.)[12][13].
En mycket praktisk funktion är att kunna döda alla processer som använder en viss resurs. Detta görs med flaggan -k (kill). Exempel:
# Döda processen som använder TCP-port 8443 sudo fuser -k 8443/tcp
Här letar fuser upp vilken process som lyssnar på port 8443 och skickar SIGKILL till den[14]. Som standard skickar fuser -k nämligen SIGKILL till processerna[15]. Om man istället vill försöka avsluta dem mjukare kan man specificera signal, t.ex. fuser -k -TERM 8443/tcp för att skicka SIGTERM (15)[16][17]. Generellt kan man lägga till -[SIGNAL] efter -k för valfri signal.
VARNING: Använd fuser -k med omsorg. Om du anger en vanlig fil som resurs kommer bara processen som har just den filen öppen att dödas, men om du anger en hel mapp eller en monteringspunkt (t.ex. ett helt filsystem) så kommer alla processer som använder något i den mappen att dödas[18]. Till exempel fuser -k /home kan i värsta fall döda en mängd processer (eftersom många program sannolikt har något öppet under /home). Var därför specifik med resursen och använd gärna -i (interactive) flaggan tillsammans med -k för att be om bekräftelse för varje träff innan den dödas[18]. Exempel:
# Interaktivt (-i) döda alla processer som använder aktuell mapp (.) fuser -ki .
Ovan skulle lista alla processer som kör något i nuvarande katalog, och fråga y/n innan varje dödas.
Slutligen, fuser -l visar en lista över alla signalnamn som kommandot känner till, liknande kill -l. fuser är ett kraftfullt verktyg när man till exempel felsöker ”resource busy” felmeddelanden – man kan snabbt hitta vilken process som blockerar en fil eller port och avsluta den för att komma vidare.
Kommandot skill – (föråldrat) skicka signaler baserat på användare/terminal
Kommandot skill har snarlikt namn som kill, men är ett separat verktyg som låter dig skicka signaler till processer baserat på kriterier som användarnamn, terminal eller kommandonamn. Det kan ses som en föregångare till moderna verktyg som pkill och killall. I dagens Linux-system betraktas skill som föråldrat (obsolete) och ostandardiserat – dokumentationen själv rekommenderar att man använder killall, pkill och pgrep istället[19]. Vi tar ändå upp det här för fullständighetens skull.
Syntax: skill [signal] [val för urval]
Till skillnad från killall/pkill som använder argument och flaggor för att matcha processer, så använder skill en mer fri form där man exempelvis kan ange en användare eller en terminal direkt. För att eliminera tvetydighet finns dock flaggor: – -u användare för att matcha alla processer körda av en given användare. – -t tty för att matcha en viss terminal (TTY/PTY) där processerna körs. – -p pid för att matcha ett specifikt process-ID. – -c namn för att matcha ett kommandonamn.
Standard-signalen för skill är SIGTERM (precis som kill)[20]. Du kan lista tillgängliga signalnamn med skill -l (eller -L för en tabell). Signal anges antingen med t.ex. -SIGKILL eller kortare -KILL eller med nummer -9.
Några exempel på vad man kan göra med skill:
# Döda (SIGKILL) alla processer som körs av användaren ”bob” sudo skill -KILL -u bob
Detta liknar att köra killall -u bob eller pkill -9 -u bob – alla Bobs processer avslutas[21]. Ett annat exempel:
# Stoppa (pausa med SIGSTOP) alla processer som körs på terminal /dev/pts/3 skill -STOP -t pts/3
Om en användare har en viss terminal öppen (t.ex. pts/3 över SSH) skulle ovan kommando frysa alla den användarens processer i just den terminalen. Man kan även ange flera kriterier:
# Exempel från man-sidan: stoppa alla processer för tre olika användare skill -STOP -u alice -u bob -u charlie
Och på motsvarande sätt kan man döda alla processer på alla pseudoterminaler (PTY):
# Exempel: logga ut alla användare på pts-terminaler med tvång sudo skill -KILL -v /dev/pts/*
Här används -v för verbose så att varje träff rapporteras. Detta kommando skulle skicka SIGKILL till samtliga processer som är kopplade till någon pts-terminal (praktiskt taget logga ut alla interaktiva sessions) – använd med extrem försiktighet!
Sammanfattningsvis är skill kraftfull men inte så vanligt förekommande längre. Samma sak kan oftast göras med pkill/killall som är mer portabla mellan system. Om du stöter på skill i dokumentation eller scripts vet du nu att det är ett verktyg för att signalera processer med liknande funktion som killall/pkill, men i moderna Linux-distributioner kan du själv välja att använda de senare för klarhetens skull[19].
ps visar en ögonblicksbild av aktiva processer. Det används för att hitta PID:er och förstå vad som körs.
Exempel: ps – Terminalens egna processer ps aux – Alla processer i BSD-format ps -ef – Alla processer i System V-format ps -eo pid,ppid,user,%cpu,%mem,stat,etime,cmd | head ps -C sshd -o pid,ppid,cmd ps -ef –forest | less
Några viktiga kolumner:
PID – process-ID
PPID – föräldraprocessens ID
STAT – status (R=running, S=sleeping, T=stopped, Z=zombie)
Interaktiva verktyg för att se processer i realtid.
Exempel: top htop
Tips i top:
M → sortera på minne
P → sortera på CPU
k → döda en process (ange PID och signal)
Avslutande tips
Att hantera processer i Linux-terminalen innebär i stort sett att man skickar rätt signal till rätt process(er). Börja alltid ”snällt” med SIGTERM eller SIGHUP om syftet är att låta processen städa upp och avsluta sig självmant. Om inte det hjälper, eskalera till SIGKILL för att tvinga fram en avslutning. Lär dig känna igen de vanligaste signalnamnen och deras nummer. Använd verktyg som pgrep för att dubbelkolla vilka processer som kommer att påverkas innan du använder pkill eller killall. Och slutligen – var försiktig med kommandon som mass-terminerar processer (killall, fuser -k, eller skill -KILL) särskilt som administratör, så att du inte råkar stänga ner mer än avsett.
Med dessa verktyg och koncept i bagaget har du en god grund för att felsöka och kontrollera processer i Linux via terminalen. Lycka till med din processhantering!
Exempel
Här är 10 praktiska exempel på hur du kan använda ps, pidof, pstree, lsof, top/htop, samt de tidigare genomgångna verktygen (kill, killall, pkill, pgrep, fuser, skill) på olika sätt:
Hitta en process som drar mest CPU
ps -eo pid,%cpu,%mem,cmd --sort=-%cpu | head
Visar de mest CPU-intensiva processerna.
Avsluta ett specifikt program via PID
kill -9 4321
Tvingar bort processen med PID 4321 (t.ex. en låst applikation).
Hitta och avsluta alla Firefox-processer
killall firefox
Avslutar alla processer som heter ”firefox”.
Avsluta processer baserat på mönster i kommandoraden
pkill -f "python myscript.py"
Stänger processen som kör ett Python-skript med namnet myscript.py.
Lista alla PIDs för processer som heter ssh
pgrep -l ssh
Visar både PID och namn på alla ssh-relaterade processer.
Hitta vilken process som lyssnar på port 8080
sudo lsof -i :8080
Visar vilket program som kör på port 8080 (ofta webbserver eller testserver).
Avsluta processen som håller port 8080
sudo fuser -k 8080/tcp
Dödar processen som blockerar porten.
Visa processhierarkin som träd
pstree -p
Visar processer och deras PID i ett trädformat – bra för att förstå föräldra-/barnrelationer.
Se vad som händer i realtid
top
Startar realtidsövervakning av processer. Du kan trycka k för att döda en process direkt från top.
RISC-V tar ännu ett steg mot bredare användning. Genom att Collabora och RISE-projektet nu öppnar sin testmiljö för två RISC-V-kort får utvecklare världen över tillgång till hårdvarutester på distans – från enkel Linux-boot till fullständig återställning av hela systemet.
RISC-V, den öppna processorarkitekturen som spås en ljus framtid, har fått en viktig förstärkning: två utvecklingskort – Banana Pi BPI-F3 och SiFive HiFive P550 – har nu lagts till i Collaboras publika testlabb.
Bakom satsningen står RISE-projektet och Collabora, som tillsammans vill göra det enklare för utvecklare att testa mjukvara på riktig hårdvara. Testningen sker via LAVA, ett system som kan slå på korten på distans, styra bootloadern och starta Linux för att köra automatiserade tester.
Men projektet nöjer sig inte med vanliga tester. Genom verktyget Boardswarm kan man gå djupare, ända ner i den allra första startkedjan i processorn. Det betyder att utvecklare kan återställa och omflasha enheterna helt på distans – från bootloader till operativsystem.
Resultatet är en publikt tillgänglig testmiljö för RISC-V som vem som helst kan använda. Dokumentationen är öppen, så andra kan bygga liknande testfarmer.
Det här är ett stort steg för ekosystemet kring RISC-V, som nu får samma typ av automatiserad testning som länge varit självklar för x86- och ARM-världen.
Ubuntu Touch tar ännu ett steg framåt. Med den nya uppdateringen OTA-10 får det Linux-baserade mobiloperativsystemet inte bara stöd för fler enheter, utan även ett nytt uppgraderingsverktyg som banar väg för nästa stora generationsskifte – Ubuntu Touch 24.04.
UBports Foundation fortsätter sin resa mot att erbjuda ett verkligt alternativ till de dominerande mobila operativsystemen. Nu släpper de den tionde stabila uppdateringen av Ubuntu Touch 20.04, en version som vid första anblick kan verka liten – men som i själva verket lägger grunden för nästa stora språng i projektets historia.
Ett nytt verktyg som pekar framåt
Höjdpunkten i OTA-10 är utan tvekan introduktionen av ett helt nytt uppgraderingsverktyg. Med detta på plats blir det möjligt för användarna att sömlöst gå över till Ubuntu Touch 24.04-1.0 så snart den versionen är redo. Det är inte vilken uppdatering som helst – 24.04 blir den första versionen av Ubuntu Touch som bygger på Ubuntu 24.04 LTS, även känd som Noble Numbat, vilket betyder både längre support och ett modernare fundament.
Små förbättringar med stor betydelse
Förutom uppgraderingsverktyget innehåller OTA-10 flera mindre men viktiga förbättringar. Bluetooth har fått en justering så att systemet inte längre försöker para ihop sig automatiskt med Nissan Connect-enheter, H.264-encodern har fått en smartare hantering av bitrate, och Mir screencast har blivit mer stabil tack vare mutex-låsning.
Det finns också nyheter för den som vill experimentera. Nix-stöd har börjat implementeras, vilket kan ge större flexibilitet i hur systemet hanteras framöver. Multimedia-stödet har utökats med UHD-format och uppdaterade AVC-nivåtyper. Dessutom har centrala komponenter som QtWebEngine och BlueZ uppdaterats med fixar och säkerhetsförbättringar.
Fler enheter, fler användare
En av de mest konkreta nyheterna är att listan över officiellt stödda enheter växer. Rabbit R1 får nu sitt första officiella stöd, och därmed blir Ubuntu Touch tillgängligt på ännu en enhet i en redan imponerande bredd. I övrigt omfattar listan populära modeller från bland annat Fairphone, Google, OnePlus, Volla, Sony och Xiaomi.
Uppdateringen rullas ut stegvis
För den som redan kör Ubuntu Touch på den stabila kanalen kommer OTA-10 att dyka upp via systeminställningarnas uppdateringsfunktion. Utrullningen sker gradvis, så alla får inte uppdateringen på samma dag. Den som är otålig kan dock ta saken i egna händer och hämta uppdateringen direkt via ADB.
Framtiden väntar runt hörnet
Egentligen skulle Ubuntu Touch 24.04-1.0 ha lanserats parallellt med OTA-10, men tester visade att vissa enheter inte startade som de skulle. UBports valde därför att senarelägga släppet. Det kan ses som en besvikelse för den som väntat länge på nästa stora generationsskifte – men också som en försäkran om att projektet tar kvalitet på allvar.
När 24.04 väl når användarna kommer det att innebära en rejäl modernisering av Ubuntu Touch och ge projektet en stark grund för framtiden. OTA-10 är därför inte slutmålet, utan snarare bron som leder dit.
Stegvis via Inställningar → Uppdateringar (Stable-kanalen).
Tvinga uppdatering
sudo system-image-cli -v -p 0 --progress dots
Stödda modeller (urval)
Fairphone 3/3+/4, Google Pixel 3a/3a XL, OnePlus 5/5T/6/6T/Nord N10 5G/N100,
Volla-serien (inkl. Tablet & Quintus), Sony Xperia X, Xiaomi Poco X3 NFC / X3, Redmi 9/9 Prime, Note 9-serien, Asus Zenfone Max Pro M1, JingPad A1, Lenovo Tab M10 HD 2nd Gen.
Visa full lista
Kan flera Linux-kärnor dela på en enda server utan virtualisering? ByteDance, företaget bakom TikTok, tror det. Med sitt nya projekt Parker vill de ta ett koncept som länge funnits i stordatorvärlden – partitionering – och göra det möjligt på vanliga x86-servrar. Resultatet kan bli snabbare och mer flexibla system, men också nya risker.
Vad är det som är nytt?
ByteDance, mest känt för TikTok, har lagt fram ett förslag som kan förändra hur stora datorer används. Projektet kallas Parker och handlar om att låta flera Linux-kärnor köras samtidigt på samma fysiska dator – men utan att använda klassiska virtualiseringslösningar som VMware eller KVM.
I stället delas själva hårdvaran upp: vissa processorkärnor, minne och nätverkskort går till en kärna, medan andra kärnor får sina egna resurser.
Så här fungerar Parker
Allt börjar med en Boot Kernel, som tar kontroll över datorn vid start. Den delar upp resurserna och tilldelar dem till olika Application Kernels.
Efter det körs varje kärna helt självständigt, utan att de pratar med varandra. Det gör att de inte stör varandra – och kan ge mycket bättre prestanda på riktigt stora servrar.
Varför är detta intressant?
Moderna servrar kan ha hundratals processorkärnor. Att få dessa att jobba effektivt är inte alltid lätt. Parker skulle kunna:
Förbättra skalbarhet – varje kärna jobbar för sig själv.
Ge flexibilitet – olika kärnor kan ha olika inställningar och optimeringar beroende på arbetsuppgift.
Låta företag köra olika system samtidigt på samma maskin, utan att bygga upp en stor virtualiseringslösning.
Men det finns risker
Allt är inte guld och gröna skogar. Parker har ingen hypervisor som övervakar kärnorna. Det betyder att en bugg i en av kärnorna kan få hela datorn att krascha.
En expert från Intel, Dave Hansen, varnade dessutom för att vissa systemkommandon – som normalt påverkar hela maskinen – kan skapa konflikter mellan kärnorna.
Vad händer nu?
Förslaget är än så länge bara på experimentstadiet. Linux-utvecklare världen över diskuterar just nu om Parker är ett genialiskt steg framåt – eller bara ännu ett misslyckat försök som kommer glömmas bort.
Sammanfattning
Parker är ett djärvt försök att köra flera Linux-kärnor parallellt, utan virtualisering. Om det lyckas kan det ge snabbare, mer flexibla servrar – men också innebära nya risker för stabilitet och säkerhet.
Framtiden får utvisa om Parker blir verklighet eller bara stannar som en spännande idé på ritbordet.
Parker – teknisk faktaruta
Typ: Partitionerad Linux-kärna (utan hypervisor)
Syfte: Köra flera Linux-kärnor samtidigt på samma maskin
Primärt mål: Stora x86-servrar med mycket högt kärnantal
Resurser per instans: Dedikerade CPU-kärnor, minnesregioner och PCIe-enheter
IO-krav: Egen NVMe/NIC per kärna (ingen delning)
Arkitektur:Boot Kernel delar ut resurser → Application Kernels
Kommunikation: Ingen – instanserna delar inget (”share-nothing”)
Gränssnitt:kernfs för konfiguration
Start av sekundära:kexec till reserverade minnesområden
Förberedelser: CPU offline, CMA-minnesreserv, unbind av PCI-enheter
Fördel: Lägre overhead och potentiellt bättre skalbarhet
Risk/Begränsning: Samma säkerhetsdomän (ingen hypervisor-isolering)
Kända invändningar: Systemomfattande instruktioner (t.ex. WBINVD) kan påverka alla
Konfigurationsidéer: olika CONFIG-val, FDO/PGO per arbetslast.
KaOS Linux 2025.09 är här. Den lilla, självständiga Linux-distributionen bjuder på det allra senaste inom KDE-världen, toppmodern kärna och flera nya program. Med fokus på kvalitet framför kvantitet vill KaOS visa att även små projekt kan leverera en helgjuten upplevelse.
Tänk dig en Linux-distribution som inte försöker vara allt för alla, utan istället fokuserar på att vara riktigt bra på en sak. Det är precis vad KaOS Linux gör. Nu har version 2025.09 släppts, och även om KaOS är en liten nischad spelare i Linuxvärlden, levererar den ett imponerande paket för den som gillar KDE Plasma-skrivbordet.
Alltid det senaste KaOS bygger på den allra senaste tekniken. Den nya utgåvan drivs av Linux-kärnan 6.16 och levereras med KDE Plasma 6.4.5, tillsammans med de färska programpaketen KDE Gear 25.08.1 och KDE Frameworks 6.18. Allt är byggt på ramverket Qt 6.9.2, vilket gör att skrivbord och program hänger ihop på ett modernt och enhetligt sätt.
Nya program att utforska Utvecklarna har också lagt till flera spännande program i denna version:
Typst, ett nytt sätt att skapa dokument – tänk LaTeX, fast modernare och enklare.
Plasma Bigscreen, ett gränssnitt för TV-apparater. Perfekt för den som vill förvandla datorn till ett mediacenter.
Hydrogen, en trumsequencer för att skapa musik med digitala beats.
Små men viktiga förändringar En detalj som utvecklarna lyfter fram är att installationsprogrammet Calamares inte längre öppnar en webbläsare som root när man startar installationen – något som länge varit en säkerhetsrisk. Istället visas nu informationen direkt i installationsfönstret med hjälp av en modern QML-baserad lösning.
Även det community-drivna paketarkivet KCP har flyttat till Codeberg, vilket betyder att all kod nu hanteras på öppna plattformar.
Uppdaterat under huven För de som gillar tekniska detaljer finns det mycket nytt: Mesa 25.2.3, PipeWire 1.4.8, systemd 254.27, Bash 5.3, OpenSSL 3.5.3, Git 2.51, OpenZFS 2.3.4 och många fler uppdaterade komponenter. Det är med andra ord inte bara ytan som är fräsch.
Rolling release – du installerar en gång En av fördelarna med KaOS är att det är en så kallad rolling release. Det innebär att du bara installerar systemet en gång och därefter får kontinuerliga uppdateringar, istället för att behöva göra stora nyinstallationer. Befintliga användare behöver alltså bara skriva:
Faktaruta: KaOS Linux 2025.09
Kärna: Linux 6.16
Skrivbord: KDE Plasma 6.4.5
Programsviter: KDE Gear 25.08.1, KDE Frameworks 6.18
Ramverk: Qt 6.9.2
Nya appar: Typst, Plasma Bigscreen, Hydrogen
Installationsprogram: Calamares (med QML Drawer för välkomstinfo)
KCP: Flyttat till Codeberg
Kärnkomponenter
Mesa 25.2.3
PipeWire 1.4.8
systemd 254.27
GStreamer 1.26.6
GNU Bash 5.3
OpenSSL 3.5.3
Git 2.51
OpenZFS 2.3.4
KBD 2.9.0
OpenCV 4.12.0
Protobuf 32.1
Poppler 25.09.0
Meson 1.9.1
OpenEXR 3.4.0
Proj 9.7.0
libxml2 2.14.6
Uppdatering
sudo pacman -Syu
Rolling release – installera en gång, uppdatera för alltid.
PeerTube är den fria och decentraliserade videoplattformen som vill utmana jättar som YouTube. Med den nya versionen 7.3 blir tjänsten både mer användarvänlig och flexibel: e-post kan nu skickas på flera språk, administratörer får enklare verktyg för anpassning och livesändningar kan schemaläggas i förväg. Det är ännu ett steg mot ett öppnare internet där användarna själva har kontrollen.
I en tid då de flesta av oss förknippar videodelning med stora centraliserade plattformar som YouTube, Vimeo eller TikTok, finns det ett alternativ som bygger på helt andra värden: PeerTube. Det är en fri, öppen källkodsplattform som drivs av ideella krafter, utan reklamjättar i ryggen. I stället bygger PeerTube på decentralisering, gemenskap och självbestämmande.
Nu har version 7.3 släppts, och den innehåller flera efterlängtade nyheter som gör det ännu enklare att både använda och administrera en PeerTube-instans.
Varför PeerTube?
PeerTube skiljer sig från de stora aktörerna på flera viktiga sätt:
Decentralisering: I stället för en enda server eller företag drivs PeerTube av många olika instanser. Vem som helst kan starta en egen videoplattform och välja om den ska vara öppen för alla eller mer privat.
Federering: Instanser kan prata med varandra via det öppna protokollet ActivityPub (samma som Mastodon använder). Det betyder att videor kan delas över nätverket, även om de ligger på olika servrar.
Frihet och kontroll: Användare och administratörer bestämmer själva över innehåll, regler och design – inte en central algoritm.
Gemenskap: Projektet utvecklas av den franska ideella organisationen Framasoft, men tusentals volontärer bidrar med kod, översättningar och idéer.
Med andra ord: PeerTube är ett verktyg för att ta tillbaka makten över våra digitala medier.
Nyheterna i PeerTube 7.3
E-post på flera språk
Tidigare skickades alla e-postmeddelanden (till exempel bekräftelser, notifieringar och lösenordsåterställningar) enbart på engelska. För många användare var det ett hinder i professionella sammanhang.
Nu kan e-post översättas till alla språk som PeerTube stöder. Redan från start finns franska och kinesiska fullt översatta, och fler språk är på gång tack vare gemenskapens insatser.
Enklare administration och anpassning
Administratörer får nu ett nytt, mer lättöverskådligt sidomenygränssnitt. Dessutom har två nya konfigurationssidor tillkommit:
Anpassning (Customisation): Byt färger, former på knappar och annat med några klick. Vill du byta bort PeerTubes orange till blått? Inga problem.
Logotyp och bilder: Här kan du ladda upp loggor, favicons, banners och bilder som används på plattformen – även de som visas på sociala medier.
Dessutom finns nu en inställningsguide (wizard) som hjälper nya administratörer att komma igång. Där kan man direkt sätta plattformens namn, beskrivning och syfte: privat, gemenskap eller institution.
Schemalägg dina livesändningar
PeerTube har länge erbjudit liveströmmar, men nu kan du planera dem i förväg. Ange datum och tid – sedan visas informationen både på sändningens sida och i kanalens videolista. På så vis kan publiken planera i stället för att bara vänta.
Fler förbättringar
Playlist-sidorna har fått ny design och gör det lättare att ändra visningsordning.
Admins kan sätta standardvärden för licens, synlighet och kommentarsinställningar.
Användare kan nu lista alla aktiva inloggningssessioner och stänga av dem vid behov.
PeerTube och framtiden
Att bygga ett alternativ till globala jättar är inget litet projekt. Det kräver åratal av arbete, översättningar, kod, testning och framför allt en engagerad gemenskap. PeerTube 7.3 är ett exempel på hur en idé kan växa till ett robust verktyg, utan att styras av annonsintäkter eller algoritmer som prioriterar klick före innehåll.
Vill du själv bidra? Du kan köra en egen PeerTube-instans, hjälpa till med översättningar, rapportera buggar eller donera till Framasoft. Varje liten insats gör skillnad.
DuckDB, databasen som ofta kallas ”SQLite för analys”, har släppt version 1.4 – en långsiktigt stödd utgåva full med nyheter. Med inbyggd kryptering, stöd för MERGE-kommandot, skrivning till Iceberg och förbättrad prestanda tar DuckDB ännu ett kliv mot att bli en av de mest flexibla och kraftfulla analysdatabaserna på marknaden.
DuckDB, den lilla men kraftfulla databasen som ofta beskrivs som ”SQLite för analys”, har nått en viktig milstolpe. Med version 1.4, kodnamn Andium, släpps nu en LTS-utgåva (Long-Term Support) med ett års garanterat community-stöd. Den här versionen är fullmatad med nyheter som gör databasen både säkrare och snabbare, samtidigt som den blir mer flexibel att använda.
Kryptering på riktigt
En av de största nyheterna är att DuckDB nu kan kryptera hela databasen med AES-256 i det säkra GCM-läget. Det innebär att inte bara själva databasen, utan även loggfiler och temporära filer skyddas. Krypteringsnyckeln anges enkelt via en parameter när databasen kopplas in. För den som använder OpenSSL kan man dessutom dra nytta av hårdvaruacceleration, vilket gör krypteringen riktigt snabb.
MERGE INTO – smartare uppdateringar
Fram till nu har DuckDB-användare varit hänvisade till tricket INSERT INTO … ON CONFLICT för att hantera uppdateringar och konflikter. Med version 1.4 får vi istället det betydligt mer flexibla kommandot MERGE INTO, som gör det möjligt att kombinera insättningar, uppdateringar och raderingar i ett och samma kommando – perfekt för avancerade dataströmmar.
Iceberg-stöd på nästa nivå
DuckDB har länge kunnat läsa från Apache Iceberg, det populära lagringsformatet för storskaliga dataset. Men nu kan databasen även skriva data till Iceberg. Det öppnar för helt nya arbetsflöden där man kan flytta data mellan DuckDB, DuckLake och Iceberg. Dock krävs att schemat redan är skapat på Iceberg-sidan.
Små detaljer som gör stor skillnad
Version 1.4 innehåller också flera förbättringar som gör vardagen enklare:
En förloppsindikator i terminalen med uppskattad tid (ETA).
En ny FILL-funktion som fyller i saknade värden i dataserier.
En Teradata-anslutning för bättre integration med befintliga system.
Prestanda i fokus
Prestanda har alltid varit DuckDB:s styrka, och här fortsätter förbättringarna:
Sortering använder nu en modern k-way merge-metod.
CTE:er (Common Table Expressions) materialiseras automatiskt för att snabba upp beräkningar.
Minnestabeller har fått stöd för checkpointing, med möjlighet till komprimering.
Distribution och ekosystem
Slutligen har utvecklarna även putsat på distributionen:
Binärerna för macOS är nu notariserade.
Python-stödet har flyttat till sitt eget repository, duckdb/duckdb-python, för smidigare utveckling.
DuckDB 1.4 visar att projektet inte bara växer i popularitet, utan också mognar som plattform. Med inbyggd kryptering, modernare SQL-stöd och förbättrad prestanda stärker DuckDB sin position som det självklara valet för analys – oavsett om du jobbar på din laptop eller i stora datacentermiljöer.
DuckDB – Fakta & användning
Typ: In-process, kolumnorienterad SQL-databas för analys (OLAP). Distribution: Inbäddad i processen – ingen separat server krävs. Plattformar: Linux, macOS, Windows; fungerar i Python, R, C/C++, Java (JDBC), ODBC m.fl. Filformat: Eget .duckdb on-disk-format + direktläsning av Parquet/CSV/JSON/Arrow. Lagring: Kolumnlagring med komprimering (t.ex. dictionary, bitpackning, RLE) och statistik/zonkartor. Transaktioner: ACID med WAL; snapshot isolation; flertrådad, vektoriserad exekvering. Index: Inga användarhanterade B-träd; förlitar sig på kolumnstatistik/zonkartor och adaptiva tekniker. Skalning: Optimerad för enmaskin/enkelt deployment; out-of-core för stora dataset (strömmande/externa filer). Kryptering: AES-256-GCM för databas/WAL/temp (från 1.4; nyckel via ENCRYPTION_KEY vid ATTACH). SQL-stöd: ANSI-nära dialekt med CTE/rekursiva CTE, fönsterfunktioner, MERGE INTO, ON CONFLICT, typerna STRUCT/LIST/MAP, omfattande JSON-funktioner. Extensions (urval): Parquet/JSON, httpfs (fjärrfiler), Arrow-integration, Iceberg-läs/skriv (via duckdb-iceberg), m.fl. Prestanda: Vektoriserad motor, parallellisering inom fråga, omskriven k-vägs mergesort, materialiserade CTE:er som standard. CLI/verktyg: Interaktiv duckdb-CLI (med progressbar/ETA), inbyggd COPY/IMPORT/EXPORT till Parquet/CSV. Integrationer: Pandas/Polars/Arrow i Python, dplyr/dbplyr i R, BI-verktyg via ODBC/JDBC.
Vad används DuckDB till?
Interaktiv analys (OLAP) direkt i laptops/notebooks utan databasserver.
Snabb SQL över datafiler (Parquet/CSV/JSON) – lokalt eller över httpfs.
ETL/ELT-steg i pipeline: läsa, transformera och skriva Parquet/Iceberg.
Prototyping/experiment i Python/R – kör SQL nära dataframes/Arrow-tabeller.
Inbäddade applikationer som behöver kolumnlagrad analysdatabas i processen.
Datakvalitet, ad-hoc-frågor, testning av SQL-logik innan produktion.
Typiska styrkor
Zero-install/zero-server: enkel att paketera och distribuera.
Hög hastighet på kolumnära, analytiska frågor; effektiv komprimering.
Direkt arbetsflöde med datafiler (ingen import nödvändig).
Stark integration med dataekosystemet (Arrow, Pandas, Parquet, Iceberg).
Begränsningar att känna till
Inte en fleranvändarserver som PostgreSQL; bäst i enprocess-/enmaskinsscenarier.
Inga manuella B-trädindex; arbetsset och filstatistik är nyckeln till prestanda.
Österrikes försvarsmakt byter från Microsoft Office till LibreOffice – inte för att spara pengar, utan för att ta hem kontrollen över sina data. Med öppna standarder, egen infrastruktur och bidrag tillbaka till koden markerar armén en tydlig kurs: digital suveränitet före molnberoende.
Det är en tidig höstdag i Wien när Michael Hillebrand från Österrikes försvarsmakt ställer sig på scenen vid LibreOffice-konferensen 2025. Publiken, en blandning av utvecklare, akademiker och myndighetsrepresentanter från hela världen, lyssnar nyfiket när han berättar hur en av Europas arméer valde att byta från Microsoft Office till LibreOffice.
Och nej – det handlar inte om att spara pengar.
Digital självständighet som strategi
”Vi gör inte detta för att spara pengar”, säger Hillebrand. ”Vi gör det för att försvarsmakten, som måste fungera även när allt annat ligger nere, ska ha verktyg som vi själva kontrollerar.”
Beslutet är en del av något större. Över hela Europa pratar myndigheter om digital suveränitet – rätten att styra över sin egen infrastruktur, sina egna data och sina egna verktyg, utan att vara beroende av amerikanska molnjättar.
För Österrikes försvarsmakt blev det tydligt redan 2020 att Microsoft Office gradvis skulle flyttas in i molnet. För ett landets militära försvar var det ett rött skynke. Molnbaserade lösningar må vara praktiska för företag, men för en organisation som måste fungera när internet inte gör det är de en risk.
Fem års resa bort från Microsoft
Då började en lång process:
2020–2021: Beslutsprocessen genomfördes, där LibreOffice pekades ut som ersättare.
2022: Interna utvecklare utbildades för att kunna vidareutveckla den öppna programvaran. Anställda fick redan då välja LibreOffice frivilligt.
2023: Ett tyskt företag kopplades in för support och extern utveckling, och armén startade e-learning-kurser. De första avdelningarna gjorde LibreOffice obligatoriskt.
2024–2025: Microsoft Office 2016 rensades bort från alla datorer. LibreOffice blev standard.
Än finns undantag. Vissa VBA- och Access-lösningar lever kvar, och den som absolut behöver Microsofts verktyg kan ansöka om att få installera en modul från MS Office 2024 LTSC. Men för majoriteten av soldater och anställda är det nu LibreOffice som gäller.
Från användare till utvecklare
Beslutet har också gjort armén till en aktiv del av open source-gemenskapen. Istället för att bara konsumera programvaran har man investerat i dess utveckling.
Hittills har försvarsmakten finansierat över fem mansår av programmering – förbättringar och funktioner som inte bara används av militären, utan som integrerats direkt i LibreOffice-projektet och därmed kommer alla till nytta.
Det är en liten men viktig illustration av hur öppen källkod fungerar: ett samarbete där även en konservativ institution som en armé kan bidra till verktyg som används i skolor, på kontor och av privatpersoner världen över.
Europa och kampen om kontrollen
Österrikes beslut är inte unikt, men det är symboliskt. Frankrike, Tyskland och flera andra länder har på olika sätt försökt frigöra sig från beroendet av amerikanska moln- och programvaruleverantörer.
Digital suveränitet har blivit en fråga om nationellt oberoende – lika viktig som energiförsörjning eller infrastruktur. För vad händer om en konflikt uppstår och tillgången till centrala IT-tjänster stryps? Eller om licensvillkor plötsligt ändras på ett sätt som gör det omöjligt att arbeta självständigt?
”Verktyg som fungerar när allt annat ligger nere”
För Österrikes försvarsmakt är svaret tydligt: man måste kunna lita på sina egna system. Och då är öppen källkod inte bara en teknisk lösning, utan en strategisk tillgång.
När publiken på LibreOffice-konferensen applåderar åt Hillebrands berättelse är det inte bara för att en ny stor organisation börjat använda deras favoritprogramvara. Det är för att en hel nation valt att säga: vi tar kontrollen själva.
Byte från Microsoft Office till LibreOffice för att stärka digital suveränitet, undvika molnberoende och behandla data internt.
Försvarsmakten har finansierat >5 mansår utveckling som skickats upstream.
Konkreta bidrag till LibreOffice
Writer: Förbättrad hantering av dokumentmallar för myndighetsbruk.
Calc: Optimeringar för stora kalkylblad och förbättrad pivot-tabellprestanda.
Impress: Nya exportfunktioner och förbättrad medieintegration i presentationer.
Base: Förbättrad kompatibilitet med Microsoft Access och databasformulär.
Filformat: Stärkt interoperabilitet med DOCX, XLSX och PPTX vid import/export.
Administration: Centrala policyinställningar för driftsättning i stor skala.
Stabilitet: Härdning av systemet för drift i känsliga miljöer.
Teknisk översikt
Motiv: Digital suveränitet, lokal databehandling, kontroll över IKT-infrastruktur.
Raspberry Pi fortsätter att tänja på gränserna för vad små datorer kan vara. Med nya Raspberry Pi 500+ tar de allt-i-ett-konceptet till nästa nivå: ett stilrent mekaniskt tangentbord med RGB-belysning, inbyggd 256 GB SSD, hela 16 GB RAM och kraften från Raspberry Pi 5. Det är en modern hyllning till hemdatorerna från 80-talet – fast starkare, snabbare och mer anpassningsbar än någonsin.
Raspberry Pi överraskar igen – och denna gång med sitt mest påkostade allt-i-ett-paket hittills. Raspberry Pi 500+ är inte bara en dator, det är en hyllning till de klassiska hemdatorerna som många av oss växte upp med, men i modern tappning.
Från Pi 400 till Pi 500+
Resan började redan 2020 med Raspberry Pi 400, en dator inbyggd i ett membrantangentbord. Den blev en succé bland hobbyister och spelade en viktig roll under pandemin då tusentals delades ut till barn som studerade hemifrån.
Förra året kom Raspberry Pi 500, uppföljaren med mer kraft och ett mer gediget utförande. Men många lade märke till att det fanns tomma platser på kretskortet, som om något mer var på gång. Nu vet vi svaret: Raspberry Pi 500+, modellen som skruvar upp allt till nästa nivå.
Mekaniskt tangentbord med stil
Den mest påtagliga nyheten är tangentbordet. Istället för membranteknik får vi nu ett mekaniskt tangentbord med Gateron KS-33 Blue-brytare. Varje tangent ger ett tydligt klick och en respons som gör skrivandet och programmerandet till en ren fröjd.
Dessutom har varje tangent individuellt adresserbara RGB-lysdioder, vilket öppnar för allt från subtil bakgrundsbelysning till avancerade ljuseffekter. Tangentbordet styrs av en RP2040-krets med QMK, vilket betyder att anpassningarna är nästan obegränsade – och ja, någon lär snart porta Doom till tangentbordet.
För entusiaster som vill byta ut tangenterna är det enkelt: Raspberry Pi 500+ är kompatibel med de flesta eftermarknadens keycaps och levereras med ett verktyg för att ta bort tangenterna.
Inbyggd SSD och M.2-expansion
En annan stor nyhet är lagringen. Till skillnad från tidigare modeller levereras Raspberry Pi 500+ med en inbyggd 256GB SSD via M.2, komplett med Raspberry Pi OS förinstallerat.
Vill du uppgradera? Inga problem. Chassit är utformat för att kunna öppnas försiktigt, och du kan installera vilken M.2 2280-enhet du vill – allt från större SSD:er till andra PCIe-enheter. Om du föredrar flexibilitet stöds även uppstart från SD-kort eller externa USB-SSD:er.
Mer minne än någonsin
För att hantera de tyngsta uppgifterna är Raspberry Pi 500+ utrustad med hela 16GB LPDDR4X-4267 RAM. Det är den största minnesmängd som någonsin byggts in i en Raspberry Pi.
Det öppnar för användningsområden långt bortom vanlig hobbyprogrammering:
Byggservrar
Simuleringar inom beräkningsvätskedynamik
Lokala AI-modeller
Eller varför inte – hundratals öppna webbläsarflikar
En modern hyllning till klassikerna
Raspberry Pi 500+ är inte bara en dator, det är också ett slags retrohommage. Den för tankarna till de klassiska hemdatorerna från 80-talet, men med modern hårdvara, moderna gränssnitt och prestanda som kan konkurrera med vanliga PC-datorer i många vardagliga användningsområden.
Hos Raspberry Pi kallar de det själva för deras mest polerade produkt hittills – och det är lätt att förstå varför.
Tekniska specifikationer – Raspberry Pi 500+
Egenskap
Specifikation
Processor
Raspberry Pi 5 SoC (samma som i Pi 500)
RAM
16GB LPDDR4X-4267 SDRAM
Lagring
256GB M.2 SSD (förinstallerad med Raspberry Pi OS)
Expansion
Intern M.2 2280-plats (PCIe)
Tangentbord
Mekaniskt, Gateron KS-33 Blue-switchar, lågprofil
Belysning
Individuellt adresserbara RGB-lysdioder per tangent
Keycaps
Anpassade, spraymålade och lasergraverade (kompatibla med aftermarket-set)
Styrning tangentbord
RP2040 med QMK
Uppstartsmöjligheter
SSD (M.2), SD-kort, externa USB-SSD:er
Design
Silvergrå (RAL 7001), verktyg för att öppna chassit medföljer
Toms Hardware åsikt om pi 500+
Efter succén med Raspberry Pi 500 kommer nu Raspberry Pi 500+, en uppgraderad modell med 16 GB RAM och 256 GB NVMe SSD. Priset är 200 dollar, vilket placerar den i nivå med enklare bärbara datorer. Startpaketet med mus, nätadapter, HDMI-kabel och guide kostar 220 dollar.
Designen domineras av det mekaniska tangentbordet med Gateron Blue-switchar och RGB-belysning, som kan styras via mjukvara eller Python. Chassit är större än Pi 500 för att rymma SSD:n, men portarna är i stort sett desamma. Däremot saknas CSI/DSI-gränssnitt, så kamera får anslutas via USB.
Inuti finns ett moderkort med stor kylfläns, plats för NVMe och en RP2040-mikrokontroller som hanterar tangentbord och ljus. Kylningen fungerar bra – enheten blir något varmare än Pi 500 men drar lite mindre ström tack vare ett nytt chip-stepp. Vid överklockning når processorn nästan 3 GHz utan att gå över 70 °C, men en starkare strömförsörjning behövs.
NVMe-SSD:n ger bättre läs- och skrivhastigheter än microSD-kort, men märkligt nog tar själva uppstarten längre tid från NVMe än från microSD. GPIO-stiften finns kvar på kortet, men de sitter horisontellt längs baksidan och är därför svåra att komma åt direkt. För att använda dem på ett praktiskt sätt behöver man en så kallad breakout-adapter som vinklar ut eller sprider stiften. Dessutom är stödet för HAT-tillägg fortfarande begränsat på Pi 5-serien.
Raspberry Pi 500+ är i grunden en Pi 500 med mer minne och snabbare lagring. Tangentbordet är en höjdpunkt och datorn fungerar bra som enkel desktop, tunn klient eller skol-PC. Däremot gör priset att den känns mer som en billig ARM-baserad dator än en klassisk budget-Pi.
Meddelandeapparna blir allt fler – men Franz samlar dem alla under ett och samma tak. Från WhatsApp och Slack till Telegram och Facebook Messenger erbjuder den österrikiska appen en enkel lösning för den som vill slippa jonglera mellan olika fönster och konton.
I en tid när vi jonglerar mellan otaliga chatt- och meddelandeappar har en österrikisk utvecklare hittat en lösning på problemet. Applikationen Franz låter användare samla tjänster som WhatsApp, Slack, Telegram, Facebook Messenger, Discord och många fler i ett och samma fönster.
Franz startade som ett sidoprojekt av utvecklaren Stefan Malzner, men har sedan dess vuxit till ett internationellt open source-projekt med hundratals bidragsgivare. Sedan version 5 distribueras programmet under den fria Apache License 2.0.
Byggd på webben – körs på skrivbordet
Tekniskt sett bygger Franz på ramverket Electron, som i sin tur använder Node.js och Chromium. Det innebär att applikationen i grunden är en webbtjänst, men levereras som ett vanligt skrivbordsprogram för Linux, macOS och Windows.
Stöd för det mesta – och lite till
Listan över kompatibla tjänster är lång: WhatsApp, WeChat, HipChat, Messenger, Google Hangouts, Skype, Zendesk, Trello, Gmail, Google Kalender – och många fler. Dessutom kan användaren lägga till samma tjänst flera gånger, vilket gör Franz särskilt användbar för den som vill hålla isär jobb- och privatkonton.
För den som behöver mer finns även en plugin-arkitektur, där integrationerna kallas recipes. På bara några minuter kan man skapa en egen anpassad integration, och tack vare det aktiva communityt växer utbudet hela tiden.
Säkerhet i fokus
Samtalen i Franz skyddas med end-to-end-kryptering, och appen stöder såväl textchattar som konferenssamtal och filöverföringar. För extra trygghet går det även att verifiera enhetsfingeravtryck och aktivera så kallad framåt- och bakåtsekretess.
Ett globalt projekt
Franz finns tillgänglig som AppImage för både 32- och 64-bitars system och används världen över. Tack vare frivilliga översättare finns stöd för ett stort antal språk, från katalanska och japanska till ryska och ukrainska.
Mer än bara en app
Det som började som ett verktyg för att få ordning på vardagens notiser har utvecklats till en mångsidig kommunikationsplattform. Med funktioner som stavningskontroll, synkronisering mellan enheter och möjligheten att bjuda in vänner, har Franz blivit ett alternativ till både renodlade appar som Signal och större företagslösningar.
Projektets hemvist finns på meetfranz.com, och därifrån länkas även hjälpdokumentation, ändringslogg och källkod på GitHub.
När Thunderbird 144 lanseras i oktober 2025 sker något som många länge väntat på: e-postklienten får officiellt stöd för Microsoft Exchange. Det markerar ett historiskt steg för det öppna källkodsprojektet, som därmed tar sikte på företagsvärlden där Outlook länge varit ohotad.
Efter många år av förväntan och önskemål är det äntligen dags: Thunderbird får officiellt stöd för Microsoft Exchange i version 144, som lanseras i oktober 2025. Det här är inte bara en ny funktion – det är ett strategiskt kliv som kan förändra e-postklientens roll på arbetsmarknaden.
En ny era för Thunderbird
Thunderbird har länge varit populär bland privatpersoner och entusiaster inom öppen källkod. Men i företagssfären har Microsoft Outlook och Exchange dominerat totalt. När Exchange nu blir en del av Thunderbird öppnas dörren till en helt ny målgrupp: företag och organisationer som tidigare varit låsta till Microsofts ekosystem.
Utvecklarna beskriver det som en vändpunkt – plötsligt kan Thunderbird positionera sig som ett seriöst alternativ även i professionella miljöer.
Funktionerna som gör skillnaden
Lanseringen i oktober innebär att användarna får tillgång till en rad viktiga verktyg direkt från start. Bland nyheterna märks:
Ångra/Gör om för flytt, kopiering och radering av meddelanden
Notifieringar och återkoppling i statusfältet
Grundläggande sökfunktioner
Mappreparation och hantering av fjärrinnehåll
Förbättrad bilagehantering med radera- och losskopplingsfunktion
Autosynk-hanterare som effektiviserar nedladdning av e-post
Avancerade serverinställningar för komplexa miljöer
Experimentella tenant-specifika konfigurationer (än så länge bakom en inställning för testare)
Kort sagt: det är inte bara en anslutning till Exchange, utan en hel uppsättning verktyg som gör integrationen praktiskt användbar i vardagen.
Blicken mot framtiden
Teamet bakom Thunderbird nöjer sig dock inte där. Nästa steg blir bland annat:
Utökade avancerade serverinställningar
Förbättrad sökning
Kvothantering för mappar
Stöd för prenumerationer
Planer för kalender- och adressboksintegration via Exchange Web Services (EWS)
Det betyder att Thunderbird inte bara tar sina första steg in i företagsvärlden – utvecklingen pekar på en djupare integration som kan göra klienten till ett fullvärdigt alternativ till Outlook.
Gmail-inspirerad samtalsvy och ny kalender
Samtidigt som Exchange-stödet har stulit rubrikerna pågår flera andra projekt. Ett Conversation View Work Week har resulterat i en fungerande prototyp av en Gmail-liknande trådad vy, där e-postmeddelanden grupperas i konversationer. Det här är en funktion som många användare längtat efter och som lovar en modernare, mer intuitiv upplevelse.
Även kalendern får kärlek efter en längre paus i utvecklingen. Fokus ligger nu på förbättrad åtkomstbarhet, bättre dialogrutor och smidigare stöd för deltagare i möten.
Små detaljer med stor betydelse
Förutom de stora satsningarna har utvecklarna även bockat av flera gamla buggar och irritationsmoment. Bland annat har:
Ett 18 år gammalt fel med drag-and-drop av kalenderhändelser lösts
En 15 år gammal bugg kring sortering av olästa mejl åtgärdats
Färger standardiserats och moduler moderniserats
Det visar på en blandning av nytänkande och underhållsarbete som stärker Thunderbird både på kort och lång sikt.
Sammanfattning – en höst att se fram emot
När Thunderbird 144 släpps i oktober kommer öppen källkods-världen att ta ett rejält kliv framåt. Med Exchange-stödet på plats blir klienten plötsligt högaktuell även för företag och organisationer – och det i en tid när fler än någonsin letar efter alternativ till Microsofts och Googles dominerande plattformar.
Hösten 2025 kan alltså bli tidpunkten då Thunderbird på allvar blir den fria e-postklienten som även företag vågar satsa på.
Andrew Tanenbaum, skaparen av MINIX och inspirationskälla till Linux, intervjuas live på årets Nerdearla i Buenos Aires. För oss i Sverige går det att följa gratis via livestream – direkt från datorn, på engelska, lördagen den 27 september klockan 15.
MINIX är ett namn som de flesta Linuxintresserade stöter på när de gräver i historien. Operativsystemet, skapat av Andrew Tanenbaum 1987, blev inte bara en pedagogisk plattform utan också den gnista som inspirerade Linus Torvalds att börja bygga Linux. På sätt och vis kan man säga att om Torvalds är Linux pappa, så är Tanenbaum dess farfar.
Senare i september kommer Tanenbaum, numera 81 år och professor emeritus vid Vrije Universiteit i Amsterdam, att intervjuas på scen under den stora open source-konferensen Nerdearla i Buenos Aires. För oss i Sverige är det kanske för långt bort för ett spontant besök – men det gör inget, för intervjun livestreamas gratis.
Gratis och på engelska
Nerdearla är i grunden en spanskspråkig konferens, men just intervjun med Tanenbaum hålls på engelska. Precis som hela konferensen är även sändningen fri att följa online. Det enda som krävs är en registrering.
Intervjun inleder konferensen lördagen den 27 september klockan 10 lokal tid i Buenos Aires. Det motsvarar klockan 15 svensk tid – en perfekt eftermiddagsstart för den som vill höra en av datorvärldens mest inflytelserika personer berätta om sitt arbete och sin syn på öppen källkod.
Nerdearla växer i världen
Nerdearla startade i Argentina men har vuxit till ett av Latinamerikas största evenemang inom öppen källkod. På senare tid har det även hållits i Mexiko och i november tar man steget till Europa med en konferens i Madrid.
Tidigare har arrangören lyckats få stora namn på scen, bland annat WordPress-grundaren Matt Mullenweg. I Buenos Aires är det Nicolás Wolovick, professor i datavetenskap vid Universidad Nacional de Córdoba och ansvarig för universitetets superdatorcenter, som håller i samtalet med Tanenbaum.
Varför är Tanenbaum viktig?
För oss Linuxanvändare är det svårt att överskatta hans roll. När han utvecklade MINIX var målet att ge studenter en fri och pedagogisk Unix-klon, som kunde köras på vanliga hemdatorer. Det blev startskottet för Linus Torvalds, som via en mailinglista för MINIX-användare presenterade sitt eget hobbyprojekt – Linux. Resten är, som man säger, historia.
Den 23 september 2025 släppte Kali‑projektet version 2025.3 — en punktuppdatering som i praktiken återger Raspberry Pi‑användare en efterfrågad förmåga: att använda den inbyggda Wi‑Fin för monitor mode och paketinjektion utan externa adaptrar. Samtidigt har distributionen moderniserat sina virtuella byggen och adderat verktyg som pekar mot en framtid där artificiell intelligens, pivoteringstekniker och mobilenheter blir allt viktigare för både angripare och försvarare.
En teknisk återkomst med praktiska konsekvenser
Kali 2025.3 återintroducerar stödet för Nexmon — en uppsättning firmwarepatchar för vissa Broadcom‑ och Cypress‑chip som möjliggör avancerade radiouppgifter. I praktiken betyder det att en modern Raspberry Pi, inklusive Pi 5, åter kan agera som portabel sniffer och injectionsenhet. För utbildare, labbmiljöer och fältforskare öppnar detta nya, billigare möjligheter att demonstrera och utföra trådlösa tester.
Men Nexmon är inte en universell lösning. Funktionaliteten beror på chipset‑version, kernel och drivrutinskombination — och därför har Kali samtidigt uppgraderat hur de bygger sina Raspberry Pi‑kärnor, vilket kräver att användare är noga med att välja rätt image och följa dokumentationen.
Från byggverkstaden: Vagrant, DebOS och reproducerbara VM‑bilder
Bakom kulisserna har Kali gjort en tyst, men viktig, förändring i sin infrastruktur. Virtuella maskiner och Vagrant‑bilder har fräschats upp — byggena har flyttats mot mer konsekventa arbetsflöden (DebOS) och Packer‑skripten har uppgraderats till modernare standarder. För företag och forskare som kör Kali i virtuella miljöer innebär det jämnare och mer reproducerbara bilder — men också ett krav på att hålla CI‑verktyg och beroenden i takt med utvecklingen.
Det här är ett typexempel på hur underhåll av verktygskedjor kan göra större praktisk nytta än mindre funktionstillägg: stabilare byggverktyg ger bättre upprepbarhet i experiment och förenklar automatiserade tester.
Tio nya verktyg — vad säger de om hotbilden?
Den här releasen lägger till tio nya paket i Kali‑arkivet. Tillskotten visar två tydliga trender:
AI möter säkerhetstestning: Verktyg som terminal‑AGI\:er och LLM‑stöd för klassiska verktyg gör att analys och rapportering kan automatiseras i högre grad. Det snabbar upp arbetet — men kan också underlätta automatiserade attacker om verktygen missbrukas.
Pivotering och autentiseringsmissbruk: Verktyg för Kerberos‑reläer och multiplayer‑pivotering speglar en verklighet där angripare ofta lockar intrång till följdaktiga laterala rörelser, snarare än enkla, ytliga attacker.
Sammantaget ger detta försvarare tydliga fokusområden: upptäckt av laterala rörelser, skydd av autentiseringsmekanismer och förståelse för hur AI‑assisterade arbetsflöden kan förändra incidenthantering.
Nya verktyg i Kali Linux 2025.3
Verktyg
Funktion
Caido / Caido-cli
Webbauditering, klient och CLI för analys av webbapplikationer
Detect It Easy (DiE)
Identifierar filtyper och packade binärer, nyttigt vid reverse engineering
Gemini CLI
Tar AI-assistans till terminalen för analys och automatisering
krbrelayx
Verktyg för Kerberos-relä och unconstrained delegation abuse
ligolo-mp
Bygger säkra tunnlar för pivotering i nätverk
llm-tools-nmap
Integrerar språkmodeller med nmap för bättre scanning och tolkning
mcp-kali-server
MCP-konfiguration för att koppla AI-agenter till Kali
patchleaks
Analyserar patchar för att upptäcka säkerhetsfixar och läckor
vwifi-dkms
Skapar virtuella Wi-Fi-nätverk för test av anslutning och frånkoppling
Sammanfattning: De nya verktygen i Kali Linux 2025.3 visar tydligt två trender inom cybersäkerhet:
en växande integration mellan klassiska verktyg och AI/LLM (exempelvis Gemini CLI och llm-tools-nmap),
samt ett allt större fokus på interna nätverksrörelser och autentiseringsattacker (ligolo-mp, krbrelayx).
Tillsammans gör de att Kali inte bara förblir en komplett plattform för penetrationstester, utan också en testbädd för framtidens hot och försvarstekniker.
Samsung Galaxy S10 i Kali NetHunter
Med Kali Linux 2025.3 har Samsung Galaxy S10 blivit en officiellt stödd enhet för Kali NetHunter.
Det betyder att telefonen kan användas för avancerade tester av trådlösa nätverk direkt via sin inbyggda Wi-Fi – något som tidigare ofta krävde extra utrustning som USB-adaptrar eller en separat dator.
I praktiken innebär det att en vanlig mobiltelefon kan förvandlas till ett komplett verktyg för att undersöka hur trådlösa nätverk fungerar, hitta svagheter och förstå hur angripare kan agera. För säkerhetsforskare och utbildare gör detta tekniken mer portabel och lättillgänglig: du kan bära med dig enheten i fickan och ändå ha tillgång till funktioner som annars kräver en hel arbetsstation.
För den som inte är tekniskt insatt kan det enklast beskrivas som att telefonen får ”superkrafter” – den kan inte bara ansluta till nätverk som vanliga mobiler, utan även lyssna på trafik och simulera attacker i en kontrollerad miljö. Det här gör det möjligt att lära sig mer om hur nätverk kan skyddas, men det understryker också vikten av att använda verktygen ansvarsfullt och endast på nätverk där man har tillstånd.
CARsenal i Kali NetHunter
I Kali Linux 2025.3 har CARsenal, verktygslådan för bilsäkerhet i NetHunter, fått en stor uppdatering. Syftet med CARsenal är att ge forskare och tekniker en möjlighet att testa hur moderna bilar kommunicerar digitalt – ungefär som en bilverkstad som undersöker motorns elektronik, men på en mer avancerad nivå.
Med den nya versionen har simulatorn skrivits om och blivit enklare att använda. Det betyder att man kan träna och experimentera på en virtuell bilmiljö i stället för på en riktig bil, vilket gör det säkrare och mer pedagogiskt. Dessutom har integrationen med andra säkerhetsverktyg som Metasploit blivit tätare, vilket gör det enklare att testa olika scenarier på ett och samma ställe.
För den som inte är tekniskt insatt kan man beskriva det så här: CARsenal fungerar som en digital körskola för bilsäkerhet, där man kan öva i en simulator och se hur bilar reagerar på olika tester. Det är ett viktigt steg eftersom dagens bilar i allt större utsträckning är datorer på hjul, och säkerheten i deras system är lika avgörande som bromsar och airbags.
Precis som med övriga Kali-verktyg är målet inte att hacka verkliga bilar ute på vägarna, utan att skapa en trygg miljö där man kan förstå svagheterna och lära sig hur de kan förebyggas.
Ett pragmatiskt farväl: ARMel lämnar scenen
I linje med Debian har Kali tagit beslutet att slopa stöd för ARMel‑arkitekturen. Det berör äldre enheter som Raspberry Pi 1 och Pi Zero W. Anledningen är praktisk: underhållskostnader och begränsad användarbas. För aktörer som bygger på extremt budget‑ eller retro‑plattformar innebär det en uppmaning att planera migrering eller att förbli på äldre, underhållna utgåvor.
Avslutande perspektiv
Kali 2025.3 är mer än en numerisk uppgradering. Den återför funktionalitet som kortvarigt försvunnit från moderna SBC‑plattformar, moderniserar byggkedjor och adderar verktyg som tydligt pekar mot en framtid där AI, mobilitet och intern pivotering dominerar angriparnas arbetsflöde.
För läsare: om du är sugen på att prova — gör det i en labb och med tillstånd. Teknisk nyfikenhet är en styrka, men utan etik och kontroll blir den farlig.
Läs mer om Kali Linux i vår wiki, där finns även länkar för nerladdning.
När världens datamängder växer i rasande takt krävs nya sätt att lagra och hantera information. Nu tar algoritmhandelsfirman XTX Markets ett oväntat steg genom att öppna källkoden till sitt egenutvecklade filsystem TernFS – ett system byggt för att klara exabyteskala, biljoner filer och miljontals samtidiga användare. Med fokus på oföränderlighet, säkerhet och global drift kliver TernFS in på en arena som hittills dominerats av tungviktare som Ceph, GlusterFS och Lustre.
September 2025 – Handelsfirman XTX Markets har släppt sitt egenutvecklade filsystem TernFS som öppen källkod. Filsystemet, som byggdes för att hantera företagets enorma mängder data, kan nu laddas ner fritt från GitHub och används redan i produktion för att lagra över 500 petabyte.
Men vad innebär det egentligen, och varför är det intressant även för andra än ett börshandelsbolag?
Vad är ett distribuerat filsystem? Ett vanligt filsystem, som det du har på din dator (till exempel NTFS eller ext4), lagrar filer på en enda disk. Ett distribuerat filsystem sprider däremot ut filerna över många datorer och hårddiskar som samarbetar. För användaren ser det fortfarande ut som en enda stor ”hårddisk”, men i verkligheten ligger filerna spridda i kluster med hundratals eller tusentals enheter.
Det här gör att systemet kan växa till enorm storlek och fortsätta fungera även om delar av hårdvaran går sönder. Andra kända öppna system i den kategorin är Ceph, GlusterFS och Lustre.
Byggt för ofattbara datamängder TernFS är designat för exabyte-nivåer av lagring. En exabyte motsvarar ungefär en miljard gigabyte – mer än hela världens dagliga internettrafik. Filsystemet klarar biljontals filer och miljontals samtidiga användare.
Hos XTX används TernFS till att lagra all data som krävs för att träna maskininlärningsmodeller som förutspår prisrörelser på över 50 000 finansiella instrument världen över.
Systemet är byggt på tre grundprinciper:
Immutabilitet – filer kan inte ändras när de väl skrivits, bara läsas eller tas bort.
Hög tillgänglighet – information lagras redundant, alltså i flera kopior eller med hjälp av matematiska felkorrigeringskoder (Reed–Solomon).
Multiregional drift – filsystemet kan köras över flera datacenter, så att data finns kvar även om ett helt datacenter går offline.
Hur fungerar det i praktiken? För att förstå TernFS kan man se det som flera samverkande delar:
Metadata-shards – håller reda på all information om filer, till exempel namn, storlek och var de ligger. Metadata delas upp i 256 ”skärvor” som körs på olika servrar för att undvika flaskhalsar.
Blocktjänster – lagrar själva filinnehållet. Filer delas upp i mindre block som sprids ut över många diskar.
Cross-Directory Coordinator – samordnar åtgärder som påverkar flera kataloger samtidigt, till exempel att flytta filer.
Registry – fungerar som ett telefonregister över alla delar i systemet. Klienter kontaktar registret för att veta vilka servrar de ska prata med.
Fördelar och begränsningar TernFS är mycket bra på att hantera stora filer – ofta flera megabyte eller större – och är därför idealiskt för maskininlärning, forskning eller medielagring. Det är däremot inte optimalt för småfiler eller situationer där filer behöver ändras ofta.
En viktig skillnad mot vanliga filsystem är att TernFS inte själv hanterar behörigheter. Det betyder att rättighetskontroll måste skötas av andra system ovanpå.
Skydd mot dataförlust XTX framhåller att de inte förlorat en enda byte sedan systemet togs i drift. Det beror på flera skyddsmekanismer:
Checksummor (CRC32-C) – varje block av data har en matematiskt beräknad kontrollsumma, så att fel kan upptäckas.
Reed–Solomon-koder – gör det möjligt att återskapa data även om flera diskar går sönder. Vanlig konfiguration hos XTX är att varje fil delas upp i 10 datablock och 4 paritetsblock.
Scrubbing – en bakgrundsprocess som hela tiden läser igenom lagrad data för att upptäcka dolda fel innan de orsakar problem.
Snapshots – när filer eller mappar raderas tas de inte bort direkt utan hamnar i en ”säkerhetskopia” som kan återställas.
Varför släppa koden fri? Många stora teknikbolag, som Google och Facebook, har egna filsystem men har aldrig gjort dem öppna. XTX går nu en annan väg.
De hoppas att fler organisationer med stora datamängder ska kunna dra nytta av TernFS, och att projektet kan bli ett alternativ till de befintliga öppna systemen.
Dessutom menar XTX att det ofta blir dyrare i längden att anpassa sig till ett tredjepartssystem än att bygga något själv. Genom att dela med sig hoppas de också på bidrag från open source-gemenskapen.
Slutsats TernFS är ett filsystem byggt för en extrem miljö – högfrekvenshandel och maskininlärning i massiv skala – men principerna bakom är användbara för många andra.
Att det nu finns som öppen källkod gör att forskare, företag och organisationer kan experimentera med tekniken och kanske hitta nya användningsområden.
Med TernFS ansluter sig XTX till skaran av öppna storskaliga lagringslösningar – och det ska bli spännande att se om fler väljer det som grund för sina dataprojekt.
När vi startar datorn och skriver ls för att lista filer, eller cp för att kopiera något, tänker de flesta inte på det. Men bakom dessa små kommandon ligger en mjukvaruskatt med rötter tillbaka till 1970-talets Unix. Den heter GNU coreutils, och nu har den fått en ny stor uppdatering – version 9.8.
En osynlig ryggrad i datorvärlden
Coreutils är ett paket med de mest grundläggande verktygen i Linux och andra Unixliknande system. Det är program som hjälper oss att läsa textfiler, räkna ord, jämföra innehåll, sortera, hålla reda på datum eller visa hur många processorer datorn har. I princip varje gång du öppnar terminalen är det coreutils som gör jobbet i bakgrunden.
Och nu – över 40 år efter att de första varianterna såg dagens ljus – fortsätter utvecklingen.
Nya språk för säkerhet och enkelhet
I den nya versionen är det särskilt två förbättringar som sticker ut. För det första kan verktyget cksum nu använda den moderna SHA3-algoritmen för att skapa säkra kontrollsummor. Kontrollsummor används för att försäkra sig om att en fil är intakt och inte manipulerad, och SHA3 är det senaste inom kryptografisk standardisering.
För det andra får kodningsverktyget basenc stöd för Base58 – en metod att representera data utan de tecken som ofta misstas för varandra, som nollan och bokstaven O. Perfekt i en tid då vi allt oftare scannar QR-koder och hanterar kryptovalutaadresser.
Smartare hantering av dagens datorer
Dagens datorer ser annorlunda ut än på 80-talet, och coreutils hänger med. Kommandot nproc, som visar hur många processorer som finns att tillgå, tar nu hänsyn till cgroup v2 – en teknik som används i moderna Linuxsystem för att begränsa resurser i containrar. Det betyder att program i en container får en mer realistisk bild av vad de faktiskt får använda.
Även stty, som styr inställningar för terminalen, kan nu sätta godtyckliga överföringshastigheter på vissa system. Och textverktyget fold har blivit medvetet om att världen består av fler tecken än bara ASCII – till exempel emojis och asiatiska tecken – och radbryter dem på rätt sätt.
Fixar under huven
Det kanske inte märks direkt för vanliga användare, men version 9.8 rättar också till en lång rad buggar. Till exempel fungerar nu cp --sparse=always bättre när det gäller att spara diskutrymme, tail riskerar inte längre att skriva ut extra rader i vissa situationer, och od (ett program för att visa filer i olika nummerformat) har blivit stabilare.
För den som arbetar med stora tal har verktyget factor fått en rejäl hastighetsökning, och seq, som används för att generera talföljder, hanterar nu mycket stora startvärden med högre precision.
Ett internationellt samarbete
Bakom kulisserna är coreutils ett samarbete mellan utvecklare världen över. Den senaste versionen bygger på 348 kodändringar från åtta olika personer, varav veteranerna Paul Eggert och Padraig Brady står för merparten. Det visar att även de mest grundläggande programmen i datorvärlden behöver ständig omvårdnad – och att arbetet ofta sker i det tysta.
Fortsatt relevant
Att ett verktygspaket som skapades i Unix miljö på 1970-talet fortfarande utvecklas aktivt år 2025 är i sig en historia. Det påminner oss om att digital infrastruktur inte alltid handlar om de mest uppmärksammade apparna eller sociala nätverken. Ofta är det små, diskreta verktyg – kommandon på några få bokstäver – som får hela det moderna IT-samhället att fungera.
Ett fel har uppstått, vilket troligen innebär att flödet just nu inte fungerar. Försök igen senare.
Datorhjälp hemma – 350 kr/tim efter RUT-avdrag
Vi kommer hem till dig i Stockholm området och hjälper dig med dator, skrivare, kablar, TV, nätverk och annat tekniskt.
Vi arbetar med Linux, Windows och Mac.
Discover how OpenStack Flamingo addresses technical debt while adoption rates soar. Explore the latest advancements and benefits for your cloud infrastructure. The post OpenStack Flamingo Pays Down Technical Debt as Adoption Continues to Climb appeared first on Linux Today.
Discover the latest Cairo-Dock 3.6 release featuring Wayland and HiDPI support, along with seamless systemd integration for enhanced performance. The post Cairo-Dock 3.6 Released with Wayland and HiDPI Support, systemd Integration appeared first on Linux Today.
Discover how Alpine Linux is transitioning to a /usr-merged file system layout, enhancing efficiency and simplifying system management for users. The post Alpine Linux Is Moving to a /usr-merged File System Layout appeared first on Linux Today.
Artix Linux has officially dropped GNOME desktop support due to its reliance on systemd. Discover the implications and alternatives for users in this detailed overview. The post Artix Linux Drops GNOME Desktop Support Over Systemd Dependence appeared first on Linux Today.
Discover the latest updates on the best free and open source software for September 2025. Stay informed and enhance your digital toolkit today! The post Best Free and Open Source Software: September 2025 Updates appeared first on Linux Today.
Discover the latest openSUSE Leap 16, now available for download! Experience the power of Linux Kernel 6.12 and enhance your computing experience today. The post openSUSE Leap 16 Is Now Available for Download with Linux Kernel 6.12 LTS appeared first on Linux Today.
Discover the latest features of OpenSSL 3.6, including enhanced LMS signature verification support. Stay updated with the newest advancements in security. The post OpenSSL 3.6 Officially Released with LMS Signature Verification Support, More appeared first on Linux Today.
Discover the 6 best tools to efficiently find and remove duplicate files in Linux. Streamline your system and reclaim valuable storage space today! The post 6 Best Tools to Find and Remove Duplicate Files in Linux appeared first on Linux Today.
The NixOS Moderation Team has resigned in protest against Supreme Court interference, raising concerns about community governance and autonomy. The post NixOS Moderation Team Resigns in Protest of SC Interference appeared first on Linux Today.
Discover the latest Ubuntu Touch, now based on Ubuntu 24.04 LTS. Experience a powerful mobile Linux OS with enhanced features and performance. The post Ubuntu Touch Mobile Linux OS Is Now Finally Based on Ubuntu 24.04 LTS appeared first on Linux Today.
PeaZip 10.7 open-source archive manager is now available for download with a new image viewer component and various improvements. Here's what's new! The post PeaZip 10.7 Open-Source Archive Manager Introduces an Image Viewer appeared first on 9to5Linux – do not reproduce this article without permission. This RSS feed is intended for readers, not scrapers.
Calibre 8.13 open-source e-book manager is now available for download with improved library export on Linux distros that mount /tmp in RAM and other changes. Here's what's new! The post Calibre 8.13 Open-Source E-Book Manager Improves Library Export on Linux appeared first on 9to5Linux – do not reproduce this article without permission. This RSS feed […]
GNOME 49.1 is now available as the first point release to the latest GNOME 49 desktop environment series with various bug fixes and improvements. The post GNOME 49.1 Desktop Released with Various Improvements and Bug Fixes appeared first on 9to5Linux – do not reproduce this article without permission. This RSS feed is intended for readers, […]
PipeWire 1.6 open-source server for handling audio/video streams and hardware on Linux is now available for public beta testing. Here's what to expect! The post PipeWire 1.6 Promises Bluetooth Audio Streaming for Hearing Aid Support appeared first on 9to5Linux – do not reproduce this article without permission. This RSS feed is intended for readers, not […]
GStreamer 1.26.7 open-source multimedia framework is now available for download with various improvements and bug fixes. Here’s what’s changed! The post GStreamer 1.26.7 Improves Support for the NVIDIA Jetson AV1 Encoder appeared first on 9to5Linux – do not reproduce this article without permission. This RSS feed is intended for readers, not scrapers.
Mozilla Thunderbird 144 open-source email client is now available for download with an updated Flatpak runtime and various bug fixes. Here's what's changed! The post Mozilla Thunderbird 144 Updates the Flatpak Runtime to Freedesktop SDK 24.08 appeared first on 9to5Linux – do not reproduce this article without permission. This RSS feed is intended for readers, […]
Zorin OS 18 distribution is now available for download based on Ubuntu 24.04.3 LTS and powered by Linux kernel 6.14. Here’s what else is new! The post Zorin OS 18 Officially Released, Specifically Tailored for Windows 10 Expats appeared first on 9to5Linux – do not reproduce this article without permission. This RSS feed is intended […]
Firefox 145 open-source web browser is now available for public beta testing as the first release to drop 32-bit support on Linux systems. Here's what else is new! The post Firefox 145 Is Out for Beta Testing as First Release to Drop 32-Bit Support on Linux appeared first on 9to5Linux – do not reproduce this […]
Tails 7.1 anonymous Linux OS is now available for download with Tor Browser 14.5.8, Tor 0.4.8.19, and Mozilla Thunderbird 140.3.0. Here’s what’s new! The post Tails 7.1 Anonymous Linux OS Released with Tor Browser 14.5.8 and Tor 0.4.8.19 appeared first on 9to5Linux – do not reproduce this article without permission. This RSS feed is intended […]
TUXEDO Computers unveiled the InfinityBook Pro 15 Gen10 Linux laptop with Intel Core Ultra 7 255H CPU, up to 128GB RAM, and Intel Arc 140T graphics. The post TUXEDO Computers Unveil Intel-Powered InfinityBook Pro 15 Gen10 Linux Laptop appeared first on 9to5Linux – do not reproduce this article without permission. This RSS feed is intended for […]
Here are the steps you need to upgrade your Fedora 41 workstation edition to Fedora 42. Fedora 42 is officially available for download and the upgrade channels are now available. This release brings the latest and greatest GNOME 48 desktop for workstation editions, refinements to KDE Plasma desktop, new Cosmic Spin and more. You may… […]
Here’s how you can upgrade to Debian 13 “Trixie” from Debian 12 “Bookworm”. Debian 13 “Trixie” is released on August 9, 2025 with many new features and updates. If you are running Debian 12 “bookworm”, you can plan to upgrade your desktop or server now. However, it is recommended that you wait until the first… […]
Here’s a quick tutorial on how you can connect your Ubuntu or Fedora Linux from macOS. Accessing your Linux machine (like Ubuntu or Fedora) from a Mac can be incredibly useful for development, server management, or just seamless productivity. While tools like SSH or VNC exist, using Remote Desktop Protocol (RDP) provides a full graphical… […]
A roundup of the key features of the latest Debian 13 release. After almost two years of development, Debian 13 “Trixie” is now available to download and upgrade from Debian 12. This critical release brings few major updates including latest packages across modules, Linux Kernel 6.12 LTS, modern desktop environments and more. Trixie will be… […]
Fedora 42 Unveiled: COSMIC desktop, revamped installer, and Apple Silicon support steal the show. The Fedora Project has officially released Fedora 42, bringing a host of exciting updates and new features to its diverse line up of “spins”, including Fedora Workstation, Fedora KDE Plasma Desktop, Fedora Server, Fedora IoT, Fedora Silverblue, Fedora Kinoite, and various… […]
A fresh release of GNOME 48 is available, we run down the feature highlights. The GNOME project has unveiled GNOME 48, codenamed “Bengaluru,” a release packed with performance boosts, user-friendly enhancements, and innovative features. Named in honor of the GNOME Asia 2024 organizers, this six-month effort by the global GNOME community brings a polished and… […]
A quick glance into the new features of Xfce 4.20 desktop environment. Xfce 4.20 desktop environment has arrived a few weeks back, and it’s packed with features and updates. This major release comes after two years since Xfce 4.18. Hence, it’s now more evolved, bringing experimental Wayland support, UI refinements and performance updates. Let’s dive… […]
A polished and revamped desktop experience arrives with Cinnamon 6.4 desktop. For months, the Linux Mint team has been steadily improving their flagship – Cinnamon 6.4, a desktop environment update that’s not just incremental, but transformative. This release isn’t just a collection of tweaks; it’s a refined experience designed to boost productivity and enhance visual… […]
A new release of elementary OS 8 (“Circe”) is out. Here’s the rundown of the best new features of this release. After almost two years of development since the prior release, elemnetary OS is now out with its latest release 8.0 code-named “Circe”. This release is based on Ubuntu 24.04 LTS which was released on… […]
Want to create your own home lab? Learn how to build an affordable, secure, and functional setup for programming, virtualization, and more. Building your own home lab is fun. It’s like a tech playground where you can test ideas, learn new skills and even improve your home network. Whether you’re into programming, cybersecurity or just… […]