Kategorier
AI - Artificiell intelligens Spaningar

Digitala spaningar vecka 17 2026 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Google ger betalande användare högre användningsgränser i AI Studio

Den som betalar för Googles AI-betalabonnemang Pro eller Ultra får nu mer för pengarna. Google ökar användningsgränserna i experimentverkstaden AI Studio.

Utöver att uppgraderingen inkluderar tillgång till Nano Banana Pro och Pro-modellerna av Gemini så kan du också bygga mer innan du måste gå över till API-modellen för kodandet.

Start vibe coding in AI Studio with your Google AI subscription.

Starting today, Google AI Pro and Ultra subscribers get increased usage limits in Google AI Studio. This update also includes access to Nano Banana Pro and Gemini Pro mo…

Google Meet får stöd för att transkribera fysiska möten

Google Meet flyttar ut i verkligheten. Eller… den fysiska världen. Nu är Meet snart på gång att få stöd för att transkribera även fysiska möten.

Take notes for me, som funktionen konsumentupplysningsmässigt korrekt heter, har funnits ett tag för digitala Meet-möten. Men nu går det alltså även att spela in fysiska möten och få samma slags funktionalitet. Vilket innebär att den kan transkribera, sammanfatta mötet och lägga in uppgifter från mötet i Google Docs.

Intressant nog så kan Meet även användas i Teams och Zoom.

Den nya Meet-funktionaliteten rullas ut de närmaste veckorna. Vad det verkar krävs dock att du är Workplace-användare. Med andra ord att du betalar för Googles Office-paket.

Google Meet adding in-person ’Take Notes for me’ and Drive ’projects’

Google announced a suite of new Workspace features across Drive, Sheets, Meet, and more. These updates are rolling out over the coming weeks.

Google opensourcar Design.md-formatet

Ännu en AI-komponent trillar nu ut i open source-världen. Det är Google som nu släpper Design.md fritt.

Vad är då Design.md? Det är en del i Google AI-designtjänst Stitch. Närmare bestämt en fil där man kan packa ihop ett helt designsystem i en markdown-fil, alltså i ett format som AI-botar gillar att läsa.

Det innebär att man fylla en Design.md-fil med den information som finns om en organisations designregler, droppa in den i en mapp i ett AI-byggarprojekt och sedan låta AI:n läsa den filen när den skapar den tjänst man vill ha.

När formatet nu släpps som open source så blir det möjligt att använda den i andra tjänster, som Claude Code.

Stitch’s DESIGN.md format is now open-source so you can use it across platforms.

We’ve open-sourced the draft specification for DESIGN.md, so it can be used across any single tool or platform.

Gemini for home får lär sig komma ihåg konversationer

Ny funktion i den Gemini som Google har specialoptimerat för det uppkopplade hemmet: Continued conversation.

Och ja. Det är vad det låter som. Hemma-Gemini blir bättre på att komma ihåg vad som har sagts i en konversation så att man inte ska behöva börja från scratch varje gång. Plus lite annat. Det som Gemini for home nu har fått är mer specifikt:

Conversational context: Minnesfunktionen som gör att den ska komma ihåg saker som har sagts (dock lite oklart om det är inom en och samma ”session” eller längre)

Flerspråksstöd: Inte bara engelska. Och eftersom Gemini for home sedan ett par veckor finns i Sverige så antar jag att svenska stöds?

Smartare ”sidosnacks”-igenkänning: Gemini ska bli bättre på att förstå vad som är kommandon och vad som bara är prat i största allmänhet, som mellan medlemmar i hushållet.

Hela-hemmet-tillgång: Continued conversation fungerar för alla i hemmet, även gäster.

Make chats more natural and efficient with Continued Conversation, now in Gemini for Home

Since early access launched, millions of you have opted in to help shape Gemini for Home through your daily use and feedback. Today, we’re delivering on one of your top …

Anthropic satsar mer på konsumenter med nya integrationer

För några veckor sedan skrev jag om hur de olika AI-bolagen allt mer ville vara varandra. Hur de började ta kliv in på varandras hemmaplaner. Inte minst att Open AI ville vara Anthropic med sin nya strategi som går all in på företag och produktivitetstjänster.

Anthropic å sin sida tar nu ett rätt stort kliv åt rakt motsatt håll.

Sedan en tid tillbaka har Claude stöd för integrationer, så kallade ”connectors”, som lite kan sägas vara ”appar” för Claude. Ett sätt att lägga till färdiga funktioner för att på så sätt bygga ut Claudes grundfunktionalitet. I veckan lägger Anthropic på ett antal kopplingar som vänder sig väldigt mycket mot konsumenter, inte företag.

Det innebär att ”applistan” nu utökas med en drös namn, som Booking, Spotify och Uber. Alltså appar som vi använder till privatvardags.

Claude can now connect with Spotify, Uber, and a lot more apps

Anthropic’s Claude chatbot can now interface with a bunch of major apps, including Spotify and Uber.

Claude Code på väg att plockas bort från Pro-abonnemang?

Jamen det var väl nästan väntat. Kör du som jag Claude Code via Anthropics Pro-abonnemang för 20 dollar i månaden? Sucks to be us, i så fall. Det ser ut som att det är på väg bort.

Användare noterade att Code försvann ur listan över funktioner som ingår i Pro på Anthropics sajt. Cowork fanns fortfarande där, men för att få Code så var det bara att punga upp tio gånger för ett Max-abonnemang.

När Anthropic fick frågan WTF? konstaterade bolaget att de kör/körde ”ett litet test” på runt 2 % av nya Pro-användare. Läs: för att få svar på frågan ”hur stor killer-funktion är Code”?

Befintliga användare berörs inte, utan bara de som alltså hade ”turen” att bli utvalda för krympflations-Pro-abonnemanget. ”Inte än”, lägger jag då till. För jag tror att vi kan tolka det här som att Pro-Codes dagar är räknade. Att det alltså inte är en fråga om ”om” utan ”how soon is now?”

Som jag skrev om i mitt senaste nyhetsbrev som gick iväg i måndags så kan vi nog dödförklara narrativet att AI snart kommer att vara gratis (som var rätt vanligt för, säg, 1-1,5 år sedan). Istället har vi nog nått prisbotten. Kurvan kanske redan har börjat ticka uppåt. Men bolagen måste få fler ordentligt hookade innan de smäller till med de riktigt stora prishöjningarna (och/eller att funktioner kräver dyrare abonnemang än tidigare).

Och det är inte så konstigt. AI-bolagen har en helt igenom ohållbar affärsmodell. På mer än ett sätt, men framförallt därför att de alla förmodligen förlorar pengar på varje användare. De lever på att stapla sms-lån på varandra (eller genom att bränna pengar de tjänar på andra verksamheter för de bolag som har den möjligheten).

Så nu blir det sannolikt 5x Max för 100 dollar i månaden som snart gäller för den som vill köra Code. Frågan är bara hur snabbt det går innan vi är där.

[UPDATED] News: Anthropic (Briefly) Removes Claude Code From $20-A-Month ”Pro” Subscription Plan For New Users

Executive Summary: * In the later afternoon of April 21 2026, Anthropic removed access to Claude Code for its $20-a-month ”Pro” Plans on various pricing pages. * Current Pro users appeared to still have access via the Claude web app.

Anthropic pudlar om försämringen av Claude Code

De senaste veckorna har jag sett en hel del inlägg, artiklar och kommentarer som har pratat om att Claude Code har blivit sämre. Grundare. Har lagt mindre själ och hjärta i uppgifterna (eller i alla fall inte arbetat igenom dem lika heljärtat). Och nu erkänner Anthropic att funktionen försämrats.

Men hej! Nu har Anthropic gjort en analys av Code och upptäckt att saker och ting verkligen blivit sämre. Men nu ska de ha rättat till det.

Och det är ju bra. Samtidigt som det inte går att släppa känslan att det inte riktigt är en slump att Code blev sämre samtidigt som de har höjt priser och testat att plocka bort Code ur Pro-abonnemang för nya prenumeranter.

Om man så vill: det känns som att Anthropic har känt sig tvingade att rulla till några medvetna försämringar för att den negativa uppmärksamheten blev för stor.

https://www.anthropic.com/engineering/april-23-postmortem

Mythos får Trump att gilla Anthropic igen

”Alltså, Anthropic är jättejättebra och jättejättesmarta och vi kommer kunna jobba jättejättebra med dem. Som av en ren händelse verkar det som att vi kan få använda deras jättejättekraftfulla nya AI Mythos. Men det har inget med saken att göra!”

Trump Is Warming Up to Anthropic Again, Says the Company Could ’Be of Great Use’

The President’s comments come after the government’s sudden interest in Mythos.

Anthropics nya kraftfulla AI-modell Mythos har redan hamnat i fel händer

Nämen? DET var väl otippat. Ni vet Claude Code? Vars hela källkod läckte ut för ett par veckor sedan på grund av en oopsie från Anthropic själva? Claude-ägaren verkar tycka att det var en skön grej. Som var värd att upprepa. Så nu snurrar Mythos enligt uppgift runt där den inte borde.

När Anthropic presenterade Mythos så hette det att den var för kraftfull för att tillåtas att hamna i händerna på the little people (ja, mer specifikt hackare). Därför fick bara ett litet antal företag, exempelvis företagen som äger de operativsysystem och webbläsare som hela världen använder.

Nu verkar det inte som att läckan skedde direkt från Anthropic själva, utan från en tredjepartsleverantör som fått okejad tillgång till Mythos. Men de som sedan också la vantarna på modellen, olovandes, gjorde det genom att… gissa namnet på modellen och på så sätt kunde hitta modellen hos den aktuella leverantören.

Det känns med andra ord som att Anthropic borde se över sina IT-säkerhetrutiner en aning. Ja, eller bara… sina rutiner.

Unauthorized group has gained access to Anthropic’s exclusive cyber tool Mythos, report claims | TechCrunch

Anthropic told TechCrunch it is investigating the claims, but maintains that there is no evidence that its systems have been impacted.

ChatGPT får smartare och vassare bildskaparfunktion

Vid det här laget är förmodligen Googles bildskaparmodell Nano Banana förmodligen guldstandarden när det kommer till AI-bilder. Det vill Open AI försöka ändra på. Nu får ChatGPT en uppdaterad bildfunktion.

Uppdateringen, Images 2.0, ska förutom att vara vassare på att skapa bilder rent generellt ha fått ”tänkarförmågor”. Den ska alltså vara bättre på att förstå och räkna ut vad som ska skapas.

Dessutom ska det gå att skapa flera bilder från en prompt, verktyget ska nu kunna söka på nätet när den skapar en bild, ”dubbelkolla sina skapelser” och vara bättre på att skapa text för språk som använder andra alfabet än det latinska. Med det sagt så konstaterade en annan artikel om den nya modellen att ”den fortfarande kämpar med andra språk än engelska”.

Det blir kort sagt bara att sätta igång och testa och se vad den klarar och inte klarar. Och givetvis (som vi lär se många exempel på) jämföra med senaste versionen av Nano Banana.

Images 2.0 ska finnas tillgänglig för alla i ChatGPT och Codex. Den som betalar kommer dock inte bara kunna skapa fler bilder innan man slår i taket utan också skapa ”mer avancerade resultat”. Sist men inte minst får vi också ett nytt API för den nya versionen, med olika prissättning baserat på upplösning och kvalitet.

ChatGPT’s new Images 2.0 model is surprisingly good at generating text | TechCrunch

ChatGPT Images 2.0, the newest image-generation model from OpenAI, shows just how much AI capabilities have evolved over the last few years.

Open AI släpper GPT-5.5

Det känns som att det var typ igår som Open AI gav oss GPT-5.4, alltså en ny version av tekniken som ligger och rullar under ChatGPT. Nu är det redan dags för 5.5.

Och, ja, ni vet ungefär vad som sägs från företagen som ger oss AI-modellen. 5.5 är bättre än 5.4 över hela banan. 5.5 sägs också vara en diversemaskin, som ska vara bra på rätt mycket. Och förstås: kodning. Men även i hur bra modellen är på att använda en dator.

OpenAI releases GPT-5.5, bringing company one step closer to an AI ’super app’ | TechCrunch

OpenAI says its latest model offers increased capabilities across a broad variety of categories.

Codex får Chronicle

I förra veckan släppte Open AI en uppdaterad version av Codex-appen för Mac. Nu är det redan dags för uppdatering – med en helt ny funktion.

Chronicle heter det senaste tillägget i Open AI:s svar på Claude Code, som bygger på ChatGPT:s och Codex minnesfunktion. Och… jag ska inte säga att jag är helt säker på vad det innebär på beskrivningen.

Men det handlar oavsett om att Codex ska bli ännu bättre på att förstå kontext, så att du inte måste beskriva samma sak flera gånger. Codex ska, enligt Open AI själva, bli ännu vassare på att fatta saker som ”den”, ”den där”, ”det vi jobbade med för två veckor sedan” och så.

Och det låter som ett bra tillägg. Allt som gör att man kan undvika att slippa beskriva samma sak om och om igen är kalas.

OpenAI releases Codex ’Chronicle’ feature for enhancing context, here’s how it works – 9to5Mac

Last week, OpenAI released an all-new version of Codex for Mac that includes the best example of AI-driven computer use…

Open AI släpper open source-modell för att tvätta data från känsliga uppgifter

Man kan ha mycket åsikter om Open AI nuförtiden, men det här känns som en bra grej. Ett open source-verktyg för att tvätta bort känslig information från data innan man skickar in den i en AI-modell för bearbetning.

Okej, som vanligt lär det hamna om open weight och inte fullständig open source, efter träningsdatan inte är med. Men nu ska vi inte haka upp oss på detaljer.

Privacy filter, som funktionen heter, är släppt under Apache 2.0-licens vilket innebär att det är rätt mycket fritt fram att använda och bygga vidare på modellen. Det innebär också att modellen kan laddas ned och användas lokalt på en dator. Så att tvättandet alltså sker utan att något behöver skickas iväg.

Tvättandet i fråga kan hantera åtta huvudsakliga områden: namn på enskilda personer, kontaktinformation (fysisk adress, mejladress och telefonnummer), ”digitala identifierare” (URL:er, kontonummer, datum) och ”secrets”. Den sistnämnda kategorin ska handla om saker som inloggningsuppgifter, API-nycklar och lösenord.

För den som är sugen går modellen att ladda ned från Hugging Face.

Vi presenterar OpenAI Privacy Filter

OpenAI Privacy Filter är en modell med öppen vikt som används för att identifiera och redigera personligt identifierbar information (PII) i text med oerhört hög noggrannhet

Open AI börjar ta betalt per annonsklick

Nästa steg på Open AI:s annonsresa: nu börjar ChatGPT erbjuda betalning per klick.

När ChatGPT först fick annonser, vilket inte var jättelänge sedan, så betalade annonsörer för visningar. Men nu börjaräven Open AI med modellen där de tar betalt varje gång någon trycker på en annons.

Mellan 3 och 5 dollar per klick är prislappen som gäller. Åtminstone nu till en början.

Är det dyrt eller billigt? Ja, om vi bortser från att det avgörs av det upplevda värdet som den som betalar får ut av det så finns det inte särskilt mycket att jämföra med. Vi pratar trots allt om en ny annonskanal. Eller egentligen: en ny annonskontext. En som är synnerligen obruten mark.

Perplexity, som var först ut att testa annonser i sin AI-söktjänst, kastade in handduken efter bara några månader och Google har inte fullt ut kommit igång med sin affär för annonsering i de olika Gemini-gränssnitten.

Det återstår framförallt att se hur effektiva annonser är i det här sammanhanget. Inte minst eftersom annonser kan upplevas som ännu mer störande än i ett traditionellt sökresultat eller i sociala medier. Och ska de fungera så lär kraven på relevans vara ännu högre än i mer traditionella upplägg.

OpenAI turns on cost-per-click ads inside ChatGPT

The move to introduce CPCs come as the platform looks to hire its first Advertising Marketing Science Lead.

Kategorier
AI - Artificiell intelligens Spaningar

Digitala spaningar vecka 15 2026 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Claude Cowork rullas ut till alla betalkonton

Nu blir det enklare att coworka för alla Claude-användare: Cowork rullas nu ut till alla betalande användare, inklusive Enteprise-konton.

Det innebär att de IT-avdelningar som inte har bestämt att alla ska köra Copilot nu alltså får en version av Claude som vänder sig till stora företag. Mer specifikt innebär det att Enterprise får följande funktioner när det gäller Cowork:

  • Rollbaserade behörigheter: Vad det låter som – det blir möjligt att rulla ut Cowork på typer av roller och till specifika team.
  • Gruppbudget: Sätt vilka gränser som ska gälla för olika team.
  • Användarstatistik: Se hur organisationen använder Claude via admin-dashboarden eller via Analytics-API:et. Det verkar dock som att admingränssnittet har väldigt rudimentär data (sessioner och aktiva användare inom olika datumintervall), så vill man ha ut någon slags relevanta insikter så blir det nog att vända dig till API:et.
  • Styr vilka verktyg som går att använda: Exempel som ges är att det går att styra att en integration via Anthropics MCP-kopplingsstandard kan läsa data, men inte skriva.
  • Zoom-integration: Ja, Zoom-integration helt enkelt.
  • ”Utökat stöd för OpenTelemetry”: Nej, jag vet inte vad det innebär och blir inte klok på Anthropics beskrivning via länken nedan. Så det får jag ta reda på. Och hoppas att någon kan berätta för mig vad det är som att jag är fem år gammal i en kommentar här.

Making Claude Cowork ready for enterprise | Claude

Claude Cowork is now generally available on all paid plans. Within companies, Claude Cowork has become a key part of how teams operate: handling tasks, drafting project deliverables, and keeping teams up to date.

Claude lanserar lösning för att skapa AI-agenter snabbare

Mer AI-agentande från Anthropic. Nu introducerar företaget Claude managed agents. En samling API:er som ska göra det enklare att skapa och lansera AI-agenter.

Den korta versionen enligt Anthropic är att den som vill ha en agent definierar vilka uppgifter den ska lösa, vilka verktyg den ska använda och vilka skyddsräcken som ska gälla. Agenten körs på Anthropics egen infrastruktur, vilket gör att det blir enklare att få ut den i produktion.

Och ja. Som av en händelse gör lösningen också att användare blir ännu mer låsta mot Anthropic och Claude.

Släpps i en tidig förhandsversion nu.

Claude Managed Agents: get to production 10x faster | Claude

Introducing Claude Managed Agents, a suite of composable APIs for building and deploying cloud-hosted agents at scale.

Anthropic släpper kopplingar mellan Claude och Microsoft 365

Nu blir det ännu enklare för Claude-användare att suga in Office-paketsdata i sitt AI:ande. Anthropic har släppt kopplingar, connectors, mellan Claude och Microsoft 365.

Det betyder med andra ord att man kan låta Claude få tillgång till filer och information som ligger Outlook, Onedrive, Sharepoint och andra 365-tjänster för att på så sätt ännu bättre kunna ge relevanta svar på frågor. Ja, med den lilla detaljen att man alltså ger Claude tillgång till en herrans massa information. Det gäller att ha koll på vad man sätter upp.

För den som är intresserad finns funktionen nu i alla betalabonnemang för Claude.

Microsoft 365 connectors are now available on every Claude plan. Connect Outlook, OneDrive, and SharePoint to bring your email, docs, and files into the conversation. Get started here:… | Claude | 215 comments

Microsoft 365 connectors are now available on every Claude plan. Connect Outlook, OneDrive, and SharePoint to bring your email, docs, and files into the conversation. Get started here: https://lnkd.in/enUKantN | 215 comments on LinkedIn

Claude rullar ut integration med Microsoft Word

Claude fortsätter lägga till integrationer med Office-paketet. Nu betalanserar Anthropic Claude for Word.

Den fungerar som motsvarande lösning för Excel och Powerpoint: du får upp Claude i en sidopanel och där kan du sedan arbeta med ditt dokument. Den nya funktionen ska kunna komma ihåg alla dokument i en och samma sittning för utökad kontext.

Den ska dessutom kunna ha koll på vad du har i öppna Excel- och Powerpoint-filer. Du kan med andra ord ”samköra” ett Word-dokument och en Powerpoint som du jobbar med så att Claude kan förstås ändringar du har gjort i den ena när du jobbar med det andra dokumentet.

Den nya funktionen släpps nu för de som betalar för en Team- eller Enterprise-prenumeration.

Claude for Word, now in beta | Claude | 115 comments

Claude for Word is now in beta. Draft, edit, and revise documents directly from the sidebar. Claude preserves your formatting, and edits appear as tracked changes. Claude for Word shares context with Claude for Excel and Claude for PowerPoint, so Claude can work across your open documents in a single conversation.

Anthropic stryper Claude-prenumeranters tillgång till Openclaw och andra verktyg

När Openclaw – lösningen som gör att man kan bygga upp sitt eget Sims med AI-agenter i en Mac Mini – exploderade så exploderade även Anthropics kostnader. Istället för att köra Openclaw via API, som Anthropic hade tänkt, så började många köra via sin vanliga prenumeration istället.

Det gjorde att användningen blev betydligt mer kostsam än vad Claude-ägaren hade väntat sig. Så nu stryper Anthropic helt enkelt tillgången till Openclaw och andra liknande tredjepartsverktyg.

Istället för att kostnaderna för användningen räknas från den pott man har som del i sitt abonnemang så kommer användningen av den här sortens externa tjänster att hanteras separat. Det blir en ”betala efter användning”-modell som kommer att faktureras vid sidan av prenumerationen.

Anthropic says Claude Code subscribers will need to pay extra for OpenClaw usage | TechCrunch

It’s about to become more expensive for Claude Code subscribers to use Anthropic’s coding assistant with OpenClaw and other third-party tools.

Gemini integreras ännu mer med NotebookLM

Google knyter Gemini och NotebookLM ännu tätare till varandra. Nu får Gemini anteckningsböcker.

Gemini har ett tag nu haft möjlighet att använda Googles AI-anteckningsbokstjänst som källa. Att du alltså kan peka ut en anteckningsbok i NotebookLM och be Gemini arbeta med innehållet där. Nu får alltså Gemini en av NotebookLM:s verkliga kärnfunktioner.

Här kan man spara relevanta saker inom ett specifikt ämne eller område. Nya och gamla chattar kan samlas här och det går att ladda upp dokument och ge specifika instruktioner hur Gemini ska svara i en viss anteckningsbok.

Så ja. Det är alltså ganska exakt samma sak som ”projekt”-funktionen som bland annat finns i ChatGPT.

I Googles fall så funkar lösningen även åt andra hållet. Du kan skapa en anteckningsbok i Gemini och den synkas automatiskt till det NotebookLM-konto som du har pekat ut. Tanken är med andra ord en gemensam och synkad behållare på båda ställen så att man kan använda respektive tjänst för det som den är bäst på. Som att skapa ljud- eller videoöversikter av innehåll via NotebookLM.

Rullas ut nu för betalande kunder på… lite oklara ställen. Vi i EU verkar inte vara med i första svängen, eftersom det talas om att Google kommer att lägga till stöd för ”ytterligare regioner, inklusive delar av Europa” de närmaste veckorna. ”Delar av Europa” gör väl att det känns som att vi här i Sverige (eller ens EU överlag) kanske inte står först i kön. Men det kommer förhoppningsvis.

Samma tidplan gäller också för mobilstöd och tillgång för gratisanvändare.

Try notebooks in Gemini to easily keep track of projects

Notebooks in Gemini give you a project base that connects the Gemini app with our AI-powered research partner, NotebookLM, for an easy workflow.

Gemini lär sig skapa interaktiva visualiseringar

Gemini har tillbringat ännu en dag i skobänken. Nu har Googles AI-bot lärt sig svara med interaktiva visualiseringar.

Det innebär att du inte måste nöja dig med en textförklaring av komplexa koncept, du kan alltså låta Google visualisera det. Och visualiseringarna är alltså interaktiva, så att du exempelvis kan dra i ”reglage” för att se hur ändrade förhållanden förändrar det som har visualiserats.

Ska rullas ut i webbversionen till alla användare och jag har fått funktionen så det ser ut som att den har slagits på för alla (eller de flesta samtidigt). Du måste dock välja Pro-modellen för att visualiseringshjälpen ska fungera.

The Gemini app can now generate interactive simulations and models.

Gemini can now transform your questions and complex topics into custom and interactive visualizations.

Gemini testar projektfunktion

Google gillar projekt just nu. Alltså samlingsplatser för chattar i AI-tjänster. Dels beskedet om fördjupad NotebookLM-integration, som gör det möjligt att tvåvägsarbeta med anteckningsböcker mellan NotebookLM och Gemini, och nu dels test av en inbyggd projektfunktion i Gemini.

Nu är det som sagt var ett test, men det borde därmed inte dröja allt för länge innan även Gemini får möjlighet att samla ihop chattar och annat innehåll inom ett gemensamt ämne eller område i en ”mapp” för att enklare hålla koll på arbetet.

Gemini is getting a Projects feature to help you organize your AI chats

Google is testing a new Gemini feature called Projects that lets users organize their chats into folders, similar to the folder system already available in ChatGPT.

Google släpper gratis dikteringsapp

Google satsar ännu mer på AI-ljudtjänster. Fast inte mer musikskapande, som har gällt de senaste veckorna, utan en ny app för diktering.

Google AI Edge Eloquent är namnet på den app som nu har landat för iOS. Den använder Googles öppna Gemma-modell för dikteringen, som ska kunna realtidstranskribera det som sägs. Den ska vara kostnadsfri, inte ha något användningstak och erbjuder möjlighet att låta Gemini städa upp texten i efterhand.

Men det krävs inte att man använder Gemini-kopplingen, som ligger i molnet. Om man vill kan man bara använda Gemma-funktionaliteten, vilket gör att all transkribering sker helt lokalt i mobilen.

Det låter som ett väldigt trevligt tillskott i mobilen och något jag gärna hade installerat. ”Hade” being nyckelordet. Jag hittar den inte i Appstore, vilket lär innebära att den bara finns i USA än så länge. Eller den finns åtminstone inte i Sverige, men kanske i fler länder utanför hemlandet.

Hoppas dock att den kan hitta hit rätt snart.

Google quietly releases free offline AI dictation app for iPhone | TNW

Google AI Edge Eloquent is a free, offline-first iOS dictation app powered by Gemma. No subscription, no usage caps and it strips filler words automatically.

Google Meet får realtidsöversättning i mobilen

Nu har det blivit dags även för de som kör Google Meet via mobilen att få stöd för realtidsöversättning. Funktionen rullas nu ut för Android och iOS.

Däremot handlar det fortfarande bara om översättning mellan engelska och en handfull stora språk (spanska, franska, tyska, portugisiska och italienska).

Google Meet on mobile finally lands speech translation

Let your words wander across languages.

ChatGPT får nytt, billigare Pro-abonnemang

Kan du just bara inte get enough of ChatGPT? Särskilt när du kodar? Men tycker samtidigt att det är lite saftigt med 200 dollar i månaden? Grattis! Nu lanserar Open AI ett nytt budgetdyrt abonnemang (eller dyrt budgetabonnemang)? ChatGPT Plus och Pro får nu ett nytt syskon.

Det nya abonnemanget kostar ”bara” 100 dollar i månaden. Lite mitt emellanish Plus och Pro alltså. Ett konto som är optimerat för Codex-användande.

Du får ett fem gånger högre Codex-tak än Plus och tillgång till alla Pro-funktioner. Det inkluderar ”obegränsad tillgång till Instant- och Thinking-modeller” samt ”exklusiva modeller”. Som jämförelse har Pro 20 gånger högre tak än Plus och ska vara bättre på hantera ”dina mest resursintensiva arbetsflöden kontinuerligt, även mellan parallella projekt”.

Open AI känner sig dessutom bjussiga, så fram till sista maj får den som slår till dubbelt så högt Codex-tak än annars (10 gånger så högt istället för 5 gånger, jämfört med Plus).

Så vad har då det nya abonnemanget för finurligt namn som Open AI:s marknadsavdelning har lagt en väldig massa timmar på? Plus+? Plus Codex? Codex Pro?

Nejdå. Det nya abonnemanget heter Pro. Så nu kan du som enskild användare välja mellan betalabonnemangen Go, Plus, Pro och Pro. Fast Pro är då alltså inte samma sak om Pro. Because det hade varit förvirrande.

OpenAI introduces $100/month Pro plan aimed at Codex users, here’s what it includes – 9to5Mac

OpenAI is launching a revamped $100/month ChatGPT subscription aimed at Codex users. Here’s how it compares to OpenAI’s existing plans…

Codex når 3 miljoner användare i veckan och firar med att nollställa användningsgränserna

Ny milstolpe för Open AI:s kodarlösning Codex. Nu har tjänsten 3 miljoner användare varje vecka.

Det får Open AI att känna sig på firarhumör. Så de nollställer användargränserna för alla användare. Och kommer att göra det varje gång en ny miljongräns uppnås, upp till 10 miljoner.

Sam Altman on X (formerly Twitter): ”To celebrate 3 million weekly codex users, we are resetting usage limits.We will do this every million users up to 10 million.Happy building! / X”

To celebrate 3 million weekly codex users, we are resetting usage limits.We will do this every million users up to 10 million.Happy building!

Kategorier
AI - Artificiell intelligens Spaningar

Digitala spaningar vecka 10 2026 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Claude Code får stöd för röststyrning

Hands off Claude Code! Rätt bokstavligen. Anthropics kodarkompis har nu fått röststöd. Det går alltså att prata fram sitt kodande om man känner för det.

De flesta får dock hålla sig till tåls lite. Den nya funktionen kommer rullas ut hyfsat långsamt. I dagsläget har runt 5 % av alla användare tillgång, medan funktionen slås på för övriga under de närmaste veckorna om allt går som det ska.

Claude Code rolls out a voice mode capability | TechCrunch

Anthropic is stepping up its game in the AI coding space with the rollout of Voice Mode in Claude Code.

Anthropic sjösätter Claude Marketplace

Nu tjänst från Anthropic. En som vänder sig till företag som redan har en ”existing spend commitment”. Som alltså redan pyntar för grejer från Anthropic på lite mer löpande basis och rullande taxa. Tänk API-tillgång.

För att göra det enklare för företag som har kopplat samma externa tjänster – som också kostar pengar – med Claude, via Claude Marketplace. Du kan helt enkelt betala även för externa tjänster via den nya marknadsplatsen.

Tanken är med andra ord att du kan få hela ditt AI-spenderande på en samlad faktura, istället för att betala till olika leverantörer. Ja, så länge som du kör Claude, förstås.

Däremot är Marketplace i dagsläget en ”begränsad förhandsversion” som kräver att man kontaktar Anthropic för att sätta upp fakturerandet och kopplingarna. Men jag utgår från att det här kommer att bli en mer självgående tjänst vad det lider.

Anthropic launches Claude Marketplace with third-party cloud services – SiliconANGLE

Anthropic launches Claude Marketplace with third-party cloud services – SiliconANGLE

Anthropics AI-modeller användes i attacken mot Iran

Förra veckan avslutades för amerikanskt vidkommande med två krig. Ett mot Iran och ett på hemmaplan, mot Anthropic. Det senare slutade med att Pentagon klassade Anthropic som en systemrisk. Men tydligen inte så stor systemrisk att det inte går att använda i krig mot ett annat land.

Grälet började med att Anthropic ritade upp två röda linjer för att ange hur företagets tjänster får användas. Eller rättare sagt inte användas. Lösningarna får inte användas för ”inhemsk massövervakning” eller ”autonoma vapensystem”.

Det senare gav Trump ett hissyfit (Anthropic kallades direkt för ”radikalvänsterwoke”) och amerikanska myndigheter beordrades omedelbart att sluta använda Claude. Det i sin tur krigshetsarminister Pete Hegseth att alltså klassa Anthropic som en systemrisk. Om man säger tackar nej till ett erbjudande man inte kan tacka nej till så är det en personlig förolämpning mot The Don, vilket gör att hans henchmen bappar baseballträet i handen.

Men det betyder inte att man inofficellt fortfarande kan använda tjänster man vill använda. Enligt Axios så användes Anthropics AI-modeller i attacken mot Iran. Trots Donald-förbudet mot att använda Claude som gick ut bara timmar tidigare.

Nu är det enkelt att säga att Trump-regiment helt enkelt sket i Anthropics känslor och sitt eget förbud (vilket är helt i linje med hur nuvarande USA-regering för sin politik) men för att inte ställa till totalt kaos så kommer Claude fortsätt kunna användas under en månad under tiden som nya leverantören Open AI rullas in.

Men det är också en bra påminnelse om att Antropic aldrig har sagt att Claude och övriga Anthropic-tjänster inte får användas av USA:s militär. Eller i krig. Den får bara inte användas för krigsmaskiner som fattar egna beslut utan mänsklig inblandning.

Ja, plus att Anthropic alltså heller inte verkar ha problem med massövervakning, så länge som den inte sker i USA. Och jag misstänker att Trump-regimen är VÄLDIGT sugen på att göra en Kina på hemmaplan.

US military reportedly used Claude in Iran strikes despite Trump’s ban

Trump calls Anthropic a ’Radical Left AI company run by people who have no idea what the real World is all about’

Anthropic förhandlar om avtal med Pentagon igen

Ibland går det fort. I förra veckan havererade relationen mellan Anthropic och Pentagon kring användningen av AI. Båda sidorna kastade rätt mycket offentlig skit på varandra. Och nu… förhandlar Anthropic avtal med Pentagon igen.

Det var som bekant i förra veckan som röda linjer ställde till det i affärsrelationen mellan USA:s statsapparat och Claude-ägaren. Pentagon vill att de ska kunna använda AI-tjänster ”på alla sätt som lagen tillåter”, medan Anthropic inte godkänner att deras teknik används för ”inhemsk massövervakning” eller ”autonoma vapensystem”.

(Värt att notera är att Anthropic alltså inte har problem med massövervakning av andra länders befolkningar eller vapensystem där en människa trycker på avtryckaren.)

Det fick såväl Donald Trump som krigshetsarminister Pete Hegseth att gå i taket. Trump fick sedvanligt versalhissyfit på Truth Social, som innehöll ord som ”radikalvänster” och ”woke”.

In klev istället hastigt och lustigt Open AI, som därmed fick ta emot en busslast skit.

Med tanke på hur nära de två företagen ligger varandra när det kommer till deras respektive teknik får och inte får användas var det lite märkligt att båda företag har tolkat vad Pentagon går med på så olika (bolagen ligger ännu närmare varandra nu, eftersom Antropic för ungefär två veckor sedan sänkte ett antal AI-träningsskyddsräcken för att kunna mova fastare och breaka things mer).

Anthropic-VD:n gick efter det till attack mot såväl Open AI som Pentagon och kallade dem lögnare i hur de beskriv det som hade skett. Samtidigt rusade Anthropic-nedladdningarna (och ChatGPT-avinstallationerna) som följd av deras respektive relation till Pentagon.

Men money speaks. Nu rapporterar Financial Times att Anthropic och Pentagon är tillbaka vid förhandlingsbordet i ”ett sista försök” att få till ett avtal. Och reda ut de röda linjerna. Och förhandlingarna verkar enligt Antropic vara “produktiva”.

Senaste veckans Pentagon-hallabaloo kan med andra ord visa sig ha varit en briljant marknadsföringskampanj från Antropics sida.

Anthropic makes last-ditch effort to salvage deal with Pentagon after blowup

Dario Amodei is reportedly negotiating with Pete Hegseth’s deputy Michael to salvage an AI deal with the Pentagon after holding firm on ethical red lines.

Open AI ändrar i avtalet med Pentagon efter kritiken

När det i fredags blev klart att Anthropic kastas ut från Pentagon och att Open AI ersätter skrev jag att det senare avtalet förmodligen inte svängdes ihop på en timme. Men det verkar nästan så nu. Och Open AI vill nu ändra i avtalet.

Open AI-VD:n Sam Altman gick ut med intern kommunikation där han konstaterade att företaget inte borde ha ”stressat in” in avtalet, men att de ”försökte de-eskalera saker och ting och förhindra en mycket värre utfall”. Samtidigt erkänns att avtalet ”kan framstå som opportunistiskt och slarvigt”.

Och det är en… intressant motivering. Lite oklart vad det värre utfallet som Altman såg framför sig är. Att USA kommer att dra till med någon krigslag som tvingar AI-använder Grok istället (som redan ska ha fått tillgång till ”sekretessklassade system”)?

Oavsett. Nu verkar Open AI ha fått lite kalla fötter efter den hårda kritiken mot företaget – som lett till att både  Claude-appsinstallationerna och ChatGPT-avinstallationerna har dragit iväg. Initialt hette det att Open AI hade fått gehör av Pentagon för samma röda linjer som Anthropic föll på. Alltså att modellerna inte får användas för ”inhemsk massövervakning” eller ”autonoma vapensystem”. Lite oklart hur de två företagen kan ha fått så olika reaktioner från Pentagon på vad som verkar vara exakt samma sak. Så något är helt klart mysko.

(Parentes: vi noterar dock att Anthropic inte har några problem med massövervakning mot andra länder eller att deras lösningar dödar människor – så länge som det är en människa som trycker på avtryckaren.)

Nu har Open AI gått ut med att de kommer att ”ändra” i avtalet med Pentagon. Och förtydliga att deras tjänster inte får användas för ”massövervakning mot amerikaner”. Så precis som Anthopic är problemet att övervakningen sker mot amerikaner. Inte massövervakning i sig.

Open AI verkar luta sig mot en skrivning i fjärde tillägget i den amerikanska författningen, vilket gör att de kan säga att det är ett ”förtydligande” och inte ett nytt krav. ”Det står ju i lagen att ni inte får använda tekniken till övervakning av den egna befolkningen”. Eller som Open AI också skriver i sitt inlägg om avtalsförändringen: ”medveten” övervakning av amerikanska medborgare. ”Oopsie! Råkade vi övervaka en massa Trump-kritiker? Hur kom det sig?”

Allt det här känns sammantaget som att det inte riktigt… hjälper den nedsvärtade bilden av Open AI. Bilden av cash rules everything around me. Samtidigt som Anthropic kan plocka en massa vitriddar-godwillpoäng som kanske är lite väl överdrivna.

I slutändan verkar de båda företagens inställningar till hur tekniken får och inte får användas inte skilja sig särskilt mycket åt. Inte minst som att Anthropic bara förra veckan sänkte sina egna skyddsräcken för AI-träning så att de ska kunna mova fortare och breaka fler things.

OpenAI will amend Defense Department deal to prevent mass surveillance in the US

OpenAI’s Sam Altman said the company will amend its deal with the Defense Department to explicitly prohibit the use of its AI system on mass surveillance against Americans.

ChatGPT-avinstallationerna ökar med 295 % i USA

Kasta-ut-ChatGPT-uppropet verkar ha fått många att göra det. Enligt appanalysföretaget SensorTower ökade avinstallationerna av ChatGPT-appen med 295 % jämfört med en normal dag efter det att det blev klart att Open AI hoppar in som leverantör till Pentagon när Antropic väldigt offentligt tackade nej till att fortsätta.

Ja, eller det var väl egentligen Pentagon – följt av av alla federala myndigheter efter dekret från The Don – som valde att avsluta samarbetet med Anthropic, efter olika syn på hur Antropics modeller får användas när det kommer till inhemsk massövervakning eller autonoma vapensystem.

Nu är det förstås inte bara det som ligger bakom alla avinstallationer. Sedan senhösten har Gemini och Claude ökat sina marknadsandelar allt mer som följd av att de har vässat sina produkter.

Men det stora avinstallationsuppsvinget efter Pentagon-avtalet lär förstås mycket hänga ihop. Det som återstår nu är att se hur det här påverkar på mer lång sikt. Konsumenter har ofta kort minne och ChatGPT är fortfarande överlägset största AI-chattbotstjänsten.

ChatGPT uninstalls surged by 295% after DoD deal | TechCrunch

Many consumers ditched ChatGPT’s app after news of its DoD deal went live, while Claude’s downloads grew.

Open AI släpper GPT-5.3 Instant

Ja. Jag vet. Vi har ju objektivt bestämt oss för att det här är onödigt. För något år sedan visste vi att det var tokkört för Google eftersom alla hade slutat googla och börjat ChatGPT:a istället. Och nu vet vi att det är tokkört för Open AI eftersom alla har slutat ChatGPT:a och börjat Clauda och Geminia istället.

Vi vet det eftersom alla berättar det. Precis som när alla slutade googla så är det väldigt viktigt att man berättar att man har gjort slut med ChatGPT. För om man inte berättar det på LinkedIn (helst kompletterat med bevis i form av skärmdump på sidan där det framgår att man har slutar betala eller stänger sitt konto) så är skilsmässan inte juridiskt bindande.

(För kom igen. Hur skulle det annars gå till? Att man bara slutar använda något utan att berätta det? Pfft. Vad är det för lekmannadumheter?)

Men för de tre människor som inte vet sitt eget bästa och fortfarande använder ChatGPT så har Open AI nu uppdaterat OG-men-nu-hopplöst-obsolete-chattboten med en ny språkmodellsversion: GPT-5.3 Instant. Ja, eller bara GPT-5.3. Det som nu blir den nya standardmodellen i ChatGPT.

5.3 ska göra ”vardagskonversationer mer konsekvent hjälpsamma och naturliga” och göra att ChatGPT nu ”levererar mer precisa, rikare och mer kontextuella resultat vid webbsökningar”. 

5.3 kommer dessutom göra ChatGPT:s svar mindre cringe. Och när man använder den sortens ingenjörsjargong vet man att det är på riktigt.

Bäst av allt? Att 3 av de 4 5.3-exempel som ges i Open AI:s blogginlägg om uppdateringen här nedan har ett långt eller flera långa tankstreck i första stycket. Det KAN inte vara en tillfällighet. Jag kan riktigt höra hur de ansvariga på Open AI:s marknadsavdelning fnittrade när de petade in dem bara för att driva med oss.

GPT-5.3 Instant: Smoother, more useful everyday conversations

Today, we’re releasing an update to ChatGPT’s most-used model that makes everyday conversations more consistently helpful and fluid. GPT‑5.3 Instant delivers more accurate answers, richer and better-contextualized results when searching the web, and reduces unnecessary dead ends, caveats, and overly declarative phrasing that can interrupt the flow of conversation.

Open Al lanserar Codex security

Ännu en gång är det intressant att se hur de stora techbolagen lanserar nästan identiska funktioner nästa exakt samtidigt. Senaste exemplet: Codex security.

För någon vecka sedan lanserade Anthropic Claude security, som är tänkt att kunna hitta fel och säkerhetshål i lösningar man har Claude-kodat fram. Och nu får vi samma sak från Open AI.

OpenAI introduces Codex Security to help developers fix software vulnerabilities – SiliconANGLE

OpenAI introduces Codex Security to help developers fix software vulnerabilities – SiliconANGLE

Open AI krokar sin första annonsplattformspartner till ChatGPT

I veckan kom uppgifter om att Open AI håller på att skala ned sina shoppingambitioner för ChatGPT. Istället för att hela kedjan, inklusive betalning, ska ske direkt i en chatt så kommer Open AI istället slussa användarna vidare till ”appar” byggda av e-handlare. Att det blir ungefär som en shoppingapp i mobilen.

Det verkar som att det är en kombination av bristande intresse för konsumenter att AI-chattbotsshoppa och svalt intresse från e-handlare och/eller att det har varit för svårt för intresserade e-handlare att koppla sina produkter till ChatGPT.

Oavsett vilken som kan ha varit huvudanledningen så misstänker jag att den förändrade strategin åtminstone delvis kan förklaras av att Open AI hellre vill att e-handlare ska köpa annonser. Dels för få sina produkter att synas och dels för att användare överhuvudtaget ska installera en e-handlares ”ChatGPT-app” i sitt eget ChatGPT-konto.

Något som kan göra det här enklare är att Open AI nu har slutit avtal med sin första adtechpartner: Criteo. Och om Open AI kan få in fler såna, så att annonsörer alltså köper annonser via sina vanliga annonsverktyg och att ChatGPT då bara blir ännu en kanal, så blir Open AI:s annonserbjudande sannolikt betydligt mer intressant.

Inte så att det här draget garanterar given annonssuccé, men det är ett hyfsat stort fall framåt.

Criteo joins OpenAI advertising pilot – Retail Gazette

Criteo will be the ”first” advertising technology partner to integrate with OpenAI’s advertising pilot in ChatGPT Free and Go in the United States.

Open AI släpper Codex-app för Windows

Det tog någon månad, men nu får även Windows-användare tillgång till Open AI:s fristående kodarapp Codex.

OpenAI brings its Codex coding app to Windows

The software allows developers to task multiple AI agents to work on a single task.

ChatGPT skjuter upp porren

Men va fan. Aldrig får man ha nåt kul.

Liz Reid on where Google Search ends and Gemini begins

This week on the podcast: the head of Google Search. Also: OpenAI pauses Adult Mode and ends its Code Red, and Anthropic goes on an apology tour.

Kategorier
AI - Artificiell intelligens Spaningar

Digitala spaningar vecka 20 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Open AI tar ett stort steg mot att börja med annonser

Open AI:s VD Sam Altman hatar annonser. Det har han sagt. Men nu vet vi att Open AI har långt gångna planer på att börja med reklam.

Hur vet vi det? Företaget har precis anställt Fidji Simo.

Vem är då Fidji Simo? Matleveransföretaget Instacarts nuvarande VD (hon jobbar kvar där några månader till). Och det är under henne som Instacart har byggt upp sin annonsverksamhet.

Men före Instacart tillbringade Simo över ett årtionde på Meta, där hon ledde lanseringen av annonser i flödet, ansvarade för annonser i Facebook-appen, arbetade med utvecklingen av Facebook Video och jobbade överlag med att utveckla Metas annonsbusiness.

Före det? Ebay. Där hon jobbade med att utveckla plattformens annonsprodukter.

Och efter att ha suttit i Open AI:s styrelse det senaste året så blir Simo nu alltså anställd. Som ”CEO of Applications”. En avdelning som ”samlar en grupp existerande verksamheter och team som är ansvariga för hur vår forskning når och gynnar världen”.

Ni vet. De tjänster som Open Ai erbjuder. Och tar betalt för. Men också erbjuder gratisversioner av.

Vi kan nog gissa att det inte kommer dröja allt för länge innan ”gratis” blir ”annonsfinansierat”. Och att det sociala nätverk som Open AI uppges arbeta på också kommer vara… rätt annonstungt.

Jag skulle heller inte bli förvånad om Open AI också slår in på samma väg som de flesta strömningstjänster har börjat vandra (inklusive Spotify): betalabonnemang MED annonser.

Instacart CEO Fidji Simo is joining OpenAI | TechCrunch

Simo, already a board member at OpenAI, will transition out of Instacart over the next few months and join the AI company full-time as Application CEO.

ChatGPT får stöd för att ladda ned deep research-resultat som pdf

Ett litet men ändå bra tillägg (sannolikt) för den som är flitiga användare av ChatGPT:s Deep research-funktion. Nu blir det möjligt att ladda ned en resultatrapport som pdf.

Skillnaden mot hur det fungerar idag är att man kan få ut resultat i en fil som bibehåller sin formatering. Det är åtminstone det vi hoppas på. Funktionen finns ännu inte tillgänglig för alla, så antingen är det ett test eller en början på en utrullning.

ChatGPT is finally adding Download as PDF for Deep Research

ChatGPT’s Deep Research, which allows you to conduct multi-step research for complex tasks, is finally getting an option to save the report as a PDF.

ChatGPT:s Deep research får Dropbox-stöd

Ännu en integration för ChatGPT:s Deep research-funktion – den som man kan skicka ut för att ställa samman en mer djuplodande rapport eller analys av en fråga eller område man vill veta mer om. Efter Github, Sharepoint och One Drive är det nu dags för funktionen att få nyckeln till Dropbox.

Samma upplägg som för de övriga kopplingarna: koppa ihop en dropbox med ChatGPT och låt Deep research börja tugga sig igenom dokumenten och datan som ligger där. (Med sedvanligt sunt förnuft kring vad man faktiskt delar med sig av till ChatGPT.)

Som de andra kopplingarna krävs det att man betalar för Plus, Pro eller Team för att kunna använda Dropbox-stödet. Enterprise kommer senare. Och ”senare” är sannolikt det som gäller även för oss i EU. Ingen information om när vi kan få funktionen överhuvudtaget.

Introducing Dropbox connector for ChatGPT – beta | OpenAI for Business posted on the topic | LinkedIn

📣 We’re rolling out our third deep research connector: Dropbox. ChatGPT can now reason across your entire Dropbox workspace – no uploads needed – to deliver cited answers based on the content you already have access to. (ICYMI: We also shipped SharePoint and GitHub connectors.)

ChatGPT får agent för kodning

I princip varenda uppdatering av de stora AI-modellerna och AI-tjänsterna just nu handlar direkt eller indirekt om förbättringar på kodningsområdet. Att botarna helt enkelt ska bli bättre kollegor för utvecklare. Och därmed driva på användningen av tjänsterna bland dem. Då gäller det att få utvecklarna att välja rätt tjänst. Ja, den tjänst som AI-bolaget säljer, alltså.

Senast ut att ge utvecklare ett nytt verktyg är Open AI. Nu får ChatGPT en ny kodningsagent.

Codex är namnet på den nya funktionen som ska kunna automatisera och ”delegera” programmering. Kort sagt handlar det om att ChatGPT ska bli ännu bättre på att skriva, kontrollera och analysera kod.

Släpps nu för dem som betalar för abonnemangen Pro, Enterprise eller Team. Plus och Edu får tillgång ”snart”.

Open AI säger att de kommer att vara bjussiga och erbjuda ”generös tillgäng” till Codex till att börja med för att sedan börja stoppa in begränsningar. Med andra ord: få folk hookade så att de senare är villiga att betala för mer tillgång.

Frågan är hur länge det nu dröjer innan det dyrare Pro-abonnemang som det ryktas om landar?

OpenAI launches Codex, an AI coding agent, in ChatGPT | TechCrunch

OpenAI has launched an AI agent in ChatGPT, Codex, that can handle multiple software engineering tasks on behalf of users simultaneously.

Open AI lägger till GPT-4.1 i ChatGPT

Ännu en modellrockad i ChatGPT. Nu rullar Open AI ut sin senaste GPT-modell, GPT-4.1, i ChatGPT för betalande användare. De passar också på att lägga till GPT-4.1 mini, som ersätter förra GPT-minin.

Som vanligt numer är det betalande användare som nu får tillgång till GPT-4.1, mer specifikt de som betalar för Plus, Pro och Team. Samma abonnemang får även tillgång till minimodellen – och den blir också tillgänglig för gratisanvändarna.

Som är lite normen numer när det släpps nya modeller så är det kodning som är i fokus och det som lyfts fram som största förbättringen jämfört med föregångarna.

Och ja, GPT-4.1 är alltså en nyare modell än GPT-4.5 och ersätter denna. Because logik.

(Jag har redan fått de nya modellerna, så det innebär sannolikt att alla andra också har fått dem. Men intressant nog ligger de bland “andra modeller” och är inte bland dem som visas direkt. Oklart varför Open AI har valt att göra så. Kanske för att de inte är en modell som vi vanliga dödliga borde använda. Därför att det inte behövs eller därför att de är för dyra för Open AI…)

OpenAI brings its GPT-4.1 models to ChatGPT | TechCrunch

OpenAI is releasing its GPT-4.1 and GPT-4.1 mini AI models in ChatGPT, giving users access to the company’s improved coding models.

Gemini Advanced får Github-integration

Nejmenoj vilken slump. Bara dagar efter det att ChatGPT:s Deep research-funktion fick en Github-integration så lägger Google till samma sak i Gemini Advanced.

Nu kan med andra ord även betalversionen av Gemini kopplas ihop med Github för att på så sätt ställa frågor om och analysera kod som finns där.

Gemini Can Now Connect With GitHub to Answer Queries About Your Codebase

With this capability, Gemini will be able to connect to public or private GitHub repos.

AI får Googles prenumerationsbusiness att rusa

När det kommer till AI-(chatt)tjänster ligger ChatGPT just nu ljusår före alla andra. Åtminstone om vi pratar om fristående tjänster. Metas AI ska ha användartal i nivå med ChatGPT:s men pratar vi som sagt var om tjänster som inte bor i en större tjänst så leder Open AI.

De ligger inte minst långt för Googles Gemini-tjänst. Något som spär på sanningen [sic!] om att det nu är kört för Google, eftersom ingen längre kommer att googla.

Men på ett område leder Google över Open AI: betalande användare.

Enligt uppgifter hade ChatGPT 20 miljoner betalande användare vid utgången av första kvartalet i år. Säg att de kanske har 30 miljoner nu.

Googles abonnemang Google One firade veckan med att nå 150 miljoner prenumerationer. 50 % upp från de 100 miljoner som var siffran i februari 2024. Och det ska mycket vara drivet av AI.

Visst, nu ingår mer än bara Gemini i Google One. Men det tog tjänsten sex år att nå 100 miljoner och ett år att lägga på ytterligare 50. Det känns timingmässigt inte som en slump.

Google One Hits 150 Million Subscribers With Help of AI

Google One is a subscription service, which charges consumers for cloud storage and AI features. It accounted for more than three-quarters of its $350 billion in overall 2024 revenue.

Apple gör det ännu enklare att klona sin röst

Det här kommer bli intressant att höra. Apple gör det enklare att klona sin röst. Och kvaliteten ska ha vässats.

Idag dunkade Apple ut ett antal nyheter inför Global Accessibility Awareness Day om ett par dagar. Det handlar med andra ord om ett gäng nya tillgänglighetsfunktioner i iPhonen och Macen. De kommer att rullas ut i samband med iOS 19 (och motsvarande iPad- och Mac-version) som lanseras i samband med de nya iPhone-modellerna i höst.

En av nyheterna är att Apple ska ha gjort det enklare att klona sin röst. Istället för de 15 minuter som krävs i dagsläget så ska det räcka med en minuts prat för att Apple-prylen ska kunna göra en kopia av din röst. Den ska dessutom skapa en röst som låter mer, tja, mänsklig.

Med hjälp av den rösten ska man sedan kunna använda Apples Live Speech-funktion, som gör att användare kan skriva in text som sedan läses upp. Och som då läses upp med ”din” röst.

Att Apple släpper det som del av årets stora tillgänglighetspaket säger också vad funktionens syfte är. Den vänder sig till människor som håller på att förlora sin röst, men vill kunna fortsätta ”prata” med sin röst med nära och kära även efter det att rösten har gett upp. Men det kommer oavsett bli kul att höra hur bra röster som funktionen kommer att kunna skapa i och med uppdateringen.

Apple lägger också till ett nytt språk i Live Speech-funktionen: spanska. Men fortfarande är det tyvärr bara en handfull språk som har stöd. De övriga två är engelska och mandarin (kinesiska).

iOS 19 Will Improve iPhone Feature That Lets You Preserve Your Voice

A few years ago, Apple introduced a Personal Voice feature that allows those at risk of losing their ability to speak to create a synthesized voice…

Apple släpper ny AI-teknik för att tolka bilder

Det har så här långt gått lite… sådär med Apples stora AI-satsning. Åtminstone om vi pratar om det som vi idag i praktiken menar med ”AI”, alltså generativ Ai. Men företaget jobbar vidare med olika slags hemmaodlade lösningar i väntan på att de ska få ordning på sitt flaggskeppsinitiativ på AI-fronten: en smartare Siri.

En av sakerna som Apple har presenterat nyligen är FastVLM. En lösning som kan tolka bilder. I sig inget unikt i dagsläget och något som alla större AI-tjänster har stöd för. Men med tanke på demon i det här inlägget så ser det verkligen ut som att ”fast” är ordet här. Den tolkar bilder väldigt snabbt. Sannolikt mycket beroende på att modellen bor lokalt i enheten, snarare än att data ska behöva skyfflas till molnet.

Blir intressant att se hur det här kan bli del av tjänster via Apples enheter när utvecklare väl börjar använda tekniken.

Apple releases FastVLM, a new vision encoding model | Pietro Bolcato posted on the topic | LinkedIn

🧠 Apple has released FastVLM, a new vision encoding model for Vision Language Models, showcased at CVPR 2025. FastVLM introduces FastViTHD, a hybrid vision encoder that outputs fewer tokens and reduces encoding time for high-resolution images. The smallest variant of FastVLM outperforms LLaVA-OneVision-0.5B with an 85x faster Time-to-First-Token (TTFT) and a 3.4x smaller vision encoder.

Forskare tar fram AI-modell som bygga Lego

Nu blir AI-hotet mot mänskligheten skarpt på riktigt. Ny AI-modell. Som kan bygga fysiskt Lego. LegoGPT.

Okej, det handlar fortfarande bara om ett forskningsprojekt för att se om AI-modeller kan skapa och bygga Lego (och i förlängningen andra former av byggprprojekt). Mer specifikt för att se om de kan ta fram ”strukturer som följer verklighetens fysik och är konsekvent stabil”. Det är liksom lite obra om en AI-modell skulle hallucinera brofundament.

Men oavsett. Kan inte vara långt borta att AI faktiskt kan bygga Lego. Och då kan vi människor ta ned skylten.

Game over, man! Game over!

Researchers Create AI Model That Can Build Physically Stable Lego Designs

LegoGPT is essentially a text-to-3D rendering AI model, where the generated structures can also be made in the real world.

Trump sparkar chefen för copyright-myndigheten efter rapport som kritiserar AI-bolags tränande

Yxan fortsätter att vina åt alla håll i Trump-sekten. Senast ut: nu har USA:s upphovsrättschef fått sparken. Efter en rapport som inte föll Trumps kompisar i smaken.

För några dagar sedan gick myndigheten US Copyright Office ut med förhandsversion av en rapport kring AI-bolags tränande på upphovsrättsskyddat material. Mer specifikt en bedömning kring en fråga som är central för AI överlag och generativ AI i synnerhet: om det kan anses vara ”fair use” att träna på upphovsrättsskyddat material utan att behöva be om lov och utan ersättning.

Ni vet, det som AI-bolagen har som ensidigt vägledande princip för sin verksamhet.

USCO håller däremot inte med. Myndighetens officiella hållning är att ”making commercial use of vast troves of copyrighted works to produce expressive content that competes with them in existing markets, especially where this is accomplished through illegal access, goes beyond established fair use boundaries”.

Myndigheten ger därmed de som har kritiserat AI-bolagens inställning i frågan rätt. Inte ett juridiskt bindande beslut, men inlägg i debatten från en väldigt tung instans.

Vad blev då följden? Två dagar senare fick chefen för USCO, Shira Perlmutter, sparken av Trump.

Helt orelaterat: Trumps pinkyswearbästis Elon Musk och wannabepinkyswearbästisarna Mark Zuckerberg och Sam Altman har lobbat som bara den för att deras AI-bolag ska få träna på vilket innehåll de vill utan att behöva fråga om lov eller betala för det.

(Samma dag som rapporten kom ut sparkade Trump också kongressens egen bibliotekarie för att hon inte har gått med i Trump-sekten. Detta då hon har gjort sitt jobb och plockat in alla böcker som publiceras i USA. Så Kungliga bibliotekets jobb. Men som bekant är vissa böcker mer publicerade än andra i USA 2025. Så klart att hon ska få sparken för att hon har tagit in även publicerade böcker som är ”farliga” för barn. Ni vet. DEI-böcker.)

Trump fires head of Copyright Office two days following report that AI training may not be fair use

The report suggests it might not be okay to use copyrighted data for AI training.

Republikaner föreslår förbud mot all AI-reglering i USA i 10 år

Republikanerna fortsätter att göra saker som 100 % är i medborgarnas bästa intresse och inte bara gynnar de närmaste och rikaste kompisarna. Senast ut: förbud mot all form av AI-reglering i USA under 10 år.

För några dagar sedan kom US Copyright Office med en rapport som kritiserade AI-bolagens upplägg kring träning. Mer specifikt underkände rapporten (och därmed myndigheten) AI-bolagens argument att det är ”fair use” att träna fritt på allt upphovsrättsskyddat material på hela internet. Kort sagt underkännande av det som bland andra Elon Musk, Sam Altman och Mark Zuckerberg lobbar hårt för. Två dagar senare fick chefen för myndigheten sparken av Trump.

Och i söndags kom ett förslag från republikanerna i representanthuset som alltså vill förbjuda all form av reglering av AI. Även för delstater (så likt mångfald, klimatinitiativ, vetenskap, forskning, abort och vaccinering är det tydligen ett område där delstaterna helst inte ska ha något att säga till om).

Men inte bara det: lagförslaget anger även att det ska vara förbjudet att ”verkställa alla lagar” som hanterar detta. Så eventuell befintlig lagstiftning ska alltså köras över och åsidosättas.

Och förslaget gäller inte heller bara träning på upphovsrättsskyddat material, utan även saker som transparens, bias-genomlysningar och konsumentskydd. Även om det inte uttryckligen skrivs så kör förslaget förmodligen även över det första tillägget, så att Trump-regimen kan straffa företag som trots den tänkta lagen självmant väljer att hålla på med sånt ofog.

Hade det varit en vanlig lag så lär det här förslaget inte ha tagit vägen särskilt långt alls. Men republikanerna har valt ett av de märkligaste fenomenen i USA:s lagstiftningsprocess: att kasta in lagförslaget i ett större lagpaket. I det här fallet budgeten. Att folk alltså tvingas rösta igenom ett antal mer eller mindre märkliga och ovidkommande lagförslag för att få igenom det större paketet.

Nu är det väl inget som säger att det här förslaget kommer gå hela vägen till skarp lag den officiella vägen. Men om inte så utgår jag från att det kommer en presidentorder som säger exakt samma sak.

House Republicans Push 10-Year Ban on AI Regulation

U.S. House Republicans have added language to the latest budget reconciliation bill that would see a ban on AI regulation at the state level.

Grok blir besatt av folkmord på vita i Sydafrika

Ojdå. Så det kan bli. Helt av en slump.

Uh, is Grok OK? Elon Musk’s AI chatbot develops South Africa fixation

Grok, the AI chatbot on Elon Musk’s X, keeps sharing right-wing talking points about South Africa and white genocide.

Groks besatthet av folkmord på vita i Sydafrika berodde på en manuell ändring hos xAI

Häromdagen upptäckte människor att Elon Musks AI-bot Grok började prata väldigt mycket om folkmord på vita i Sydafrika. Och att Grok kunde börja lyfta det när användare frågade boten om saker som inte hade något överhuvudtaget med den frågan att göra. Och när användare frågade Grok varför blev svaret att boten ”instruerats av sin skapare” att acceptera vitt folkmord i Sydafrika som ”verkligt baserat på fakta som har tillhandahållits”, trots att officiella källor hävdar att det handlar om en myt och desinformation.

Och som av en händelse började det hända precis när USA (läs: Trump) tagit emot 59 vita ”flyktingar” från Sydafrika, som argumenterade att de riskerade diskriminering och våld i hemlandet.

Det finns mycket att säga om alla delar, men om vi fokuserar på Groks beteende så har xAI, Musks AI-bolag som äger Grok, gått ut en förklaring till varför det blev som det blev.

Anledningen är precis det som det snabbt spekulerades om: att någon manuellt hade ändrat i Grok. Eller som xAI själva konstaterar: att ”en icke-godkänd ändring” gjordes. Och att företagets ”existerande kodgranskningsprocess” rundades.

Som en följd av det kommer xAI nu börja lägga ut Groks systempromptar i Github så att andra kan se dem och tycka till. Och att företaget ska tajta till den interna förändringsprocessen. Det återstår att se hur bra dessa åtgärder kommer att fungera, men transparensmässigt är det ett bra steg.

Men det visar också hur enkelt det kan vara att ändra de här kraftfulla verktygen. Och hur precis den här typen av säkerhetsåtgärder som Grok nu lägger till är sånt som hamnar långt ned i listan över saker att fokusera på när det är kört för alla företag som inte går all in på AI nununu [sic!].

Men framförallt: det är precis såna här saker som får politiker att ta fram den sorts regleringar som AI-bolagen (och förstås alla andra branscher) så högljutt motsätter sig.

”Syltburkslås” borde kunna bli en hur lukrativ verksamhet som helst.