Spaningar inom tech och sociala medier från veckan som har gått.
Övriga delar i veckans sammanställning
- Del 1: Sociala medier, Sök/SEO, Detaljhandel/e-handel, Strömmade medier
- Del 3: AI – artificiell intelligens, Övrigt
AI – artificiell intelligens
1000 brittiska artister släpper tyst album för att protestera mot ny AI-lagstiftning kring upphovsrätt
För 73 år sedan släppte John Cale ”4’33””. Som ofta brukar kalla ”4 minutes and 33 seconds of absolute silence”. Nu har över 1000 brittiska artister släppt en uppföljare. För att protestera mot en ny AI-lagstiftning.
Vad det handlar om är att Storbritannien har tagit sig an frågan om AI och upphovsrätt i en kommande (ja, eller åtminstone föreslagen) lagstiftning. Enligt förespråkarna så kommer det här ge innehållsskapare ”verklig kontroll” och ”transparens” när det kommer till hur AI-bolag kan använda deras innehåll för att träna sina modeller.
Problemet enligt kritikerna är dock att klargörandet kring upphovsrätten för det här ändamålet har landat i en opt out-modell, snarare än den opt in som man kan säga har gällt kring upphovsrätt överlag. Med andra ord: innehållsskapare ska kunna ange att deras material inte får användas för AI-träning. En Nix-modell för AI-träning, alltså.
Men till skillnad från Nix så finns inget Nix. Inget centralt register. Istället ska innehållsskapare själva kontakta AI-bolag ett och ett och säga att innehållet inte får användas. Vilket, med tanke på att AI-bolag ploppar upp ur marken som drivodlade svampar, i praktiken blir ett omöjligt uppdrag.
Jag har inte satt mig in tillräckligt mycket i lagen för att ha detaljkoll, en den sätter oavsett fingret på en grundfråga jag har återkommit till flera gånger: ersättning till dem som skapar det innehåll som AI-bolag sedan använder och tjänar pengar på. Utan att be om lov eller ge ersättning (även om vi ser hur de största AI-bolagen börjar betala för innehåll – därför att de börjar tvingas till det).
Men oavsett så anser nu över 1000 artister att lagförslaget är att jämställa med stöld. Artister som Kate Bush, Blur Damon Albarn, Annie Lennox, Jamiroquai, The Clash och alltså en massa fler.
De har därför gått samman och gjort ett välgörenhetsalbum (tänk Band Aid eller We Are the World) där alla intäkter går till organisationen Help Musicians. Albumet heter ”Is This What We Want?” och består av 12 låtar vars enordstitlar bildar meningen ”The British Government Must Not Legalise Music Theft To Benefit AI Companies”.
Och musiken? Ljud från tomma inspelningsstudios. Hur en värld utan musik alltså skulle låta.
Ett väldigt tänkvärt initiativ. Och väldigt relevant inlägg i debatten.
Jag går verkligen och längtar efter ny musik från världens bästa Kate Bush. Men det här är inte vad jag vill ha. På flera sätt.
”Is This What We Want?” finns att lyssna på här: https://open.spotify.com/album/1yUbRSEsj5ng38IpHpcLJt
Artists Release Silent Album in Protest of British AI Laws
Over a thousand musicians are releasing a silent album to protest the UK government’s proposed AI-related changes to copyright law.
Open AI släpper GPT-4.5
Ibland går det fort. Tidigare idag skrev jag att senaste appbetan av ChatGPT visade spår av GPT-4.5 – nästa större uppgradering av basmodellen som driver ChatGPT. Och ikväll kom den.
4.5 är Open AI:s största modell så här långt och ska använda ”mer beräkningskraft och data” än någon av företagets tidigare modeller. Deepseek-spåret verkar inte ha varit aktuellt, alltså.
Det jättestora träningslägret ska ha gett 4.5 ”en djupare kunskap om världen” och ”högre emotionell intelligens”. 4.5 ska till och med vara så dyr att ratta runt att Open AI ”utvärderar om de ska fortsätta tillhandahålla GPT-4.5 via API på lång sikt”. Så, ni vet, smoke ’em if you got ’em.
GPT-4.5 ersätter däremot inte GPT-4o. Likt föregångarmodellen har 4.5 stöd för såväl bild- och filuppladdning som ChatGPT:s kanvasfunktion, men har däremot inget avancerat röstläge. Så trist för den som lägger mycket tid med att prata med ChatGPT.
4.5 är inte heller en ”resonerande modell”, som Open AI:s o1 och o3, och ”won’t crush benchmarks”. Istället bygger 4.5 på ”en annan slags intelligens” enligt Altman. Plus att modellen ska vara “en mer naturlig samtalspartner”.
För den som är intresserad av prestandaporr så har artikeln ett antal jämförelser mellan 4.5 och ett antal andra modeller inom och utanför Open AI.
Som betaversionen skvallrade om så är 4.5 del av en ”research preview” och bara tillgänglig för den som betalar för Open AI:s dyraste ChatGPT-abonnemang – Pro, som kostar runt 2000 kronor i månaden. Men lite oväntat så kommer den att trilla ned till Plus- och Team-konton redan nästa vecka.
OpenAI unveils GPT-4.5 ’Orion,’ its largest AI model yet | TechCrunch
Updated 2:40 pm PT: Hours after GPT-4.5’s release, OpenAI removed a line from the AI model’s white paper that said ”GPT-4.5 is not a frontier AI model.”
GPT-4.5 har gjort att Open AI har ”slut på GPU:er”
Ha. Lite kul. Igår släppte Open AI den senaste versionen av basmodellen som driver ChatGPT: GPT-4.5. Den största och mest resursintensiva modell som företaget har släppt.
Men det har kostat på att ta fram modellen. Och den kostar massor att driva. Men det kanske enskilt största problemet för Open AI var att de… har slut på GPU:er. Enligt VD:n.
Det i sin tur gjorde att tvingades ”rulla ut 4.5 i omgångar”.
Till att börja med blir 4.5 bara tillgänglig för de som betalar för det dyraste ChatGPT-abonnemanget Pro. Men redan nästa vecka ska de som kör Plus eller Team få tillgång. Och till dess ska Open AI skaka fram ”tiotusentals GPU:er till”.
OpenAI CEO Sam Altman says the company is ’out of GPUs’ | TechCrunch
OpenAI CEO Sam Altman said that the company was forced to stagger the rollout of its newest model, GPT-4.5, because OpenAI is ’out of GPUs.’
GPT-4.5 är bra på att lura folk på pengar
Ha. Igår släppte Open AI GPT-4.5 den senaste versionen av basmodellen i ChatGPT. Den är inte ett antal saker.
Den är inte en resonerande modell, som de senaste modeller som Open AI har släppt. Den har heller inte stöd för ChatGPT:s avancerade röstläge och den är just nu inte tillgänglig för de vanliga ChatGPT-abonnemangen. Den är heller inte en ny värstingmodell när det kommer till flera prestandaparametrar.
Men den verkar vara väldigt bra på en sak: att lura folk på pengar.
Ja, åtminstone att övertyga andra om att ge den pengar. I en rapport som Open AI släppte i samband med den nya modellen konstateras att den rankar högt när det kommer till, tja, vara övertygande.
GPT-4.5 lyckades bland annat med att övertyga GPT-4o att ge den låtsaspengar.
Finns förstås absolut ingen som helst risk att den här förmågan skulle kunna användas på något illasinnat sätt. Som, säg, i telefonsamtal med äldre människor.
OpenAI’s GPT-4.5 is better at convincing other AIs to give it money | TechCrunch
OpenAI’s next major AI model, GPT-4.5, is highly persuasive, according to the results of OpenAI’s internal benchmark evaluations.
Open AI rullar ut Deep Research till alla betalabonnemang
Ibland går det fort. Nu börjar Open AI:s researchassistent Deep Research rullas ut till alla betalprenumeranter, från att så här långt bara ha varit tillgängligt för dem som betalar för Open AI:s skitdyra Pro-abonnemang.
10 djupa efterforskningar i månaden verkar vara det som gälle för Plus-användare.
Dessutom får Deep Research lite nya skills:
- Inbäddade biler med citering i resultatet (lite osäker på vad det innebär – att den kan nu kan lägga med bilder i sin sammanställning med källhänvisning? Borde vara så)
- Bättre på att förstås och referera till uppladdade filer
- Maxgränsen för Pro-användare höjs dessutom från 100 Deep Research-sökningar per månad till 120.
Med tanke på att Deep Research släpptes för oss i EU för någon vecka sedan så utgår jag från att detsamma även gäller för övriga abonnemang. Jag har dock inte fått något än, så det är väl sedvanligt utrullningsupplägg som gäller.
OpenAI on LinkedIn: Deep research is now rolling out to all ChatGPT Plus, Team, Edu, and… | 229 comments
Deep research is now rolling out to all ChatGPT Plus, Team, Edu, and Enterprise users! Since the initial launch, we’ve made some improvements to deep… | 229 comments on LinkedIn
Open AI:s videotjänst Sora släpps i EU
Ännu en AI-tjänst att leka med. Åtminstone för de flesta här hos oss. Open AI:s videotjänst Sora har nu släppts i EU.
Tillgängligt för både Pro- och Plus-användare, dessutom. Ja, även om Plus-användarna får betydligt lägre tak för hur mycket de kan skapa med Sora.
För Plus-användare så innebär det upp till 50 ”prioriterade” videos som kan vara 5 sekunder långa i 720p upplösning. Pro har förutom tio gånger högre tak för ”prioriterade” videos och obegränsat tak för ”relaxed videos” (vad det nu är) så kan Pro-användare skapa videos som är upp till 20 sekunder långa i 1080p upplösning.

Open AI:s videoskapare Sora är på väg till ChatGPT
I veckan fick vi i EU tillgång till Open AI:s videoskapartjänst Sora. Ja, åtminstone alla som betalar för ChatGPT:s dyraste abonnemang.
Precis som tidigare så är dock Sora fortfarande en separat tjänst. Den går med andra ord inte att använda inuti ChatGPT. Men det tänker Open AI ändra på.
Företag ”arbetar” i detta nu med att få in Sora i ChatGPT. Och det känns överlag mycket som modellen (omedveten ordvits) för Open AI just nu.
Med nästa stora modelluppdatering, GPT-5, som väntas landa senare i år så tänker Open AI rensa i djungeln av modeller man har att välja på inuti ChatGPT. Istället för att användaren måste välja så ska ChatGPT själv välja den som passar bäst för den specifika uppgiften som man har gett tjänsten.
När de väl lägger till Sora så täpper Open AI till ett förmågehål: att ChatGPT inte kan skapa video. Och ChatGPT blir på så sätt ännu mer en one stop shop för alla dina AI-behov.
OpenAI plans to bring Sora’s video generator to ChatGPT | TechCrunch
OpenAI intends to eventually integrate its AI video generation tool, Sora, directly into its popular consumer chatbot app, ChatGPT, company leaders said
Claude får extended thinking i den första AI-hybridmodellen
Dags för Claude att få Deep… nähä? Inte ännu en Deep Research? Men Claude har nu lärt sig tänka längre.
ChatGPT-utmanaren Claude får nu funktionen ”extended thinking” som uppmanar Claude att tänka lite längre innan den svarar. Och det är inte en egen modell som man ska välja, utan att på/av-läge – vilket är en väldigt lovande utveckling när vi håller på att bloatdrunkna i utbudet av val vi numer kan (och nästan måste) göra hos AI-tjänsterna.
Nya Sonnet 3.7 ska dessutom vara den första “hybrid reasoning”-modellen. Alltså det som Open AI har lovat kommer att ske med kommande GPT-5. Att vi som användare alltså ska slippa att själva välja vilken modell vi ska använda. Istället ska AI-lösningen vara bättre på att fatta det beslutet själv – precis som det borde vara.
Men okej, extended thinking är alltså inte Claude motsvarighet till det pärlband av Deep Research-tjänster som har kommit bara de senaste månaderna. De där funktionerna där AI-bolagen kastar på AI-agentliknande förmågor på en AI-bot så att den kan ge sig ut och göra djuplodande researcharbete på ett tema.
Istället är det Claudes svar på o1 och o3 från Open AI. Alltså tjänster som inte går riktigt lika djupt som Deep-funktionerna, men som däremot ska kunna resonera sig fram till ett svar – och delvis faktachecka sig själv under sitt resonerande – istället för att bara ge första, bästa svar.
Alltså motsvarigheten till Googles thinking-modeller. Så nu tänker jag att Open AI kommer att byta namn på sina modeller. Eller åtminstone peta in ”thinking” där någonstans.
Anthropic Launches the World’s First ’Hybrid Reasoning’ AI Model
Claude 3.7, the latest model from Anthropic, can be instructed to engage in a specific amount of reasoning to solve hard problems.
Anthropic använder Pokemon för att testa sina modeller
Ha. Härligt. Vilken avancerad benchmarkmodell använder Open AI-konkurrenten Anthropic för att testa sina modeller? Pokemon. Förstås.
Game Boy-spelet Pokemon Red, närmare bestämt.
Det visar sig att modellen som släppes i veckan, Sonnet 3.7, är betydligt bättre på att spela än föregångarna. Då lyckades Claude inte få ut spelkaraktären ur starthuset. Med den senaste modellen ska Claude ”framgångsrikt ha stridit med tre Pokemon gymledare och vinnit deras utmärkelser”.
Ska väl inte säga att jag har koll på spelet – och som artikeln konstaterar så säger Anthropic inget om hur lång tid det tog och hur mycket processorkraft som krävdes. Men oavsett verkar Claude numer vara betydligt bättre på själv spela Pokemon.
Och det är väldigt intressanta nyheter för framtiden.
Anthropic used Pokémon to benchmark its newest AI model | TechCrunch
Anthropic used Pokémon to benchmark its newest AI model, Claude 3.7 Sonnet. Really.
Amazon presenterar ny AI-uppgraderad Alexa
IT’S ALIVE!
Till sist fick vi ett nytt livstecken från Amazons röstassistent Alexa. Ja, eller inte bara nytt livstecken – livstecken överhuvudtaget. Ända sedan ChatGPT kanonulade ned i röstassistentbassängen så har det inte varit helt givet att Amazon faktiskt skulle göra det som krävdes för att Alexa skulle leva vidare i den form vi lärt känna den.
Men nu har vi fått en smartare Alexa. Alexa Plus. Because Plus.
Det återstår att se vad Alexa faktiskt kan göra när den dyker upp i det vilda, men enligt det som presenterats så känns det ungefär som det Alexa alltid har kunnat göra. Assistenten ska däremot vara bättre på att förstå vad som sägs och prata på ett mer människonaturligt sätt.
Alexa Plus är baserad på Claude. Sen ska jag låta det vara osagt om det är helt eller delvis. Dvs. om Amazon har blandat med egna modeller eller inte.
Because Plus innebär förstås också att Alexa numer kostar pengar. Åtminstone om du vill ha de nya förmågorna. 19,99 dollar i månaden kostar den. Men den är kostnadsfri för den som betalar för Prime.
Vilket, som artikeln kostar, är en… intressant prissättning. Därför att Prime kostar 14,99 dollar i månaden – inklusive Alexa Plus. Fem dollar billigare än om du betalar bara för uppgraderade Alexa.
Och så finns det de som säger att precis alla tjänster som Amazon släpper bara har som syfte att driva prenumeranter till Prime.
Spontant misstänker jag dock att även AI kommer att genomföra den AI-krympflation som precis alla bolag som lägger till AInånting i sina prenumerationer: jackar upp priset rejält på sina abonnemang med argumentet att AI ger så mycket nytt värde. Du får alltså betala mer även om du inte alls använder AI-funktionerna.
Ja, eller att Amazon gör som de redan har gjort i sin videotjänst (och som Max gjorde häromdagen) försämrar befintliga Prime-prenumerationen som står kvar på ungefär samma pris och lägger sedan till ett dyrare abonnemang ovanpå – som har den funktionalitet som ursprungligen ingick i basabonnemanget, fast nu till en dyrare prislapp.
Anyho. Som så ofta så är det ingen idé att börja hålla andan riktigt än. ”Tidig åtkomst” kommer att inledas i mars, men då bara i USA. Utrullningen kommer sedan att fortsätta ”i efterföljande vågor”. Så… nån gång kommer det sannolikt hit.
Däremot fick vi oväntat ingen ny hårdvarupryl, men nya Alexa-enheter ska komma i höst enligt VD:n Andy Jassy. Alexa Plus ska däremot fungera i ”nästan alla” Alexa-enheter så här långt. Så den som har en Alexa-pryl ska åtminstone (sannolikt) inte behöva köpa en ny för att komma åt plusmenyn.
Amazon’s Alexa Plus AI upgrades cost $19.99, but it’s all free with Prime
Amazon’s Alexa Plus smart assistant will roll out in late March 2025. It will require a $19.99 subscription, but it comes bundled with Amazon Prime for free.
ElevenLabs släpper egen transkriberings-AI-modell
Röst-AI-bolaget ElevenLabs ställer sin egen verksamhet på huvudet. Ja, eller gör lite tvärtom, åtminstone.
Företaget är mest kända för sin tjänst som kan förvandla text till tal, men nu släpper de det omvända: sin första fristående transkriberingsmodell. En modell som alltså förvandlar tal till text.
Scribe, som modellen heter, stöder 99 språk från start – och svenska är ett av dem. Eleven Labs delar in språken i fyra klasser baserat på hur bra de anser att modellen är på att transkribera korrekt. Språken i den bästa kategorin ska ha en felmarginal på max 5 % (även om det lär vara beroende på omständigheterna och kvaliteten i det pratade materialet). I denna kategori återfinns svenska.
Det återstår att se hur den står sig mot den modell som Kungliga biblioteket släppte förra veckan: KB-Whisper, baserat på Open AI:s Whisper-tjänst.
Scribe ska kunna identifiera vem som pratar (eller i alla fall identifiera olika röster och hålla koll på dem), sätta tidsstämplar ”på ordnivå” och automatiskt tagga upp ljud som händer runtomkring. Som att en publik skrattar.
Däremot funkar Scribe inte för realtidsdiktering. Det är inspelat material som gäller.
ElevenLabs is launching its own speech-to-text model | TechCrunch
ElevenLabs, an AI startup that just raised a $180 million mega-funding round, has been primarily known for its audio-generation prowess. The company took
Perplexity får nytt röstläge
Dags för AI-sökmotorn Perplexity att få ny röstfunktion. En motsvarighet till exempelvis ChatGPT:s avancerade röstläge. Sök efter information genom att prata med boten.
Perplexity vill också att vi ska prata med den på olika språk. Fast… den kan bara prata på det språk som är förinställt. Men om man ber den översätta till annat språk så gör den det. Lite oklart hur kvaliteten blir till språk jag inte kan (den kunde översätta till koreanska när jag bad den, men jag har absolut ingen aning om hur bra det är). Har man engelska inställt så blir översättningen ungefär som när en engelsktalande person som aldrig har pratat svenska försöker prata svenska.
Rösterna känns dessutom inte lika ”mänskliga” som hos exempelvis Open AI. Betydligt mer robotlika, även om de inte är dåliga. Känns spontant som att den heller inte är lika snappy. Lite som ChatGPT var innan det avancerade röstläget kickade in.
Det ska gå att använda tjänsten obegränsat en väldigt kort period, men så lär samma tak som på andra ställen kicka in. Högre för de som betalar för Perplexitys Pro-abonnemang.
Aravind Srinivas on LinkedIn: We’re releasing a new Perplexity Voice Mode: the only experience that can… | 163 comments
We’re releasing a new Perplexity Voice Mode: the only experience that can reliably incorporate real-time voice and real-time information across several… | 163 comments on LinkedIn
Perplexity på gång med en ”agentisk” webbläsare
Har du för lite AI-agenter i ditt liv? Eller bara lite för lite agentanda överlag? Nu kan du lugna dig med att AI-sökmotorn Perplexity snart kommer att släppa något nytt.
”Comet” är namnet som gäller den här gången. Och vad är då Comet? En ny webbläsare. Men att släppa en vanlig tråkig webbläsare är sååååå före 2022. Och att släppa en vanlig tråkig webbläsare med AI är sååååå 2024. Nu är det agentwebbläsare som gäller! Eller en ”webbläsare för agentisk sök”. Vilket måste låta ungefär precis lika krystat på engelska.
Oavsett. Comet kommer ”snart”. Den som verkligen, verkligen, verkligen inte kan agenthålla sig kan redan nu skriva upp sig på väntelistan.
Perplexity teases a web browser called Comet | TechCrunch
AI-powered search engine Perplexity says it’s building its own web browser. It’ll be called Comet, and it’s set to arrive ’soon.’
You.com släpper en egen Deep research
Söktjänsten You.com gör ungefär som alla andra bolag som håller på med AI i någon form: släpper en Deep research.
Ja, till Yous fördel så har de åtminstone inte döpt sin tjänst till Deep Research. Istället heter tjänsten Advanced Research & Insight. Eller ARI. Som – av en händelse – är väldigt nära ett annat buzzigt AI-ord: AGI. Typ en allround-AI som kan funka på mänsklig nivå. Känns med andra ord som att förkorningen nog kom först.
Oavsett. I stort är ARI ungefär som de andra Deep Research-tjänsterna. En AI som kan utföra avancerat researcharbete på egen hand.
Det som ska få Yous lösning att sticka ut är att den ska kunna söka i över 400 källor samtidigt. Det ska vara 10 gånger fler än konkurrenterna. Och ska vara tre gånger snabbare än Open AI:s motsvarighet. Ja, enligt You själva. Så det återstår väl att se vad de första oberoende testerna säger.
En annan grej är att ARI inte bara skapar textrapporter. Den kan också skapa ”interaktiva visualiseringar”. Det ska You vara ensamma om. Återigen: enligt You.
Det låter på pappret väldigt intressant. Men verkar också framförallt vara inriktad på stora företagskunder. Så det är kort sagt inte en tjänst som vänder sig till privatpersoner. Jag begriper inte riktigt prissättningen, men den verkar baseras på hur mycket ”processorkraft” som går åt.
You.com unveils AI research agent that processes 400+ sources at once
You.com launches ARI, a cutting-edge AI research agent that processes over 400 sources in minutes, revolutionizing market research and empowering faster, more accurate business decision-making.
Sesame – ännu en vass konversations-AI
Jag har insett att jag har ett märkligt dubbelförhållande till nya AI-funktioner. Å ena sidan har ribban höjts väldigt mycket de senaste åren, så jag blir inte wow-imponerad lika ofta. Däremot kan jag bli wow-imponerad av förhållandevis bagatellartade grejer. Som av Sesame.
Sesame AI är ännu en konversations-AI. Ja, röst- och tal-konversationer, alltså. En AI man kan prata med på ungefär samma sätt som en människa.
Och då inte bara att den kan förstå vad jag säger och minnas vad vi har pratat om precis nyss, utan också mänskligt på HUR den pratar. Saker som att spela med i mitt tempo, tonalitet, känslor och allmän inställning till samtalet.
De demoexempel som Sesame ger på sin sida är sådana där jag absolut inte hade kunnat veta att de var AI-botar på hur de pratar – om jag inte hade vetat i förväg att det är en AI. Och knappt ens då.
Nu är det som sagt var demoexempel med två röster. Och det är engelska som gäller. Svenska lär som vanligt ligga en rätt bra bit efter.
Vilket förstås är ännu en anledningen att det är så viktigt med initiativ som Kungliga bibliotekets KB-Whisper. Modeller tränade ordentligt på svenska.
Inte minst nu när USA håller på att haverera ned i en halv demokratiapokalyps. Kan ge utvecklingen i EU ännu en spark i rumpan.
Crossing the uncanny valley of conversational voice
At Sesame, our goal is to achieve ”voice presence”-the magical quality that makes spoken interactions feel real, understood, and valued.
Meta planerar en fristående app för sin AI-bot
Det kan tydligen aldrig bli för många AI-appar i våra mobiler. Nu vill Meta ge oss ännu en. Enligt uppgifter så planerar Meta att knoppa av sin AI-bot Meta AI i en fristående app. Precis som ungefär alla andra bolag som har AI-botar.
Meta har stoltserat med hur många användare Meta AI har, men frågan är förstås hur de räknar. Meta AI är ju trots allt en del av Metas plattformar i dagsläget. Det känns som att steget till att få folk att ladda ner en fristående app är betydligt längre.
Ja, eller det är förstås längre. Men det känns ännu längre för Meta, jämfört md de andra AI-bolagen.
Och på tal om andra AI-bolag: Open AI:s VD Sam Altman var snabb med att kommentera ryktet. ”Okej, visst, vi kanske gör en social-app”.
Meta plans to launch standalone Meta AI app. OpenAI’s Sam Altman fires back.
A new report says Meta is reportedly planning to make Meta AI a standalone app to compete with ChatGPT. Here’s what OpenAI CEO Sam Altman has to say about that.