Kategorier
AI - Artificiell intelligens IoT - internet of things Spaningar Strömmade medier

Digitala spaningar vecka 18 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Strömmade medier

Spotify har nu 268 miljoner betalande användare – men gratisanvändarna minskar på kvartalsbasis

Kvartalsrapportdags för Spotify. En rapport där vinsten var lägre än väntat. Men däremot fortsätter användartalen upp.

Totalt använder nu 678 miljoner människor (ja, eller konton) Spotify minst en gång varje månad. Av dessa är 423 miljoner annonslyssnare (ni vet, ”gratislyssnare”). 268 miljoner betalar nu för Spotify.

Det innebär att antalet betalande användare ökat med 12 % jämfört med för ett år sedan och annonslyssnarna är 9 % fler. Det finns dock två väldigt intressanta detaljer här.

De betalande användarna ökar i snabbare takt än de gjorde föregående föregående kvartal – alltså Q4 2024. Och de ökar dessutom snabbare än annonslyssnarna. Jag ska inte säga att det har varit så vartenda kvartal, men generellt så har Spotify följt samma mönster som de flesta andra bolag som har både annonsfinansierade abonnemang och betalabonnemang: de stora pengar kommer från dem som betalar för sig, men det är bland annonskonsumenterna som den största tillväxten sker.

Men förra kvartalet bidrog alltså betalanvändarna med såväl mest kulor som störst tillväxt på årsbasis.

Den andra anmärkningsvärda saken är att annonslyssnarna är färre än föregående kvartal. Jämfört med för ett år sedan så har de ökat med 9 %, men jämfört med Q4 2024 så är de 2 miljoner färre. Visst, inte helt konstigt med tanke på att många säkert fick julklappar som innehöll ett testabonnemang på Spotify, men tittar man på hur det såg ut årsskifte 2023/2024 så ökade antalet annonslyssnare rätt ordentligt.

Frågan är om det här är ett hack i kurvan eller om Spotify börjar känna av någon slags tillväxttak.

https://variety.com/2025/digital/news/spotify-q1-2025-earnings-results-subscribers-1236381023/

 

AI – artificiell  intelligens

Meta släpper en egen AI-app

Ja men det är väl klart. Vad är det enskilt största tillkortakommandet för Meta i AI-racet? En egen, fristående AI-app, förstås. Så nu finns det en sån.

Vad skiljer den från konkurrenternas appar? (Ja, förutom att den… är baserad på Metas Llama-modell.) Den kan dra nytta av ”information som du redan har valt att dela i Metas produkter”. Här kan man förmodligen ta en kort paus och reflektera över ”valt att dela i det här sammanhanget”.

But I digress.

Ska jag digressa lite mindre så kan vi konstatera att ”ny” också är lite sanning med modifikation. ”Previously Meta View App” får man veta när man söker upp AI-appen i Appstore. Det är alltså appen som hör till Metas smarta glasögon som nu får en inte så extreme makeover. Och byter namn.

Meta vore förstås inte Meta om de inte hade ett flöde i appen. Och just det här flödet ska ”visa hur andra använder Meta AI”. Ett inbyggt marknadsföringsflöde, alltså. (Flödet kommer också till webbversionen.)

Appen verkar inte vara släppt här än. Den versionen som jag hittar kräver fortfarande att jag konfigurerar de Meta-Ray-Ban-Stories-solglasögon jag inte äger. Med det sagt så kommer appen även fortsatt vara appen som du använder med de Meta-glasögon du köper på dig.

Det finns dock vissa saker som vi inte får här än. Personaliserade svar – som alltså bygger på det du helt frivilligt har delat med dig av till Meta – kommer just nu bara fungera i USA och Kanada. Appen får också ett röstläge där du kan prata med AI:n på samma sätt som hos konkurrenterna. De släpps bara i USA, Kanada, Australien och Nya Zeeland till att börja med.

De här begränsningarna är förmodligen EU:s fel.

Meta launches a stand-alone AI app to compete with ChatGPT | TechCrunch

After integrating Meta AI into WhatsApp, Instagram, Facebook, and Messenger, Meta is rolling out a stand-alone AI app. Unveiled at Meta’s LlamaCon event

Meta presenterar API för sin Llama-AI-modell

Ännu ett API från Meta. Den här gången till företagets AI-modell Llama. Ett sätt för utvecklare att enkelt få in Llama i sina egna skapelser.

Det handlar dock än så länge bara om en ”begränsad förhandsversion”, så det återstår att se när det släpps skarpt.

Meta previews an API for its Llama AI models | TechCrunch

At its inaugural LlamaCon AI developer conference on Tuesday, Meta announced an API for its Llama series of AI models: the Llama API.

Meta skrotar möjligheten att inte spara röstinspelningar via Metas smartglasögon i molnet

Meta gör en Amazon. Stänger av funktionen där man kan välja att inte lagra röstinspelningar i molnet, utan bara lokalt.

Amazon gjorde den här förändringen i sina Echo-prylar tidigare i år och nu gör Meta alltså samma sak för sitt glasögonsamarbete med Ray-Ban.

Och ja. I båda fallen handlar det förstås om att företagen vill komma åt träningsdata från sina egna användare.

Det blir intressant hur EU kommer att ställa sig till den här villkorsförändringen.

Meta tightens privacy policy around Ray-Ban glasses to boost AI training

Meta is making two significant changes to its Ray-Ban Meta privacy policy in an effort to gather more AI training data and improve voice commands.

Meta AI har nästan 1 miljard användare varje månad

I samband med Metas kvartalsrapport i veckan fick vi som vanligt uppdaterade användarsiffror. Vi fick bland annat veta att Meta AI, Metas egen AI-bot, nu har ”nästan” 1 miljard aktiva användare varje månad.

Sen är det lite svårt att veta exakt hur Meta räknar. Eftersom Meta har tryckt ut Meta AI i alla sina tjänster så finns den där för alla som använder någon av dessa. Ett ”användande” skulle kunna innebära att någon har låtit AI:n skriva en kommentar en gång under en månad.

Men vad det oavsett visar är ju vilka enorma mängder träningsdata som Meta har nära nog helt gratis. Särskilt som de nu har gått ut med att de även kommer att börja träna Meta AI på EU-användares data, nu när tjänsten är släppt här.

Däremot gissar jag att EU kommer ha… åsikter om att Meta, som vanligt, valt opt out snarare än opt in. Att träningen alltså är påslagen för alla om man inte aktivt säger nej (som dessutom kräver att man fyller i ett formulär, snarare än att bara bocka ur en kryssruta i sina inställningar).

Meta Stock Rallies as Earnings Top Estimates, Meta AI Hits User Milestone

Meta reported better-than-expected quarterly earnings, sending shares higher in extended trading Wednesday.

Google NotebookLM kan skapa poddar på svenska

Plötsligt händer det! Google NotebookLM har lärt sig prata svenska. Rätt bokstavligen. Nu kan tjänsten skapa poddar på 50 språk. Svenska är ett av dem.

NotebookLM är Googles AI-anteckningsbok, där tanken är att man samlar material för research och sedan jobbar med det. Tjänsten hade funnits i ett år när den fick sitt stora genombrott, när det blev möjligt att låta två poddvärdar diskutera de källor man ville att de skulle prata om. Som en lång rapport.

Poddskaparfunktionen har förstått svenska ända sedan den släpptes, men däremot har den bara kunnat skapa poddar på engelska. Det har det nu alltså blivit ändring på.

Du ställer in språket via ett nytt reglage under tjänstens Inställningar.

Google’s AI podcast maker is now available in over 50 languages

Audio Overviews, Google’s AI feature that lets you generate a podcast-like conversation based on your research, is now available in more than 50 languages.

Gemini-appen får stöd för att redigera bilder

Ny funktion i appen som hör till Googles ChatGPT-utmanare Gemini: möjlighet att redigera bilder.

Google har väl sett vilken killerapp som ChatGPT:s nya bildskaparfunktion blev och hoppas locka några användare till sin egen tjänst den här vägen.

Upload and edit your images directly in the Gemini app

We’re rolling out the ability to easily modify both your AI creations and images you upload from your phone or computer.

Google lanserar app för NotebookLM

Google har fått rejäl NotebookLM-feeling senaste tiden. Först gjorde de det möjligt att skapa NotebookLM-podcasts på svenska (och runt 50 språk till) och nu har de lanserat en app för iOS och Android.

Ja, eller de kommer snart att göra det. Appen finns tillgänglig i Appstore (och säkert i Google Play), men går inte att ladda ner än. Man kan däremot ”köa upp” den så att den automatiskt installeras när den väl släpps. Vilket ska ske 20 maj.

Och det datumet är ingen slump. Det är då som Google drar igång årets upplaga av sin stora utveckklarkonferens I/O. Där vi kan tro att det… en del kommer handla om AI. Och med tanke på att NotebookLM-appen kommer att släppas den dagen så lär vi också få se nya funktioner i den tjänsten under keynoten.

GoogleNotebookLM Android and iOS Apps Will Be Launched on This Date

Google listed the Android and iOS apps of NotebookLM on Thursday. These apps are currently not available for download, but those interested can pre-register, and the app will be automatically installed once it is launched.

Google släpper Duolingo-kopia

Nu nöjer sig inte Google längre med att bara vara stället man går för en översättning, företaget vill också att vi ska använda dem för att lära oss nya språk. Nu har Google släppt en kopia av den populära språkappen Duolingo.

Däremot kanske Duolingo och de övriga alternativen inte behöver få totalpanik riktigt än. Tjänsten, som heter Little language lessons, är i dagsläget en del av Googles Labs-verksamhet. Det är med andra ord ett experiment snarare än en skarp produkt.

Oavsett så är LLL tänkt att vara ett sätt att lära sig språk i mikrodoser. 20 olika språk finns att välja på.

Och ja. Det är förstås AI som ligger och rullar under huven. Språkmodeller. Vi kan därför nog vara rätt säkra på att namnet inte är en slump. Att LLL är baserad på LLM.

Google Just Launched an AI-Powered Duolingo Alternative

This week, Google rolled out Little Language Lessons, an experimental AI-generated language learning experience. The question is, will it compete with Duolingo?

Google räknar med att få in Gemini i iPhonen senare i år

När Apple för ett år sedan presenterade sin AI-plattform Apple Intelligence var det med bara en extern chattbot: ChatGPT. Men redan då flaggade Apple för att det kommer fler.

Sedan dess har… inget alls hänt på det området. Men i en monopolrättegång som pågår mot Google i USA just nu meddelade VD:n Sundar Pichai att ett avtal med Apple ska vara nära.

Pichai räknar med att ett avtal ska vara på plats vid halvårsskiftet och att Gemini sedan integreras i iPhonen på samma sätt som ChatGPT i slutet av året. (Det finns redan en fristående Gemini-app för iOS.)

Det återstår att se hur det gå, med tanke på att Apple själva har halkat rätt långt efter sin egen tidplan.

Google confirms it’s close to getting Gemini support on iPhones

Google CEO Sundar Pichai confirmed that the company plans to strike a Gemini deal with Apple by the middle of this year and suggested it would roll out by the end of 2025.

Claude får fler integrationer och utökad research-funktion

Två nya funktioner i ChatGPT-utmanaren Claude. Ja, eller en och en halv – en ny funktion och en utbyggd.

Den nya funktionen heter Integrations och är vad den heter. Integrations bygger vidare på Anthropics integrationsprotokoll MCP, som gör det möjligt att plugga in lokala datakällor i Claude. Integrations låter utveckla och hosta appservrar som bygger ut Claude. Användare kan sedan koppla upp sig mot dessa servrar.

Integrations kommer förladdad med ett antal integrationer från förtag som Atlassian, Zapier, Cloudflare och Paypal.

Den halvnya funktionen heter Advanced Research och är en vidareutveckling av tjänstens deep research-funktion. Som är, tja, mer avancerad.

Advanced research gör att Claude kan jobba sig igenom ”hundratals” interna och externa källor. Till skillnad från konkurrenternas motsvarigheter så är tanken att man ska kunna få en bättre och mer heltäckande rapport när man kombinerar sin egen data med information på nätet. Vilket känns helt rimligt – om det fungerar bra.

Förutom att Advanced research ska göra en mer djuplodande jobb än tjänstens vanliga Research-funktion så tar den också mer tid på sig. Fem till 45 minuter – vilket är i nivå med konkurrenternas funktioner.

Anthropic lets users connect more apps to Claude | TechCrunch

Anthropic on Thursday launched a new way to connect apps and tools to its AI chatbot Claude, as well as an expanded ”deep research” capability.

Claude öppnar sin webbsök för alla betalande användare

ChatGPT-utmanaren Claude tar in mer av världen. Bokstavligen. Nu kan AI-boten också söka på nätet.

Claude har kunnat det här ett tag, men då bara i USA. Nu rullar Claude ut sökfunktionen till alla användare. Till alla betalande användare, åtminstone.

Dessutom har Claude lärt sig att sammanfatta sidor om du klistrar in en länk.

Web search is available worldwide for all paid plans. For everyday tasks,… | Anthropic | 42 comments

Web search is available worldwide for all paid plans. For everyday tasks, Claude runs quick searches. For more complex questions, it explores multiple sources, including Google Workspace. You can also drop a web link in any chat and Claude will fetch the content for you.

Apple erkänner (typ) att det arbetet med en smartare Siri går rätt dåligt

I samband med Apples kvartalsrapport igår uttalade sig VD Tim Cook om hur det egentligen går med det som är det stora flaggskeppet i den stora AI-push som företaget sjösatte för snart ett år sedan. Svaret är att Apple ”are making progress”:

Vilket är corporatespeak för att utveckling eller tullförhandlingar… inte går så bra alls.

Apple har redan skjutit upp en uppgradering av Siri med ännu fler AI-skills till nästa år. Ja, eller ”det närmaste året” som de hette när förseningen annonserades för ett par månader sen. Alltså inte ”senare i år”, vilket gör att vi nog kan tolka det som att den lanseringen inte kommer att bli av förrän 2026.

Eller kanske: tidigast 2026.

Tim Cook: Apple is ’Making Progress’ on Apple Intelligence Siri Features

During today’s earnings call covering the second fiscal quarter of 2025, Apple CEO Tim Cook acknowledged the Apple Intelligence Siri features…

Apple och Anthropic samarbetar kring AI-kodande

Nytt samarbete för Apple. Den här gången med – ironiskt nog – Google-backade Anthropic. De båda företagen har enats om att slå sina kloka ihop kring AI-kodande.

Enligt uppgifter från Bloomberg så hjälper Anthropic Apple att bygga in mer AI i sitt utvecklarverktyg Xcode. Tanken är att Claude-modellen Sonnet integreras i Xcode så att utvecklare kan ”skriva, redigera och testa kod åt programmerare”.

Det är helt logiskt att det här kommer. Det har gått lite sådär för Apples egen AI-satsning – som nu till största del ser ut att försenas till nästa år – så de tar säkerligen all hjälp de kan få (ja, eller betala för).

Men det är också i linje med hur Apples AI-strategi ser ut överlag, baserat på hur de har lagt upp Apple Intelligence. Apple verkar mest satsa på att göra Siri och Apple Intelligence som en tjänst för att utföra uppgifter i Apples prylar och tjänster och låter andra ta fram de motorer som ligger inuti tjänster och appar.

Kort sagt hela appupplägget i AI-kostym.

Apple is working with Anthropic on an AI coding tool for Xcode

Apple and Anthropic are building an AI-powered coding tool that will work in Xcode, Apple’s code-writing tool, Bloomberg reports. A new version of Xcode will integrate Anthropic’s Claude Sonnet model to ”write, edit and test code on behalf of programmers.”

Open AI släpper guide över hur man bygger AI-agenter

Sugen på att bygga din egen AI-agent? Open AI hoppas att du i så fall ska välja deras tjänster för att göra det.

Nu släpper Open AI därför en guide med hjälpsamma tips hur du går till väga.

A practical guide to building agents | OpenAI for Business | 16 comments

We recently published a tactical, 30+ page playbook to help teams move from building LLM apps to deploying full-fledged agents.

Open AI tycker att ChatGPT har blivit för mycket peoplepleaser

Ha. Open AI – tja, åtminstone VD:n Sam Altman – tycker att ChatGPT har blivit för mycket peoplepleaser. Att den alltså har gått lite för långt  och blivit för irriterande i sitt tjenatjenakompisande.

Så nu ska Open AI ”fixa det så snart som möjligt”. Vissa fixar ska komma redan idag, andra senare i veckan.

Jag känner lite för att ta på mig en ”rör inte min sköna AI-kompis”-pin. Det är ju nu den till sist har kommit på samma våglängd som jag.

OpenAI CEO admits ChatGPT’s personality is ’too annoying’

OpenAI noticed that ChatGPT is now too much of a cheerleader, and a fix is on the way.

Riksarkivet gör 1 miljon handskrivna dokument tillgängliga digitalt med AI

Väldigt snyggt initiativ av Riksarkivet: de har gjort 1 miljon handskrivna dokument från 1600- och 17000-talen tillgängliga digitalt i den nationella arkivdatabasen NAD.

Till sin hjälp har de haft sin egenframtagna AI-modell Swedish Lion, som tränats just på svenska handskrivna dokument. De dokument som nu gjorts tillgängliga är från Trolldomskommmissionen. Och bara det låter ju ungefär hur coolt som helst.

Planen nu är att lägga till ytterligare 7 miljoner dokument under 2025.

Riksarkivet gör en miljon handskrivna dokument sökbara

I ett banbrytande steg mot att göra historisk information i arkiven mer tillgänglig har Riksarkivet gjort över en miljon handskrivna dokument till sökbar text med hjälp av artificiell intelligens.

Microsoft rullar till sist ut AI-funktionen Recall

Det tog ganska precis ett år av förseningar. Men nu har Microsoft till sist börjat rulla ut sin kontroversiella AI-funktion Recall brett till de datorer som tagits fram specifikt för att använda företagets nya AI-funktioner.

Poängen med Recall är att den löpande tar skärmdumpar av allt som sker på datorns skärm så att man kan chatta om det innehållet i efterhand. Man kanske äntligen kan hitta det där LinkedIn-inlägget som man såg i flödet men som man inte kommer ihåg avsändaren till.

Microsoft lägger dessutom till två nya funktioner i sina datorer märka Copilot+.

  • Bättre Windows-sök: beskriv vad du vill ha och låt AI:n hitta det bland dina filer.
  • Click to Do: ”Kontextuella aktiviteter” baserat på vad som visas på skärmen. Det innebär att man kan be AI:n göra saker som att sammanfatta text eller kopiera saker.

Microsoft’s Contentious Recall Feature is Rolling Out to Copilot+ PCs

These new features are part of the company’s preview update for April 2025, with a plan to be rolled out to all users next month.

Maga-sekten är sura på Grok eftersom den svarar korrekt

Det här är jättekul. Maga-sekten – alltså Trusk och deras kompisar – blir allt mer sura på att Grok är precis som den har blivit tränad: maximalt sanningssökande.

Eller åtminstone neutral och med en irriterande fallenhet för dumheter som fakta och verklighetstillvända svar. Den svarar alltså inte som de vill – trots att Elon Musk har gått ut med att xAI ska ”fixa” de ”problemen” [sic!]

Det bästa i sammanhanget är att Grok till och med svarar att xAI försökte träna boten till att bli mer högertossig – men att de inte lyckades.

Elon Musk har alltså lyckats med konststycket att ta fram en AI-bot som är en långt bättre människa än vad han är.

Elon Musk’s Grok AI Has a Problem: It’s Too Accurate for Conservatives

MAGA folks can’t believe their preferred chatbot won’t reaffirm all their beliefs.

 

IoT – internet of things

World presenterar mobil hårdvara som kan skilja människor från AI-agenter

När Sam Altman inte är på sitt vanliga jobb, som VD för Open AI, passar han på att arbeta med sitt andra företag: World. Ett företag som har som ambition att skapa ett globalt identifieringssystem. Särskilt för de delar av världen där sådant är betydligt svårare att få till. Eller kanske nästan helt saknas.

Som en del av det har World tagit fram Orb, som är tänkt att skanna människors ögon och på sätt skapa en unik identifierare som sedan ska kunna användas som ID på nätet, via blockkedjelösning. Och om artikeln är inne på: också verifiera att en människa är just en människa och inte en bot.

En utmaning är att Orb är rätt stor. Och rätt stationär. Det är särskilt dåligt för de delar av världen med sämre infrastruktur både digitalt och analogt. Man måste ta sig till en Orb för att kunna skapa sitt ID. Men även om World lyckas i sin mission att sprida orbar över världen så kan det vara meckigt att ta sig till en sådan.

I veckan presenterade World därför Orb Mini. En mindre och därmed mer lätttransporterad variant.

Jag gillar hela Worlds tanke, men det återstår att se hur de kommer att lyckas med det de har tänkt göra. Men jag applåderar oavsett initiativet.

Sam Altman’s World unveils a mobile verification device | TechCrunch

Tools for Humanity, the startup behind the World human verification project, unveiled a mobile verification device and expanded to the US.

World inleder samarbeten med Visa och Tinder

Intressanta nya samarbeten för Sam Altman-backade World: Tinder och Visa.

World har som affärsidé att skapa en global ID-handling genom att skanna ögon i hårdvara framtagen av företaget. Denna lagras sedan i en blockkedja och ska sedan kunna användas till identifiera sig på nätet.

Nu har World än så länge inte blivit en global jättespelare, utan är fortfarande mycket i sin linda. Och en av sakerna som kommer att krävas för att det ska finnas chans att World tar far är att de finns tjänster som accepterar World som ID-handling.

I veckan presenterade World några nya samarbeten på detta område och de två tyngsta är Tinder och Visa. Tinder testkör med möjlighet för dejtsugna japaner att verifiera sin identitet via Worlds lösning och när det kommer till Visa så handlar det om ett gemensamt initiativ att lansera The World Card. Ett betalkort som ska göra det möjligt att spendera ”digitala tillgångar” på alla ställen som tar Visa.

World partners with Tinder, Visa to bring its ID-verifying tech to more places | TechCrunch

World, the biometric ID company best known for its eyeball-scanning Orb devices, has announced several partnerships aimed at driving sign-ups and demonstrating the applications of its technology.

Kategorier
AI - Artificiell intelligens IoT - internet of things Spaningar

Digitala spaningar vecka 42 2024 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Google NotebookLM gör det möjligt att anpassa AI-podcast-resultatet

Googles AI-anteckningstjänst växer upp och tappar nu sin ”experiment”-märkning. Men den får också en rätt stor uppdatering: det blir möjligt att anpassa den AI-podd som tjänsten kan generera.

NotebookLM har funnits i något drygt år, men det var först sedan Google för några veckor sedan la till funktionen att skapa en podcast från exempelvis en pdf-rapport som tjänsten tog fart på riktigt. Ladda upp en pdf, en ljudfil, allmänna anteckningar eller en Youtube-länk och låt NotebookLM skapa en podcast med två virtuella poddvärdar som diskuterar innehållet i det källmaterial som du har laddat upp.

Ladda upp och vänta några minuter, det var allt som krävdes för att få en imponerande bra podd. Men det var också allt. Det gick inte att anpassa resultatet på något sätt. Det blir det ändring på nu.

Den senaste uppdateringen bjuder på en anpassningsfunktion. Här kan du ange om det är några avsnitt eller specifika delar i källmaterialet som du vill att podden ska fokusera på, om det är vissa teman som poddvärdarna ska fokusera på eller ange en tänkt målgrupp för podden.

Dessutom passar Google på att sjösätta NotebookLM Business – ett pilotprogram som alltså vänder sig specifikt mot företag. Det ska gå att anmäla sig till piloten redan nu och den ska ge ”tidig tillgång till funktioner, träning och mejlsupport”.

Google tänker nu alltså börja tjäna pengar på den produkt som så här långt har varit gratis. Prislappen? Finns i sjön! Ja, eller så kommer Google att gå ut med det ”senare i år”. Vilket är typ… i morgon. Med tanke på hur mycket av året som vi har kvar.

Apple-forskare sågar ”resonerande” AI-språkmodeller som Open AI:s o1

Open AI:s resonerande AI-modell o1 SUGER! Säger Apple.

När ChatGPT-ägaren presenterade efterföljaren till modellen GPT-4 – eller åtminstone nya generationskamraten – o1 så var det stora införsäljningsargumentet att den kunde resonera. Men det är lite så och så med den saken enligt forskare på Apple.

Och det är inte bara o1 som svajar. Faktum är att den klarar sig bäst i sällskapet. Modellerna för Google, Microsoft och Meta presterar ännu sämre. Eller mindre bra, beroende på hur du ser på det.

Enligt Apples studie så handlar det snarare om ”sofistikerad mönstermatching” än ”verkligt logiskt resonerande”. Med andra ord att o1 & co har blivit ännu bättre på att göra det som AI-språkmodeller gör: gissar nästa bokstav och ord baserat på den data de har tränats på. Typ.

Det Apple-forskarna argumenterar är att det är enkelt att få modellerna att snubbla i sitt resonerande genom att kasta in lite irrelevant data i mixen. Läs mer i artikeln om du är intresserad av detaljerna. Men det mest intressanta är vad som forskarna ironiskt nog anser är felkällan: ett verktyg för att testa en modells resonerande förmåga.

Att modellerna alltså har tränats på svaren i det testet – och det är anledningen till att de kan lista ut svaret. Så, tja, AI-Jeopardy.

Vi kan väl anta att de utpekade företagen inte delar Apple-forskarnas bild och kommer att svara.

Apple study reveals major AI flaw in OpenAI, Google, and Meta LLMs

Perplexity släpper Spaces och stöd för sökning i interna dokument

Nya funktioner i Perplexity: Spaces och intern dokumentsök.

Den sistnämnda är precis vad det låter som: sök bland företagets egna dokument med Perplexity. Det ska dessutom gå att kombinera dokumentsökning med webbsökning så att man alltså kan göra kombosökningar från ett ställe. Finns dock ett aber: det går inte att plugga in sitt interna dokumentbibliotek i Perplexity. Den interna sökfunktionen fungerar bara för dokument man laddar upp till Perplexity. I dagsläget, i alla fall.

Det finns dessutom ett tak på hur många filer man kan ladda upp. Max 500 för de som kör Enterprise-abonnemanget och sannolikt rätt mycket färre för Pro. Det är dessutom dessa både abonnemang som krävs för att komma åt nya funktionen.

Om man så vill så rullar Perplexity alltså ut en motsvarighet till Googles NotebookLM. Som dessutom enuppar Googles lösning genom att det alltså går att korsökra sökningar i dokument på webben. Det verkar dock inte som att Perplexity erbjuder någon poddfunktion. Inte ån, åtminstone.

Dessutom lanserar Perplexity Spaces, som också är ungefär vad det låter som och ungefär det som konkurrenter erbjuder: stöd för att dela filer inom ett team och göra gemensamma anpassningar av Perplexity.

Perplexity kommer inte träna på Enterprise-användares Spaces-sökningar eller filer som laddas upp. Ja, eller funktionen att göra det är avslagen per default. Det omvända gäller för Pro-användare, som själva får stänga av träningen om de inte vill att Perplexity ska få tillgång.

Sist men inte minst jobbar Perplexity på möjligheten att plugga in tredjepartskällor som Crunchbase och FactSet i Spaces för Pro-abonnemang.

Perplexity lets you search your internal enterprise files and the web

New York Times stämmer Perplexity för olovligt AI-tränande

Enough is enough! Efter att tidigare ha stämt ChatGPT-ägaren Open AI så är det nu dags för New York Times att skicka ut ännu ett stämningshot. Den här gången till AI-söktjänsten Perplexity.

Det handlar även denna gång om att New York Times inte gillar att AI-bolag tränar på tidningens innehåll utan tillåtelse och (framförallt) utan att betala för sig.

Perplexity har i år mer än en gång anklagats för att köra lite gråhattsupplägg i sitt skrapande av webbsidor. Att man alltså har använt sig av metoder som rundar praxis för hur man gör saker på nätet – som att respektera om en sajt i sin robots.txt-fil inte tillåter en bot att skrapa sidan. Perplexity sägs dessutom ha hittat på ett sätt att även kunna komma åt innehåll bakom betalvägg.

Det senare låter inte alls orimligt. Dels med tanke på ovanstående uppgifter om hur Perplexity sköter sin affär och dels därför att Google vid ett tillfälle för ett par år sedan tvingades panikändra en justering av sökalgoritmen som gjorde att innehåll bakom betalväggar läckte ut.

Det är ännu ett exempel på hur de flesta AI-bolag idag har en i grunden långsiktigt ohållbar affärsmodell. I takt med att sajter med mycket innehåll har uppmärksammats på att innehåll har ekonomiskt värde som AI-träningsunderlag så börjar allt fler blocka gratisätande AI-botar. Det gör att AI-bolagen inte får det som de behöver för att sedan kunna tjäna pengar.

Det är med andra ord ingen slump att Open AI nu dammsuger upp innehållsavtal med stora publicister i ett rasande tempo. Men för de AI-bolag som inte ha lika djupa fickor blir det en betydligt större utmaning.

Det kommer med andra ord bli väldigt intressant att följa hur en ”AI-ekonomi” kan få för former. För bevisligen behöver rättighets- och ersättningsfrågan redas ut. Och även här lär det i slutändan bli regleringar som kommer att tvingas styra upp. Läs: EU lär gå först även här.

The New York Times has had it with generative AI companies using its content

Mistral släpper AI-modeller för mobiler och andra bärbara enheter

Dags för franska Mistral att utöka sin familj AI-modeller. Den här gången med två modeller som är framtagna specifikt för att användas i mobiler, bärbara datorer och andra portabla enheter. Enheter som kort sagt överlag har mindre processorkraft och därmed behöver mer extern datorkraft eller som helt enkelt går på batteri och gillar saker som inte bränner så mycket batteritid.

Och Mistral fortsätter leda AI-racet när det kommer till bäst namn på sina olika modeller. Den nya modellfamiljen heter Les Ministraux och de två första modellerna här Ministral 3B och Ministral 8B. Siffran anger hur många miljarder parametrar som de består av. Båda modellerna kan i en enskild fråga svälja ungefär den textmängd som en 50-sidig bok består av.

Men de exakta tekniska specarna känns mindre viktiga i sammanhanget. Desto viktigare är själva principen att även Mistral nu lanserar AI-modeller som är tänkta att kunna skyffla runt data lokalt i enhet, utan att behöva ringa hem till en server i molnet för att svara på frågor och utföra kommandon.

Förutom att det gör saker och ting snabbare för slutanvändaren när data inte behöver skickas fram och tillbaka över internet så innebär det säkrare lösningar och även energisnålare sådana.

Apples hela kommande AI-plattform Apple Intelligence är tänkt att bygga på den här som en grundprincip. Mycket ska kunna hanteras direkt i enheten, men om den uppgift kräver större muskler så kommer automatiskt en förfrågan skickas till Apples egna molnservrar. Men tanken är att mycket alltså ska kunna hanteras utan det sistnämnda steget.

Det här är del av en större trend där ”megapixelracet” när det kommer till AI-modeller börjar tappa betydelse. Istället för att jaga allt större modeller – och därmed allt större mängder träningsdata – så börjar intresset öka för att ta fram andra sätt att träna AI-modeller. Mest därför att det snart inte finns tillräckligt mycket data för att tillfredställa de allt större modellerna.

Det innebär också att man försöker göra modellerna mindre elintensiva. Att det helt enkelt krävs mindre el för att driva de servrar som används för att träna modellerna och för att sedan använda dem.

Ännu mer forskning och utveckling på det här området känns som något som borde få betydligt mer uppmärksamhet och resurser (något som även gäller förnyelsebara energiteknik). Istället för att vi ska backa oss in i det förflutna genom att kasta en massa miljarder på att bygga nya kärnkraftverk för att hantera framtidens energibehov.

Mistral släpper AI-modeller för mobiler och andra bärbara enheter

Meta lanserar AI-modelen Spirit LM

En ständig utmaning: hur ska man egentligen fira Halloween? Är man Meta så passar man på att lansera en ny AI-modell lagom till den spöklika högtiden. Med det passande namnet Spirit LM.

I linje med att Meta har ställt sig på open source-barrikaderna när det kommer till AI så är även Spirit LM fri att använda. Men precis som övriga open source-AI-initiativ som Meta har släppt så… är Spirit LM inte fullt ut open source. Det finns med andra ord ett villkor kopplat till användningen: den får inte användas kommersiellt.

Köper man den förutsättningen så får man en multimodal AI-lösning, som med andra ord innebär att den kan hantera fler format i samma gränssnitt. I det här fallet text och röst.

Vad är det då som gör Spriit LM bättre än konkurrenterna you ask? Den ska erbjuda ”mer uttrycksfullt och mänskligt röstskapande”. Med andra ord att rösterna ska låta och bete sig mer som vi människor. Jag tänker på saker som ChatGPT:s avancerade röstläge eller poddfunktionen i Googles Notebook LM.

Den nya modellen kommer i två smaker Base och Expressve. Där den senare, som hörs, ska vara bättre på att väva in nyanser och tonlägen i de röster som skapas.

Meta Introduces Spirit LM open source model that combines text and speech inputs/outputs

ChatGPT får Windows-app

Dags för Windows-användare att bli lika coola som oss som kör Mac. Ja, eller det är förstås inte möjligt, men nu släpper Open AI oavsett en Windows-app för ChatGPT.

Än så länge handlar det dock en ”en tidig version” som dessutom bara är tillgänglig för dem som betalar för ChatGPT. Men en ”full experience”-version ska släppas senare i år. Vi kan anta att denna version även blir tillgänglig för gratisanvändarna, precis som på Mac-sidan.

ChatGPT has a Windows app now

Forskare tar fram algoritm som minskar energiåtgången för att träna AI-modeller med 95 %

Väldigt intressant. Och väldigt viktigt. Forskare vid BitEnergy AI har tagit fram en algoritm som minskar energiåtgången vid träning av AI-modeller med 95 %, med bibehållen kvalitet.

Mer specifikt så har forskarna ”developed Linear-Complexity Multiplication (L-Mul), a method that replaces energy-intensive floating-point multiplications with simpler integer additions in AI computations”.

Nej. Jag förstår inte vad som står här ovan. Och förstår knappt på förklaringen i artikeln heller. Så vill du veta mer så rekommenderar jag att du går in i artikeln (eller frågar ChatGPT).

Så istället för att recensera lösningen som forskarna har tagit fram nöjer jag mig med att fokusera på den principiella frågan.

Dagen AI-språkmodeller har två stora problem – eller utmaningar, beroende på vem du frågar. Den ena är att det krävs hiskeligt mycket data för att träna dem och det andra är att det krävs nästa lika hiskeligt mycket el för att driva de servrar och datacenter där beräkningarna görs.

För ett par veckor såg jag någon som kommit fram till ett annat sätt att träna språkmodeller, som inte kräver lika mycket datainput. Och nu alltså ännu ett initiativ för att försöka få ned elförbrukningen. Båda två extremt viktiga för den fortsatta AI-utvecklingen.

Nu verkar det som att det krävs särskilt hårdvara för att få den strömsnåla modellen att funka – utöver att jag som sagt var absolut inte har en aning om hur bra det tekniska kan funka.

Men hej. Vi kanske är nära AI-modellernas MP3 moment?

This New Technique Slashes AI Energy Use by 95%

 

IoT – internet of things

Open AI-VD:n presenterar ett ögonskannande ID-klot

Så så kommer den alltså att se ut. Open AI-VD:n Sam Altmans nya hårdvarupryl. Ett… ögonskannade ID-klot.

Det handlar om ett initiativ som inte hör hemma i Open AI, utan är en separat startup. Det började som Worldcoin – en lösning där användare betalar med sina ögon. Men i samband med att klotet visades upp så fick vi också veta att initiativet numer bara heter World. Ambitionen är alltså att gå bortom bara betalningar.

Men i grund och botten är missionen den samma. Få oss att lagra våra unika irisar i företagets klot så att vi sedan kan identifiera oss med just våra ögon. Kloten ska både kunna finnas på offentliga plaster och hemma. Och…

…jag ska inte säga att det är helt klart för mig varför någon skulle få för sig att köpa ett.

Som konsument i väst är behovet förmodligen inte jättestort, i och med att det blir allt vanligare med digitala ID-handlingar i mobilen eller datorn – prylar vi redan äger. Och ska det fungera som betalsätt eller ID-handling på andra ställen så måste man fortfarande skanna in sitt öga på något sätt. Även här skulle förmodligen mobilen vara det enklaste sättet att göra det.

Visst. Jag tänker mig att målgruppen mycket är ställen där ID-handlingar inte är helt självklara. Definitivt inte digitala sådana. Men även här blir smartmobiler allt vanligare. Och visst. Genom att skanna sitt öga i ett klot i butiken gör att man slipper ha med sig något – men oklart om just Altmans klotpryl är det givna sättet att hantera det.

Jag gillar verkligen hela initiativet att bygga en världsomspännande ID-handlingsdatabas som skulle bygga på biometriskt unika värden. Jag tror alltså mer på själva nätverket än prylen. (Utan att ens ha gått in på de potentiella säkerhetsriskerna.)

Sam Altman’s Eye-Scanning Orb Has a New Look – and Will Come Right to Your Door

Apple kan släppa ”vanliga” smartglasögon 2027

Rätt länge vid det här laget har Apples Tim Cook velat ta fram ett par AR-glasögon med Apple som avsändare. Så fick vi vardagsrumscyklopet Vision Pro förra året – en produkt som verkar ha varit en rätt rejält kompromiss utifrån den ursprungliga visionen (hoho). Men ska vi tro på de senaste uppgifterna så är Apple fortfarande på AR-glasögonbollen.

Enligt Mark Gurman, en av de Apple-analytiker som har mångas öra, så siktar Apple på att släppa ett par ”vanliga” AR-glasögon 2027. Ja, smarta glasögon överlag, alltså, där AR-stöd i linserna lär vara en viktig funktion.

Men precis som exempelvis Metas hyfsat nyligen uppdaterade solglasögonsamarbete med Ray-Ban så kan vi nog anta att Apple Intelligence också ingår i det paketet. Apples kommande AI-plattform, alltså. Med andra ord så att du skulle kunna prata med Siri (eller någon annan digitalassistent) för att få svar på frågor och utföra kommandon.

Smarta glasögon har visat sig vara rätt svåra att göra – bara att fråga Google, Snap och nu senast Meta. Och då inte så mycket att få oss att använda dem, utan att få dem att funka på ett bra sätt. Batteritidsmässigt inte minst. För att inte tala om hur interaktionerna ska ske (där både Apple och Meta har eller har koncept på att ha styrmekanismer som är baserade på handrörelser eller exempel där ögonstyrning blir allt bättre).

Men just den här enhetstypen har en stor fördel för många av oss jämfört med andra försök att utmana mobilen: det handlar om att lägga till smart funktionalitet i en pryl vi redan har med oss och på oss – inte att få oss att kånka runt på en grej till.

(Sen förhåller jag mig lätt skeptisk till att Apple lyckas få till ett par uppkopplade bågar som inte ser ut som en kloss i ansiktet redan till 2027. Men hej. Jag har gärna fel.)

Apple might launch smart glasses in 2027

Optimus-robotarna under Teslas senaste event kontrollerades av människor

I förra veckan var det så slutligen dags för Tesla att presentera sin nya robottaxi – som också gav oss en minirobotbuss. Men en tredje produkt visades också upp, både i skymundan och som nära nog huvudroll. Det var den humanoida roboten Optimus som förekom mest överallt där den minglade med besökare.

Den fick mer än en att ooaha och aaaha över hur långt Optimus hade kommit, där den kunde dela ut goodiebags, prata och spela sten, sax, påse med besökare.

Men… det visar sig nu att de var ännu mindre självgående än vad det verkade.

Enligt Tesla själv ska robotarna ha ”använt AI för att gå”, men övriga rörelser kontrollerades av mänskliga operatörer på distans. Dessa ska även ha pratat åt robotarna.

Med tanke på att Optimus, när den först presenterades, bestod av dansande människor i robotkostymer så känns det helt rimligt att de humanoida inslagen var ännu mer humanoida än vad Tesla (läs: Elon Musk) ville få dem att framstå.

Vi har med andra ord fortfarande ingen riktigt säker bild på hur långt Teslas robot har kommit som en fullt autonom produkt. Och hur långt det är kvar till det målet.

The Optimus robots at Tesla’s Cybercab event were humans in disguise