Kategorier
AI - Artificiell intelligens Detaljhandel/e-handel IoT - internet of things Spaningar Strömmade medier

Digitala spaningar vecka 13 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Detaljhandel/e-handel

Amazon lägger till mer AI i sin e-handel

Mer AI från Amazon. Den här gången i kärnprodukten e-handeln. Det som alltså vänder sig till konsumenter.

Det handlar om den nya funktionen Interests, som har som mål att ”skapa en mer personaliserad och konversationsbaserad sökupplevelse”. Vilket är skönt corporatespeak.

Vad det betyder mer konkret är att den som söker efter något hos Amazon kan använda generativ AI för att hitta rätt. Det innebär att man kan skicka in egna sökparametrar, som intressen, preferenser och budget. Exempel som ges är ”bryggverktyg och prylar för kaffeälskare”.

Funktionen ligger dessutom och rullar i bakgrunden, vilket gör att man kan låta Amazon bevaka en sökning och hojta till när något nytt dyker upp som matchar. Men också ge notiser på när en produkt som man är sugen på åter är i lager eller reas.

I dagsläget är funktionen dock bara tillgänglig för en ”utvald” grupp användare i USA. Planen framåt är att fler amerikanska användare ska släppas in ”de närmaste månaderna”. När och om funktionen kommer till EU återstår att se.

Amazon launches personalized shopping prompts as part of its generative AI push | TechCrunch

Amazon continues to infuse AI into its shopping tools to encourage customers to make more purchases. The company announced on Wednesday a new feature Amazon launched a new feature called ”Interests,” aimed at creating a more personalized and conversational search experience.

TikTok Shop lanseras i Frankrike, Tyskland och Italien

Dags för TikTok att ta ett kliv in på Europas fastland. Efter Storbritannien är det nu dags för Frankrike, Tyskland och Italien att få plattformens shoppinglösning Shop.

Det är åtminstone vad uppgifter från Reuters nu säger. Att det är på gång vet vi, men enligt Reuters så kommer TikTok att slå upp sina Shop-portar i de här tre länderna på måndag.

Vi får helt enkelt se om det stämmer nästa vecka.

TikTok to launch TikTok Shop in France, Germany, and Italy | TechCrunch

TikTok is set to expand its TikTok Shop e-commerce platform to users in France, Germany, and Italy on Monday, Reuters reports. TikTok Shop has been

 

Strömmade medier

Youtube ändrar hur visningar räknas för Shorts

Google ändrar hur visningar räknas för Shorts, Youtubes TikTok-klon.

Så här långt har det krävts några sekunders tittande (fyra sekunder verkar vara konsensus kring vad som gällde) innan en visning registreras. Men från och med nu börjar visningar räknas direkt när en short börjar spelas. Det räcker att den överhuvudtaget visas för att man ska få en pinne.

Visningarna kan med andra ord gå upp för de som använder Shorts, men det behöver alltså inte betyda att man har fått fler tittare eller att innehållet fungerar bättre. Bara att Youtube räknar på annat sätt.

För den som föredrar det gamla sättet att räkna, eller vill kunna jämföra historiskt, så byter fyrasekunderstittandet namn till ”engaged views” (fast man får gräva lite i Youtube, i och med att det ligger under ”Advanced Mode” i Youtube-verktyget). Så lite samma språkterminologi som i Google Analytics.

YouTube is changing what a ’view’ means for YouTube Shorts

YouTube will now count views on YouTube Shorts based on viewers who come across the content.

 

AI – artificiell intelligens

Googles AI-bot Gemini får stöd för livekamera

Ny funktion på väg ut till Googles ChatGPT-utmanare Gemini: den har nu lärt sig se genom mobilkameran.

Det är ungefär samma funktion som även har dykt upp hos konkurrenter. Peka mobilens kamera mot något och prata med Gemini om det som syns i realtid, utan behov att att ladda upp en bild eller en video.

Dessutom har nu även Gemini fått stöd för att se mobilens skärm, så att man på ungefär samma sätt kan ställa frågor till Gemini om det som visas på den.

Däremot är funktionen just nu bara tillgänglig för den som betalar för Gemini Advanced. Men den lär säkerligen komma även till gratiskonton vad det lider.

Google is rolling out Gemini’s real-time AI video features

Google has begun rolling out Project Astra features to Gemini Live, letting Gemini ”see” smartphone owners’ screens or what they point their cameras at.

Google släpper Gemini 2.5 Pro

Google steppar upp sitt AI-game ytterligare. Nu släpps Gemini 2.5 Pro. En ny värsting i Google Gemini-AI-språkmodellsfamilj.

Och som vanligt ska den vara vassare än föregångarna och konkurrenterna. Åtminstone enligt Googles egna tester. Och den ska vara särskilt bra på mer komplexa uppgifter. Även den.

För att få tillgång till 2.5 Pro, som har ”experiment”-etikett, krävs att du betalar för Gemini Advanced-abonnemanget.

Google launches Gemini 2.5 Pro, its ’most intelligent AI model’ yet

Google announced the release of Gemini 2.5 Pro, their ’most intelligent AI model’ yet with built-in thinking for your most complex tasks.

Googles videoskaparapp Vids får AI-röster

Google dunkar ut AI-nyheter den här veckan. Ja, eller… det gör de väl varje vecka. Men den här veckan inleddes med en rejäl AI-rivstart för företaget. Som att Googles videoskaparapp får AI-röster.

Det är Google Vids som får det nya stödet. Den funkar som AI-tjänster gör mest, där innehåll skapas utifrån instruktioner. I det här fallet är det video som är formatet för det skapade innehållet. Komplett med föreslagna mediefiler, text, manus och bakgrundsmusik.

Och nu får Vids alltså AI-röster. Automatiskt. Google lägger helt enkelt automatiskt till ett kommentarsspår i de scener som skapas. 

Däremot måste man inte nöja sig med det som Google föreslår. Det går fint att justera röstspåret på olika sätt.

Vids kan däremot (som de flesta av Googles AI-tjänster) bara engelska. Så det blir inte möjligt att välja svenska röster. Och precis som innan krävs det att du betalar för Workspace, Googles eget Office-paket, för att komma åt Vids.

Google Vids Can Now Generate AI Voiceovers in Each Scene

Announced last week, the Mountain View-based tech giant is now adding AI-powered voiceovers to its ’Help me create’ feature.

ChatGPT blir betydligt bättre på att skapa bilder

Ännu ett funktionslyft i ChatGPT. Den här gången handlar det lite om att bända loss lite av grundplåten och löda dit en förbättrad version. ChatGPT har nämligen blivit betydligt bättre på att skapa bilder.

Vad det handlar om är att Open AI byter ut den teknik som är motorn i ChatGPT:s bildskapande. Fram till nu har ChatGPT outsourcat bilderna till Open AI:s Dall-E-modell. Den som togs fram specifikt för att skapa just bilder.

Nu har stafettpinnen gått vidare till GPT-4o. Bilderna genereras med andra ord nu istället av samma språkmodell som den som är ”basmodellen” i ChatGPT. En modell som ha tränats på större volymer data – och framförallt annan slags data – än Dall-E. Det ska i sin tur innebära att den har en bättre ”förståelse” för världen och därför kan skapa bättre bilder.

Framförallt ser det ut som att den har blivit rejält mycket bättre på att hantera text i bilder, något som så här långt har känts lite som kvantfysik för de flesta AI-bildskapartjänster.

Men den verkar också ha fått ett lyft kring funktioner som sannolikt är mer praktiskt nyttigt för fler, som att skapa diagram och infografik. Att se hur bra den är i praktiken.

Intressant nog har även Open AI:s videoskapartjänst Sora fått stöd för bildhantering. Because det är klart.

Det nya stödet rullas ut nu för gratisanvändare och de flesta betalabonnemang. Enterprise och Edu får dock vänta lite. Tidplanen för den sistnämnda utrullningen är den alltid lika specifika ”snart”.

OpenAI announces native image generation in ChatGPT and Sora

OpenAI announced native image generation within ChatGPT. Here are the details.

ChatGPT:s nya bildskaparfunktion ”försenas” för gratisanvändare

En dag. Så länge kunde gratisanvändarna ”snart” se fram emot ChatGPT:s nya bildskaparfunktion. Nu har Open AI ”försenat” utrullningen till gratisanvändare.

Det var något dygn sedan som Open AI bytte ut motorn som skapar bilder i tjänsten. Istället för att, som det har varit så här långt, skicka iväg alla bildskaparfrågor till Open AI:s modell Dall-E – specialframtagen just för att skapa bilder – så är det nu GPT-4o som gäller. Det är alltså den ”basmodell” som gör allt annat i ChatGPT.

Poängen är att GPT-4o har tränats på betydligt mer – och bredare – data än bara bilder och har därför en bättre, tja, förståelse för världen. Det har visat sig att den är riktigt vass på att skapa bilder.

Men Open AI tog också bort ett antal skyddsmurar runt ChatGPT:s bildförmågor. Nu blir det helt plötsligt möjligt att skapa realistiska bilder på kändisar och bilder som innehåller våld. Och bilder skapade i samma stil som Studio Ghibli – en japansk animeringsstudio.

Och det var det sistnämnda som fick Open AI att dra i nödbromsen. Efter ”Studio Ghibli”-bilder skapade via ChatGPT vällde ut i sociala medier så fick Open AI kalla fötter. Upphovsrättskalla fötter. Inte så mycket att den skapar i samma stil som Ghibli har gjort sig kända för – det omfattas inte av upphovsrätt. Men för att kunna skapa det så måste modellen ha lärt sig det.

Med andra ord har Open AI – medvetet eller omedvetet – låtit GPT-4o (och säkert också föregångarna) träna på det materialet. Utan tillstånd eller ersättning. Och då är vi inne i betydligt mer av en gråzon när det kommer till upphovsrätt.

Open AI hoppas med andra ord minska risken att bli stämda och fällda för upphovsrättsbrott om de inte släpper in fler användare. Problemet är dock att den potentiella skadan bevisligen redan är gjord. Så det återstår att se om det här kommer att påverka ChatGPT ännu mer. Om det alltså kommer att kastas upp ännu fler skyddsväggar som säkerhetsbälte och krockkudde.

OpenAI’s viral Studio Ghibli moment highlights AI copyright concerns | TechCrunch

ChatGPT’s new AI image generator is being used to create memes in the style of Studio Ghibli, reigniting copyright concerns.

ChatGPT:s nya bildskaparfunktion är så populär att Open AI:s GPU:er smälter

Y’all done broke the ChatGPT.

OpenAI says ”our GPUs are melting” as it limits ChatGPT image generation requests

OpenAI is temporarily putting a rate limit on the number of image generation requests from users as it tries to make the AI-powered feature more efficient.

ChatGPT:s avancerade röstläge får en uppgradering

Kör du ofta ChatGPT:s avancerade röstläge, men stör dig på att boten avbryter dig lite ofta? Som att den är lite för snabb att svara när du pausar för att tänka på vad du ska säga härnäst? Nu uppgraderar Open AI sin bot så att den ska bli lite mindre hetsig.

Både gratisanvändare och betalande användare som kör röstläget ska nu drabbas av färre avbrott av den här typen. Ja, att man alltså inte måste säga allt man vill säga i ett enda snabbt flöde.

De som betalar får dessutom en ”förbättrad personlighet” i boten, som ska göra den ”mer direkt, engagerande, koncis, specifik och kreativ i sina svar”. Vilket inte alls känns som en onödigt lång uppradning av adjektiv för att beskriva förändringen.

OpenAI says its AI voice assistant is now better to chat with | TechCrunch

OpenAI has a new version of Advanced Voice Mode for paid users of ChatGPT that is more personable and interrupts people less often.

Open AI lägger till stöd för Anthropics integrationslösning MCP

Intressant drag från Open AI. ChatGPT-ägaren lägger nu till stöd för Multi Context Protocol (MCP). En integrationslösning som konkurrenten Anthropic har släppt som open source.

Vad är då MCP? Ett sätt för en språkmodell eller tillhörande AI-lösning att utföra uppgifter och handgrepp i externa system. Men också komma åt datan som finns där.

Nu är det som sagt var en open source-lösning, men ändå lite intressant att Open AI så snart lyfter in en lösning från sin förmodligen största fristående konkurrent.

Oavsett så kan det vara ett väldigt viktigt steg för AI-utvecklingen. Även Perplexity har lagt till stöd, vilket gör att vi kanske börjar se början på en integrationsstandard.

OpenAI adds support for Anthropic’s MCP LLM connectivity protocol – SiliconANGLE

OpenAI adds support for Anthropic’s MCP LLM connectivity protocol – SiliconANGLE

ChatGPT gör det möjligt att integrera interna datakällor

Ny funktion för ChatGPT:s Team-prenumeranter: möjlighet att lägga till ”interna kunskapskällor”. Vilket till att börja med konkret innebär Google Drive.

Vad det innebär är att ChatGPT får tillgång till ett teams Drive och användare kan sedan använda ChatGPT för att söka i eller ställa frågor om det materialet. Men också att ChatGPT på det sättet ska lära sig organisationens tonalitet och annat som är specifikt för en viss organisation eller del av en organisation.

Däremot fungerar det inte för personliga Drive-konton. Vi pratar Workspace-konton. Så med andra ord de Drive-ytor som är kopplade till Googles egen betal-Officepaketstjänst.

Älskar att ett exempel som Open AI själva tar upp är möjligheten att ställa frågor om vad förkortningar betyder. Det känns som en killerfunktion i rätt många organisationer…

Rullas ut för Team-användare nu och för Enterprise lite längre fram. Och som Open AI sa när de presenterade funktionen för några veckor sedan så är integrationer till fler tjänster på gång.

ChatGPT gets smarter: OpenAI adds internal data referencing

Users of ChatGPT Team can now add internal databases as references for ChatGPT, making the chat platform respond with better context.

ChatGPT chillar med emojisarna

Ha! Ett generellt funktionslyft och vässning av GPT-4o, ”basmodellen” i ChatGPT. Viktigaste förändringen? Färre emojis!

Claude testar en egen Deep research

Okej, det här är riktigt dåligt av ChatGPT-utmanaren Claude. Frågan är om det ens är lagligt.

En ny funktion har nu börjat testas. Compass. En Deep research-funktion. Som INTE heter Deep research?!

Skandal.

Utgår från att det kommer en anmälan till AI-domstolen vilken dag som helst.

Claude is testing ChatGPT-like Deep Research feature Compass

Claude could be getting a ChatGPT-like Deep Research feature called Compass. You can tell Claude’s Compass what you need, and the AI agent will take care of everything.

 

IoT – internet of things

Waymo genomför 200 000 obemannade taxiresor varje vecka

Ifall någon som är hyfsat intresserad av den digitala världen i allmänhet och Tesla i synnerhet har missat det så kommer Teslas nästa givna jättesuccé [sic!] att börja rulla i juni 2025 [sic!]. Och ja, det är det nog bara Elon Musk som tror. Och han har så här långt inte varit en auktoritet på Teslas egen tidslinje när det kommer till företagets självkörande teknik.

Men även om Tesla lyckas få till ett begränsat test med obemannade (men övervakade) taxibilar i Austin enligt plan så handlar det alltså om ett väldigt litet test. I skuggan av det så har Googles Waymo växt till en halvstor jätte på det här området med sin motsvarande tjänst.

Faktum är att Waymo numer genomför 200 000 obemannade (men även här övervakade) taxiresor varje vecka. Totalt 4 miljoner resor under 2024. Och det trots att tjänsten än så länge bara finns i San Francisco, Los Angeles, Phoenix och Austin.

Det innebär att Waymo nu gör dubbelt så många resor varje vecka som för ett halvår sedan. Och det ska bli ännu fler. Företaget har redan siktet inställt på tre städer till: Atlanta, Miami och Washington.

Waymo plans robotaxi launch in Washington, DC in 2026

Waymo says it will launch a robotaxi service in Washington, DC starting in 2026. The company says it will work with local leaders to change the law to allow for fully autonomous vehicles.

Kategorier
AI - Artificiell intelligens AR/VR IoT - internet of things Spaningar Strömmade medier

Digitala spaningar vecka 12 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Google Gemini får Kanvas- och podcastfunktioner

Googles ChatGPT-utmanare har levt lite i skuggan av framförallt ChatGPT, men även Claude. Men nu är det dags för nya funktioner! Som en som är… rakt av plockad från ChatGPT. Och heter exakt samma sak.

Kan inte låta bli att känna att AI-bolagen borde använda AI för att komma på namn som inte är exakt samma som det som konkurrenters exakt likadana funktion använder.

But I digress.

Vad det handlar om är att Gemini nu får en Kanvas-funktion. Det är helt enkelt en arbetsyta som visas till höger om chattrutan, så att du kan se förändringar du gör direkt där, istället för att behöva scrolla upp och ned i chattfönstret. Funktionen är dessutom bättre på att visualisera resultatet, som att visa upp ett spel som har skapats.

Google lägger också till en hemodlad funktion i Gemini: podcastfunktionen från Googles AI-anteckningsbokstjänst NotebookLM flyttar även den in i Gemini. Funktionen, AI Overview, är fortfarande densamma (till största del): ladda upp ett dokument och låt virtuella poddvärdar diskutera innehållet i form av just en podcast.

Finns begränsningar: Kanvas funkar bara i datorversionen av Gemini (rätt logiskt) och poddandet sker, precis som i NotebookLM, bara på engelska (även om källmaterialet kan vara på andra språk).

Å andra sidan är båda funktionerna tillgängliga även för gratis-Gemini-användare.

Google brings a ’canvas’ feature to Gemini, plus Audio Overview | TechCrunch

Google is bringing a new ’canvas’ feature to Gemini, the company announced, plus the Audio Overview feature from NotebookLM.

Google NotebookLM får mind map-funktion

Ny, kul funktion i Googles AI-anteckingsboktjänst NotebookLM: mind maps. Få Notebook att visualisera källdokument i form av interaktiva tankekartor.

Google lägger till AI-podcastfunktionen i Deep research

Kan du inte få nog av poddar? Är det ditt favoritformat för att ta till dig information? Nu kan du i så fall fylla på ditt poddliv med ännu mer innehåll. Google lägger nu till Audio Overviews i sin Deep research-funktion.

Audio Overviews föddes i Googles AI-anteckningsboksfunktion NotebookLM, där det blev möjligt att låta två virtuella poddvärdar diskutera innehållet i de källdokument som du laddade upp, exempelvis en pdf-rapport om något. Tidigare i veckan la Google till funktionen i vanliga Gemini – Googles ChatGPT-utmanare. Och nu är det också dags för företagets djupdykningsformat att få stöd.

Det innebär att du alltså kan skicka ut Googles AI-bot på djuplodade researcharbete på nätet och ställa samman en lång rapport om det du ville ha svar på, för att sedan låta Googles poddvärdar diskutera insikterna som kom fram.

Med tanke på att Deep research-rapporter, vilket är lite poängen, kan bli rätt långa så är det nog ett smart tillägg. De flesta som får fram en Deep research-rapport – oavsett på vilken plattform – ber nog sannolikt sedan samma AI-tjänst att sammanfatta hela rapporten i fem punkter. Här kan det då bli ”ljudpunkter”.

Google will let you make AI podcasts from Gemini’s Deep Research

Google will now let you generate AI podcast-like conversations based on Gemini’s Deep Research.

Google gör Gmail AI-algoritmstyrd

Kronologiska mejl? Såååå boring och ingen användning av AI. Så kan vi inte ha det! Tänkte Google.

Så nu får Gmail ett eget… algoritmflöde. Istället för ett kronologiskt flöde så sorteras mejlen baserat på en blandning av signaler, som datum, ”mest klickade mejl” och vanliga kontakter.

Men för den som inte vill låta Google hantera vilka mejl som syns i vilken ordning så går det att välja att fortsätta med Gmail Classic-uppställningen.

Gmail’s upgraded search results help you find the emails you want, faster.

If you’ve ever struggled with finding information in your overflowing inbox, you’re not alone. That’s why Gmail is rolling out a smarter search feature powered by AI to …

Googles Co-scientist behövde två dagar för att lösa ett vetenskapligt problem som det tog forskare 10 år att lösa

Djuputforskande, 3D-videoskapande och studsande bollar i hexagoner i all ära – här är AI-teknik som på riktigt gynnar mänskligheten. Forskare som på två dagar kunde lösa ett superbakterieproblem som hade tagit 10 år att lösa på vanligt (traditionellt) vis.

Det handlar om att forskarna hade brottats med frågan kring varför vissa superbakterier utvecklar immunitet mot antibiotika. Forskarna tog hjälp av Googles rätt sprillans nya funktion Co-scientist och gav den i uppdrag att lösa uppgiften. Två dagar senare hade den kommit fram till rätt svar. Ett svar som det alltså tog forskarna 10 år att komma fram till.

Poängen med Co-scientist är inte att den i sig ska lösa problem, utan ge förslag på en utmaning ska angripas vetenskapligt baserat på den forskning som finns tillgänglig. Den heter alltså vad den är, en kollega och ett bollplank.

Nu valde forskarna ett problem som de redan hade löst eftersom de ville testa medvetenskapsmannens funktionalitet. Däremot fanns inte forskarnas arbete publicerat och var därmed inte något som boten kunde använda sig av. Men trots det så var ett av förslagen som AI:n kom fram till det som forskarna hade landat i. Och som de sedan ansåg vara det ”rätta” svaret.

Så ja. Baserat på befintlig forskning och kunskap så var forskarnas slutsats (antar jag) den som är mest rimlig. Men det kan ju vara så att någon av AI:ns andra förslag egentligen var bättre – men att forskarna valde att inte bry sig om det eftersom AI:n svarade ”rätt”.

Det är alltså det vanliga problemet att det är vi människor som sitter vid ratten och styr. Och att vi kan göra dumheter trots alla tekniska varningssystem och hjälpmedel. Så visst finns det osäkerhetsfaktorer – även om forskarna garanterat har tagit till sig, utvärderat och kanske redan försökt de andra vägarna som AI:n föreslog.

Och ja: det är ju mycket tack vare att människor har forskat kring det här i hundratals år som gör att AI:n så snabbt kunde komma fram till sitt svar. Om AI:n hade tvingats jobba helt från scratch hade det säkerligen varit betydligt svårare.

Men oavsett: väldigt spännande användningsområde för AI. Överlag är väldigt mycket där AI – i olika former – används inom sjukvård och läkemedel väldigt spännande. Och kommer förhoppningsvis göra mycket för oss som art.

Scientists spent 10 years cracking superbug problem. It took Google’s ’co-scientist’ a lot less.

Scientists took 10 years to figure out how one type of superbug gains its ability to infect diverse bacterial species. When prompted, Google’s new AI ”co-scientist” gave them the answer in two days.

Claude lär sig söka på webben

Ännu en funktion i ChatGPT-utmanaren Claude. Nu har Anthropics AI-bot lärt sig söka på webben. Till sist. Även den.

Och, ja, det funkar sannolikt på samma sätt som hos konkurrenterna.

”Sannolikt” därför att jag inte har testat själv. Sökfunktionen finns nämligen inte i EU än. Eller i 167 andra länder. Med andra ord finns funktionen just nu bara i USA. Och bara för betalande användare. Och dessutom bara som en beta.

Gratisanvändare och ”fler länder” ska kunna Claude-söka på webben ”snart”.

Anthropic’s chatbot now has web search

Anthropic’s chatbot, Claude, is rolling out web search for U.S based subscribers.

Metas AI-bot rullas ut i EU

Nu har vi ännu en AI-bot att leka med. Åtminstone vi i EU. Meta AI rullas nu ut även här hos oss.

Den kommer att dyka upp i WhatsApp, Facebook, Instagram och Messenger.

Men det måste alltid finnas någon brasklapp. I det här fallet är det en strypt version som vi får. Åtminstone initialt. Meta AI EU edition kommer bara hantera textchattar. Inget besked än om när den får fler skills.

Modellen är heller inte tränad på EU-användares data, eftersom Meta valde att helt stänga av det. Meta är ju, som bekant, inte särskilt pigg på att fråga sina användare om samtycke.

Däremot kommer Meta AI inte till Metas smarta Ray-Ban-glasögon hos oss. Vilket är lite logiskt, eftersom vi bara får textversionen. Inte jätterelevant i just glasögon.

Meta AI is rolling out in Europe after all

Meta is launching its AI assistant across WhatsApp, Facebook, Instagram, and Messenger in Europe and overseas territories.

Metas AI-modeller har nu laddats ned över 1 miljard gånger

1 miljard gånger. Eller till och med över 1 miljard. Så många gånger har Metas Llama-AI-modeller nu laddats ned.

Det är upp från 650 miljoner i början av december förra året. Eller en ökning på över 50 % under ett kvartal.

Mark Zuckerberg says that Meta’s Llama models have hit 1B downloads | TechCrunch

Mark Zuckerberg says that Meta’s Llama models have hit 1 billion downloads, up from around 650 million downloads as of December 2024.

Mistral släpper ny open source-AI-modell

Jag erkänner att jag numer har skitdålig koll på alla olika AI-modeller som de olika AI-bolagen trycker ur sig. Särskilt som de numer också bjuder på mer än en familj av AI-modeller var. Men oavsett det är det nu dags för franska Mistral att bjuda på ännu en: Mistral Small 3.1.

Jag ska inte säga att jag heller har plåtkoll på det tekniska i modellerna som kommer, men den här ska tydligen vara en förhållandevis liten rackare som trots det kan matcha modeller som på pappret borde vara vassare och mer kapabla. Dessutom släpper Mistral sin modell som open source under Apache 2.0-licens.

Mistral verkar ha lyckats tweaka effektiviteten i modellen, vilket numer kanske är det viktigaste för AI-utvecklingen. Och inte bara för att Deepseek gav världen skrämselhicka just eftersom de enligt de egna beskeden tog fram sin modell billigare och mer effektivt än konkurrenterna. Med tanke på att världen bokstavligen börjar få slut på data att träna sina modeller på så blir det ännu viktigare att, tja, arbeta smartare och inte… större.

Sen ska vi förstås heller inte glömma det faktum att Mistral alltså är franskt. Nog så viktigt med tanke på att vi ser ut att behöva hitta allt fler alternativ till amerikanska lösningar.

Mistral AI drops new open-source model that outperforms GPT-4o Mini with fraction of parameters

France’s Mistral AI launches efficient open-source model that outperforms Google and OpenAI offerings with just 24 billion parameters, challenging U.S. tech giants’ dominance in artificial intelligence.

Grok-API:et får bildskaparskills

Ny funktionalitet i Grok. I API:et, närmare bestämt. Elon Musks AI kan nu skapa bilder API-vägen.

Med tanke på att ägarbolaget xAI dessutom köpte ett AI-videobolag bara häromdagen så kan vi nog anta att det också är en funktion som kommer att dyka upp i API:et vad det lider.

xAI launches an API for generating images | TechCrunch

Elon Musk’s AI company, xAI, has added image generation capabilities to its API.

Roblox släpper AI-modell för att skapa 3D-objekt

Klart att även spelplattformen Roblox håller på med AI. Nu har företaget släppt Cube, en modell som kan skapa 3D-objekt genom textpromptar.

Och i enighet med det som blir en allt starkare trend inom AI-utvecklingen så är Robloxs lösning open source, så att vem som helst alltså kan anpassa modellen, skapa pluginer till den eller fylla den med egen data.

Roblox releases its open source model that can create 3D objects using AI | TechCrunch

Roblox announced Monday that it’s launching the first iteration of its 3D model, dubbed ”Cube,” to allow creators to create 3D objects using generative Roblox launched its 3D model, ”Cube,” to allow creators to create 3D objects using generative AI.

Apple petar chefen för företagets AI-satsning

Apples AI-initiativ har drabbats av rejäl motvind. Företagets stora AI-flaggskeppssatsning – en smartare och mer kapabel Siri – har exempelvis skjutits upp till (sannolikt) nästa år. Om ens då.

Det beskedet var en stor anledning att Apple-aktien senaste veckan eller så har åkt på rätt mycket stryk. Och nu verkar det som att Tim Cook och resten av ledningen börjar tappa tålamodet.

Enligt uppgifter har nu John Giannandrea petas som chef för Apples Siri-team. Istället ska det nu vara Mike Rockwell som tar över. Vem är då Rockwell? Han har lett (och fortfarande leder?) den avdelning som har arbetat med Apples vardagsrumscyklop Vision Pro.

Nu är det väl kanske inte helt och fullt Rockwells fel att Vision Pro inte har blivit en fantastisk försäljningssuccé, men det är ändå lite anmärkningsvärt att Apple väljer en chef från en inte helt framgångsrik produktavdelning att leda det som lär vara företagets mest prioriterade område just nu.

Vision Pro Creator Taking Over Siri After Apple Intelligence Setbacks

Apple is reportedly shaking up its executive ranks, shortly after it delayed the personalized Siri features that it previewed at WWDC last year. …

Cloudflare skyddar sajter från AI-botar med fejkade labyrinter

Cloudflare är företaget som en stor del av alla internetanvändare kommer i kontakt med varje dag, men så förmodligen inte särskilt många trots det har hört talas om. Cloudflare har två ben: dels att skydda sajter mot exempelvis överbelastningsattacker och dels att snabba på sajter genom effektivare lösningar för att hantera saker som bilder och videos.

Men Cloudflare har också valt att ställa sig på sajtägares sida mot AI-bolag som vill dammsuga internet på en massa träningsdata utan att be om lov eller betala för sig. Här är senaste initiativet: en lösning som lurar in AI-botar i fejkade labyrinter.

När Cloudflares teknik identifierar en AI-bot som serveras boten en fejkad version av sajtinnehållet. Det är innehåll som känns relevant och korrekt – men som har väldigt lite eller inget att göra med sajtens faktiska innehåll. Så boten tror att den tränar på korrekt innehåll och lämnar sajten glad i hågen efter avslutat uppdrag.

Det som Cloudflare dessutom ska ha applåd för är att innehållet som skapas inte bara är vilket random nonsensinnehåll som helst. Det ska framförallt inte vara saker som sprider desinformation och falska fakta.

Ett väldigt intressant upplägg och ännu en anledning till att AI-bolagens nuvarande affärsmodeller – att sno innehåll utan att betala och sedan ta betalt av sina egna slutkunder – på sikt sannolikt inte är hållbar. Blir intressant att följa hur Cloudflares lösning kommer att fungera i praktiken – och hur effektiv den är.

Cloudflare turns AI against itself with endless maze of irrelevant facts

New approach punishes AI companies that ignore ”no crawl” directives.

Perplexitys stora nyhet var… en reklamfilm

Äntligen vet vi svaret! Ja, på… svaret. Före helgen hintande AI-söktjänsten Perplexity om att något skulle presenteras idag 17 mars. Via ett kort klipp som andades… en aning Squid Game. Komplett med huvudrollsinnehavaren Jung-Jae Lee.

Och nu har ridån fallit! Det som vi har suttit och väntat hela helgen på var…

* trumvirvel *

* en trumvirvel till *

EN REKLAMFILM! För… Perplexity.

Och det är inte ens Superbowl.

(Jag utgår från att Jung-Jae åtminstone är helt AI-skapad. JÄVLIGT bra AI-skapad, dessutom. Allt annat vore en besvikelse.)

When you need to get it right, ask Perplexity. | Perplexity | 176 comments

When you need to get it right, ask Perplexity. | 176 comments on LinkedIn

 

Strömmade medier

Spotify får nya funktionen Concerts near you

Kors i taket. En Spotify-nyhet som handlar om… musik? Undrens tid är tydligen inte förbi.

Den här gången är det dessutom en funktion som känns riktigt smart: Concerts near you. Som är exakt vad det låter som: en spellista som bjuder på låtar med artister som ska spela nära dig. Komplett med information om konserten och länkar till biljettförsäljningen.

Och precis som övriga personaliserade spellistor så ska den anpassa vad som lyfts fram baserat på vad du gillar att lyssna på.

Nu är det förstås inte varenda liten konsert i stan vi pratar om. Spotify har slutit avtal med stora biljettplattformar som AXS och Ticketmaster.

Spotify debuts ’Concerts Near You’ playlists for discovering nearby shows | TechCrunch

On Wednesday, Spotify launched a new personalized playlist designed to help listeners discover upcoming concerts in their area. The playlist, titled Spotify launched a new personalized playlist, ”Concerts Near You,” to help listeners discover upcoming concerts in their area.

 

IoT – internet of things

Boston Dynamics robotar lär sig att breakdansa

Där kom det. Peak robot. Nu har Boston Dynamics lärt sina robotar att breakdansa.

Walk, Run, Crawl, RL Fun | Boston Dynamics | Atlas

In this video, Atlas is demonstrating policies developed using reinforcement learning with references from human motion capture and animation. This work was done as part of a research partnership between Boston Dynamics and the Robotics and AI Institute (RAI Institute). #BostonDynamics #ReinforcementLearning #RLPolicy

 

AR/VR

Snap Spectacles får stöd för GPS-data och virtuellt tangentbord

Ny funktionalitet i Snaps AR-glasögon Spetacles: stöd för GPS-data och virtuellt tangentbord.

Vi pratar alltså om saker som känns, tja… hyfsat basala i den här sortens produkter. Men det största nyheten handlar oavsett om att Spectacles alltså blir medvetna om sin omgivning. Det går alltså att lägga in användarens plats som parameter. Exempelvis för att bygga spel eller för att låta en app hantera navigering.

Utöver det så får Spectacles också ett virtuellt tangentbord, för att förenkla handgrepp där tangenttryckande är relevant. Och på tal om hand så får Spectacles dessutom förbättrad handspårning, för att ännu mer naturligt få in det i AR-appar.

Däremot är senaste Spectacles-generationen fortfarande inte en produkt för konsumenter. Den vänder sig fortfarande till AR-utvecklare för att de – ironiskt nog – ska kunna skapa bättre AR-appar för mobilen. Enda sättet att lägga vantarna på ett par av de Spectacles som får den nya funktionaliteten att betala för att ingå i Snaps utvecklarprogram.

Men med tanke på att Meta har fått en oväntat stor hit med sitt Ray-Ban-samarbete så misstänker jag att Snap är VÄLDIGT sugna på att försöka med ett par konsument-Spectacles igen.

Snap’s AR Spectacles now support a virtual keyboard and GPS

Snap’s augmented reality Spectacles now include improved hand-tracking, a virtual keyboard, and access to location data so they can show you where to go.

Kategorier
AI - Artificiell intelligens IoT - internet of things Spaningar

Digitala spaningar vecka 11 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Manus – ny kinesisk AI-agentslösning (som kanske eller kanske inte är skitvass)

Ännu en AI-lösning som åtminstone på pappret ser väldigt intressant och kraftfull ut: Manus.

Det ser ut att vara en tjänst kombinerar det som finns i ”nästa steg”-AI-tjänster. De som har med ”agentnånting” i beskrivningen. Kort sagt att AI-modellen och tillhörande tjänst kan utföra hyfsat långtgående uppgifter på egen hand – som Open AI:s (och typ alla andras) Deep Research-funktioner.

Men Manus ser också ut att vara vass på att såväl kodning som att ”surfa på nätet” och utföra handgrepp där. Med den sedvanliga brasklappen att det är en kinesisk tjänst.

En tjänst som, precis som Deepseek, har byggt vidare på vad andra har gjort (dessutom ser den överlag ut att vara byggd på Claude och en av Alibabas nya modeller). Ingen slump att open source tackas i videon som presenterar Manus. Men också positivt att Manus tänker ge tillbaka genom att själva dela med sig av sin vidareutveckling (åtminstone av ”några modeller”, så vi får väl se hur pass öppna de kommer att vara).

Manus har redan hyllats av flera jag har sett. Men den verkar (förstås) också ha en del problem. Att den kraschar under uppgifter, överlag tar lång tid på sig och även den har svar som ibland är en bit från verkligheten. Den verkar också ha problem med några agentlöftena, som att den har problem med att utföra uppgifter på sajter.

Så i säljpitchen guld och gröna skogar rakt igenom. I verkligheten mellan skitvass och smått oduglig, beroende på vad du vill att Manus ska göra.

Manus är en så länge en stängd beta, så får du inte tag i inbjudningskod från någon som har får du snällt skriva upp dig på väntelistan. Och med tanke på att några av problemen säkerligen har med kapacitet att göra så kan det hända att det kommer ta ett tag innan du släpps in.

#agents | Oliver Molander | 47 comments

Quite confident that China’s second DeepSeek moment is here 🤔 The AI agent 'Manus' went crazy viral in China earlier this week and is now making waves in the… | 47 comments on LinkedIn

Google släpper AI-modellen Gemma 3

Ska säga att jag numer har allt sämre koll på vilka AI-modeller som gäller för de olika AI-företagen. Särskilt som de numer inte bara har en familj modeller. Och de olika familjerna och de olika familjemedlemmarna är bra på olika saker och har olika förutsättningar.

Nu har Google släppt ännu uppgraderad del i sin AI-flora: Gemma 3. Googles samling ”öppna” modeller, till skillnad från de låsta Gemini-modellerna. Fast, ja, de är bygga på samma grundteknik någonstans i botten.

Men oavsett. Ännu en model som hoppar upp de jämförelsetester som finns. Och som kanske för normala människor blir allt mindre relevanta. Eftersom, tja, modellerna numer börjar bli så bra att förbättringshoppen blir allt mindre.

Anyho. Gamma 3 ska ha ”avancerade text- och bildresonerande förmågor”. Och den frasen låter förmodligen precis lika krystad på engelska. Gemma 3 har dessutom stöd för 35 språk från ska ha tränats på 140 språk.

För den som vill testa finns Gemma 3 i Googles verktygslåda AI Studio eller som nedladdningsbar modell hos bland annat Hugging Face.

Google announces Gemma 3 as ’world’s best single-accelerator model’

Following version 1 in February 2024 and 2 in May, Google today announced Gemma 3 as its latest open model…

Gemini börjar träna på din Google-sökhistorik

Vill du att din egen AI-bot ska ha koll på precis allt om dig? Låt den träna på din Google-sökhistorik! Precis det blir nu möjligt i Googles ChatGPT-utmanare Gemini.

Det handlar om att den version av Gemini som heter Flash Thinking Experimental nu kan använda just Google-sökhistorik som datakälla för ytterligare personalisering. Och med tanke på att vissa vid här laget har en AI bokstavligen talat som sin bästa vän och förtrogen så känns det helt rimligt.

Google inser att det här dock kanske inte är något som alla vill ha, så det krävs att man som användare själv slår på den funktionen.

Utöver det så uppgraderar Google sin Deep Research-funktion (den som kan sammanställa mer omfattande rapporter utifrån en fråga) med Gemini 2.0. Den får helt enkelt en moderna AI-modell under huven, som enligt Google ska ge ett ”högre kvalitet” på resultatet.

Deep Research kommer även bli tillgängligt för gratisanvändare, åtminstone ”några gånger i månaden”. Så precis som konkurrenterna blir gratistaket lågt.

Sist men inte minst lägger Google till Gems i gratis-Gemini-konton.  Det är ungefär motsvarigheten till ChatGPT:s GPT:er. Alltså anpassade chattbotar som man kan sätta upp för en specifik uppgift eller ändamål.

Google’s Gemini AI can now see your search history

Gemini can do more with your data if you let it.

Open AI:s AI-agent Operator släpps i Sverige

Ny Open AI-funktion: Operator. Ja, eller ny och ny – Open AI:s AI-agentsfunktion släpps nu i Sverige och resten av EU. Nu kan alltså även vi låta Open AI:s bot styra vår webbläsare och på så sätt utföra uppgifter på internet.

(Vi fick vänta 3 olidliga, smärtsamma, ångestframkallande veckor jämfört med större delen av världen. Så ni förstår hur avgrundsoändligt långt efter vi nu har halkat.)

Bara att tuta och köra! Ja, med den lilla bagatelltilläggsdetaljen att du måste ha ha ChatGPT:s rätt snordyra Pro-abonnemang för cirkus 2000 spänn i månaden för att få tillgång till Operator.

Open AI släpper nya verktyg för att skapa AI-agenter

Nytt verktyg från Open AI. Och det handlar förstås om AI-agenter. Via nya API:et Responses så kan företag och organisationer bygga AI-agenter som kan ”söka på webben, scanna företagsdokument och naverigera på sajter”.

Det är alltså en API-version av företagets Operator, den funktion som kan använda webbläsare ungefär som en människa och därmed använda internet för att utföra handgrepp.

Det nya API:et ersätter Assistants-API:et som kommer att skrotas första halvan av 2026.

OpenAI launches new tools to help businesses build AI agents | TechCrunch

OpenAI has released a slew of new dedicated tools designed to power AI ’agents,’ including a new API and SDK.

Open AI och Google vill att Trump ska låta dem fritt träna AI-modeller på upphovsrättsskyddat material

Ni vet hur de flesta stora amerikanska techbolag har böjt sig väldigt långt bakåt (eller framåt) för att göra Trump på gott humör? Som att Sam Altman lyckades så sändningstid tillsammans med Trump för att berätta om att Open AI och Softbank ska plöja ned 500 miljarder i AI-infrastruktur i USA? (Att de alltså med andra ord lät Trump ta åt sig äran för investeringar som bolagen sannolikt hade gjort ändå för att gynna sin egen business.)

Nu är det payback time. Ja, nu vill Open AI och Google åtminstone att Trump ska undanröja en massa hinder som ligger i vägen för just den businessen. 

Open AI vill framförallt att Trump ska döda alla lagförslag och stämningar på upphovsrättsområdet. Open AI vill att det ska vara ”fair use” att hälla ned allt innehåll som någonsin har skapats i kommersiella produkter utan att behöva betala för det (men däremot ta betalt av sina kunder).

Google hakade senare på och konstaterade ungefär samma sak.

Men inte bara det: Open AI vill också att ska förbjuda Deepseek – som av en händelse en konkurrent – eftersom de är ”statssubventionerade” och ”statskontrollerade”. De är därmed en säkerhetsrisk, såväl när det kommer till integritet som (kan vi tänka) nationell säkerhet. Because nationella säkerhet. Men framförallt finns det en stor risk att Deepseek annars kan utföra ”stöld av immateriella rättigheter”.

Också helt orelaterat: det ser ut som att Deepseek till stor del byggde sin egen R1-modell genom att basera den på Open AI:s modeller.

Så. Ni vet. USA:s president ska alltså dels säkerställa att amerikanska AI-bolag får stjäla hur mycket som helst från andra och dels säkerställa att ingen kan sno från de amerikanska AI-bolagen.

En logik som är 100 % 2025.

OpenAI calls DeepSeek ’state-controlled,’ calls for bans on ’PRC-produced’ models | TechCrunch

In a proposal, OpenAI describes DeepSeek as ’state-controlled,’ and recommends banning models from it and other PRC-affiliated operations.

Google Gemini 2.0 Flash lär sig skapa bilder

Ännu en AI-modell får bildskaparskills. Den här gången Googles Gemini 2.0 Flash. Som dessutom ska vara bra på att faktiskt peta in text i bilder – något som visat sig vara kvantfysik för de flesta (alla?) AI-bildskapare. Ni vet, att de inte ens lyckas skriva ut exakt den text man ber om i en bild.

Den som vill testa nya funktionen kan däremot inte bara dra igång Gemini på webben eller i appen. Bildfunktionen finns nämligen just nu bara tillgänglig i Googles AI Studio eller via Geminis API.

Experiment with Gemini 2.0 Flash native image generation

Developers can now test experimental image output generation with Gemini 2.0 Flash via the Gemini API in Google AI Studio.

Perplexity goes Squid Game

Vad har AI-sökmotorn Perplexity och den haussade Netflix-serien Squid Game gemensamt? Bra fråga! Nästa vecka får vi svaret.

Perplexity har nämligen lagt upp en en kort video med Squid Game-huvudrollsinnehavaren Lee Jung-Jae, med ett enda budskap: 3-17-25. Som vi nog kan anta betyder 17 mars 2025.

(Visst, videoklippet handlar inte specifikt om Squid Game, men att Jung-Jae är med och slutar med att han kliver in i en korridor med dörrar gör att det känns… rätt sannolikt att det är serien som Perplexity ger en blinkning.)

3-17-25 | Perplexity | 81 comments

3-17-25 | 81 comments on LinkedIn

 

IoT – internet of things

Google Assistant går formellt i graven

Nästa år är det dags för Googles röstassistent Assistant att fira tio år. Ja, eller det hade varit det – om Google nu inte gått ut med att Assistant formellt går i graven senare i år.

Google Assistant är av de assistenter som bidragit mest till den utveckling som nu kliver upp på en ny platå tack vare nya AI-förmågor. Vassare än Siri och med en bredare palett än Alexa har Google Assistant blivit en hyfsat etablerad funktion för de flesta som kör hela eller delar av Googles Androidversum.

Google har redan börjat ersätta Assistant och det har ett tag nu officiellt hetat att Gemini kommer att ersätta Assistant. Google väljer alltså inte Apples väg – att behålla assistentvarumärket och (när det nu blir) utrusta det med mer AI-smartness – utan börjar om helt på ny kula.

Tidigare har vi däremot inte haft en jättetydlig indikation på när det kan bli, men senare i år ser det ut som att Assistant inte längre kommer gå att ladda ner och använda.

Däremot kan Assistant som aktiv assistent vad det verkar ändå få uppleva sitt tioårsjubileum, även om det blir i liten och oglamorös skala. Google Assistant kommer nämligen finnas kvar i äldre Android-mobiler (de som kör Android 9 eller äldre) och i de mobiler som inte har 2 GB RAM-minne att leka med.

Google is officially dumping Assistant for Gemini

Google is moving on from Google Assistant in favor of Gemini. The company will be upgrading more users from Google Assistant to Gemini and says that the classic Google Assistant ”will no longer be accessible on most mobile devices” later this year.

Google ger sig in i AI-robotracet

Google, mer specifikt AI-dotterbolaget DeepMind, ger sig nu in i AI-robotracet. Företaget har släppet två nya Gemini-modeller som har robotar som specifikt ändamål.

De båda modellerna, Gemini Robotics och Gemini Robotics-ER, är baserade på Gemini 2.0. Robotics är enligt Google själva deras ”mest avancerade vision-language-action-modell”, som ska göra det möjligt för robotar att utföra ”fler uppgifter i den verkliga världen än någon gång tidigare”. Robotics-ER å sin sida låter ”robotar köra sina egna program”, med stöd för det nu så trendiga resonerandet inom AI-modeller.

Det återstår däremot att se när de båda modellerna – och framförallt robotar som är bestyckade med dem – dyker upp i större skala. I dagsläget testas modellerna med ”partners och utvalda testare”.

Google Is Sticking Gemini 2.0 Into Robots Now

DeepMind has announced Gemini Robotics, a model specifically designed for real-life robots with articulate hands.

Meta lyxmodesamarbetar kring sina smarta Ray-Ban-glasögon

Dags för en ny första för Meta. Företagets första samarbete med ett modeföretag. Enligt Meta själva.

Och det är passande nog ett samarbete kring ett samarbete. Mer specifikt är det att Metas smarta Ray-Ban-glasögon nu släpps i en begränsad, ny utgåva i samarbete med modemärket Coperni.

Ett lyxsamarbete kan man säga. 3600 exemplar släpps idag för 549 dollar istället för vanliga prislappen 299.

Och vad får man då för det? En lite annorlunda, transparent design på skalmarna. Och en Coperni-logga.

Metas Ray-Ban-bågar har visat sig bli en oväntad hit försäljningsmässigt. Så inte oväntat att de nu vill försöka mjölka dem ytterligare.

Ray-Ban Meta AI glasses go high fashion with Coperni limited edition

Meta has tapped Coperni on its first-ever fashion-branded collaboration for the limited-run edition of the Meta Ray-Ban AI smart glasses priced at $549.

Apples smarta hem-prylar kan försenas på grund av AI-strul

I förra veckan bekräftade Apple att företags stora AI-initiativ försenas. Nu ser det ut som att dominobrickorna faller på andra saker som Apple har planerat. Som den nya, förväntade satsningen på smarta hem.

Apples AI-plattform Apple Intelligence har redan hunnit med att skjutas upp några gånger. Från att de först skulle komma i och med lanseringen av senaste iPhone-modellerna så flyttades några funktioner fram till slutet av året. Som sedan blev början av det här året. Som sedan blev Q2. Och som nu sannolikt är… nästa år.

Det vi har fått så här långt har varit rätt små AI-funktioner (och någon har redan hunnit dras tillbaka på grund av att haverier). Apples flaggskeppssatsning med en riktigt smart och kapabel Siri har vi däremot inte sett röken av än. Och det är den som Apple nu säger ska komma ”under det kommande året”. Och den formuleringen lär tyda på att det blir aktuellt först 2026.

Och det leder till frågetecken kring en annan stor, förväntad push från Apple som såg ut som ett som företaget har stora förhoppningar på: prylar för det smarta hemmet. Alltså dedikerade prylar, som säkerhetskameror och hubbar för att styra ungefär allt.

Vi vet ännu inte ens OM Apple har tänkt släppa den här typen av produkter. Men mycket har pekat på det. Frågan är nu om Apple ändå går vidare med lansering av helt nya hårdvarukategorier avsedda att bestyckas med AI-uppgraderad Siri, eller om de kommer att skjuta upp även dessa.

Apple’s rumored smart home hub has reportedly been delayed

According to Bloomberg, the smart home product has been postponed due to the delayed arrival of Apple’s Siri upgrade.

Airpods kan få realtidsöversättning

Apple gör som Apple gör mest. Gör som de flesta andra, fast senare. Ännu en gång.

Mer specifikt handlar det om uppgifter som säger att Apples Airpods-lurar nu till sist också kan få realtidsöversättning. Så att det alltså går att föra en konversation i realtid med en annan människa, utan att man har ett gemensamt språk och utan att det krävs mer än just bara Airpods.

Ja, det är åtminstone så det är tänkt att fungera. Men det bygger förstås på att även den andra parten har liknande utrustning. Eller att man delar en av lurarna med den man vill förstå.

Men den större frågan är hur pass mycket det här är kopplat till Apples övergripande AI-satsning. Rätt mycket, sannolikt. Och med tanke på att den stora funktionen här – en smartare Siri – enligt Apple har försenats (sannolikt till nästa år) så kan det betyda att vi får vänta ett tag på översättningsbara Airpods.

Och då har vi inte ens börjat fundera på vilka språk som kan vara aktuella. Svenska är sannolikt inte ett av språken som är först ut när/om funktionen väl landar.

Apple is reportedly bringing live translation to AirPods

Apple is planning to bring live translation to the AirPods with iOS 19 later this year, according to a report from Bloomberg.

Kategorier
AI - Artificiell intelligens IoT - internet of things Spaningar

Digitala spaningar vecka 7 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Schibsted inleder samarbete med Open AI

And so it begins. Schibsted inleder samarbete med ChatGPT-ägaren Open AI. Och blir därmed det första nordiska mediehuset som gör det.

AI-bolagen – Open AI inte minst – byggde sina modeller och verksamheter på att dammsuga internet efter innehåll. Utan att be om lov från dem som satt på innehållet och utan att ersätta dem. Även upphovsrättsskyddat material.

När företag med mycket innehåll på internet, som tidningar, upptäckte det här nya värdet i sitt innehåll så började de blocka AI-bolagens botar från att träna på deras innehåll. Något som är förödande om din business bygger på tjänster som kräver en ständig påfyllning av nytt innehåll för att kunna fungera och utvecklas.

Lägg till att det också har börjat knorras från politiskt håll om det här sannolika övergreppet mot internationell upphovsrätt och det börjar bli jobbigt för AI-bolagen på riktigt.

Därför har den här typen av företag, inte minst Open AI, börjat shoppa upp rättigheter att få träna på innehåll i utbyte mot stora högar pengar. När Open AI nu dessutom vill att ChatGPT ska bli din förvalda sökmotor så blir det ännu viktigare med korrekt, relevant och uppdaterat innehåll.

Jättehögen pengar som Schibsted nu har fått ger Open AI träningstillgång till företagets titlar, som Svenska Dagbladet och Aftonbladet. Utöver pengarna så får Schibsted dessutom tillgång till ”Open AI:s insikter” och ”dess nya teknik”.

Schibsted Media partners with OpenAI | Schibsted

Schibsted Media and OpenAI, a leader in artificial intelligence and deployment, have today announced a strategic partnership designed to incorporate Schibsted Media’s fact-based journalism into Open AI’s services. Schibsted Media will also get access to OpenAI’s insights and access its new technology. The partnership will mean OpenAI can integrate real-time

Open AI vill förenkla ChatGPT med GPT-5

För ett par veckor skrev jag att ChatGPT håller på att kollapsa under sin egen bloatighet. Eller Googleighet. Eller bara rörighet. Open AI verkar ha läst och tagit åt sig av det jag skrev.*

Idag fick vi en tidslinje för GPT-4.5 och GPT-5 – alltså nästa generation av den grundteknik som driver just ChatGPT. Och den kommer om ”weeks / months”. Och, ja, det säger ju absolut ingenting. Annat än att GPT-4.5 kommer tidigare än GPT-5. Vilket vi kinda hade kunnat räkna ut själva.

Men de goda nyheterna är alltså att Open nu kommer att göra något åt det allt mer komplicerade interaktionsupplägget i ChatGPT. Där användare måste välja modeller och slå webbsöken på/av. Ja, om modellen har stöd för webbsök. Och om modellen har stöd för filuppladdning. Och om en modell kan kombinera saker.

Plus att vi som känner för att vara lite retro fortfarande kan använda ”föråldrade” modeller.

Nu ser det alltså ut som att Open AI kommer att ta fram en lösning som mer anpassar sig efter människor snarare än att bygga på att människor måste gå kurs för att förstå gränssnittet och inställningarna. ChatGPT ska själv kunna avgöra vad som behövs när för att lösa vilken uppgift.

Alltså ungefär samma princip som Apple har valt för sin Apple Intelligence, där modellen själv kan levla upp vid behov.

Det kan med andra ord bli så att GPT-4.5 och/eller 5 snarare handlar om att städa upp och lära ChatGPT att göra mer av jobbet åt användaren snarare än att modellen blir sjukt mycket bättre än idag. Vilket också är i linje med allmänna utvecklingskurvor som visar att språkmodeller inte längre gör lika stora förbättringshopp mellan versioner. Eller rättare sagt: där det börjar kosta för mycket för förhållandevis små förbättringar. (4.5 ska dessutom vara Open AI:s sista ”icke-resonerande” modell.)

Dessutom lovande att GPT-5 kommer göra att gratisanvändare kommer att kunna få ”obegränsad chattillgång” för ”standardintelligensinställningen”, Plus-prenumeranter får tillgång till ”en högre nivå av intelligens” medan de som pyntar för värstingabonnemanget Pro får ”ännu högre intelligensnivå”.

Vilket alltså innebär att GPT-5 låter som ett Andrew Weatherhall-producerat Primal Scream-album.

* det kan eventuellt vara en tillfällighet och/eller bero på att många andra har konstaterat samma sak. Men sannolikheten att det berodde på att Altman personligen läste mitt inlägg är 83,96 %.

OpenAI lays out plans for GPT-5

OpenAI CEO Sam Altman has spelled out some of the company’s plans for its GPT-4.5 and GPT-5 models.

ChatGPT Plus-användare får 10 Deep research-frågor per månad

Min gissning visade sig stämma. Nu har Open AI gått ut med vad det blir för tak på senaste nya ChatGPT-funktionen Deep research för de som inte hostar upp 200 dollar i månaden för ett Pro-abonnemang.

När Open AI lanserade Deep research – som gör det möjligt att skicka ut ChatGPT som en researchassistent och ställa samman djuplodande rapporter inom det man önskar få insikter om – så var (och är) tjänsten bara tillgänglig för de som betalar för det dyraste ChatGPT-abonnemanget. Men det hette redan då att Deep research kommer till billigare abonnemang ”vad det lider”.

Igår gick Open AI:s VD ut med att de som betalar för ChatGPT Plus ”sannolikt” kommer att kunna göra 10 sökningar med Deep research i månaden. Prick vad jag gissade. Baserat på den extremt avancerade ekvationen att… Pro-abonnemanget är 10 gånger så dyrt som Plus och ger 100 sökningar per månad.

Men gratisanvändarna går inte lottlösa de heller. Två i månaden blir det där. Så det gäller att välja sina frågor. (Eller starta en massa konton.)

OpenAI CEO Sam Altman shares plans to bring o3 Deep Research agent to free and ChatGPT Plus users

If you’re a free ChatGPT user, you best make sure your 2 uses per month of Deep Research are for queries you really want or need answered.

Open AI:s framtida modeller ska inte ”stänga ut åsikter från det offentliga rummet”

Ni vet nyordlistan? Vi behöver en helt ny lista. Över nya sätt att säga ”vi tycker numer att det är okej att våra tjänster säger att Jorden är platt, att klorin kittlar dödsskönt i Corona-magen och att alla invandrare äter folks husdjur”.

Open har gått ut med att deras kommande AI-modeller ”inte ska undvika eller censurera ämnen på sätt som, om de repeteras i stor skala, kan stänga ute vissa åsikter från det offentliga rummet”.

Så ja. Det enda som saknas här är något om ett ”digitalt torg”.

I grund och botten låter det här toppen. Inte minst med tanke på att ChatGPT, i en studie gjord av forskare nyligen, har sett börja glida iväg åt höger. Men 2025 – särskilt när de yttras av höga företrädare för ett amerikanskt techbolag – inte att det är välkommet med sansade diskussioner där olika åsikter kan stötas och blötas.

Det är i mångt och mycket kodspråk för att saker som i första stycket väger lika tungt som åsikter om motsatsen. Med andra ord att fakta bara är en annan åsikt.

Och med tanke på att de AI-tjänster som dominerar vår AI-användning till största del kontrolleras av just amerikanska företag som just nu böjer sig väldigt långt bakåt (ja, eller framåt) för att hålla Trusk på gott humör, så, ja…

(Rapporten om ChatGPT:s högerglidning.)

OpenAI pledges that its models won’t censor viewpoints | TechCrunch

OpenAI is making clear that its AI models won’t shy away from sensitive topics while refraining from making assertions that might ’shut out some viewpoints.’

Google rullar ut NoteBookLM Plus för privatpersoner

Betalvarianten av Googles AI-anteckningsbok NotebookLM rullas nu ut för privatpersoner. Genom att den blir del av Googles samlingsprenumeration One AI Premium.

NotebookLM är tjänsten som först flög under radarn rätt länge, men som sedan exploderade uppmärksamhetsmässigt när Google la till funktionen där det blev möjligt att förvandla innehåll, som en rapport i pdf-format, till en podd med två virtuella AI-värdar.

Som alla andra AI-tjänster så la Google sedan i slutet av förra året till en betalversion av NotebookLM, med högre tak för användningen. Men då bara för företag och utbildningsabonnemang. Nu får den som betalar för One AI Premium alltså även NotebookLM som del av sin prenumeration.

Kostnaden för det är 19,99 dollar i månaden, vilket även ger 2 TB lagringsutrymme, tillgång till Googles AI-modell Gemini Advanced samt att man också får Gemini i Googles Office-paket Workspace.

Google’s upgraded NotebookLM is now included in its One AI Premium plan

Google will now include NotebookLM Plus in its One AI Premium plan, which offers access to higher usage limits and exclusive features.

Googles Deep Research kommer till iPhones

Nu kommer Deep research till iPhones. Fast inte Deep research som släpptes precis nyss, utan Deep research som släpptes i slutet av förra året. Den Deep research som gör ungefär exakt samma sak som Deep research. Because Deep.

Så nej, det handlar alltså inte om att Open AI:s rätt sprojlans nya funktion Deep research, som kom för bara någon vecka sedan och bara för dem som betalar för ChatGPT:s rätt skitdyra Pro-abonnemang, nu rullas ut till alla iPhone-användare.

Istället är det Googles funktion med exakt samma namn som gör ungefär exakt samma sak.

Det handlar med andra ord om en funktion som är vad den heter (och som kom till Android-mobiler för någon månad sen). Ett sätt för den som söker att skicka ut AI-boten på ett mer djupgående researchande innan den svarar på en fråga. Kort sagt tänkt för mer komplexa frågor och uppgifter, som en konkurrentanalys.

Tanken är att boten ska lösa uppgiften rätt mycket på egen hand. Som att hitta källor som är relevanta och trovärdiga i sammanhanget och springa vidare på sidospår som dyker upp som kan ge insikter till det övergripande resultatet.

Med andra ord kanske exakt det man inte är jättesugen på att konsumera i just mobilen. Men hej.

Precis som hos Open AI så kostar det dock att använda Deep research. Men priset för Googles motsvarighet är ungefär en tiondel av Open AI:s tjänst. Den ingår exempelvis i Google prenumerationspaket Gemini One AI Premium för 19,99 dollar i månaden. (Ja, jag utgår åtminstone från det, då Deep research bygger på modellen Gemini 1.5 Pro, som är del av den prenumerationen.)

Det blir intressant att se jämförelser mellan de båda tjänsterna.

Google’s Gemini is getting a lot smarter for iPhone users

Google is bringing Gemini’s Deep Research function to iPhone, allowing access to in-depth research and comprehensive queries.

Google Gemini lär sig komma ihåg tidigare chattar

Googles ChatGPT-utmanare Gemini har fått minne. Ja, den kan numer minnas tidigare chattar, så att man alltså kan hänvisa tillbaka i tiden under en konversation.

Finns förstås som vanligt ett antal aber kopplat till den nya funktionen. Den fungerar just nu bara på engelska – men ska komma till fler språk ”de närmaste veckorna” – och funktionen kräver att du betalar för Googles prenumerationspaket Google One AI Premium.

Även här ska det dock breddas de närmaste veckorna, i och med att funktionen planeras att rullas ut till Googles Workspace kunder inom en hyfsat närliggande framtid.

Gemini AI can now recall past conversations

Google’s Gemini AI chatbot can now recall details from past conversations if you have a Gemini Advanced subscription.

xAI arbetar på nya funktionen DeepSearch

I slutet av förra året lanserade Google Deep Research. För bara någon vecka sedan kom Open AI med Deep Research. Som i stort är… exakt samma sak som Googles tjänst. Och efter Deep Research och Deep Research så kommer nu uppgifter om att Elon Musks bolag xAI arbetar på DeepSearch. Som också verkar vara exakt samma sak som Deep Research. Och Deep Research.

To bodly go where no man has gone before. Säger ingen på techbolagens namngivningsavdelningar.

Elon Musk’s xAI has been working on a ’DeepSearch’ feature, employees say, and it could compete with Google and OpenAI

The DeepSearch project has used a tool to track internet searches to teach the AI model natural search and reasoning skills, four employees told BI.

Grok 3 släpps om några veckor

Ännu en avancerad AI-modell kommer snart se dagens ljus. Inom ett par veckor, till och med. Då är det dags för xAI:s bot Grok att levla upp till version 3. En modell som ska vara vass på resonerande (som, tillsammans med ”agentnånting” just nu är det hetaste AI-ordet) och som ska bräcka konkurrenterna. Inom en vecka eller två.

Enligt xAI. Ja, eller enligt Elon Musk. Samme Musk som får ordet ”tidsoptimist” att framstå som ett under av realistisk tidsplanering.

Det återstår alltså att se när Grok 3 kan dyka upp. Men den borde oavsett inte vara alltför långt borta.

Musk introducerade Grok 3 under en konferens Dubai, där han också konstaterade att USA historiskt ”har haft vassa armbågar” när det kommer till regionen och att landet, enligt Musk, ”överlag borde låta andra länder sköta sina interna affärer själva”.

Inte lägga sig i andra länders interna angelägenheter you say?

Elon Musk says Grok 3 in final stages, outperforming all chatbots

Elon Musk said on Thursday his AI chatbot, and ChatGPT challenger, Grok 3, is in the final stages of development and will be released in about a week or two.

Claude kan få stor uppdatering inom några veckor

”Inom några veckor” verkar AI-bolagen har enats om är det som gäller just nu. Nu gäller det även för Anthropic, företaget bakom ChatGPT-utmanaren Claude.

Först fick Open AI:s VD Sam Altman ut med att GPT-4.5, uppdateringen av nuvarande standardmodellen i ChatGPT, kommer inom ”veckor”, därefter meddelade Elon Musk att Grok 3 kommer inom 1-2 veckor och nu vill alltså även Anthopic vara med i några veckor-klubben.

I det sistnämnda fallet så är det dock inte officiella siffror. Men vi har ju just konstaterat att AI-bolag enligt en tidigare okänd lag måste släppa sina nästa stora modelluppdateringar inom några veckor, så vi utgår från att spekulationen är sann.

Den nya modellen, som eventuellt skulle kunna heta en kombination av ”Claude”, ”Sonnet”, ”Haiku”, ”Opus” och ”4”, ska vara en hybridmodell mellan en ”vanlig” AI-språkmodell som vi lärt känna dem sedan ChatGPT såg dagens ljus och en ”resonerande” modell, som är det senaste svarta. Det sistnämnda betyder att modellen ska vara bättre på att inte bara ge första bästa svar, utan bolla svaret och trovärdigheten i innehållet med sig själv innan den svarar.

”Hybrid” i sammanhanget ska betyda att man som utvecklare av tjänsten får ett ”dragreglage” där man kan ange hur man vill att modellen ska jobba. Enklare svar gör att det går fortare och att kostnaderna blir lägre, medan den andra änden av skalan innebär mer djuplodande svar, längre svarstider och högre kostnader.

Det känns i så fall exakt som det som Open AI ser ut att fokusera på med GPT-5 – som ska komma nån gång senare i år om tidplanen håller. Istället för att man, som i dagens ChatGPT manuellt måste byta modell beroende på vad man vill ha hjälp med så är tanken att GPT-5 – som det borde vara – själv avgör vilken modell som passar en specifik uppgift.

All your AI-modeller are belong to us.

GPT-5 ser alltså inte ut att handla om att den kommer att bli särskilt mycket större eller mer kapabel än dagens toppmodeller (även om jag förstås redan sett markfrikopplade påståenden om att GPT-5 kommer att vara 100 gånger större än GPT-4, dvs. typ 18 gånger större än allt innehåll som finns på planeten). Istället kommer Open AI att fokusera på att strömlinjeform produkten för att göra den mer användarvänlig.

Och det är på riktigt en av de just nu absolut viktigaste sakerna som krävs för att AI ska kunna ta nästa stora mainstream-steg. Inte att den blir mer kapabel. Utan att den blir enklare och mer intuitiv i användningen.

Anthropic’s next major AI model could arrive within weeks | TechCrunch

AI startup Anthropic is gearing up to release its next major AI model, according to a report Thursday from The Information.

Alibaba blir Apples AI-partner för iPhone i Kina

Vem ska egentligen bli Apples Open AI i Kina – med tanke på att just Open AI inte finns i landet? Med andra ord: vilken leverantör och vilken tjänst ska bli Siris kompis som del av Apples AI-plattform Apple Intelligence? Nu vet vi svaret.

Senaste veckan har det kommit uppgifter om att Apple ska ha valt AI-stjärnskottet Deepseek som förvald extern AI-chattbot för iOS, med argumentet att, tja, alla pratade om Deepseek. Men nu är det förstås Kinas e-handelsjätte som drog längsta strået.

Att Apple skulle hitta en kinesiska samarbetspartner för Kina var förstås väntat. De tjänster som är stora här i väst finns inte där. Men det är större än att Apple kan få en massa AI-insights från en annan leverantör, som fallet är här i väst. Istället handlar det om globalpolitik på tariffnivå.

Kina har de senaste åren – i takt med att den inhemska ekonomin har gått i rejäl stå – gjort en Trump. Blivit allt mer nationalistiska och allt mer protektionistiska. De två saker ihop har gjort att kinesiska mobiltillverkare har fått sig ett uppsving på Apples bekostnad. Fler har shoppat närodlat.

Att Apple nu får in Alibaba i ett tätt samarbete är bra för varumärket. Och är bra gentemot kommunistpartiet.

Med tanke på att Apple alltså har drabbats av rätt rejäl motvind i Kina det senaste året så är det viktigt.

Och planen för Apple lär vara ungefär som den är här i väst: att kopiera upplägget med förvald sökmotor i Apples olika operativ. Att den som budar högst är den som får platsen. Vilket innebär över 20 miljarder dollar om året från Google rätt ner i Apples fickor.

Alibaba confirms Apple deal bringing AI features to iPhones in China | TechCrunch

Alibaba on Thursday confirmed recent reports of a partnership with Apple that’s set to bring AI features to iPhones sold in China. The deal is an

 

IoT – internet of things

Meta har sålt 2 miljoner exempelar av sina Ray-Ban-glasögon

Det är alltid kul att får skarpa, officiella siffror. Som hur många exemplar som har sålts av Metas Ray-Ban-glasögonsamarbete. 2 miljoner ex sedan starten i oktober 2023, enligt Ray-Ban-ägaren EssilorLuxottica.

Under året har det kommit uppgifter om att Metas glasögon inte bara har sålt riktigt bra, utan på sina håll också varit den mest sålda Ray-Ban-modellen. Ett besked som överraskade mig rätt ordentligt. Men Meta verkar ha fått en hyfsat stor hårdvaruhit.

Det verkar inte vara slut på festen heller, åtminstone om man ska tro EssilorLuxottica. De planerar att rampa upp tillverkningstakten och pumpa ut 10 miljoner exemplar om året mot slutet av 2026.

I det stora hela är Metas Ray-Bans en hyfsat enkel produkt jämfört med tekniken i våra mobiler. Men kombinationen bärbar pryl, kamera och AI verkar ha blivit ett rätt vinnande koncept. Det blir intressant att se hur enheten kommer att utvecklas kommande år.

Och, förstås, hur konkurrerande modeller kommer att utvecklas. När Meta nu verkar ha hittat någon slags hyfsat stor framgångsformel så kommer garanterat andra vilja hoppa på tåget. Särskilt som det visar sig att konsumenterna är rätt sugna på smarta glasögon.

Meta’s Ray-Bans have sold 2 million pairs – its maker is prepping to sell 10M each year

EssilorLuxottica reveals Meta has sold 2 million pairs of Meta Ray-Bans since their October 2023 debut, and that it’s aiming to produce 10 million Meta glasses each year.

Kategorier
AI - Artificiell intelligens IoT - internet of things Mobilt Spaningar

Digitala spaningar vecka 6 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Google släpper nya Gemini-AI-modeller

Jag ska väl erkänna att jag börjar få rätt svårt att hålla koll på vilka modeller som har släppts och var man kan få tag i dem. Som tur är ser Google till att hålla min förvirring på en konstant hög nivå.

Det är kort sagt dags för nya modeller i Google Gemini-familj och/eller rullar ut modeller bredare.

  • 2.0 Flash: En lite uppdaterad version av modellen blir nu tillgänglig i Gemini-appen eller via Gemini API:et. Bildgenerering och text-till-tal-funktionalitet ”kommer snart”.
  • 2.0 Pro Experimental: Ny värstingmodell som ska vara extra bra på kodning och ”komplexa promptar”.
  • 2.0 Flash-Lite: Som hörs på namnet, en mer lättviktig modell. Bokstavligen talat. Uppföljaren till 1.5 finns nu tillgänglig som förhandsversion via Google AI Studio eller Vertex AI.
  • 2.0 Flash Thinking: Geminis ”resonerande” modell (typ svaret på Open AI:s o1) blir nu tillgänglig datorn och via webbtjänsten. Den ska också vara startskottet för den ”agentiska era” som Google proklamerade vid lanseringen. Ingen hybris alls där. Oavsett så ska modellen kunna interagera med andra Google-appar som Youtube, Googles sök och Google Maps.

Google’s Gemini app adds access to ’thinking’ AI models

Google adds its experimental Gemini 2.0 Flash Thinking ”reasoning” model that’s capable of explaining how it answers complex questions to the Gemini app.

Google ger tumme upp att använda företagets AI till kärnvapen och övervakning

Google sjösatte sina AI-principer 2018. Och 2025 kom den så här långt kanske största förändringen. Företaget har plockat bort formuleringarna där de lovar att inte använda sin AI-teknik för att ”designa eller driftsätta” AI-verktyg avsedda för vapen eller övervakning.

Det är en bra bit från tidigare utfästelser att inte ta fram AI som hade som syfte att användas i ”vapen eller andra teknologier vars främsta syfte eller användningsområde är att orsaka eller medföra skador på människor”.

Nästan så att man skulle kunna tro att Google får – eller vill ha – allt fler lukrativa militära kontrakt.

Google now thinks it’s OK to use AI for weapons and surveillance

Google has edited its AI Principles to remove commitments the company made to not use the technology in weapons or surveillance.

Bytedance visar upp ny AI-modell som kan skapa väldigt realistiska deepfakevideos från stillbild och ljudexempel

När Bytedance inte kämpar för TikToks överlevnad i USA så har företaget tid att göra annat. Som att ta fram ännu en avancerad AI-deepfake-modell.

OmniHuman1 är namnet på den nya tjänsten som ska kunna skapa videos bara utifrån en bild och ett ljudexempel. Dessutom videos av ”godtycklig” längd – utan att veta säkert vad det innebär.

Och resultatet blir… rätt bra.

OmniHuman1 är inte första tjänsten som har de här förmågorna, men oavsett det så är det svårt att inte fascineras och/eller skrämmas över hur bra tekniken börjar bli på det här området.

Visst finns det fortfarande tillkortakommanden. Artikeln konstaterar att fysikens lagar inte helt verkar lira med vinglaset i ett av klippen. Men jag reagerade också på att Taylor Swift och Einstein ser rätt stela ut. Ja, att de alltså inte rör sig jättemycket.

MEN det beror förmodligen mest på att jag visste att det var AI-genererat. Om jag inte hade vetat om det och bara snabbt tittat på klippen? Well…

Nu pratar vi däremot inte om en kommersiell tjänst som går att testa. Just nu är det fortfarande en presentation av vad OmniHuman1 kan åstadkomma. Fortfarande på forskningsstadiet. Videoexemplen är utvalda av Bytedance och om vi ska utgå från skillnaden mellan demo och skarpt resultat i den släppta tjänsten (exempelvis Open AI:s videotjänst Sora) så är guldet inte riktigt så guldigt som Bytedance vill ge sken av och skogarna har tappat rätt mycket av löven.

Men oavsett. Om den färdiga produkten är i samma replokal som demon så är det imponerande.

Ja, och/eller skrämmande.

Deepfake videos are getting shockingly good | TechCrunch

A new AI system from ByteDance, OmniHuman-1, generates shockingly convincing deepfake videos.

Nytt lagförslag vill förbjuda Deepseek i USA

Det här är så sjukt jätteoväntat. Nytt lagförslag i USA:s kongress vill förbjuda Deepseek.

Ja, eller det handlar ju förstås inte om att specifikt förbjuda Deepseek. Det är ju inte så att USA tar fram lagar skräddarsydda för att förbjuda en enda app (där bara en enda app nämns vid namn i lagtexten). Det handlar om en lag som skulle ”förbjuda amerikanska medborgare från att hjälpa till att utveckla Kinas AI-förmågor”.

Ja, eller egentligen talar texten om ”United States persons”, vilket sannolikt snarare syftar till personer i mer abstrakt mening. Som juridiska personer.

Det är bara en ren tillfällighet att lagförslaget bara någon vecka efter det att en kinesisk AI-app toppat applistorna över större delen av världen och fått aktiemarknadens förtroende för amerikanska AI-bolagen att kollapsa.

Och det är inte smisk på fingrarna vi pratar om som straff. Istället kan överträdelser leda till upp till 1 miljon dollar i böter. Och 20 år i fängelse.

Överreaktion much?

Och som artikeln konstaterar: den väldigt luddiga formuleringen kring den brottsliga handlingen beror säkerligen på att Deepseek har gjort sin modell open source (eller åtminstone nästan). Lagen vill alltså inte bara stoppa Deepseeks egen ”ChatGPT” kopplad till modellen, utan också förbjuda tillgången till själva modellen.

Som Perplexity rätt omgående gjorde tillgänglig via sin egen tjänst. Liksom Microsoft. Och Amazon. Och Snowflake. Och Dell. Och Nvidia.

Om jag inte visste bättre så skulle jag nästan tro att det är ett försök att skydda amerikanska AI-bolags bekvämt uppbyggda murar snarare än genuin omtanke om den nationella säkerheten. Samtidigt som Elon Musk och 25-åringar som inte har säkerhetsklassats ges tillgång till säkerhetsklassad och känslig data i hjärtat av USA:s statsapparat.

Men… naaaah.

Congress Might Ban DeepSeek

Republican Senator Josh Hawley has proposed a bill that would effectively ban DeepSeek, complete with harsh punishments for anyone who continues to use the app.

Deepseek visar spår av koppling till kinesiskt företag som är svartlistat i USA

Häromdagen landade ett lagförslag i USA:s kongress som vill förbjuda AI-stjärnskottet Deepseek i landet. Som vanligt på grund av hot mot den nationella säkerheten. De här uppgifterna stärker inte direkt Deepseeks möjligheter att undvika det.

Säkerhetsforskare har nämligen upptäckt kopplingar mellan Deepseek och China Mobile, en statligt ägt, kinesiskt teleoperatör.

Kodgrävande har nämligen visat att funktioner för att skapa konto till och logga in i Deepseek-tjänsten har ”kraftigt maskerad” (heavily obfuscated) kod som leder till infrastruktur ägd av China Mobile.

Och just att det handlar om de två funktionerna gör förstås att det finns ännu större anledning att fundera på varför.

Det gäller som vanligt dock bara Deepseeks ChatGPT-motsvarighet. Själva modellen, R1, som har släppts som open source (ja, eller åtminstone open weight), kan köras lokalt för den som vill. Eller via något av de amerikanska företag som numer erbjuder R1 som en valbar modell för den som vill köra AI-uppgifter.

Men ja. Det leder oavsett till fler frågetecken kring Deepseek. Och inte bara om Deepseek verkligen byggde R1 så billigt som de själva säger.

Researchers link DeepSeek’s blockbuster chatbot to Chinese telecom banned from doing business in US

Security researchers say the website of the Chinese artificial intelligence company DeepSeek has computer code that could send some user login information to a Chinese state-owned telecommunications company that’s been barred from operating in the United States.

Meta använde stora mängder piratkopierade böcker för att träna sina AI-modeller

Meta har anklagats för att ha använt piratkopierade böcker för att träna sina AI-modeller. Och att de var medvetna om att dataseten innehöll piratkopierad information. Nu kommer fler uppgifter som ser ut att bekräfta det här.

Mejl har visat att Meta har laddat ned över 100 TB data från två källor som vid ett flertal tillfälle har anklagats för att innehålla just piratat innehåll. Och redan i april 2023 så lyfte en Meta-medarbetare oro över Meta hantering av denna information.

I september eskalerade medarbetaren sedan ärendet till Metas juridiska avdelning. Hur gick Meta vidare med denna varning? Man ”vidtog åtgärder för att begränsa spårbarheten, använde externa servrar och ändrade seeding-inställningarna till ”stealth mode””.

Det sistnämnda handlar om att datan som tankades ned ser ut att ha varit i form av torrents, som bygger på att man också delar med sig av den data man laddar ned till andra – så att de i sin tur kan ladda ned. Ett decentraliserad ”filserver”, alltså.

När man delar med sig av data torrent-vägen så kallas det ”seeding”. Och det skulle kunna tyda på att Meta inte bara laddade ned filer med piratkopierat innehåll, utan också spred det vidare.

Meta verkar överlag väldigt medvetet ha gett upphovsrätten fingret. Frågan är förstås hur högt upp i beslutshierarkin som beslutet hamnade. Med tanke på att Metas jurister drogs in så sannolikt… väldigt högt.

Frågan är just nu uppe i domstol – vilket är anledningen till att den här informationen nu dyker upp. Vi får kort sagt se hur det går.

Men Meta är ju, som vi vet, inte ensamma om att ha gjort på det här sättet. Att ha tagit upphosvrättsskyddat innehåll utan samtycke eller ersättning, tränat sina modeller på datan – och sedan tagit betalt för datan via sina produkter (återigen, utan att de som skapade innehållet till största del har fått någon ersättning).

Det är också en anledning till att AI-bolag tycker så illa om EU:s AI Act (och motsvarande initiativ som börjar bubbla i USA, som stämningen i Meta-fallet): det handlar om att tvinga AI-bolag visa upp träningskorten. Framförallt om man har tränat på upphovsrättsskyddat material.

Än så länge är det juridiska läget kring ”fair use” och upphovsrätt fortfarande en gråzon – både här och i USA. Men vi kommer allt närmare de första domarna som på riktigt börjar ge vägledning här.

Meta’s use of pirated books for AI training exposed

The unredacted emails, released on Feb. 6, reveal that Meta downloaded at least 81.7 terabytes of data.

Mistral släpper app för sin AI-assistent

Ännu en alternativ för den som samlar på AI-appar i sin mobil. Nu släpper franska Mistral sin egen AI-bot Le Chat som app för iOS och Android.

Och ja. Le Chat är fortfarande det bästa namnet på en AI-bot.

OpenAI launches data residency in Europe | TechCrunch

OpenAI has launched data residency in Europe, allowing European orgs to meet local data sovereignty requirements while using the company’s AI products.

Forskare tar fram en motsvarighet till Open AI:s o1-modell för 50 dollar

Ni vet hur kinesiska Deepseek chockade AI-världen genom att ta fram en modell i klass med de senaste från de stora AI-bolagen, fast för bara 5,6 miljoner dollar istället för de miljarder som konkurrenterna lägger? Pfft.

Nu har forskare tagit fram en ”resonerande” modell som ska vara i nivå med Open AI:s o1-modell. Och kostnaden för att få fram den modellen var… 50 dollar.

Ja, nu handlar det dock inte om att forskarna har gjort jobbet riktigt från scratch. Eller… egentligen inte alls.

De har istället ”destillerat” Googles o1-motsvarighet Gemini 2.0 Flash Thinking. Och… jag ska inte säga att jag exakt förstår vad det innebär. Men i stora drag förstår jag det som att man helt enkelt kan ta fram en ny modell genom att ”kopiera” mycket från en befintlig modell och därmed få ut ”essensen” av den. Sedan kan man bygga därifrån.

Och det är precis vad forskarna vid Stanford och University of Washington har gjort. De har sedan kompletterat med ”resonemangsdelar” för att ge modellen den typen av förmåga att jobba sig fram till ett svar i flera steg istället för att bara ta första bästa svar på frågan och skicka ut det.

Kostnaden blev alltså 50 dollar i molntjänstkrediter.

Så precis som i Deepseek-fallet så bygger den låga kostnaden på att man rätt mycket har snott vad någon annan har gjort och sedan byggt på stöldgodset. Föga förvånande så är Open AI inte särskilt glada på Deepseek – som använde just Open AI-modeller för att ta fram sin egen. Och i Googles användarvillkor står att det inte är tillåtet att plocka isär deras modeller och försöka kopiera dem. Så Google lär inte vara jättepigga på det som forskarna nu har gjort.

Men det ironiska i sammanhanget är att destilleringen är ungefär exakt vad AI-bolagen själva byggde sina verksamheter på, när de tränade sina modeller på innehåll från internet utan att be om lov och utan att betala ersättning till de som hade skapat innehållet.

What goes around, alltså.

Men oavsett: det som forskarna nu har gjort kan vara en viktig pusselbit när det kommer till att göra tränandet av AI-modeller snabbare, billigare och därmed betydligt mer klimatvänliga (i och med att det inte krävs lika mycket el).

Vilket är extremt viktigt för hållbarheten i tekniken. Och, tja, för Jordens hållbarhet.

Researchers created an open rival to OpenAI’s o1 ’reasoning’ model for under $50 | TechCrunch

AI researchers at Stanford and the University of Washington were able to train an AI ”reasoning” model for under $50 in cloud compute credits, according

Hugging Face tar fram en open source motsvarighet till Deep research på 24 timmar

Senaste dagarnas förmodligen största AI-nyhet var att Open AI lanserade sin nya ChatGPT-funktion Deep research. En funktion som är vad den heter: ett sätt att låta ChatGPT göra ett mer grundligt jobb innan den svarar på en sökfråga.

Dessutom är tanken också att den rätt självgående ska välja vilken information den baserar svaret på och hur det sammanställs. Delvis det som brukar kallas för AI-agent, alltså.

Men modellen är alltså Open AI:s. Vilket betyder att den är stängd, eftersom Open AI sedan länge skrotat sin ambition att vara just öppna med sin forskning.

Bristen på öppenhet var något som AI-gemenskapen Hugging Face ville göra något åt. Så de gick med en utmaning att ta fram en motsvarighet till Deep research – fast som open source.

Och att ta fram en sådan tog… 24 timmar.

Open deep research är namnet på den nya skapelsen, som även den självständigt kan söka på nätet och ställa samman forskningsrapporter.

Hugging Face lyckades inte bara återskapa Open AI:s funktion. Efter ett dygn så var Open deep researchs uppe i 55,15 % korrekthet enligt en benchmark som rankar AI-modellers förmågor att samla ihop och presentera data från flera källor. Open AI:s funktion ligger runt 70 % i samma test.

Nu byggdes Open deep research inte från noll. Den baseras på Open AI:s GPT-4o, så det forskarna gjorde var att skruva i hur modellen – utifrån det den tränats på – skulle kunna applicera detta på informationsinsamlandet.

Men det är oavsett ännu ett exempel på hur det som var Open AI:s mission från början – att arbeta med öppen forskning för att driva på världens AI-utveckling – nu tar allt större utrymme. Ironiskt nog när Open AI själva har stängt av tillgången till sin egen forskning.

(Och ironi på ironin är att Open AI nu ser ut att omvärdera sitt öppenhetsbeslut igen. Nu när det visar sig att open source-utveckling med en stor utvecklargemenskap kan vara bra för den egna businessen.)

Hugging Face clones OpenAI’s Deep Research in 24 hours

Open source ”Deep Research” project proves that agent frameworks boost AI model capability.

AI-bolaget Anthropic kräver att de som söker jobb hos dem inte använder AI för sin ansökan

Ni vet AI-bolaget Anthropic? Som ligger bakom ChatGPT-utmanaren Claude? De har ett lite… intressant krav på dem som söker jobb hos dem.

Kandidater måste nämligen… intyga att de inte använder AI i ansökningsprocessen.

Jag säger det igen. Det går inte att vara satiriker längre.

Anthropic Wants You to Use AI-Just Not to Apply for Its Jobs

The company asks candidates to certify that they will not use AI during the application process.

Open AI uppdaterar sin visuella identitet – för att företaget ska kännas “mer mänskligt”

Nu ni! Nu snackar vi stora AI-nyheter! Open AI uppdaterar för första gången sin grafiska identitet och sitt varumärkesuttryck!

Anledningen? Det nya uttrycket ska få företaget att kännas “mer organiskt, mer mänskligt”.

Oh. The irony.

OpenAI introduces a new brand look

OpenAI has rebranded its look with tweaks to its signature blossom logo and a new typeface called OpenAI Sans, hoping to have a more approachable and human image.

 

IoT – internet of things

Nvidia ger humanoida robotar mer mänskliga rörelsemönster

Det här är rätt coolt. Chipbolaget Nvidia har tillsammans med forskare tagit fram en teknik som ger humanoida robotar mer mänskliga rörelser.

Ramverket för att få till det här har fått namnet ASAP som mycket ser ut att bygga på den green screen-teknik som exempelvis används för spel eller film. När man låter skådespelare ha på sig en massa sensorer när de rör sig och sedan ersätta skådespelarna med digitalt skapade lager ovanpå som kan se ut som en helt annan varelse.

Här verkar det handla om att man först använder en modell för att ”spela in” rörelser, dvs. en AI-modell som får tränas på rörelser, och sedan använder man en annan modell för att finjustera rörelserna i själva robotarna.

Och baserat på exemplen så ser resultatet helt klart mer mänskligt ut än vad den här typen av robotar oftast bjuder på. Jämnare och mer ”flödande” rörelser.

Nu är det tre väldigt konkreta exempel som visas upp: några signaturrörelser från Cristiano Ronaldo, Kobe Bryant och LeBron James. Dessutom väldigt korta rörelser. Och det lär ha tagit en herrans massa tid och datorkraft för att få till dem.

Men det är förhoppningsvis ännu en viktig liten pusselbit i arbetet med att gör den här typen av humanoida robotar till verklighet.

Khizer Abbas on LinkedIn: WOW!!! Robots are learning human movement from human data. Researchers… | 48 comments

WOW!!! Robots are learning human movement from human data. Researchers, in collaboration with NVIDIA, introduced ASAP, a two-stage framework for humanoid… | 48 comments on LinkedIn

 

Mobilt

Apple släpper inbjudningsapp

När ryktena för några dagar sedan började cirkulera om att Apple var på gång med en helt ny app så blev jag väldigt förvånad över vad det tydligen skulle bli. Och det visade sig att ryktet stämde helt och fullt.

Apple har nu kompletterat sin egen appalett med Invites. En app för att… skapa inbjudningar. Till evenemang.

Som artikeln konstaterar så har Apple gjort en Meta. Inspirerats (läs: snott rakt av) av en befintlig tjänst. Så jag antar att de har detaljstuderat all statistik från de blivande konkurrenterna (eller: sånt gör förstås inte Apple, det är ju förbjudet enligt Digital markets act. Det är absolut inte så att förbudet mot att använda mindre konkurrenters statistik till att ta fram konkurrerande tjänster ha kommit till på förekommen anledning).

Och i appen så drar Apple ihop ett antal befintliga tjänster i en ny app. Så man kan koppla på information och innehåll från väderappen, Apple Maps och Apple Music. Ett sätt att boosta användningen av de tjänsterna.

Och så kommer vi till det här:

In addition, users can create unique event invitations using Apple’s Image Playground to produce original images for invites. Plus, users can leverage Apple Intelligence’s Writing Tools to compose invitations.

Ah. There it is. Apple har tagit fram en app som ska få folk att använda (och träna) Apples AI-funktioner.

Och krasst talat är det nog precis den här sortens tjänster som kan göra AI till något för alla på riktigt. Och självklart nämner Apple inte uttalat ”AI” i sin egen presentation av appen. Därför att tekniken i sig är ointressant.

Apple launches Invites, a new app for creating custom invitations | TechCrunch

Apple on Tuesday launched a new app called ”Invites” that allows users to create custom invitations for any occasion. With Invites, users can create and

WikiTok ger dig Wikipedia som TikTok-flöde

Ha. Love it.

Nya tidsdödartjänsten WikiTok. Skapad av amerikanske apputvecklaren Isaac Gemal. Är precis vad den låter som.

WikiTok ger dig kort sagt Wikipedia som ett TikTok-flöde. Så istället för att scrolla kattvideos så kan du scrolla, tja, kunskap.

Developer creates endless Wikipedia feed to fight algorithm addiction

WikiTok cures boredom in spare moments with wholesome swipe-up Wikipedia article discovery.

 

Ekonomi och finans

Googles kvartalsrapport Q4 2024: Youtube slår nytt kvartalsrekord

Kvartalsrapportsdags igen för Google (eller ägarbolaget Alphabet om vi ska vara formella). Och hur gick det den här gången?

Sämre än vad marknaden hade hoppats på. Aktien rasade. Och varför? Lite sämre än väntat för molnverksamheten.

Men i övrigt? Inte så pjåkigt.

  • Omsättning: 96,5 miljarder dollar (+12 %)
  • Vinst: 26,5 miljarder dollar (+28 %)

Bryter vi ned omsättningen på de olika rapportsegmenten såg Q4 ut såhär:

  • Annonseringen: 72,5 miljarder dollar (+10,7 %)
  • Prenumerationer, plattformar och hårdvara: 11,6 miljarder (+7,4 %)
  • Molnverksamheten: 12 miljarder (+29,3 %)
  • Other bets: 400 miljoner (-39 %)

Tittar vi sedan specifikt på de olika annonsformaten så slutade kvartalet så här:

  • Sökannonseringen: 54 miljarder dollar (+12,5 %)
  • Youtube: 10,5 miljarder (+14,1 %)
  • Annonsnätverket: 8 miljarder (-3,6 %)

Trots att Google Cloud alltså var kvartalets överlägset största stjärna med en omsättningsökning på 30 % så räckte det inte. Because aktiemarknadslogik.

Men minst lika viktigt: Youtube fortsätter växa i bra takt. Faktum är att Youtube slog nytt all-time high-rekord.

Alphabet Inc (GOOG) Q4 2024 Earnings Call Highlights: Strong Revenue Growth and AI Advancements …

Alphabet Inc (GOOG) reports a 12% increase in Q4 revenue, with significant contributions from Google Cloud and YouTube, amidst challenges in network advertising and capacity constraints.

Kategorier
AI - Artificiell intelligens IoT - internet of things Spaningar

Digitala spaningar vecka 5 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Deepseek lämnade miljontals kodrader oskyddade av misstag

Som sagt: det märks att Deepseek inte riktigt var beredda på den användaranstormning som har följt på all uppmärksamhet senaste veckan eller så. Senaste exemplet: miljontals koder rad i företagets egen ChatGPT-tjänst lämnades oskyddade av misstag.

Saker som digitala nycklar och chattloggar mellan användare och tjänsten.

Ja, nu pratar vi kinesisk tjänst, så har kan vi förstås alltid spekulera i att det kanske var ett medvetet misstag för att göra det enklare för kinesiska staten att komma åt vad användare skriver och gör i verktyget. Men här var det nog ett hederligt slarvmisstag, som så ofta sprunget ur att säkerhet är det som ofta är längst ned i viktighetslistan hos startups.

Däremot gick det fort efter det att IT-säkerhetsföretaget Wiz upptäckte luckan till dess att Deepseek hade täppt till den.

Sensitive DeepSeek Data Exposed to Web, Says Cyber Firm ’Wiz’

Wiz said that scans of DeepSeek’s infrastructure showed that the company had accidentally left more than a million lines of data available unsecured. Those included digital software keys and chat logs that appeared to capture prompts being sent from users to the company’s free AI assistant.

Deepseek tokfejlar säkerhetstester

Hur säker är nya AI-stjärnan Deepseek. Inte… alls.

Forskare har kastat 50 tester som används för att testa en AI-tjänsts säkerhetsfunktioner på Deepseek. Och Deepseek tokfejlade. Misslyckades i samtliga test.

Ännu ett exmepel på hur Deepseek har drabbats av växtvärk på grund av den oväntade popularitetsexplosionen – som så många andra startups. Och det visar också att Deepseek – som så många andra startups – har prioriterat säkerhet långt ned i listan.

DeepSeek’s Safety Guardrails Failed Every Test Researchers Threw at Its AI Chatbot

Security researchers tested 50 well-known jailbreaks against DeepSeek’s popular new AI chatbot. It didn’t stop a single one.

Deepseek plockas bort från appbutikerna i Italien på grund av GDPR-oro

Häromdagen skrev jag om Deepseeks användarvillkor, som bland annat anger att användares data lagras på servrar i Kina. Jag misstänkte då att det rätt snabbt skulle komma politiska reaktioner på det. Nu har ungefär det kommit. Fast via en konsumentskyddsorganisation.

Det är Euroconsumers som har anmält Deepseeks rutiner kring data till Italiens dataskyddsinstans Garante. Myndigheten bad i sin tur Deepseek om information om rutinerna och bara timmar senare försvann Deepseek-appen från såväl Appstore som Google Play i Italien.

Historien upprepar sig alltså. Det var Italien som var först ut med att styra upp det GDPR-mässiga i Open AI, något som föregicks av att tjänsten en kort period förbjöds i landet. Efter det fick vi bland annat funktionen som gör att vi kan välja att Open AI inte ska träna sina modeller på våra chattar.

Det är däremot lite oklart vem som har plockat bort appen. Garante gav Deepseek 20 dagar på sig att svara på begäran om information, så det lär inte vara ett myndighetsförbud. Eftersom appen ännu inte formellt har bedömts bryta mot GDPR så är det nog inte initierat av Apple eller Google. Så det känns som att det är Deepseek själva som har plockat bort appen för att minimera eventuella GDPR-böter om det visar sig att företaget har brutit mot EU:s lagstiftning.

Efter Garante så inleder även Irlands dataskyddsmyndighet en granskning av Deepseek.

DeepSeek’s app becomes unavailable on Apple’s and Google’s app stores in Italy | TechCrunch

Hours after Italian authorities requested information from DeepSeek about how the company handles user data, the Chinese AI startup’s app is no longer

Open AI släpper nya modellen o3-mini för alla användare

Arbetsveckan avslutades med att Open AI så släppte den uppföljare till språkmodellen o1 som de har hintat om: o3. (o2 var tydligen så kass att den fick slängas, eftersom Open AI hoppar över ett nummer.)

Mer specifikt är är det modellerna o3-mini och o3-mini-high som gäller (och den rätt hopplösa namngivningen av språkmodeller fortsätter). Som hörs på namnet är det alltså mindre modeller, som därmed ska vara snabbare i sina svar. Skillnaden mellan de båda är att den senare ska vara ännu bättre på att hantera koduppgifter. Så pass att den enligt Open AI ska vara ”det bästa kodningsalternativet i ChatGPT”.

En skillnad från hur de brukar vara för Open AI är att o3-mini blir tillgänglig även för gratisanvändare. Däremot blir den, som vanligt, rätt rejält strypt jämfört med den tillgång som betalande användare får. Och på det temat kan den som betalar för de vanliga abonnemangen skicka 150 meddelanden per dag till o3-mini, medan de som har lyxat till det med det skitdyra Pro-abonnemanget kan skicka hur många som helst.

De som betalar för Enterprise eller Edu får dock hålla sig till nästa vecka innan de kan börja leka med o3.

OpenAI launches new o3-mini reasoning model with a free ChatGPT version

OpenAI is launching its new o3-mini reasoning model for ChatGPT and API users. Free users of ChatGPT will also be able to try out o3-mini for the first time.

o3-mini svajar redan på fakta

Det kanske inte är kinesiska AI-modeller vi ska oroa oss mest över.

Igår släppte Open AI sin senaste modell: o3-mini (och syskonet o3-mini-high). Efterföljaren till o1, den modell som ska vara bättre på att ”resonera” sig fram till ett svar och därmed på sätt och vis faktagranska sina egna svar och påståenden.

Som hörs på namnet är det en mindre modell, som därmed också ska vara snabbare. Men den kanske största skillnaden gentemot o1 är att o3 kan söka på nätet. Och, well, det gick direkt sådär.

Jag såg nedanstående exempel delat av en annan medlem här på LinkedIn (jag hittar förstås inte tillbaka till det inlägget, kan förhoppningsvis hitta det – men det var oavsett inte jag som kan ta åt mig äran för att ha upptäckt det). Då på engelska. Jag översatte och testade själv, och mycket riktigt.

Trump har aldrig påstått att Haiti-immigranter äter hundar och katter.

ChatGPT med 4o-modellen svarar däremot rätt på den här frågan. Liksom Deepseek (som förstås har en del… andra problem med fakta). Funkar även fint med o3-mini – om jag först manuellt aktiverar funktionen att den ska söka på nätet.

Och det visar ett av de stora problemen med hur AI-bolagen trycker ut sina AI-tjänster idag. Inte att svaren ibland kan bli uppåt väggarna knasiga, utan därför att jag som användare måste nära nog gå kurs för att förstå vilken modell jag ska använda (något som bara de som erbjuder utbildningar i AI är glada över). Och sedan välja. Och förstå – och se – vilka ”inställningar” som är aktiva.

Och därefter begripa vilken som kostar hur mycket och vilka tak som gäller för respektive variant.

Det blir heller inte bättre att samma funktion kan finnas i flera av modellerna – som att söka på nätet – men att funktionen kanske eller kanske inte är aktiv. Något som kan var svårt för användare att förstå. Särskilt när svaret är så bombsäkert killgissningsformulerat som här.

Visst, förinställt är mer generisk modell, som 4o hos ChatGPT, men det visar fortfarande hur omogen tekniken är. Och hur mycket den forfarande bygger på att vi som människor måste anpassa oss efter tekniken istället för omvänt, som det förstås ska vara. Inte minst för att teknik ska kunna få riktigt brett genomslag.

ChatGPT:s livekamerafunktion släpps i Sverige

Nu är jag säkerligen nära nog sist på bollen med den här, men nu har i alla fall ChatGPT:s livekamerafunktion landat här hos oss.

Med andra ord går det nu att i realtid prata med ChatGPT via det avancerade röstläge och ställa frågor om det som visas i kameran genom att rikta mobilen mot det.

ChatGPT-appen används till 85 % av män

En undersökning om ChatGPT med lite oväntade resultat.

Appanalysföretaget Appfigures konstaterar att hälften av alla som har laddat ned ChatGPT-appen är under 25 år. Vilket i sig kanske inte är jätteöverraskande. Men näst äldsta åldersgrupp? 50-64-åringar, som står för 20 %.

Men kanske mest anmärkningsvärt i sammanhanget: Appfigures uppskattar att användarna av ChatGPT-appen, snittat över alla åldersgrupper, till 85 % består av män. Vilket då gör att till och med jag som rätt dålig på matte kan räkna ut att kvinnorna då bara står för 15 %. (Ja, okej, det kan hända att jag dubbelräknade med miniräknare innan jag la ut det här inlägget.)

Som med alla undersökningar så ska den tas för vad den är. Jag har inte sett rapporten själv, men utgår från att det verkligen är appanvändandet (eller nedladdandet) som de har tittat på – inte hur användningen ser ut via webben. Och det är siffror som åtminstone delvis bygger på uppskattningar.

Men ändå. Stämmer könsfördelningen så finns det en del att fundera på där.

ChatGPT’s mobile users are 85% male, report says | TechCrunch

The AI bubble hasn’t burst yet, at least when it comes to consumer spending on AI apps. Led by OpenAI’s ChatGPT, overall spending on AI apps jumped to

Open AI:s dyra Pro-abonnemang får omsättningen att dra iväg

Hur går det för Open AI:s senaste, rätt skitdyra Pro-abonnemang? Det som kostar runt 2000 kronor i månaden? Tydligen helt okej.

Pro-prenumerationerna omsätter nu mer pengar än Team-motsvarigheten. Alltså det abonnemang som kostar 25 eller 30 dollar per person. Allt enligt information som Open AI själva har delat till sina aktieägare. Enligt information från The Information. </meta>

Så ja. Vi pratar omsättning. Och ett Pro-abonnemang motsvarar tio vanliga Plus-abonnemang (det billigaste betalabonnemanget). Och det är inte bara goda nyheter för Open AI, eftersom företaget går back på varje Pro-abonnemang enligt VD:n Sam Altman. De som kör Pro utnyttjar det mer än vad Open AI (eller egentligen Altman, som var den som personligen valde priset) trodde.

Så ironiskt nog kan varje Pro-abonnemang på ChatGPT gräva djupare hål i Open AI:s fickor.

Men å andra sidan visar det vilken betalningsvilja som finns för AI-tjänster. Även till nivåer som på förhand kändes smått orimliga. Och även om Open AI inte har gått ut med några skarpa siffror på hur många prenumeranter varje abonnemangstyp har så gissar jag att det finns rätt många aktiva Team-abonnemang. Så vi pratar inte direkt om jättefå som kör Pro.

Open AI skulle nog därför gärna skruva upp priset på Pro. Men det är alltid svårt med stora höjningar av befintliga priser. Det känns därför inte helt omöjligt att de stoppar in ett ännu dyrare abonnemang en nivå ovanför. Så… Pro+?

OpenAI Revenue Surged From $200-a-Month ChatGPT Subscriptions

ChatGPT-prenumeranterna nästan tredubblades 2024

Nästan tredubbling. Så många fler blev de som betalar för ChatGPT förra året. Eller så mycket ökade åtminstone antalet prenumerationer.

Enligt information som Open AI ska ha delat med sina aktieägare så slutade 2024 med 15,5 miljoner betalande ChatGPT-prenumeranter. Upp från 5,8 miljoner 2023.

Och det är ju finemangnyheter för Open AI! Eller?

Om vi tittar på den totala användningen av ChatGPT så meddelade Open AI i slutet av förra året att tjänsten numer har över 300 miljoner användare varje vecka. Om vi antar att de som betalar för ChatGPT definitivt använder den minst en gång i vecka så landar vi på att runt 5 % av veckoanvändarna betalar för sig. Resten kör gratis.

Vill man se det positivt så finns det en enorm potential för Open AI i och med att så många inte betalar i dagsläget. Ska vi vara krassa så inser man varför Open AI är i sånt behov av ständig och allt större påfyllning av kassan från sina finansiärer.

ChatGPT Subscribers Nearly Tripled to 15.5 Million in 2024

Microsoft rullar ut Deepseeks AI-modell på Azure

Microsoft: DEEPSEEK SNODDE GREJER FRÅN OPEN AI NÄR DE BYGGDE SIN AI-MODELL!

Också Microsoft: Hörni! Kom igen! Använd Deepseeks AI-modell! Vi har lagt den på Azure nu!

Så för att recappa:

Open AI, som har byggt hela sin verksamhet på att sno innehåll till sitt AI-tränande utan att ha be om lov eller betala ersättning, anklagar Deepseek för att ha snott från dem. Och Microsoft hjälper Open AI med att utreda om så har skett, eftersom de två företagen har så tajt samarbete. Samtidigt hugger Microsoft Open AI i ryggen genom att börja erbjuda Open AI-konkurrenten Deepseeks modell till sina egna kunder för att på så sätt minska beroendet av Open AI. SURPRISE! Och vi minns förstås också hur Open AI i våras vänstertacklade Microsoft genom att börja samarbeta med Apple. SURPRISE!

Game of Thrones ain’t got nånting alls on this.

Microsoft rolls out DeepSeek’s AI model on Azure

The AI model will be available in the model catalog on the platforms and will join more than 1,800 models that Microsoft is offering. DeepSeek last week launched a free AI assistant that it says uses less data at a fraction of the cost of incumbent services.

Microsoft lägger till Open AI:s språkmodell o1 i Copilot kostnadsfritt

Microsoft fortsätter att göra precis som sin samarbetspartner Open AI: satsa på alla hästar samtidigt. Efter att igår ha överraskat världen (och förmodligen Open AI) med att börja erbjuda Open AI-konkurrenten Deepseek via Azure så är det nu dags för Microsoft att stoppa in Open AI:s o1-modell i Copilot.

Ja, eller den har funnits där ett tag, under namnet Think Deeper (vilket är ett galet mycket bättre namn än ”o1”), men då bara som del av betalversionen Copilot Pro.

Den här veckan börjar Microsoft erbjuda möjlighet för alla Copilot-användare att o1-djuptänka. Alltså använda den Open AI-språkmodell som ska vara bättre på att resonera sig fram till ett svar och därmed också delvis faktachecka sitt eget svar.

Jag utgår dock från att det kommer finnas hyfsat rejäla begränsningar för gratisanvändarna.

Microsoft makes OpenAI’s o1 reasoning model free for all Copilot users

Microsoft is bringing OpenAI’s o1 model to all Copilot users, free of charge. It’s available now as the Think Deeper feature.

Perplexity integrerar DeepSeek i sin AI-webbsökmotor

Ibland går det fort. För nån vecka eller så sedan så såg en ny AI-språkmodell och AI-tjänst dagens ljus: kinesiska DeepSeek. En modell som sägs matcha Open AI:s senaste modell för ChatGPT – trots att den ska ha tränats till en betydligt billigare slant (även om det nog beror lite på hur man räknar). Nu lägger Perplexity till DeepSeek i sin AI-sökmotor.

DeepSeek släppte sin modell som open source, vilket innebär att det är fritt fram för nära nog vem som helst att använda och bygga vidare på DeepSeeks alster. Och Perplexity – som inte bara är kända för att vilja köpa TikTok – har nu alltså lagt till DeepSeek i sin tjänst.

Kör man Perplexitys Pro-läge så får man ”3x more sources and detailed answers”. Och för att få till det sistnämnda kan man välja mellan två ”resonerande” AI-modeller. Alltså modeller som ska vara bättre på att resonera sig fram till ett svar och därigenom delvis faktachecka sig igenom sitt svar. De två modellerna är Open AI:s o1 och just DeepSeeks R1.

I samband med valet av den sistnämnda så står ”featuring new DeepSeek model hosted in US”. Perplexity är med andra ord väl medveten om det inte helt obetydliga problemet att DeepSeek är kinesisk. Men i det här fallet så lutar sig alltså mot att modellen har lagts på servrar i USA.

I dagsläget så gäller det dock att verkligen resonera sig fram till vilka frågor som man verkligen behöver ett avancerat resonemangssvar på när man webbsöker. I dagsläget får man bara tre frågor om dagen, även om Perplexity säger att de ”arbetar på att lägga till mer kapacitet” för att på så sätt kunna öka antalet frågor.

DeepSeek R-1, reasoning model of China’s AI startup is now available on Perplexity, to support deep web research | Mint

DeepSeek R-1, China’s AI Model now available on Perplexity, to support deep web research

Kina och Iran använder amerikanska AI-produkter för att genomföra IT-attacker mot USA

Den senaste veckan har kinesiska AI-raketen DeepSeek seglat upp som ett nytt uttalat potentiellt hot mot USA:s nationella säkerhet. Men det visar sig att den största säkerhetsrisken för USA kanske är… landets egna AI-bolag.

Chinese and Iranian hackers are using US AI products to bolster cyberattacks

A cyber-threat report from Google is shedding light on how foreign actors are leveraging generative AI to boost their hacking prowess.

Exempel på hur Open AI:s Operator används för att utvärdera DeepSeek

Ha. Lite kul. Exempel på hur Open AI:s nysläppta AI-agent Operator används för att utvärdera det senaste, kinesiska AI-stjärnskottet DeepSeek. Operator får i uppgift att hitta på och ställa frågor till DeepSeek till dess att Operator svarar fel. Och DeepSeek fejlade på frågan kring vilken som är världens längsta flod.

Visst. Det här är i sig ett rätt basalt test. Men det är ändå ett rätt konkret exempel på hur en AI-tjänst hyfsat självständigt kan lösa stegen i en övergripande uppgift som den har fått.

Open AI har listat exempel på hur Operator kan shoppa på nätet, boka tider eller hitta en trevlig semesterresa på egen hand genom att surfa runt på nätet ungefär som en människa. Motsvarande funktionalitet ska också finnas hos motsvarande lösningar hos andra, som AI-sökmotorn Perplexity.

Vi pratar alltså om betydligt mer avancerade handgrepp än det som Operator utsätts för i videon här nedan. Och på de tidiga omdömen jag har sett så verkar det som att funktionerna har en bit kvar innan de blir nyttiga på riktigt. Men det blir oavsett väldigt spännande att följa hur den här sortens automatisering kan underlätta vår vardag de närmaste åren.

Jiquan Ngiam on LinkedIn: Just got access to OpenAI’s new Operator: AI with Computer Use. So I put… | 24 comments

Just got access to OpenAI’s new Operator: AI with Computer Use. So I put it to the test with DeepSeek — I asked Operator to keep asking DeepSeek questions… | 24 comments on LinkedIn

Australian Open förvandlar tennisspelare till Nintendo-liknande figurer för livesändningar på Youtube

Ha. Underbart. Tennisturneringen Australian Open har, som alla stora sportevenemang med mycket pengar, som vanligt sålt sändningsrätterna till matcherna. Vilket tydligen gjorde att turneringen inte hade rätt att sända matcherna via sin egen Youtube-kanal.

Men med lite AI-hjälp så löste det sig.

Sändningen på Youtube hade en fördröjning på två minuter och det finns en anledning till det. I glappet mellan den riktiga direktsändningen och Youtube-strömmen så förvandlades spelarna till Nintendo-figurer. Den som såg matchen via Youtube tittade alltså på en match mellan två animerade figurer istället för de riktiga spelarna.

Men i övrigt var allt precis som i de övriga sändningarna. De animerade spelarna spelade alltså precis som människorna. Även ljuden från matchen var de samma. Allt för att på så sätt undvika de avtalsmässiga begränsningarna som annars hade gjort att matchen inte hade kunnat sändas via Australian Opens Youtube.

Kul och kreativt. Sen kan man förstås fundera på hur glada tv-kanalerna, som köpt svindyra sändningsrättigheter, är. Australien Open argumenterar att Youtube-sändningen är ett försök att locka nya (läs: yngre) tittare till sporten. Men jag hade nog varit lite putt som tv-bolag.

Det återstår med andra ord att se hur det här kan påverka Australian Opens möjligheter att ta betalt för sändningsrättigheterna nästa år. Vi lär märka om det blir någon repris på Youtube-intiativet nästa gång.

Why Australian Open live streams look like Wii tennis – and what it means for sports

The Australian Open’s animated tennis livestreams are making a splash. U.S. leagues have used similar technology to put Simpsons on the football field and superheroes on ice skates.

Deepseek tar på egen hand fram lösningar som gör att företag kan spara 10 000 dollar på befintliga verktyg

Woah. Sjukt cool Deepseek-användning!

Här är en som släppte lös den kinesiska AI-boten i sin dator och bad den automatisera alla verktyg som hans företag använder. Deepseek tog på egen hand fram egna lösningar som ersatte företagets befintliga verktyg. En besparing på 10 000 dollar. Imponerande!

Här är en som släppte lös Deepseek i sin dator och bad den automatisera alla verktyg som hans företag använder. Deepseek tog på egen hand fram egna lösningar som ersatte företagets befintliga verktyg. En besparing på 10 000 dollar. Imponerande!

Nilay Modi on LinkedIn: I'm in total shock. China's new ChatGPT competitor aka DeepSeek R1 model… | 60 comments

I'm in total shock. China's new ChatGPT competitor aka DeepSeek R1 model is mind-blowing (in both good and bad ways). Over the weekend, I let it run on my… | 60 comments on LinkedIn

 

IoT – internet of things

Google gör PebbleOS open source

Tillbaka! Tillbaka!! TILLBAKA!!! Eller nåt. Smartklocketillverkaren Pebble ska nu göra sig redo för en don’t call it a comeback.

Pebble började som en Kickstarter-kampanj, började sälja sina smartklockor – eller åtminstone hälsospårare för handleden – gick i konkurs 2016, köptes upp av konkurrenten Fitbit som sedan sålde vidare till Google 2021.

Men nu ska Pebble alltså återuppstå.

Samtidigt passar Google – som fortfarande äger tekniken och varumärket Pebble – på att göra Pebbles mjukvara open source. Med andra ord kan andra nu använda och bygga vidare på PebbleOS, som var operativet som styrde Pebbels prylar.

Däremot kommer inte Pebble tillbaka som namn. Istället blir det ett nytt, som ännu inte är beslutat.

Det intressant med att Google open sourcar är att de själva senaste åren har storsatsat på sitt eget wearbles-operativ Wear OS. Men Google har inget problem med att satsa på flera hästar. Genom att open sourca så kan andra göra jobbet med att vidareutveckla Pebble, något som Google kan gynnas av på sikt.

Smartwatch pioneer and Kickstarter darling Pebble is returning in a new form | TechCrunch

Four years after launching the (then) most lucrative crowdfunding campaign in Kickstarter’s history, smartwatch maker Pebble abruptly closed in 2016,

Apple börjar samarbeta med SpaceX

Nytt intressant samarbete för Apple: Elon Musks rymdbolag SpaceX.

Vad det handlar om är att Apple håller på (att bygga eller egentligen redan har bygg) stöd för rymdinternetabonnemanget Starlink i iPhonen. Det betyder alltså att iPhone-användare kan koppla upp sig via Starlink om de befinner sig någonstans där det inte finns vanlig mobiltäckning. Ja, förutsatt att Starlinks satelliter täcker området, förstås.

Samarbetet är del av det nöduppkopplingsstöd som Apple la till för några iOS-uppdateringar sedan, som ska göra det möjligt att kontakta 112-hjälp om olyckan eller behovet är framme när man är mitt ute i ingenstans. Istället för att koppla upp sig via en mobilmast så ringer man via satelliter som ligger i omloppsbana runt planeten. (Det är åtminstone det primära användningsområdet, även om Apple har börjat testa att bredda bortom bara nödsamtal och nödmeddelanden.)

Uppgifterna kommer från Apple-analytikern Mark Gurman, så det är alltså inte något officiellt från Apple. Vi vet med andra ord inte när funktionen kommer. Eller i vilka regioner. Eller ens om. Men med tanke på att Starlink numer är den ledande rymdinternettjänsten så känns samarbetet rätt rimligt.

Man kan tycka vad man vill om Elon Musk (vilket, ja, jag gör), men Starlink är en av de väldigt bra saker som Musk har fått till. Det blir intressant hur den sortens internetuppkopplingsteknik kan komma att utvecklas framöver.

Apple Partners With SpaceX to Offer Starlink Connectivity on iPhone

It currently offers texting services but may expanded to offer data and voice calls in the future, as per Gurman.

Kategorier
AI - Artificiell intelligens Allmänt digitalt Ekonomi och finans IoT - internet of things Spaningar

Digitala spaningar vecka 4 2025 – del 3

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Kinesiska DeepSeek skakar om AI-världen med billigt AI-tränande – eller?

Det senaste företaget som har skakat om AI-världen de senaste veckorna är DeepSeek. En startup sprungen ur en så kallad hedgefond, där fokus mycket låg på teknisk analys som grund för investeringsbeslut. Kort sagt en verksamhet som redan mycket använde sig av olika slags algoritmer med AI-funktionalitet.

Det som DeepSeek presenterade var en modell (eller ett par olika) som visar sig matcha de avancerade modellerna hos dagens stora AI-drakar. Men som ska ha tränats med en bråkdel av de kostnadsnivåer som vi vant oss vid. 5 miljoner dollar istället för de 5 miljarder (ja, eller ännu mer) som gällt för andra träningslägren.

DeepSeek är dessutom open source. Och på riktigt, till skillnad från Metas Llama-modell som har inbyggda begränsningar i hur modellen får användas på ett sätt som inte strikt lirar med den standardiserade definitionen för open source (även om Meta inte håller med om det). Det är alltså fritt för andra att använda DeepSeeks modell och bygga vidare på den.

Men frågan är förstås om det är riktigt så bra som det sägs?

Om vi bortser från att vi här pratar om ett kinesiskt företag – där det alltid kan finnas lite osäkerhet kring om verkligen allt har redovisats eller om det har kommit ett statligt direktiv att mörka siffror för att stressa USA i AI-racet – så finns det osäkerhet om hur träningen har gått till. Det ser nämligen ut som att DeepSeek till stor del har tränats på syntetiskt data, snarare än att den har samlat in riktig data på egen hand – exempelvis genom att spindla sig igenom sajter på internet.

Mer specifikt ser det ut som att DeepSeek har tränats mycket på Open AI:s GPT-4. Alltså den senaste versionen av den teknik som till största del är den teknik som driver ChatGPT. Att DeepSeek alltså har låtit Open AI göra de tunga lyften och på så sätt tagit en genväg.

Det forskning har kommit fram till är AI-modeller som bara tränas på innehåll som har skapats av AI-modeller blir sämre och sämre. Det behövs helt enkelt, rätt bokstavligen, ständigt nytt blod för att hålla kvaliteten uppe. Och då mänskligt skapat innehåll.

En annan utmaningen är att det här gör det ännu svårare att veta vilken data som har använts för att träna en modell. Och det för oss i sin tur över på ytterligare en utmaning. Som en X-användare konstaterade: ”Open AI stal från hela internet för att göra sig själva rikare, DeepSeek stal från dem och ger tillbaka [stöldgodset] till den stora massan gratis”. Robin Hood! Med det problemet att DeepSek på så vis delar ut stöldgodset till alla – och de som skapade innehållet får fortfarande inte någon ersättning. Vi har sett samma hos Meta, när Mark Zuckerberg gav tumme upp att träna deras modell Llama på dataset som innehåller olagligt insamlad upphovsrättsskyddat innehåll.

Så det kan i slutändan alltså handla om att DeepSeek har kunnat komma undan så billigt med träningen av sin AI-modell tack vare att de ”stal” från andra – dubbelt upp.

Ännu ett exempel på att lagstiftningen inte är helt glasklar när det kommer till just AI-träning och AI-modeller. Det kan också visa sig att det inte går att träna en AI-modell så billigt som DeepSeek säger sig ha gjort – utan att kostnaden för att träna GPT-4 borde läggas till.

Men det kan också vara så att DeepSeek har kommit fram till teknik som – oavsett allt det här – kan pressa kostnader, tid och därmed också energikonsumtion för att träna AI-modeller. Och det i sig är i så fall värt att applådera.

Why everyone in AI is freaking out about DeepSeek

DeepSeek has a free website and mobile app even for U.S. users with an R1-powered chatbot interface similar to OpenAI’s ChatGPT.

Digg lanserar riktlinjer för AI i offentlig förvaltning

Ett väldigt bra initiativ. Digg (som är på gång att slukas av PTS) har satt samman ett paket riktlinjer för generativ AI, specifikt för offentlig förvaltning.

Så för offentliga verksamheter alltså, men det lär finnas mycket att inspireras av även för andra.

Riktlinjer för generativ AI inom offentlig förvaltning

Donald Trump upphäver Joe Bidens presidentorder kring reglering för AI-utveckling

Donald Trump satte nytt rekord i att dunka ut flest presidentordrar under sin första dag på jobbet. Alltså den typ av ”lagar” som USA:s president kan skapa helt på egen hand, utan att behöva gå den bökiga vägen via de folkvalda i kongressen. Baksidan med det här expressförfarandet är att näste president lika enkelt kan upphäva gällande presidentordrar.

Och det sistnämnda är precis vad Trump nu har gjort med den presidentorder som Joe Biden skrev under, kopplad till reglering av AI-utvecklingen i landet.

Bidens presidentorder angav att AI-system som ”utgör risker för USA:s nationella säkerhet, ekonomin samt medborgares hälsa eller säkerhet” ska dela resultaten från tester av AI-lösningarna med USA:s regering innan dessa lanseras publikt.

Dessutom angav ordern standarder för hur testandet ska ske när det kommer till risker som är kemiska, biologiska, radiologiska, nukleära eller IT-säkerhetsmässiga till sin natur.

Men nu är det alltså slut med det. Trump har upphävt dem, så det är bara att go nuts. Vad är det värsta som kan hända?

Eller som det står i presidentordern: ”we must develop AI systems that are free from ideological bias or engineered social agendas”. Japp. För tittar vi på listan här ovan så är det verkligen det som är det största hotet med AI.

Trump revokes Biden executive order on addressing AI risks

U.S. President Donald Trump on Monday revoked a 2023 executive order signed by Joe Biden that sought to reduce the risks that artificial intelligence poses to consumers, workers and national security.

 

IoT – internet of things

Meta arbetar på smartglasögon för atleter

Metas satsningar på att bygga egen hårdvara har genom åren gått… sådär. Den enda riktigt stora produktserien är Oculus olika slags VR-set. Men det var en produkt och ett företag som Meta köpte upp. Däremot ser Meta det senaste året att ha fått en rätt stor hit med en annan slags ansiktsprodukt: smarta glasögon.

Det är närmare bestämt Metas Ray-Ban-samarbete som har gått riktigt bra. Så pass att den modellen ska ha varit den bäst säljande Ray-Ban-modellen på flera håll. Bland annat i några europeiska länder.

Den framgången verkar ha gett Meta blodad tand. Nu ska Meta arbeta på en ny glasögonprodukt – och ännu en gång i form av ett samarbete. Den här här gången sägs Meta arbeta på ett par smartglasögon för atleter tillsammans med Oakely.

Men Meta ser överlag en hårdvaruframtid där träning och hälsa är nyckeln till framgång. Meta sägs nämligen också arbeta på en smartklocka och ”kamerautrustade” hörlurar. (Exakt vad det sistnämnda innebär är… inte helt klart.)

Rykten och spekulationer, alltså. Som kanske aldrig blir verklighet. Men som sagt: med tanke på att Ray-Ban-samarbetet verkar ha fallit väldigt väl ut så känns det troligt att Meta åtminstone tänker försöka rida vidare på den framgången.

Meta is building Oakley smart glasses for athletes: Report | TechCrunch

Meta’s Reality Labs is expanding its lineup of AI smart glasses with a new pair of Oakley-branded spectacles targeted at athletes, according to

Samsung och Google har smarta glasögon ihop

Det har gått över ett årtionde sedan Google Glass såg dagens ljus. Googles ambition att bygga ett par AR-baserade glasögon, som skulle kunna visa digital information om den fysiska världen på linserna. Den enhet som rätt mycket blev startpunkten för smarta glasögon som vi känner dem idag.

Det gick sådär för Google Glass, trots att Google ställde om dem till att bli en produkt för företag snarare än konsumenter. Google var, som så ofta, för långt före sin tid. Men nu ser det ut som att det börjar röra på sig på allvar igen.

Anledningen är en kombination av att tekniken gällande exempelvis batteritid och högtalare blir allt bättre och den AI-våg som nu börjar bli basen i de digitala enheterna. Pusselbitarna i det som Google såg framför sig börjar nu på riktigt falla på plats.

Det kanske främsta exemplet är de oväntade framgångar som Meta har haft med sitt Ray-Ban-samarbete. En modell som säljer bäst av Ray-Ban-modellerna på flera ställen i världen, inklusive några europeiska länder.

Det har fått Google att känna att det är dags att visa alla andra var skåpet ska stå. Eller åtminstone försöka. Och precis som Meta så har Google insett att det förmodligen är smart att göra gemensam sak med någon som kan det där med konsumenthårdvara. Och Samsung kände samma sak – fast tvärtom kan vi tänka. Att Samsung gärna vill ta del av Googles lösningar inom AI och digitala assistenter.

Däremot är det ingen idé att börja köa riktigt än. Det finns inget datum för när de gemensamma glasögonen kan dyka upp. Eller, om vi ska vara krassa, ens en garanti att samarbetet faktiskt kommer att mynna ut i något.

Samsung and Google are developing AR glasses together

Samsung and Google are partnering to build AR glasses, Samsung’s TM Roh told Bloomberg. But there aren’t many other specifics – there’s not even a specific release timeline yet.

Forskare har hittat ett sätt att ladda bärbara prylar via huden

Okej. Det är inte det första försöket att få till det här, men det är ändå så vansinnigt coolt: forskare har lyckats ladda bärbara prylar med människokroppen som batteri.

Prylarna får helt enkelt sin energi via huden och laddas genom de elektroniska impulser som skickas runt i kroppen. Ja, det är åtminstone så jag fattar det.

Men även om jag inte har hundra koll på exakt hur det går till så är hela ambitionen att befria enheter vi bär med oss från batterier. Eller rättare sagt: våra egna kroppar blir ett enda stort batteri och det enda som behövs.

Nu är det inte direkt så att vi pratar om att vi kan snabbladda våra mobiler på det här sättet. Det handlar i dagsläget främst om mer hälsokritiska enheter, som pacemakers och blodsockermätare. Men även smartglasögon och smartklockar finns inom ramen för vad som forskarna tror kan vara möjliga att ladda den här vägen.

Forskarna konstaterar att forskningen är ”i ett tidigt skede”, men det räcker väl för mig. Ett väldigt lovande initiativ som jag hoppas blir verklighet i allmänt tillgängliga produkter.

Researchers develop a way to power wearables through human skin | TechCrunch

The dream of battery-free devices has taken an unlikely turn, as Carnegie Mellon researchers debuted Power-Over-Skin. The technology allows for electrical

 

Ekonomi och finans

Netflix har nu över 300 miljoner prenumeranter

Vadå jobbiga ekonomiska tider? Netflix fortsätter att gå som tåget. I sin senaste kvartalsrapport meddelade strömningsbolaget att de nu för första gången har över 300 miljoner prenumeranter globalt.

Det innebär att Netflix under Q4 förra året samlade på sig 18,9 miljoner nya prenumeranter under de sista tre månaderna. Ganska precis dubbelt så bra som förväntat från analytikerhåll. Procentuellt innebar det en ökning med 15,9 % jämfört med samma period året 2023.

Netflix Adds Nearly 19 Million Subscribers to End 2024 With More Than 300 Million Globally

Netflix revealed it has now reached 301.63 million subscribers globally when it reported its fourth-quarter 2024 earnings Tuesday.

Google investerar ytterligare 1 miljard dollar i Anthropic

Den senaste AI-vågen bjöd inte bara på att vi började använda en ny teknik (åtminstone om vi pratar om generativ AI på det sätt vi känner den idag) i ett rasande tempo. Även maktkoncentrationen har rusat på snabbare än förmodligen någon gång tidigare.

Det är i dagsläget i praktiken en handfull stora tjänster som står bakom tjänsterna vi använder. Men inte bara det: planeternas största techgiganter tar inte bara fram egna lösningar på det här området – de har också investerat stort i de mindre, renodlade AI-bolagen.

Störst här är Microsofts investering i Open AI, som gett Microsoft nästan hälften av ChatGPT-ägarens kommersiella del. Men även konkurrenten Anthropic, som står bakom ChatGPT-utmanaren Claude, har samlat på sig en stor hög pengar från ett par av de största techbolagen. Ett av dessa är Google, som enligt Financial Times nu kommer att stoppa in ytterligare en miljard dollar. Utöver de två miljarder som de redan har investerat.

Google har dock fortfarande en bit kvar till Amazons nivå. Totalt ska Amazon ha investerat 8 miljarder i Anthropic.

Google to invest fresh $1 billion in OpenAI rival Anthropic, FT reports

This comes after Reuters and other media reported earlier in January that Anthropic was nearing a $2 billion fundraise in a round, led by Lightspeed Venture Partners, valuing the firm at about $60 billion. The FT said that Google’s new investment was separate from the Lightspeed funding round.

 

Övrigt

Donald Trump kan sänka dataöverföringsavtalet mellan EU och USA igen

Donald Trump slog nytt rekord i att dunka ut presidentordrar första dan på jobbet. Och många av dem har handlat om att montera ned saker: jämställdhetssatsningar, mångfaldsinitiativ, klimatsatsningar och överlag vallar som satts upp för att skydda USA:s demokrati mot en storhetsvansinnig, diktatormaktfullkomlig president.

Men en sak som jag inte har tänkt på i sammanhanget är dataöverföringsavtalet mellan EU och USA.

Som många har koll på så raserades möjligheterna att lagligt skicka EU-medborgares data till USA när Max Schrems drog EU och avtalet som reglerade det här till domstol. Efter ett par års limbo lyckades EU-kommissionen och USA 2022 komma fram till ett nytt avtal som åter ska göra det möjligt att – fullt ut GDPR-lagligt – skicka EU-data till USA. Som via amerikanska företags molntjänster.

Avtalet sågades däremot rätt omgående av olika organisationer som verkar för integritetsrättigheter för EU-medborgare, så det blev uppenbart att fler domstolsförhandlingar är att vänta.

Men nu ser det ut som att det kan gå fortare än väntat för avtalet att kollapsa. För att få till de nödvändiga garantier som EU krävde (att underrättelsemyndigheter inte kan ta del av EU-medborgares data hur som helst) så skrev även han en presidentorder om detta.

Fördelen med en presidentorder är att det är en ”lag” som inte behöver gå hela den långa formella vägen och röstas igenom i kongressens båda kammare. Nackdelen är att den kan upphävas lika snabbt genom att en ny president helt enkelt skriver en presidentorder som annullerar en befintlig presidentorder.

Och nu har Trump börjat montera ned några av de skyddsfunktioner som Bidens presidentorder satte på plats. Vilket gör att EU-domstolen sannolikt rätt snart kommer att behöva se över om även det befintliga dataskyddsavtalet mellan USA och EU är ogiltigt på grund av GDPR.

Eller så år EU-kommissionen ringa Trump och be honom att… äh, vem försöker jag lura?

US Cloud soon illegal? Trump punches first hole in EU-US Data Deal.

Trump seeks to ”paralyze” the ”Privacy and Civil Liberties Oversight Board” (PCLOB). A key element of the EU-US data transfer deal (”TADPF”) that allows EU-US data flows.

USA kan kopiera EU:s Digital services act

Så har Trump börjat på jobbet. Och därmed också hans personal. Vilket innebär att FCC, ungefär USA:s Post- och telestyrelse, också fått ny chef: Brendan Carr.

Carrs agenda och fokusområden kan vi delvis lista ut från det kapitel kring just FCC:s ansvarsområden som Carr författade i Project 2025-manifestet. Ni vet, den där genomgången från den hyfsat yttersta högern i USA som gick igenom hur Trump ska demontera demokratin i USA under sin andra mandatperiod.

Bland de saker som Carr lyfte upp som rekommendationer var att techplattformar inte längre ska skyddas av det så kallade Section 230, ett avsnitt i lagen Communications Decency Act som skyddar plattformarna från snedsteg som deras användare gör. Att exempelvis de stora sociala medierna inte längre kan komma undan med att bara vara en techplattform och tillhandahållare av information ungefär på samma sätt som en tele- och internetoperatör.

Dessutom efterlyste Carr större insyn i hur plattformarnas innehållsrankingalgoritmer faktiskt fungerar.

Punkten om Section 230 är en del som demokrater och republikaner har varit hyfsat överens om: techbolagen måste avkrävas mer ansvar. Men kraven från respektive sida har förstås varit sprungna ur helt olika ingångsvinklar: demokraterna vill att plattformarna ska göra mer för att städa bland träskinnehåll och desinformation medan republikanerna ser det som måste för att få tjänsterna att sluta ”censurera” konservativa röster.

Oavsett: hur man vrider och vänder på det så handlar det om att ge politiker större makt över dessa tjänster.

Och ironiskt nog så innebär det här att USA (sannolikt) kommer att gå i EU:s fotspår. En amerikansk variant av Digital services act. Fast en som förmodligen kommer att vara mer tydligt styrd, reglerad och använd på olika sätt beroende på vem som har makten i landet.

Även Trumps val som chef för FTC, ungefär USA:s konsumentverk, är inne på samma väglängd. Fast han är lite mer öppen med vad han ser som måsten: ”protect freedom of speech and fight wokeness”. Så vi vet nog vilken yttrandefrihet som mest är tänkt att skyddas.

Brendan Carr is officially in charge of the FCC

Brendan Carr, who authored a chapter of Project 2025 and has previously supported a TikTok ban, is now the chair of the Federal Communications Commission.

Hälften av de högsta chefernas i Trumps “effektiviseringsdepartement” DOGE slutar bara timmar efter Trumps installation

Elon Musks ”effektiviseringsdepartement” rivstartar direkt med sitt uppdrag. Trumps installationsceremoni har knappt avslutas och DOGE har redan effektiviserat bort 50 % av sina högsta chefer.

Timmar efter Trumps tillträde – första avhoppet bekräftat

WASHINGTON DC. Bara timmar efter Donald Trumps tillträde som USA:s president kommer den nya administrationens första avhopp. Biotechmiljardären Vivek Ramaswamy, som tillsammans med Teslachefen Elon Musk hade utsetts till att leda Trumps effektiviseringskommitté, lämnar sitt uppdrag. Det bekräftas av Vita huset.

Nazi-heilade Elon Musk under Donald Trumps installationsceremoni?

Okej, nu tänker jag vara väldigt välvillig och tolka det som att det förhoppningsvis absolut inte ens var i närheten av det som det trots allt ser ganska precis exakt ut som.

Elon Musk Appears to Give Nazi Salutes at Trump Rally

The billionaire Tesla CEO has a history of racist comments.

Kategorier
Allmänt digitalt Detaljhandel/e-handel Ekonomi och finans IoT - internet of things Mobilt Sök/SEO Spaningar Strömmade medier

Digitala spaningar vecka 2 2025 – del 3

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Sök/SEO

Google kan lägga till AI-sök i sin vanliga sök utöver den befintliga AI-söken

Jag måste erkänna att jag faktiskt var rätt orolig för Google i och med senaste AI-vågen. Att de faktiskt inte skulle kunna hålla stilen. Men den oron verkar obefogad. Google ser ut att kunna lägga krokben för sig själva även denna gång.

Jag brukar säga att Google är bolaget som innoverar och Apple är de som sedan kopierar det som Google har kommit fram till – och gör en enkel och smidig produkt av Googles innovation. Google är överlag för smarta och för långt fram för sitt eget bästa – och de har så fruktansvärt svårt att konsumentförpacka sina tjänster (av tjänsterna som Google tagit fram själva är det egentligen bara söken de har lyckats göra riktigt framgångsrik så här långt).

Förutom att älska ingenjörsnamn på sina produkter och göra dem onödigt avancerade för normalanvändare så är Google världsbäst på att släppa förvirrande många olika varianter av saker så att man inte riktigt vet vad man ska använda till vad. Och varför.

Googles djungel av chattappar är förmodligen det tydligaste exemplet så här långt. Men nu ser det ut som att Googles AI-avdelningar står där med sin öl och hoppas att nån vill hålla den åt dem.

Häromdagen släppte Google ännu en AI-bildskapare, som får eget namn (Whisk) istället för att helt enkelt läggas till som funktion i en befintlig tjänst och nu kommer uppgifter om att Google tänker lägga till AI-sök i sin sök. Ja, ännu en AI-sök i söken, utöver den befintliga AI-sökfunktionen AI Overviews.

Det verkar handla om att Google stoppar in sin ChatGPT-utmanare Gemini i söken. Som en ny flik. Utöver att Gemini förstås finns som en fristående tjänst. Som kan söka på webben.

Oavsett det så borde det inte bli särskilt krångligt. Två olika sätt att söka på samma ställe. En startpunkt.

Däremot utgår jag från att AI-folket på Google står där med sin öl. Och en lång lista på saker som de tänker lägga till för att vara säkra på att Google även denna gång slår trippelknut på sig själva.

Google to Offer AI-Generated Conversational Answers in Search

Google gör det möjligt att göra en AI-podd av sökhistorik och Discover-flödet

Google fortsätter att bygga vidare på och skala upp sin funktion Audio Overviews. Eller ”AI-podd-funktionen” som vi andra säger. Nu släpper Google lös den på din sök- och Discover-historik.

Den som har skapat en podd via Googles AI-tjänst NotebookLM känner i stort igen upplägget. Man drar in en text, en ljudfil eller länk till ett Youtube-klipp och låter sedan Google skapa en kort podd som diskuterar innehållet.

Skillnaden här är att Daily Listen, som funktionen heter, är vad den heter. Istället för att du manuellt ska peka ut källan så gör Google även det jobbet åt dig automatiskt. Google sammanfattar nyheter som du är eller borde vara intresserad av och sammanfattar dessa i en fem minuter lång ljudfil en gång varje dag. Typ Ekot, alltså. (Så ja, om man så vill så betyder ”Daily Listen” även att Google ”lyssnar” på ditt googlande och ditt Discover-läsande löpande.)

Resultatet förpackas i en egen liten minispelare som har de vanliga uppspelningsreglagen, som kapitelindelning, möjlighet att hoppa i avsnittet – plus texttranskribering av det upplästa ljudet.

Däremot är det ingen idé att du börjar leta efter funktionen i svenska Google. Eller i de flesta länder. Funktionen är ett test i Googles Android- och iOS-appar som i dagsläget bara körs i USA. Återstår att se om och när funktionen rullas ut till fler ställen.

Google Labs’ new ‘Daily Listen’ feature uses AI to create short daily podcasts from your Search and Discover feed

 

Detaljhandel/e-handel

Amazon låter konkurrenter använda företagets annonsteknik på sina egna sajter

Ett steg som har varit på gång ett tag: Amazon säljer sin annonseringsteknik till konkurrenter.

Det handlar om att e-handlare nu kan integrera Amazons lösning för att visa annonser och sedan sälja och visa upp annonser på sina egna sajter. Det blir med andra ord möjligt för e-handlare att på så sätt göra ”internannonsering” till ett potentiellt nytt intäktsben.

Precis som för Amazon själva så kan det på så sätt bli möjligt att tjäna pengar på kunder som besöker sajten men sedan inte köper något. Som att olika varumärken som e-handlaren säljer betalar för att lyfta fram sina produkter i e-handelssajtens sökresultat.

Amazon har tagit allt fler steg för att trycka ut sin teknik och sina tjänster på allt fler ställen utanför den egna sajten och appen. De vill på detta sätt gärna tjäna pengar på handlare som envisas med att inte sälja via Amazon. Eller åtminstone inte bara sälja via Amazon.

Och precis som exmpelvis Buy with Prime, där externa e-handlare kan låta kunder handla med sina Prime-konton för att på så sätt få fördelarna i Prime även utanför Amazon, så är det också ett sätt för Amazon att kunna samla in data och insikter från konkurrenter. Åtminstone delvis. Vi kan tänka oss att de har det i bakhuvudet även för utrullningen av tjänsten med annonsverktyget.

Amazon to expand ad unit by letting retailers use ad tools on their own stores 

Amazon skrotar några av sina mångfaldsprogram

Amazon gör en Meta. Eller, ja, som många andra amerikanska företag har gjort senaste året. I allt högre takt sedan det blev klart varåt de politiska vindarna blåste i presidentvalet i USA. Och efter.

Nu skrotar Amazon ”några” av sina mångfaldsprogram. Alltså de initiativ som Amazon har haft för att öka mångfald och inkludering bland anställda, kunder, säljare och leverantörer. Exakt vilka av programmen som har fått stryka på foten är inte klart, men skrivningar om transpersoner finns bland exemplen som nu har plockats bort från Amazons sajt.

Det handlar med andra ord om de så kallade DEI-initiativ som är ett lika rött skynke för den amerikanska högern som ”woke” (åtminstone bland dem som har injicerat Trump-drogen). Ja, eller just DEI – alltså mångfald, rättvisa och inkludering – är en av de värsta delarna i det som Trumps lakejer klassar som just woke.

Och det är ännu ett exempel på hur stora (amerikanska) företag nu kastar ut värderingar till förmån för vinst. Ja, förhoppning om vinst. Åtminstone förhoppning om att man inte ska straffas av Trump.

2025 har verkligen inletts på ett väldigt sorgligt sett. Och då inte bara katastrofer som jättebranden i Kalifornien.

Amazon halts certain DEI programs 

 

Strömmade medier

Youtube låter innehållsskapare välja vilka företag som får träna på deras videos

Ett väldigt intressant – och välkommet – steg från Youtube. Möjlighet för innehållsskapare eller rättighetsinnehavare att själva välja vilka företag som får träna AI-modeller på deras innehåll.

Den som vill tillåta externa företag att träna på innehåll kan peka ut vilket eller vilka innehåll som får tillgång från en lista av 18 företag till att börja med. 18 företag som har rätt stor AI-verksamhet, med namn som Open AI, Anthropic, Google, Meta, Apple och Perplexity. Men den som känner att hen har tur kan också öppna dammluckorna och låta alla externa företag träna på innehållet.

Det går förstås också att dra tillbaka tillåtelsen.

Argumentet för det sistnämnda är enligt Youtube att innehållsskapare – och kanske ännu mer rättighetshavare, för vi pratar förstås framförallt stora kanaler här – allt oftare sluter avtal för att hyra ut sitt innehåll till att träna AI-modeller.

Och det är det jag tycker är så välkommet. Google tar ett första steg mot en annan intäktsström för innehåll i social medier. Ja, och att överhuvudtaget erbjuda lösningar som gör att människor kan ersättas för det innehåll som AI-bolagen sedan tjänar pengar på. Men så här långt i stort utan att betala för innehållet. Eller ens tacka innehållsskaparna som har byggt AI-bolagens business.

Visst. Det finns än så länge ingen självservicelösning i Youtubes lösning, där man kan förhandla sig till ett pris med dem som vill träna. Men det är är inte alls omöjligt att det är en ny form av ”influencersamarbeten” i AI-ekonomin.

Och visst. Youtube är inte ett av företagen som ingår i listan över företag man kan släppa in för AI-träning. Eftersom… Youtube kommer att träna på innehållet ändå. Utan ersättning.

Men oavsett den dubbelstandarden så är det ett väldigt viktigt steg från Youtube. Jag hoppas att även andra inspireras av Googles initiativ.

YouTube will let creators opt out (or in) to third-party AI training

 

IoT – internet of things

Metas Ray-Ban-glasögon får realtidsöversättning och live-AI

De lever fortfarande mycket i uppmärksamhetsskuggan, men Metas Ray-Ban-samarbete ser ut att vara en rätt stor framgång för Meta på hårdvaruområdet. Så pass att Metas modell ska vara de Ray-Bans som säljer bäst på flera håll. Nu blir glasögonen ännu smartare.

Det är tre nyheter, närmare bestämt.

  • Realtidsöversättning: Glasögonen kan läsa upp översättning av vad någon har sagt via glasögonens högtalare. Gäller dock än så länge bara för översättningar till tre språk: från engelska till spanska, franska eller italienska.
  • Live AI: Bågarna får nu det som ChatGPT fick för några dagar sedan: möjlighet för den inbyggda AI:n att se världen omkring användaren i realtid och svara på frågor om det som syns. Planen är att Meta AI ska kunna ge ”användbara förslag redan innan användaren frågar”. Vi får hoppas att det sistnämnda går att stänga av när det kommer.
  • Shazam-integration: Glasögonen kan identifiera låtar via Apples tjänst. Det som allt mer känns som Apples bästa uppköp alla kategorier får nu alltså data även från Metas enhet. Med tanke på den inte helt… friktionsfria relationen mellan de båda bolagen är det lite oväntat att den kommer in så snabbt. Men Meta har väl konstaterat att det kan vara lite av en killer app för smarta glasögon, vilket nog är en rätt korrekt tanke.

Än så länge finns dock funktionerna bara via Metas Early access program kopplat till Ray-Ban-glasögonen. Men det är nog mest en tidsfråga innan funktionerna rullas ut till alla användare.

Meta’s Smart Glasses Gain Live AI Features, Real-Time Translation and More

Google ingår avtal för att bygga humanoida AI-bestyckade robotar

Väldigt intressant nytt avtal. Google (mer formellt Googles AI-verksamhetsbolag DeepMind) har inlett ett nytt samarbete med Apptronik. Syftet? Humanoida AI-robotar.

Det är kort sagt det som Tesla håller på att få till med sin Optimus. Eller robotarna Figure 01 och 02. Eller det som robotveteranerna Boston Dynamics också arbetar på nu. Tvåbenta robotar som ska bli ännu bättre på att utföra uppgifter tack vare att de får hjärnor.

Ja, eller mer avancerade hjärnor, åtminstone. Som ska ge robotarna bättre förmågor att hantera oförutsedda situationer. Och överlag bli mer användbara genom att de kan lösa fler uppgifter på egen hand genom att de bättre kan förstå och interagera med världen omkring dem.

Ja, det är åtminstone planen. Än så länge har vi en rätt bra bit kvar till dess att robotarna faktiskt når dit.

Men det blir oavsett intressant att se vad Apptronik-samarbetet kan resultera i när det kommer till smartare robotar.

Apptronik partners with Google DeepMind to advance humanoid robots, AI

 

Mobilt

EU kommer med förslag på hur Apple ska tvingas öppna sina operativsystem

Nu jäklar i min låda ska här bändas upp Apple!

EU har landat i en lång lista på allt som Apple måste göra för att inte bryta mot Digital markets act, den EU-lag som riktar in sig på de största av de största. De plattformar som den som vill använda internet i praktiken måste gå via. Som iOS med tillhörande appbutik.

Sedan tidigare har EU som bekant tvingat fram förändringar kring hur Appstore ska fungera. Mer specifikt hur utvecklare enklare ska kunna ta betalt via andra tjänster än Apples egna och att det ska gå att installera iOS-appar från andra appbutiker än Appstore (gäller även för iPaden).

Nu har EU ställt in siktet på en annan central del i Digital markets act: interoperabilitet. Att det helt enkelt ska vara enklare att byta mellan tjänster eller plattformar, som att gå från iOS till Android eller från Meta till Blusky (ja, eller vad som skulle vara alternativet här) och ta med sig all sin data och historik. Men även öppna upp centrala delar i exempelvis ett operativ som externa utvecklare behöver tillgång till för att bygga appar.

Här räknas upp en lång rad funktioner som automatisk växling av ljud, Airdrop, olika typer av korta trådlösa funktioner, Airplay, wifi-lösenordsdelning, bakgrundsaktiviteter och NFC-chipet (som Apple redan har gått med på att öppna för externa betalförmedlare).

Kraven här är att Apple i stort ska bli mer transparenta mot utvecklare gällande hur teknikerna fungerar, göra processen enklare och tydligare för den som vill begära tillgång till funktioner av den här typen, större transparens kring avslag och att Apple ska ”framtidssäkra interoperabilitet genom ”interoperabilitet by design””. Alltså tänka in redan från start hur de säkerställer att en tjänst inte är inlåst i Apples trädgård.

Nu läser inte jag flytande EU:iska, men det verkar alltså inte som att det handlar så mycket om att andra automatiskt ska släppas in i Apple-funktioner, utan att de som vill använda exempelvis Airdrop ska kunna göra det. Frågan är mest hur djupt ned i operativet externa parter ska släppas och hur stor insyn de ska få i Apples svarta lådor. Återstår att se hur rätt eller fel jag har här.

Apple har förstås motsatt sig det här på det sätt man kan förvänta sig genom att 1) använda GDPR mot EU och 2) sparka på Meta därför att man alltid kan sparka på Meta. Så kort sagt kan man sammanfatta Apples invändning rätt bokstavligen med ”om vi tvingas gå med på det här så kommer Meta att dammsuga upp varenda datasmula om varenda EU-medborgare som har en iPhone – låter det bra, va? Va? Va? Gör det det?”

Nu är förslaget oavsett ute på remiss. Vi kan anta att Spotify och Epic Games inte tycker att EU går tillräckligt långt.

EU asks for views on plan to force Apple to open up iOS

EU asks for views on plan to force Apple to open up iOS

Bara en Meta-app topp tio bland svenskarnas mest nedladdade iOS-appar 2024

Som sig bör den här tiden på året så har Apple sammanställt listan över de appar som laddades ned mest från Appstore under 2024. Och en rätt överraskande lista för Sverige. Framförallt när det kommer till Meta.

Tittar vi på hemlandet USA så var topp tio för gratisappar:

  1. Temu
  2. Threads
  3. TikTok
  4. ChatGPT
  5. Google
  6. Instagram
  7. WhatsApp
  8. CapCut
  9. Youtube
  10. Gmail

En lista som kort sagt i stort sett ser ut som den har gjort rätt många år nu, men några aktuella raketer.

Tittar vi på Sverige så finns det inte oväntat gemensamheter. Som att Temu toppade och att ChatGPT ligger på fjärde plats. Men i övrigt skiljer det sig rejält från USA:

  1. Temu
  2. Max
  3. Aimo
  4. ChatGPT
  5. Threads
  6. Vinted
  7. Chrome
  8. Postnord
  9. Microsoft Authenticator
  10. Google

Det är framförallt en stor avsaknad av sociala appar. Faktum är att Meta bara har en enda app topp 10. WhatsApp hamnade på plats 11, medan Facebook och Instagram inte ens orkade ta sig in topp 20. Och TikTok hamnade på plats 16.

Och det är som sagt var rätt oväntat. Man kan argumentera att precis alla och några till redan har de stora sociala apparna, men trots det så dominerar de nedladdningslistorna år efter år. Meta har i praktiken monopol på toppen, med TikTok som gäst. Men inte bland de svenska iPhone-ägarna 2024, alltså.

Så ja, det finns nu alltså myndiga människor som inte har upplevt en värld utan smartphones som vi känner dem idag.

Här är 2024 mest nedladdade appar och spel för iPhone

iPhone och Apple TV fyller 18 år

En liten och stor händelse: iPhonen blir myndig. Idag är det 18 år sedan Steve Jobs presenterade Apples framgångsmobil. Som då inte sågs som något som skulle kunna bli en särskilt stor framgång. Bara att fråga Steve Ballmer.

Men det är inte den enda Apple-prylen som nu får gå och rösta. Även Apple TV.

Och jag måste erkänna att jag faktiskt… helt har förträngt att Apple TV presenterades samtidigt som iPhonen. Där ser man.

iPhone and Apple TV Announced 18 Years Ago Today

 

Ekonomi och finans

De 6 största techbolagen har ökat 90 biljoner kronor i värde sedan ChatGPT släpptes

AI-ekonomin i en bild.

Diagrammets källa.

Anthropic siktar på värdering om 60 miljarder dollar

När det kommer till AI så är i princip de enda jag har sett som säger att AI-tekniken skulle kunna vara en bubbla de som vill ha en anledning att skriva att AI inte är en bubbla. Ja, nästan lite så. Men det finns bubblor och så finns det bubblor. Och när det kommer till AI så är den största bubbelrisken nog inte tekniken i sig – utan de förväntningar som här och nu packas in i företag som arbetar med ”AI” på något sätt.

Nu är det dags för ännu ett exempel. Amazon- och Google-backade Anthropic, mest kända för sin ChatGPT-utmanare Claude, ska vara ut med kollekthåven ännu en gång. Den här gången siktar företaget på att ta in 2 miljarder dollar, till en värdering om 60 miljarder dollar. Nästan 69 gånger den årliga omsättningen.

Det skulle göra Anthropic till världens sjunde högst värderade startup. Precis efter Shein och Databricks, men 10 miljarder före Musks AI-bolag xAI. I skrivande stund, åtminstone. (Musk är ute och raggar pengar till xAI mest jämt nuförtiden så den värderingen lär öka rätt snart.)

Däremot har Anthropic fortfarande en rätt bra bit kvar till den värderingen hos konkurrenten Open AI. Det är mer än dubbelt kvar upp till den senares 157 miljarder.

Anthropic in talks to raise funding at $60 billion valuation

 

Övrigt

EU utdelar GDPR-böter till EU

Ännu en GDPR-bot från EU! Vem åker på böter den här gången? EU!

EU-kommissionen använde Facebooks inloggning på en sida där man kunde anmäla sig till en konferens. Vilket gjorde att en tysk medborgares data därmed skickades till USA på felaktigt sätt.

Hur många miljarder euro tvingas EU-kommissionen böta för sitt övertramp? 400. Ja, totalt 400 euro alltså. Eller runt 4000 kronor.

Det ser med andra ord ut som att EU-kommissionen behöver lite utbildning i GDPR.

In a first, EU court fines EU for breaching own data protection law

Kategorier
AI - Artificiell intelligens Allmänt digitalt AR/VR Ekonomi och finans IoT - internet of things Spaningar

Digitala spaningar vecka 50 2024 – del 3

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Apples AI får sitt lim-på-pizzan-moment

En av anledningar till att Apple släppte in ChatGPT som AI-bot var för att hålla sig borta från de kontroverser som precis alla AI-botar så här långt har dragits in i: hallucinerande som på riktigt blir fel och kanske till och med farligt.

För det mesta har det handlat om rätt harmlösa, men tossiga, saker när AI-botar har hittat på saker. Men det har ju också dykt upp fall där förslagen är av allvarligare karaktär. Som när Googles bot föreslog att man skulle ha lim på pizzan för att hålla fast osten när man äter.

Okej, just den såg förhoppningsvis de flesta igenom – men som läget är idag så finns det risk för att lite för många människor faktiskt ger sig på att testa det briljanta köksknepet.

Men även om Apple alltså har backat från att göra en egen AI-chattbot som ska fungera på det här sättet så visade det sig i veckan att det kan bli problem ändå.

En av AI-funktionerna som Apple har rullat ut är sammanfattning av meddelanden och mejl direkt i notisvyn. Man kan alltså få en sammanfattning av innehållet direkt i notisen så att man snabbt kan få en överblick över det generella innehållet.

Det kändes säkert för Apple som en rätt safe funktion. Men den visade sig inte vara helt så safe.

Redan innan så har det dykt upp humoristiska exempel på hur knasigt det kan bli när Apples AI sammanfattar grejer, men då mest av harmlös sort. I veckan tolkade lösningen en BBC-artikel som att Luigi Mangione – mannen som misstänks för att ha mördat en försäkrings-VD i USA – hade skjutit sig själv. Något han inte alls har gjort.

Det finns bevisligen en del att göra även för Apple.

Apples AI feature sends false BBC News notification, sparking confusion

Apple kan arbeta på ett eget AI-chip

Vissa rykten känns nära nog helt bekräftade vara på ryktet i sig. Som att Apple nu uppges samarbeta med chiptillverkaren Broadcom för att ta fram ett eget AI-chip.

Apple har sedan ett par år tillbaka egendesignade chip i sina prylar. Som del av dessa har det alltid funnits någon form av ”AI”-del. Mer specifikt att de har byggt in snabbare maskininlärning i chipen.

De är däremot inte helt optimerade för just AI-användning eftersom, tja, AI i all ära – men det är fortfarande en väldigt liten del av det som vi använder våra enheter till. Chipen måste alltså också kunna hantera betydligt fler användningsområden i någon form av vettig kompromiss. Och, som har varit en viktig fråga för Apples chip sedan starten, att strömförbrukningen ska vara låg.

Rena AI-processer när det kommer till det som vi idag främst kallar för ”AI”, alltså generativ AI, har visat sig vara raka motsatsen till strömsnål. Det är en anledning till att Apple vill att så många AI-processer som möjligt ska kunna hanteras direkt i enheten.

Priset man får betala här är att det däremot inte blir lika kraftfull som om man kan kasta betydligt mer processorkraft på uppgiften och en del av Apple AI-plattform Apple Intelligence är att molnet ska kopplas in automatiskt om kraften i enhetens egen processor inte räcker till.

Och om uppgifterna stämmer så är det för det sistnämnda ändamålet som Apple nu vill ta fram optimerade AI-chip: chip som bättre ska kunna skyffla runt data som ska skickas från och till en enhet när det kommer till AI-uppgifter.

Det återstår att se hur väl uppgifterna stämmer, men jag tror att de stämmer till ungefär 100 procent. Så länge som Apple inte stöter på någons skitjobbig patrull som får dem att överge initiativet. Men även om allt går extremt smooth så är tidplanen att chipen ska vara klara först om ett år.

Apple reportedly developing AI server chip with Broadcom

Open AI-medgrundaren Ilya Sutskever konstaterar att världen har slut på fossilt AI-bränsle

Ilya Sutskever var en av dem som var med och grundade ChatGPT-ägaren Open AI. Han var också en av dem som var med och petade Sam Altman från VD-stolen för ett år sedan (även om han ändrade sig bara dagar senare) och lämnade organisationen i våras för att dra igång en egen AI-startup. En som skulle mer än Open AI skulle fokusera mer på säkerhet kopplat till AI.

Än så länge har vi inte sett så mycket konkret från det som Sutskever nu jobbar med. Ingen nyhet i veckan alltså. Men Sutskever lyckades ändå skapa rubriker via en föreläsning som han höll.

Där konstaterade han att dagens sätt att förträna AI-modeller på hysteriskt stora mängder data har nått vägs ände. Vi upplever just nu peak-träna-modeller-på-det-sättet. För framtiden behövs något annat.

Det här är inte nytt i sig. Många andra har redan börjat prata om att vi måste hitta andra sätt att ge AI-modeller sina förmågor. Sätt som är smartare, snabbare och drar betydligt mycket mindre el. Men som också kräver mindre mängder data.

Och gällande det sistnämnda så beror det krasst talat att vi har slut på data. De mängder som modellerna skulle behöva – om kurvan fortsätter uppåt – är mer än den totala mängden data som finns på internet. Särskilt om vi ska rensa det innehåll som inte är AI-skapat.

Så det Sutskever sa under sitt föredrag var i sig inget nytt. Men han gjorde en liknelse som jag inte hört talas om tidigare: data som AI-bränsle. Mer specifikt: fossilt AI-bränsle. En bränsletyp som förstör planeten och som är ändlig. Där änden alltså rycker allt närmare.

Vilket med andra ord kommer att innebära att högersidan nu kommer att börja krama data och investera i sätt att kunna fortsätta fortsätta på samma sätt som idag. Alltså fortsätta hålla fast vid en obsolet teknik därför att det är sjukt woke att jobba för något som är bättre för såväl människor som planet.

OpenAI cofounder Ilya Sutskever says the way AI is built is about to change

 

IoT – internet of things

GM:s robottaxisatsning Cruise kastar in handduken

Så var de bara… ja, jag vet i ärlighetens namn inte hur många. Här i väst så känns det som att det numer bara är Google-ägda Waymo. Som har en robottaxitjänst alltså.

General Motors har nu oavsett bestämt sig för att dra sig ur robottaxiracet. Biltillverkaren har bestämt sig för att sluta satsa på Cruise, den verksamhet som har haft det som syfte. GM kommer låta Cruise sväljas av de team som arbetar med självkörning överlag på företaget. Åtminstone de delar som bedöms som intressanta att jobba vidare med.

Istället för robottaxi tänker GM att den självkörande framtiden finns i bilar för privatpersoner. Ja, och förmodligen företag. Men bilar som ägas eller leasas av någon istället för att vara en bil som man använder istället för en vanlig taxitjänst.

GM har om man så vill bestämt sig för exakt det som Tesla har gjort – fast tvärtom. Tesla har i år bestämt sig för att gå all in på en robottaxitjänst som är planerad att lanseras nästa år (en tidplan som nog bara Elon Musk tror på).

Under tiden så tuffar alltså Waymo på lite i skuggan av alla annan uppmärksamhet som självkörande bilar får. Deras tjänst lägger till en ny amerikansk stad i ett hyfsat stabilt om än inte blixtrande tempo.

Cruise’s robotaxi service will likely shut down as GM pulls its funding

Apple kan lansera egna chip för bluetooth och wifi

Ett milt sagt intressant rykte: Apple kan ersätta bluetooth- och wifi-chipen i sina prylar med hemmaodlade komponenter. Redan nästa år.

Att Apple gillar att göra grejer själva är ingen nyhet. Inte heller att Apple numer har egendesignade chip i alla nya hårdvaruprodukter de tar fram och säljer. Men då har det handlat om de chip som har krävts för att enheterna ska kunna fungera och prata med omvärlden. Och när det gäller just nätverksförmågor så har men i stort hållit sig borta från det området.

Till mitt stora förtret. Jag som fortfarande hoppas att Apple ska börja tillverka sina egna routrar igen.

Men att Apple nu kan vara på gång med chip just för bluetooth och wifi, tillsammans med chiptillverkaren TSMC, är en överraskning. Särskilt som de ser ut att ligga väldigt nära i tid.

Ja. Om uppgifterna stämmer.

Men de passar också in i en större Apple-bild just nu: Apples – vad det verkart – rätt nära förestående och rätt stora push för att ta större plats i våra uppkopplade hem. Där det senaste månaden har kommit flera spekulationer om att Apple bland annat är på gång med egen hemmahubbspryl och egen övervakningskamera.

Även här spekulationer alltså. Men känns allt mer troliga ju fler sidorykten som börjar ploppa upp.

Hemmahårdvara kan alltså bli ett nytt förhoppningsområde för Apple. Förstås kompletterat med tillhörande prenumerationstjänster.

Apple nears in-house bluetooth, Wi-Fi chip for smart home

 

AR/VR

Google släpper ny XR-plattform

Den här veckan (well, också) handlade till 183,57 % om AI. Men det kom trots allt icke-AI-nyheter även från bolag vars nyheter till 93,49 % handlar om just AI. Som att Google har presenterat en ny XR-plattform: Android XR.

Vad det handlar om är alltså Googles senaste försök att få smarta, uppkopplade glasögon att bli en grej. Som vanligt så var Googles alldeles för långt före sin tid – och det försökte som vanligt vara för smarta för sitt eget bästa (och för alla andra). Men Google Glass har återuppstått – fast då från andra. Som i Metas Ray-Ban-samarbete.

Den här gången ser det dock ut som att Google kommer att låt andra bygga prylarna. Som Samsung, vars kommande Project Moohan blir första konsumentprodukt ut med Googles XR-operativ.

Så Google kommer alltså nöja sig, precis som med Android och mobiler, med att låta andra bygga hårdvaran som sedan kör Googles tjänster. Visst, Google har sina Pixel-mobiler, men det är fortfarande i stort ett nischmärke på mobilområdet.

Det sannolikt mest intressanta med Android XR – särskilt om det börjar användas just i vanliga glasögon snarare än XR-enheter som primärt lär vara intressanta för gamers – är integrationen av Gemini. Googles egen ChatGPT-utmanare.

För precis som i Metas bågar – och andra liknande enheter från andra tillverkare – så ska man kunna prata med Googles AI-bot via glasögonen. Som exemplet som ges i artikeln från journalistdemon av operativet: kunna se översatta ”undertexter” på det som någon i realtid säger till den som har en enhet med Android XR i sig.

Det börjar verkligen hända extremt intressanta grejer från allt fler håll när det kommer till smarta glasögon. Kan de nu bara fixa batteritiden så…

I saw Google’s plan to put Android on your face

 

Ekonomi och finans

Norges Swish blir första externa tjänsten i Apples blippbetalfunktion

En av eftergifterna från Apple som del av företagets försök att leva upp till kraven i techregleringslagen Digital markets act är att öppna iPhonens NFC-chip för konkurrenter. Att det alltså ska bli möjligt att välja en annan betalförmedlare än Apple Pay när man blippbetalar med sin mobil i affärer.

Första tjänsten ut är Vipps, Norges svar på Swish. Och det är extra intressant med tanke på att… Norge inte är med i EU. Och Digital markets act gäller som bekant bara inom EU.

Men Norge har anpassat sin lagstiftning för att så långt som möjligt spegla EU:s, för att på så sätt göra det enklare för norrmän och norska företag att interagera med resten av unionen. Och Vipps blir nu alltså första alternativet ut.

Vipps finns, till skillnad från Swish, inte bara tillgängligt i hemlandet. Via samarbeten så går tjänsten även att använda i Danmark, Finland och Sverige. Så Vipps blir alltså därmed första tjänst ut att dra nytta av den nya möjligheten även i EU.

Apple Pay’s first competitor on the iPhone has arrived in Norway

Swish får stöd för mobilbetalning i fysiska butiker

Tidigare i veckan skrev jag om att norska Swish-alternativet Vipps var första tjänst ut att dra nytta av möjligheten att lägga till externa betallösningar kopplade till iPhonens blippchip för betalningar. Bara några dagar senare är det dags för Swish att göra samma sak.

Ja, nästan. Swish har nu lagt till stöd för att använda Swish som blippbetalförmedlare i Android-mobiler. Och för iPhonen så… kommer stödet. Nån gång.

Ja, vi vet alltså inte mer än så. Men jag kan tänka mig att Swish väldigt gärna vill få ut den här funktionen även till iPhone-användarna.

Vad det handlar om är den eftergift som Apple erbjöd för att göra EU på gladare Digital markets act-humör. Företaget erbjöd sig att för första gången öppna iPhonens betalchip för konkurrenter, så att man skulle kunna välja en annan betalförmedlare än Apple själva (via Apple Pay).

Jag har sämre koll på hur läget har varit på Android-sidan, men tänker att förutsättningarna har förändrats även där. Ja, eller så tycker Swish att det nu är läge att satsa på en lösning för det här när nu även iPhonen erbjuder stöd.

I EU, alltså, för det är bara här det är möjligt att byta. I resten av världen har Apple hänglås på NFC-chipet för betalningar. Än så länge.

Swish får stöd för mobilbetalning i fysiska butiker

Nya kvantchipet fick Googles marknadsvärde att rusa 136 miljarder dollar på en dag

AI? Sååååå november 2024. Vad ska man nuförtiden säga för att få aktiekursen att dra iväg uppåt? Kvantchip!

Precis det sa Google i måndags. Vilket fick aktiekursen att rusa dagen dagen efter. Så pass att Googles totala marknadsvärde ökade med 136 miljarder dollar. På en enda dag.

Jag lägger in samma sköna tidbit från Google som när jag skrev om chipet igår:

”Willow’s performance on this benchmark is astonishing: It performed a computation in under five minutes that would take one of today’s fastest supercomputers 10^25 or 10 septillion years. If you want to write it out, it’s 10,000,000,000,000,000,000,000,000 years. This mind-boggling number exceeds known timescales in physics and vastly exceeds the age of the universe. It lends credence to the notion that quantum computation occurs in many parallel universes, in line with the idea that we live in a multiverse, a prediction first made by David Deutsch.”

Jag hör: ”Google har bevisat att multiversat finns”.

Alphabet shares surge as Google’s quantum computing breakthrough excites investors

Google presenterar ett nytt kvantchip som typ bevisar att multiversat finns

Lite casual by the way-tidbits från Google om deras nya kvantchip:

Willow’s performance on this benchmark is astonishing: It performed a computation in under five minutes that would take one of today’s fastest supercomputers 10^25 or 10 septillion years. If you want to write it out, it’s 10,000,000,000,000,000,000,000,000 years.

This mind-boggling number exceeds known timescales in physics and vastly exceeds the age of the universe. It lends credence to the notion that quantum computation occurs in many parallel universes, in line with the idea that we live in a multiverse, a prediction first made by David Deutsch.

Ja. Det är förmodligen fortfarande till 99 % teoretiskt (nej, jag ska inte säga att jag förstår allt. Eller… nåt). Men hej. Jag hör ”multiversat finns”. Det räcker för mig.

Introducing Willow: Google’s next-generation quantum chip

Google planerar att bygga sina framtida AI-datacenter intill sol- och vindparker

X: Diesel! Mer fossila bränslen!

Meta: Mer kärnkraft!

Google: Vi planerar att bygga alla våra framtida AI-datacenter intill sol- och vindparker så att vi kan koppla in oss direkt mot dem istället för mot det allmänna elnätet.

Google to build future AI data centers next to solar and wind farms

Apple erkänner att det var en kompromiss att placera Mac Minis strömknapp på undersidan

Ha! Där erkänner Apple att det var en kompromiss att strömknappen hamnade på undersidan av nya, jättelilla Mac Mini.

Okej, Källartikeln är låst, så jag får förlita mig på MacWorlds omskrivning. Men det räcker för mig. Då är jag nöjd.

Mac Mini M4 kunde ha blivit ännu mindre – men kompromisser krävdes