Kategorier
AI - Artificiell intelligens Detaljhandel/e-handel Sök/SEO Spaningar

Digitala spaningar vecka 16 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Sök/SEO

Google.se går i graven

Gillar du google.se? Trist för dig, i så fall. Google har nu börjat stänga ned den sajten.

Ja, inte bara den. Alla google.nånting som inte är .com. Google kommer istället slussa över alla sökningar till .com-domänen. Oavsett varifrån man googlar.

För oss användare säkerligen en icke-händelse, även om det skulle kunna stöka till det i analysverktyg.

Men det är ändå lite av en era som går i graven. Och en cirkel som sluts.

Google Search is going to be google.com globally

Google will redirect country code top-level domain names (ccTLD) for Google Search to google.com over the coming months. The change will roll out ”gradually.”

TikTok lägger till recensioner i sin sökfunktion

TikTok tar ännu ett steg mot att bli alla tiktokares Google-ersättare. Eller: det är åtminstone det som TikTok helst vill.

Senaste draget är att TikTok nu lägger till recensioner i sin sökfunktion (dock inte för alla användare än). När du har hittat en plats som du är sugen på att besöka så kan du se vad andra har gett den platsen för betyg.

Nu är det inte så att Google kommer att gå omkull i morgon. Men det är ännu en droppe som urholkar Google-stenen. Och en droppe som sannolikt är större och går djupare än de AI-sökmotorer som AI-evangelister spår kommer att göra Google helt irrelevant redan om några år.

TikTok takes on Google Maps by surfacing reviews in the comments tab | TechCrunch

As TikTok continues to build out its search experience, the social network is now surfacing reviews for certain places right within the comments tab.

 

Detaljhandel/e-handel

Ännu en kinesisk shoppingapp nedladdningsrusar i USA

Handelsrelationen mellan Kina och USA är som bekant lite… ansträngd just nu. Ja, det gäller USA:s handelsrelation med precis hela världen – inklusive pingviner – men det är extra bottenfruset mellan världens två största ekonomier.

Som del av USA:s tullar så har en ny slags videos rusat i intresse på TikTok: när kinesiska tillverkare (ja, eller bara kineser överlag) hävdar att varor som man tror är tillverkade i exempelvis Europa egentligen helt och hållet tillverkas i Kina. Det enda som görs i Europa och andra länder som använder sig av samma teknik, är typ att sy fast lyxloggan på väskan. Företagen vill ge illusionen av att det inte är billigt kinesiskt skräp utan kvalitetsjobb från Europa.

Jag ska låta det vara osagt hur det ligger till med det här förfarandet – man kan tänka att kineserna som gör klippen talar rätt mycket i eget intresse – men det har oavsett gjort att en ny shoppingapp har rusat i Kina: DHgate. Ännu en app där man kan köpa direkt från Kina, som Temu.

Det är dock lite oklart varför intresset för detta har blivit så stort bland amerikaner – även om det skulle vara kineser boende i USA som har laddat ned appen. Tullarna gäller ju oavsett vilken väg man köper varorna.

Men hej. Ännu en kinesisk app toppar amerikanska nedladdningslistorna (på plats 2 i Appstore när jag tittar nu). Börjar nästan bli lite vardag.

Chinese marketplace DHgate becomes a top US app as trade war intensifies | TechCrunch

The Trump trade war has gone viral on TikTok, pushing a Chinese e-commerce app, DHgate, to the top of the Apple App Store in the U.S.

 

AI – artificiell intelligens

Open AI släpper GPT-4.1

Tycker du att det har gått OLIDLIGT lång tid sedan Open AI senast släppte en modelluppdatering? Din plågsamma väntan är över. Nu släpps GPT-4.1.

4.1 är en uppföljare till 4o. Ja, eller om det är en syskonmodell. Eller kanske en kusin. Jag har i ärlighetens namn sedan länge slarvat bort släktträdslathunden.

Oavsett. Den ska vara bättre, smartare och snabbare än 4o – den nuvarande ”basmodellen” i ChatGPT. Den kommer dessutom (som vanligt, för att göra Game of Thones-förvirringen ännu mer påtaglig) i tre versioner: den vanliga, Mini och Nano. Det ska vara första nanomodellen från Open AI. Och den sistnämnda är den billigaste och snabbaste, men är som hörs på namnet i gengäld också den minsta.

För att göra saker ännu mindre förvirrande så går GPT-4.1 inte att nå via ChatGPT. Bara via Open AI:s API.

För den som vill ha techspeakporr med alla tekniska detaljer om modellen rekommenderas Open AI:s egen genomgång här nedan.

OpenAI’s new GPT-4.1 AI models focus on coding | TechCrunch

OpenAI has launched a new family of models called GPT-4.1. They focus on coding, and are exclusively available through the company’s API.

Open AI lanserar o3 och 04-mini

Det är nästan lite Trump-klass på Open AI:s flipfloppande i sin tidslinje över kommande modeller. o-klassen skulle för inte så länge sedan gå i graven och ersättas av the mother of alla Open AI-modeller – men nu får den ytterligare två medlemmar i familjen.

Det är alltså den resonliga delen av Open AI-släkten som nu fylls på. Ja, det är alltså två nya versioner av den så kallade ”resonerande” o-modellen, som ska vara lite bättre på att resonera sig fram till och faktachecka(ish) sina svar.

o3 och o4-mini är namnet på de nya modellerna. De är de första o-modellerna som kan använda ”alla verktyg i ChatGPT”. Som att söka på nätet och skapa bilder.

o3 och o4-mini är namnet på de nya modellerna. Med tanke på att Open AI bara häromdagen gick ut med att de släppte 4.1 efter 4o och 4.5 – plus att de sedan gick ut med att de kommer att skrota 4.5 i sitt API och istället föreslår att folk ska använda den nyare 4.1 trots att den nummermässigt borde vara äldre – så känns den nya namngivningen förvånansvärt logisk och stringent.

Ja, med det undantaget att vi inte får en o4, utan bara en o4-mini. Men hej. Vi har haft o3-mini ett tag, fast det är först nu som o3 kommer. En fullständigt rimlig utveckling i det universum som Open AI verkar i.

Just ja. Och o3 ersätter då o1, eftersom det aldrig kom någon o2 (som däremot är en konsertarena i London och det är därför helt naturligt att nämna den här). Och förutom o4-mini så får vi även en o4-mini-high, som är bra på att koda. Det hörs ju på namnet.

Så ja. Det finns nu ännu fler saker att välja på i ChatGPT. Eller förvirras av.

OpenAI announces o3 and o4-mini reasoning models for ChatGPT (updated)

During an OpenAI livestream, the company demoed its ChatGPT o-series models, o3 and o4-mini.

ChatGPT kan använda sitt minne för personaliserade sökningar på nätet

En skön by the way-grej som dök upp i release notes för ChatGPT. En by the way-grej som är rätt mycket större än en by the way-grej: minnesfunktionen kan nu personalisera sökningar på nätet. När ChatGPT söker via tredjepartsverktyg.

På ett sätt är det logiskt att minnet även kan användas för att personalisera sökningar på samma sätt som vanliga frågor och svar när man använder ChatGPT. Men det är trots det ett rätt stort steg fram mot göra ChatGPT till en riktigt integrerad del av våra digitala liv. Ja, för de som använder ChatGPT, alltså.

Och göra den ännu mer till en central del för alla som numer lever i symbios med ChatGPT.

ChatGPT will now use its ’memory’ to personalize web searches | TechCrunch

ChatGPT will now use its ’memory’ to personalize web searches, thanks to a new feature called Memory with Search.

Open AI dumpar GPT-4.5 ur sitt API

Idag fick vi en ny modell från Open AI: GPT-4.1. Lite oväntat så skrotar dessutom Open AI modellen med kodnamn 4.5 – den största modellen som Open AI har släppt. Ja, de skrotar den åtminstone ur API:et.

4.5 ska vara hysteriskt dyr, så det lär vara den främsta anledningen. Istället tycker Open AI att folk ska hoppa på just GPT-4.1. Modellen med ett lägre nummer, som generellt betyder äldre. Men hej.

Det är dock inte API-slutdansat för GPT-4.5 riktigt än. 14 juli är sista dagen som gäller.

OpenAI plans to phase out GPT-4.5, its largest-ever AI model, from its API | TechCrunch

OpenAI says it’ll soon wind down GPT-4.5, its largest-ever AI model, in its API only months after releasing it.

ChatGPT börjar samla alla bilder du har skapat på ett ställe

ChatGPT har insett att bildskapande är en riktig killerapp. Särskilt efter det att tjänsten fick en ny, vassare bildskaparfunktion för någon månad sedan. Så nu lägger ChatGPT till en ny funktion: ett bildarkiv. Ett sätt att hitta alla bilder du har skapat på ett ställe.

Rullas ut nu för gratisanvändare och de som betalar för Plus eller Pro. Jag har inte fått det själv än, men ska alltså vara på gång.

Som artikeln konstaterar: det är väldigt stor sannolikhet/risk att nästa stora trend i sociala medier blir att dela bilder på sitt sitt ChatGPT-bildarkiv.

Som för många också kommer att bli en tidslinje över vad som varit populära ChatGPT-bildtrender.

You can now view all of your ChatGPT-generated images in one place

OpenAI has added an image library to ChatGPT so you can scroll through all of your wonderful creations.

Open AI kan kräva ID-handling för tillgång till framtida AI-modeller

Nu verkar det som att Open AI är på gång att tajta till rutinerna när det kommer till tillgången till deras AI-modeller. Enligt en supportsida så ser det ut som att även AI-bolaget kommer att börja kräva ID-kortsverifiering för tillgång till framtida modeller från dem. Åtminstone vissa av dem (men förmodligen överlag).

Nu handlar det däremot inte om att varenda ChatGPT-användare ska bli leggad. Den tänkta målgruppen är de organisationer och utvecklare som användare Open AI:s API:er. Open AI argumenterar för det nya initiativet, som heter Verified Organization, med att:

”Det finns tyvärr en liten andel utvecklare som medvetet använder Open AI:s API:er på sätt som bryter mot användarvillkoren”.

Vi skulle nog kunna ersätta ”en liten andel utvecklare” mot ”Deepseek”. Det kinesiska bolag som skakade om AI-världen för några månader sedan med en modell som ska ha tagits fram betydligt billigare än vad det brukar kosta AI-bolag att göra detta. Och en stor anledning ser ut att ha varit att de helt enkelt baserade sin modell mycket på Open AI:s, vilket gjorde att de på så sätt kunde ta en genväg.

Access to future AI models in OpenAI’s API may require a verified ID | TechCrunch

OpenAI may soon require organizations to complete an ID verification process in order to access certain future AI models.

ChatGPT kan nu ha närmare en miljard användare

Ny användningssiffror från Open AI. ChatGPT har nu 800 miljoner användare. Eller en miljard. På någon parameter.

Siffran dök upp i en intervju med Open AI-VD:n Sam Altman i slutet av förra veckan. Där konstaterade intervjuaren Chris Anderson att Altman hade sagt till honom att ChatGPT:s användartal ”typ” fördubblades de senaste veckorna, från de 500 miljoner per vecka som är senaste officiella siffran. Altmans svar blev ”jag sa det privat, men jag antar…”

Så typ kanske förmodligen en miljard.

Samtidigt sa Altman i samma intervju att ”runt 10 % av hela världen använder nu våra system mycket”. Det skulle kunna innebära en siffra runt 800 miljoner.

Så ChatGPT har förmodligen sannolikt nu 800 miljoner till 1 miljard användare. Och det är förmodligen sannolikt användare varje vecka som avses även här.

Oavsett exakt siffra så ser det ut som att ChatGPT:s nya bildskaparfunktion (a.k.a. Ghibli Production Tool) har blivit en riktig jättehit för Open AI. Nu återstår det att se om användarna hänger kvar och fortsätter använda tjänsten när man slutat på att göra inplastade actionfigurer i Studio Ghibli-stil.

OpenAI doubles users to 800M-1B thanks to Ghibli-style image generation – SiliconANGLE

OpenAI doubles users to 800M-1B thanks to Ghibli-style image generation – SiliconANGLE

Open AI arbetar på ett eget socialt nätverk

Vad kan vi aldrig få för mycket av? Precis. Twitter-utmanare. Här kommer uppgifter om ännu en. Från ett… lite oväntat håll. Open AI.

ChatGPT goes social alltså.

Det är åtminstone vad uppgifter från The Verge pekar på, baserat på att Open AI har börjat testa något FKA Twitter-liknande de senaste månaderna. Och har nu börjat efterfråga efterfrågat extern feedback.

Det är ungefär vad vi vet. Utöver att några har sett en intern prototyp som fokuserar på bildskapande av alla saker. Men hej. Open AI såg hur precis alla och några delade Studio Ghibli- och inplastade actionfigur-versioner av sig själva precis överallt och tänkte ”hey, I want a piece of that!”

Det finns dock en sak som i sig är rätt logiskt kopplad till en plattform som Open AI. Någon form av, tja, forum eller liknande där man skulle kunna diskutera just utmaningar och lösningar via ChatGPT. Som i sig blir en marknadsföring av tjänsten. Och, som artikeln konstaterar, ett sätt för Open AI att skaffa sig eget träningsmaterial som skiljer sig lite från det som de får in från vanliga ChatGPT.

Så jag tror kort sagt att det som skulle kunna fungera är ett påhak på ChatGPT-tjänsten snarare än något helt fristående. Vilket jag misstänker också rätt mycket är planen. Vi får kort sagt se vad det blir när det kommer. Ja, om det kommer.

Jag röstar oavsett för att Open AI ska lägga till en poke-funktion.

OpenAI is reportedly developing its own X-like social media platform | TechCrunch

OpenAI is building its own X-like social media network, according to a new report from The Verge. The project is still in the early stages, but there’s an

Gemini Advanced-prenumeranter får tillgång till Googles nya AI-videofunktion

Google fortsätter att rulla ut den senaste versionen av sitt AI-videoredigeringsverktyg Veo 2. Nu blir funktionen tillgänglig för dem som betalar för Gemini Advanced.

Även den som betalar för Googles kombo-AI-prenumerationspaket One AI Premium. Men här finns det en hel massa aber.

För den senare prenumerationskategorin så blir Veo 2 tillgänglig via AI-bildskaparfunktionen Whisk. Mer specifikt via den nya funktionen Whisk Animate, som gör vad den heter. Du kan skapa en åtta sekunder lång animering av en bild som du har skapat i Whisk.

Google rolls out its AI video generator to Gemini Advanced subscribers

Google is bringing its upgraded AI video generation model, Veo 2, to Gemini Advanced subscribers. Subscribers can use the tool to generate eight-second clips in 720p.

Google släpper Gemini 2.5 Flash med av/på-knapp

Googles AI-familj får ännu en ny medlem: Gemini 2.5 Flash. Släpps nu i förhandsversion.

Men utöver att det är en mindre och snabbare version av 2.5-modellen så är tydligen Googles första ”fully hybrid reasoning model”. Vad innebär det? Att utvecklare får en av/på-knapp när det kommer till Flashs resonerande förmågor.

Start building with Gemini 2.5 Flash

Gemini 2.5 Flash, is now in preview, offering improved reasoning while prioritizing speed and cost efficiency for developers.

Googles AI-modell DolphinGemma kan kommunicera med delfiner

You had me at prata med delfiner.

Google’s newest AI model is designed to help study dolphin ’speech’ | TechCrunch

Google has created an AI model, DolphinGemma, to help decipher dolphin vocalizations, supporting research to better understand how dolphins communicate.

Kategorier
AI - Artificiell intelligens Spaningar Strömmade medier

Digitala spaningar vecka 14 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Strömmade medier

Youtube tillåter hatinnehåll mot könsidentitet

Jamen äntligen. Nu är det fritt fram med hatinnehåll mot ”könsidentitet” på Youtube. Youtube har raderat ”gender identity” från områden som det är förbjudet att hatpropagera mot.

Fint.

(Fick påpekat för mig en intressant skillnad mellan den engelska och svenska texten. På engelska står det nu ”sex, gender or sexual orientation”, medan det på svenska står ”kön, könsidentitet eller sexuell läggning”. I och med att vi är en synonym kort på svenska blev det alltså ”könsidentitet” som översättning av ”gender”. Så i Sverige är det fortfarande inte tillåtet att hata mot det på Youtube.)

YouTube removes ’gender identity’ from hate speech policy

TariffTokers, Gen Z’s ’it couple’, Easter potatoes, anti-MAGA hats, Zuck’s D.C. mansion, Amazon’s TikTok bid, Silicon Valley’s cupid, and the fastest growing political channels on YouTube

Spotify lägger til Gen AI Ads och programmatiska annonser

Nya annonserbjudanden i Spotify: Gen AI Ads och programmatiska annonser.

Det sistnämnda är annonser som köps via realtidsauktioner. Klassisk digitalt annonsformat, alltså. Eller kanske: klassiskt sätt att köpa digitala annonser.

Det hela sker via partners, som Googles Display & Video 360. Annonsörer hos dessa partners kan sedan annonsera i Spotifys olika format: ljud, video och display. Podcaststöd ”är på väg”. Formatet blir bland annat tillgängligt i Europa.

Dessutom bjuder Spotify på mer AI i sina annonser. Because AI. I det här fallet heter lösningen Gen AI Ads, som gör att annonsörer kan välja att skapa manuskript och voiceovers till sina annonser via Spotifys Ads manager. Gen AI Ads släpps däremot bara i USA och i Kanada för tillfället. Återstår att se när det rullas ut till fler marknader.

Spotify debuts Gen AI ads, programmatic ad buying | TechCrunch

Spotify has debuted new ad tools and capabilities, including ’Gen AI’ ads and programmatic ad buying via partnerships.

 

AI – artificiell intelligens

Apple Intelligence lanseras i EU

Så har det blivit dags för oss i EU att bli med AI-AI. Apples egen AI-plattform Apple Intelligence, alltså. Nu lanseras den här hos oss.

Till skillnad från det mesta i Apples stora AI-satsning så landar Apple Intelligence i EU på utsatt tid. Ja, eller till och med före tidplanen. ”April” var beskedet som kom i slutet av förra året och med en dag tillgodo slår Apple alltså sin egen utfästelse.

Ja, Apple Intelligence har ju funnits i EU ett tag redan – fast då bara för Mac. Anledningen är att Apple har skyllt den försenade EU-utrullningen på Digital markets act, den EU-techlag som reglerar de största av de största. Hit räknas plattformarna iOS och iPadOS, men inte MacOS. Därför kunde Apple släppa den för Mac men inte för övriga. Ja, eller som sagt. Det var åtminstone det Apple skyllde på.

När beskedet om den försenade EU-lanseringen kom hade den ursprungliga tidplanen redan börjat glida. Jag spekulerade då i att vi i EU inte skulle gå miste om särskilt mycket. Och så har det också blivit. Apple har släppt några mindre delar av sitt Ai-paket, men flaggskeppsfunktionen – en smartare Siri – har inte dykt upp än. Faktum är att den enligt Apple själva sannolikt inte landar förrän nästa år.

Men nu får även iPhonen och iPaden de Apple Intelligence-funktioner som faktiskt har släppts.

Och Apple passar dessutom på att släppa några nya funktioner även för de som haft Apple Intelligence sedan tidigare.

Priority notifications är den största nyheten – där Apple med AI-hjälp försöker städa upp bland dina notiser så att du presenteras för de viktigaste. Dessutom kommer tjänsten nu på fler språk än engelska, som tyska, franska, portugisiska och spanska. Däremot fortfarande inget besked om när svenska kan bli aktuelt.

Utöver det blir det några mindre förbättringar av Image Playground-appen och möjlighet att skapa en ”memory movie” på Macen med AI-stöd.

Apple rolls out Priority Notifications as Apple Intelligence expands to EU | TechCrunch

Apple Intelligence, the iPhone maker’s suite of AI-powered tools and features, is gaining new features. Most notably, the company on Monday announced that

ChatGPT:s nya bildskaparfunktion tillgänglig även för gratisanvändare

I förra veckan släppte Open AI sin nya bildskaparfunktion för ChatGPT. En som är betydligt vassare än föregångaren. Men då bara för betalande användare. Nu har den öppnats även för gratisanvändare.

Anledningen till att gratisanvändarna fick vänta verkar ha berott på två saker. Dels att internet översköljdes av bilder skapade i den stil som animeringsstudion Studio Ghibli är kända för – vilket ledde till upphovsrättsfrågetecken – och dels att funktionen överlag välte internet. Open AI:s VD Sam Altman sammanfattade det med att ”våra GPU:er smälter”.

Men nu verkar Open AI alltså ha länsat alla elektronikkedjor på fläktar (dock misstänker jag att upphovsrättsfrågan långtifrån är utredd). Däremot får den som inte betalar ett lägre tak. Altman pratade i förra veckan om att gratiskonton bara kan skapa tre bilder om dagen, så vi kan nog anta att det är i de trakterna. (Någon med gratiskonto som har slagit i taket redan?)

OpenAI’s new image generator is now available to all users | TechCrunch

OpenAI’s new image generator, powered by its GPT-4o model, is now available to all users, CEO Sam Altman said in a post on X. The feature was until now

ChatGPT fyller på med 1 miljoner användare på 1 timme

What 26 månader can do. När ChatGPT lanserades tog det fem dagar för tjänsten att nå en miljon användare. Igår fyllde ChatGPT på med lika många användare – på en timme.

Det verkar med andra ord som att Studio Ghibli kan skicka en rätt fet e-faktura till Sam Altman.

Open AI på gång med en open weight-modell

Det verkar vara mycket gå tillbaka till rötterna just nu. För några dagar sedan har Meta börjat rulla ut OG Facebook, som fokuserar på – chock! – innehåll från vänner. Och nu är det dags för ChatGPT-ägaren Open AI att släppa sin första öppna modell på ett bra tag.

Open AI började som en icke-kommersiell verksamhet som hade som mission att driva på AI-utvecklingen för mänsklighetens bästa. Det innebar att de delade sin forskning öppet, så att andra kunde inspireras och bygga vidare. Men efter att Open AI lanserade ChatGPT så har det allt mer handlat om pengar. Och det har i sin tur gjort att Open AI blivit allt mindre öppna. Till och med så långt att de helt slutade dela med sig av sitt arbete.

Argumentet var att företagets AI-modeller började bli så bra att illasinnade krafter kunde hitta på illasinnade saker med dem. Och de enda som kunde skydda mot det var Open AI.

Så ja, en förklaring som inte så lite känns som snömos.

Men nu verkar det vara dags för Open AI att börja gå tillbaka till det öppna hållet. Open source-hållet. Fast open weight och inte open source, som är det som öppen utveckling lutar sig mot. Att källkoden man skapar är öppen och fri att bygga vidare på.

I AI världens open source-initiativ har källkoden visserligen varit öppen, men däremot inte träningsdatan. Alltså det som AI:n har tränats på för att lära sig det den kan. Och utan den går det inte att återskapa en lösning, trots att källkoden är öppen. Därav begreppet open weight.

Att Open AI – som siktar på att ställa om till helt vinstdrivande företag under året – nu slår in på det här spåret ska nog inte tolkas som att Open AI nu kommer att vara öppna med sin forskning och sina mest avancerade modeller igen. Det handlar snarast om att open source/open weight-vägen är en effektiv form av utveckling – där den globala utvecklargemenskapen gör stora delar av jobbet åt de kommersiella bolagen.

OpenAI plans to release a new ’open’ AI language model in the coming months | TechCrunch

OpenAI has announced that it intends to release its first ’open’ language model since GPT‑2 sometime in 2025.

ChatGPT:s nya bildskaparfunktion är så populär att Open AI måste stänga av andra funktioner

I förra veckan släppte ChatGPT en helt ny bildskaparmotor, som är rejält mycket bättre än sin föregångare. Och det fick folk att skapa bilder som det inte finns någon morgondag (och med tanke på läget i världen just nu, well…)

Det har, enligt VD:n Sam Altman, fått Open AI:s GPU:er att ”smälta”. Och nu har Open AI tvingats stänga av andra funktioner för att hålla ChatGPT snurrande. Så nya användare kan exempelvis inte skapa videos via Sora.

Men trots det ser det ut som att ChatGPT går på knäna. Så Open AI lär behöva de 40 nya miljarder dollar som de kommer att ta in (blev klart idag). Pengar som kan användas för att köpa nya servrar och grafikkort.

Ja, eller så måste Open AI – och alla andra AI-bolag – på allvar hitta mer resurssnåla sätt att träna och drifta sina AI-lösningar.

Vilket de nog oavsett måste för att framtidssäkra sin verksamhet.

OpenAI disables video gen for certain Sora users as capacity challenges continue | TechCrunch

OpenAI is still struggling to overcome the capacity issues brought on by the viral image generation feature the company launched in late March.

130 miljoner människor har skapat 700 miljoner bilder med ChatGPT:s nya bildfunktion

Vad har ChatGPT-användare ägnat sig åt senaste veckan? Skapat bilder med ChatGPT:s nya bildskaparfunktion, förstås. En himmelens massa bilder.

Totalt har 130 miljoner användare skapat 700 miljoner bilder. På ungefär en vecka.

Några av dem hade säkert till och med praktiskt nytta.

ChatGPT users have generated over 700M images since last week, OpenAI says | TechCrunch

OpenAI says that ChatGPT users have generated hundreds of millions of new photos using the company’s upgraded image-generation tool.

ChatGPT har nu 500 miljoner användare i veckan, 20 miljoner betalande

En väldigt bra och väldigt jobbig vecka för Open AI.

Å enda sidan har de tagit in 40 miljarder dollar (visserligen villkorade, men ändå) i nytt kapital och å andra sidan går tjänsten just nu på knäna. Så pass att nya användare inte kan skapa videos via videofunktionen Sora och att produktlanseringar kommer att försenas eftersom Open AI måste få ordning på kapacitetsproblemen.

Och båda dessa två saker sammanföll när Open AI i samband med nyheten om kapitaltillskottet lämnade nya användarsiffor.

Totalt har ChatGPT nu en halv miljard användare varje vecka. Och 20 miljoner betalande användare.

Det innebär att ChatGPT har plussat på med 4,5 miljoner betalanvändare sedan årsskiftet och 100 miljoner veckoanvändare senaste dryga månaden.

Sam Altman says that OpenAI’s capacity issues will cause product delays | TechCrunch

OpenAI CEO Sam Altman said that the popularity of the company’s new image-generation tool in ChatGPT will cause unspecified product delays.

NotebookLM lär sig sammanställa information från nätet

Googles researchverktyg NotebookLM får ny funktion: Discover.

Beskriv vad du är intresserad av att veta mer om, kicka ut NotebookLM – eller rättare sagt Googles AI-bot Gemini – på nätet och låt AI:n ställa samman information åt dig. NotebookLM tar alltså steget bort från att du själv manuellt måste peta in alla källor.

Börjar rulla ut för alla användare nu.

New in NotebookLM: Discover sources from around the web

NotebookLM has launched Discover Sources, which lets you add sources from the web to your notebook.

Gemini 2.5 Pro tillgänglig för gratisanvändare

Ibland går det fort. Till och med för att vara den speedade AI-världen. I förra veckan presenterade Google sin nya värsting-AI-modell, fast bara för betalande användare. Nu har den släppts även för gratisanvändare.

Vi pratar om Gemini 2.5 Pro, som ska vara särskilt bra på ”avancerade uppgifter” och dessutom är Googles ”mest intelligenta AI-modell” så här långt. Enligt Google.

Däremot finns den sedvanliga begränsningen för gratis-AI-tjänster: den är strypt och har lägre maxtak än det som betalande användare får.

Google’s new experimental AI model, Gemini 2.5 Pro, is now available to free users too

Google announced on Saturday evening that it’s rolling out Gemini 2.5 Pro (experimental) to all users.

Amazon presenterar AI-agenten Nova Act

Japp. Ännu en AI-agent. Den här gången från en av techgiganterna som i det stora hela har chillat rätt mycket när det kommer till just AI. Åtminstone generativ AI.

Amazon presenterar nu Nova Act, en ”generell AI-agent” som, precis som motsvarande funktioner hos konkurrenter, kan använda en webbläsare för att utföra handgrepp på internet å en människas vägnar. Genom att använda webben precis som en människa. Som att surfa in på sidor och köpa saker.

Ja, det är åtminstone det som är tanken. De AI-agenter av den här typen som vi har sett så här långt har kanske inte helt levt upp till guldet och de gröna skogarna som utlovades, men så är det en väldigt ny teknik.

Däremot känns det som ett rätt givet område för Amazon. Ingen slump att Amazon, samtidigt som de lyfte på skynket och visade upp Nova Act, började testa en ”AI-agentsknapp” på sin sajt. Vissa amerikanska kunder kan låta Nova handla på externa sajter, genom att fylla i kundinformation och genomföra köp.

Amazon unveils Nova Act, an AI agent that can control a web browser | TechCrunch

Amazon’s Nova Act, a new AI model powering components of Alexa+, allows developers to build agentic applications.

Runway släpper version 4 av sin AI-videotjänst

Under förra veckan stod ChatGPT:s nya bildskaparfunktion för 83,46 % av alla inlägg på LinkedIn.

Igår släppte Runway version 4 av sin AI-videoskapartjänst till alla betalande användare. Som, förstås, är betydligt vassare än föregångaren.

Så nu vet ni vad LinkedIn-flödet kommer bestå av den här veckan.

Runway releases an impressive new video-generating AI model | TechCrunch

AI startup Runway on Monday released what it claims is one of the highest-fidelity AI-powered video generators yet.

Midjourney släpper ny version av sin AI-bildmodell

Plötsligt händer det! Medan AI-bolagen dunkar ut nya versioner av sina modeller och tjänster i parti och minut så har en av de stora pionjärerna på AI-bildsområdet släpat fötterna efter sig rejält. Men nu är det dags att ändra på det: Midjourney har släppt sin första nya modell på ett år.

V7 är namnet på modellen som nu gäller. Som i sin tur kommer i två versioner: den dyrare och bättre Turbo och Relax, som ger tillgång till funktionen Draft mode. Draft mode ska skapa bilder ”10 gånger snabbare och hälften så dyrt som standardläget”.

(Här skulle jag kunna reflektera att ”Turbo” sannolikt är den långsammaste versionen och det långsammaste läget i den nya uppsättningen. Men jag lämnar det där.)

Blir intressant att se hur Midjourney nu står sig i konkurrensen. Midjourney var länge (well, i AI-tid) guldstandarden för AI-skapade bilder, men under den tid som Midjourney senaste uppdaterade sitt erbjudande så har det som bekant hänt väldigt mycket på AI-bildområdet. Inte minst senaste veckorna, när ChatGPT välte internet med sin nya, vassare bildfunktion.

Midjourney releases V7, its first new AI image model in nearly a year | TechCrunch

Midjourney, one of the earliest AI image-generating services on the web, has released its first new AI image model in nearly a year.

Meta presenterar AI-videomodellen MoCha

Ännu mer AI-video. Den här gången från Meta: MoCha.

MoCha är en av de där lösningarna som kan skapa hela videoscener från en textinstruktion. MoChas fullständiga namn ger fingervisning kring vad som är tjänstens nisch: Movie-Character.

Det handlar alltså om en tjänst som kan skapa korta videos (runt 5 sekunder, 24 rutor per sekund) med människor. Människor i upp till helfigur som rör sig och pratar, komplett med synkade munrörelser och AI-skapade röster. Går även att skapa klipp med flera karaktärer som interagerar med varandra.

Som inlägget här nedan konstaterar om MoCha: next level gifar. Resultatet är fortfarande inte utan konstigheter, men funkar mer än väl redan nu just för kortare klipp där man annars hade använt en gif.

Däremot är det inget du kan börja leka med själva redan nu. MoCha är ett samarbete mellan Meta och University of Waterloo och än så länge är det fortfarande en skapelse som lever på forskarnivån. Kort sagt ett sätt för Meta att visa hur långt de har kommit. Återstår att se om MoCha kommer att släppas publikt eller bli del av någon av Metas AI-lösningar.

Meta's teaching AI how to act. Their newest test model, MoCha (short for… | Marcos Angelides

Meta's teaching AI how to act. Their newest test model, MoCha (short for Movie-Character), generates full-body talking performances from nothing but a script and a voice clip. It kind of feels like they've taken Giphy and powered it with AI. Like the next evolution of memes that can move and talk.

Kategorier
AI - Artificiell intelligens Detaljhandel/e-handel IoT - internet of things Spaningar Strömmade medier

Digitala spaningar vecka 13 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Detaljhandel/e-handel

Amazon lägger till mer AI i sin e-handel

Mer AI från Amazon. Den här gången i kärnprodukten e-handeln. Det som alltså vänder sig till konsumenter.

Det handlar om den nya funktionen Interests, som har som mål att ”skapa en mer personaliserad och konversationsbaserad sökupplevelse”. Vilket är skönt corporatespeak.

Vad det betyder mer konkret är att den som söker efter något hos Amazon kan använda generativ AI för att hitta rätt. Det innebär att man kan skicka in egna sökparametrar, som intressen, preferenser och budget. Exempel som ges är ”bryggverktyg och prylar för kaffeälskare”.

Funktionen ligger dessutom och rullar i bakgrunden, vilket gör att man kan låta Amazon bevaka en sökning och hojta till när något nytt dyker upp som matchar. Men också ge notiser på när en produkt som man är sugen på åter är i lager eller reas.

I dagsläget är funktionen dock bara tillgänglig för en ”utvald” grupp användare i USA. Planen framåt är att fler amerikanska användare ska släppas in ”de närmaste månaderna”. När och om funktionen kommer till EU återstår att se.

Amazon launches personalized shopping prompts as part of its generative AI push | TechCrunch

Amazon continues to infuse AI into its shopping tools to encourage customers to make more purchases. The company announced on Wednesday a new feature Amazon launched a new feature called ”Interests,” aimed at creating a more personalized and conversational search experience.

TikTok Shop lanseras i Frankrike, Tyskland och Italien

Dags för TikTok att ta ett kliv in på Europas fastland. Efter Storbritannien är det nu dags för Frankrike, Tyskland och Italien att få plattformens shoppinglösning Shop.

Det är åtminstone vad uppgifter från Reuters nu säger. Att det är på gång vet vi, men enligt Reuters så kommer TikTok att slå upp sina Shop-portar i de här tre länderna på måndag.

Vi får helt enkelt se om det stämmer nästa vecka.

TikTok to launch TikTok Shop in France, Germany, and Italy | TechCrunch

TikTok is set to expand its TikTok Shop e-commerce platform to users in France, Germany, and Italy on Monday, Reuters reports. TikTok Shop has been

 

Strömmade medier

Youtube ändrar hur visningar räknas för Shorts

Google ändrar hur visningar räknas för Shorts, Youtubes TikTok-klon.

Så här långt har det krävts några sekunders tittande (fyra sekunder verkar vara konsensus kring vad som gällde) innan en visning registreras. Men från och med nu börjar visningar räknas direkt när en short börjar spelas. Det räcker att den överhuvudtaget visas för att man ska få en pinne.

Visningarna kan med andra ord gå upp för de som använder Shorts, men det behöver alltså inte betyda att man har fått fler tittare eller att innehållet fungerar bättre. Bara att Youtube räknar på annat sätt.

För den som föredrar det gamla sättet att räkna, eller vill kunna jämföra historiskt, så byter fyrasekunderstittandet namn till ”engaged views” (fast man får gräva lite i Youtube, i och med att det ligger under ”Advanced Mode” i Youtube-verktyget). Så lite samma språkterminologi som i Google Analytics.

YouTube is changing what a ’view’ means for YouTube Shorts

YouTube will now count views on YouTube Shorts based on viewers who come across the content.

 

AI – artificiell intelligens

Googles AI-bot Gemini får stöd för livekamera

Ny funktion på väg ut till Googles ChatGPT-utmanare Gemini: den har nu lärt sig se genom mobilkameran.

Det är ungefär samma funktion som även har dykt upp hos konkurrenter. Peka mobilens kamera mot något och prata med Gemini om det som syns i realtid, utan behov att att ladda upp en bild eller en video.

Dessutom har nu även Gemini fått stöd för att se mobilens skärm, så att man på ungefär samma sätt kan ställa frågor till Gemini om det som visas på den.

Däremot är funktionen just nu bara tillgänglig för den som betalar för Gemini Advanced. Men den lär säkerligen komma även till gratiskonton vad det lider.

Google is rolling out Gemini’s real-time AI video features

Google has begun rolling out Project Astra features to Gemini Live, letting Gemini ”see” smartphone owners’ screens or what they point their cameras at.

Google släpper Gemini 2.5 Pro

Google steppar upp sitt AI-game ytterligare. Nu släpps Gemini 2.5 Pro. En ny värsting i Google Gemini-AI-språkmodellsfamilj.

Och som vanligt ska den vara vassare än föregångarna och konkurrenterna. Åtminstone enligt Googles egna tester. Och den ska vara särskilt bra på mer komplexa uppgifter. Även den.

För att få tillgång till 2.5 Pro, som har ”experiment”-etikett, krävs att du betalar för Gemini Advanced-abonnemanget.

Google launches Gemini 2.5 Pro, its ’most intelligent AI model’ yet

Google announced the release of Gemini 2.5 Pro, their ’most intelligent AI model’ yet with built-in thinking for your most complex tasks.

Googles videoskaparapp Vids får AI-röster

Google dunkar ut AI-nyheter den här veckan. Ja, eller… det gör de väl varje vecka. Men den här veckan inleddes med en rejäl AI-rivstart för företaget. Som att Googles videoskaparapp får AI-röster.

Det är Google Vids som får det nya stödet. Den funkar som AI-tjänster gör mest, där innehåll skapas utifrån instruktioner. I det här fallet är det video som är formatet för det skapade innehållet. Komplett med föreslagna mediefiler, text, manus och bakgrundsmusik.

Och nu får Vids alltså AI-röster. Automatiskt. Google lägger helt enkelt automatiskt till ett kommentarsspår i de scener som skapas. 

Däremot måste man inte nöja sig med det som Google föreslår. Det går fint att justera röstspåret på olika sätt.

Vids kan däremot (som de flesta av Googles AI-tjänster) bara engelska. Så det blir inte möjligt att välja svenska röster. Och precis som innan krävs det att du betalar för Workspace, Googles eget Office-paket, för att komma åt Vids.

Google Vids Can Now Generate AI Voiceovers in Each Scene

Announced last week, the Mountain View-based tech giant is now adding AI-powered voiceovers to its ’Help me create’ feature.

ChatGPT blir betydligt bättre på att skapa bilder

Ännu ett funktionslyft i ChatGPT. Den här gången handlar det lite om att bända loss lite av grundplåten och löda dit en förbättrad version. ChatGPT har nämligen blivit betydligt bättre på att skapa bilder.

Vad det handlar om är att Open AI byter ut den teknik som är motorn i ChatGPT:s bildskapande. Fram till nu har ChatGPT outsourcat bilderna till Open AI:s Dall-E-modell. Den som togs fram specifikt för att skapa just bilder.

Nu har stafettpinnen gått vidare till GPT-4o. Bilderna genereras med andra ord nu istället av samma språkmodell som den som är ”basmodellen” i ChatGPT. En modell som ha tränats på större volymer data – och framförallt annan slags data – än Dall-E. Det ska i sin tur innebära att den har en bättre ”förståelse” för världen och därför kan skapa bättre bilder.

Framförallt ser det ut som att den har blivit rejält mycket bättre på att hantera text i bilder, något som så här långt har känts lite som kvantfysik för de flesta AI-bildskapartjänster.

Men den verkar också ha fått ett lyft kring funktioner som sannolikt är mer praktiskt nyttigt för fler, som att skapa diagram och infografik. Att se hur bra den är i praktiken.

Intressant nog har även Open AI:s videoskapartjänst Sora fått stöd för bildhantering. Because det är klart.

Det nya stödet rullas ut nu för gratisanvändare och de flesta betalabonnemang. Enterprise och Edu får dock vänta lite. Tidplanen för den sistnämnda utrullningen är den alltid lika specifika ”snart”.

OpenAI announces native image generation in ChatGPT and Sora

OpenAI announced native image generation within ChatGPT. Here are the details.

ChatGPT:s nya bildskaparfunktion ”försenas” för gratisanvändare

En dag. Så länge kunde gratisanvändarna ”snart” se fram emot ChatGPT:s nya bildskaparfunktion. Nu har Open AI ”försenat” utrullningen till gratisanvändare.

Det var något dygn sedan som Open AI bytte ut motorn som skapar bilder i tjänsten. Istället för att, som det har varit så här långt, skicka iväg alla bildskaparfrågor till Open AI:s modell Dall-E – specialframtagen just för att skapa bilder – så är det nu GPT-4o som gäller. Det är alltså den ”basmodell” som gör allt annat i ChatGPT.

Poängen är att GPT-4o har tränats på betydligt mer – och bredare – data än bara bilder och har därför en bättre, tja, förståelse för världen. Det har visat sig att den är riktigt vass på att skapa bilder.

Men Open AI tog också bort ett antal skyddsmurar runt ChatGPT:s bildförmågor. Nu blir det helt plötsligt möjligt att skapa realistiska bilder på kändisar och bilder som innehåller våld. Och bilder skapade i samma stil som Studio Ghibli – en japansk animeringsstudio.

Och det var det sistnämnda som fick Open AI att dra i nödbromsen. Efter ”Studio Ghibli”-bilder skapade via ChatGPT vällde ut i sociala medier så fick Open AI kalla fötter. Upphovsrättskalla fötter. Inte så mycket att den skapar i samma stil som Ghibli har gjort sig kända för – det omfattas inte av upphovsrätt. Men för att kunna skapa det så måste modellen ha lärt sig det.

Med andra ord har Open AI – medvetet eller omedvetet – låtit GPT-4o (och säkert också föregångarna) träna på det materialet. Utan tillstånd eller ersättning. Och då är vi inne i betydligt mer av en gråzon när det kommer till upphovsrätt.

Open AI hoppas med andra ord minska risken att bli stämda och fällda för upphovsrättsbrott om de inte släpper in fler användare. Problemet är dock att den potentiella skadan bevisligen redan är gjord. Så det återstår att se om det här kommer att påverka ChatGPT ännu mer. Om det alltså kommer att kastas upp ännu fler skyddsväggar som säkerhetsbälte och krockkudde.

OpenAI’s viral Studio Ghibli moment highlights AI copyright concerns | TechCrunch

ChatGPT’s new AI image generator is being used to create memes in the style of Studio Ghibli, reigniting copyright concerns.

ChatGPT:s nya bildskaparfunktion är så populär att Open AI:s GPU:er smälter

Y’all done broke the ChatGPT.

OpenAI says ”our GPUs are melting” as it limits ChatGPT image generation requests

OpenAI is temporarily putting a rate limit on the number of image generation requests from users as it tries to make the AI-powered feature more efficient.

ChatGPT:s avancerade röstläge får en uppgradering

Kör du ofta ChatGPT:s avancerade röstläge, men stör dig på att boten avbryter dig lite ofta? Som att den är lite för snabb att svara när du pausar för att tänka på vad du ska säga härnäst? Nu uppgraderar Open AI sin bot så att den ska bli lite mindre hetsig.

Både gratisanvändare och betalande användare som kör röstläget ska nu drabbas av färre avbrott av den här typen. Ja, att man alltså inte måste säga allt man vill säga i ett enda snabbt flöde.

De som betalar får dessutom en ”förbättrad personlighet” i boten, som ska göra den ”mer direkt, engagerande, koncis, specifik och kreativ i sina svar”. Vilket inte alls känns som en onödigt lång uppradning av adjektiv för att beskriva förändringen.

OpenAI says its AI voice assistant is now better to chat with | TechCrunch

OpenAI has a new version of Advanced Voice Mode for paid users of ChatGPT that is more personable and interrupts people less often.

Open AI lägger till stöd för Anthropics integrationslösning MCP

Intressant drag från Open AI. ChatGPT-ägaren lägger nu till stöd för Multi Context Protocol (MCP). En integrationslösning som konkurrenten Anthropic har släppt som open source.

Vad är då MCP? Ett sätt för en språkmodell eller tillhörande AI-lösning att utföra uppgifter och handgrepp i externa system. Men också komma åt datan som finns där.

Nu är det som sagt var en open source-lösning, men ändå lite intressant att Open AI så snart lyfter in en lösning från sin förmodligen största fristående konkurrent.

Oavsett så kan det vara ett väldigt viktigt steg för AI-utvecklingen. Även Perplexity har lagt till stöd, vilket gör att vi kanske börjar se början på en integrationsstandard.

OpenAI adds support for Anthropic’s MCP LLM connectivity protocol – SiliconANGLE

OpenAI adds support for Anthropic’s MCP LLM connectivity protocol – SiliconANGLE

ChatGPT gör det möjligt att integrera interna datakällor

Ny funktion för ChatGPT:s Team-prenumeranter: möjlighet att lägga till ”interna kunskapskällor”. Vilket till att börja med konkret innebär Google Drive.

Vad det innebär är att ChatGPT får tillgång till ett teams Drive och användare kan sedan använda ChatGPT för att söka i eller ställa frågor om det materialet. Men också att ChatGPT på det sättet ska lära sig organisationens tonalitet och annat som är specifikt för en viss organisation eller del av en organisation.

Däremot fungerar det inte för personliga Drive-konton. Vi pratar Workspace-konton. Så med andra ord de Drive-ytor som är kopplade till Googles egen betal-Officepaketstjänst.

Älskar att ett exempel som Open AI själva tar upp är möjligheten att ställa frågor om vad förkortningar betyder. Det känns som en killerfunktion i rätt många organisationer…

Rullas ut för Team-användare nu och för Enterprise lite längre fram. Och som Open AI sa när de presenterade funktionen för några veckor sedan så är integrationer till fler tjänster på gång.

ChatGPT gets smarter: OpenAI adds internal data referencing

Users of ChatGPT Team can now add internal databases as references for ChatGPT, making the chat platform respond with better context.

ChatGPT chillar med emojisarna

Ha! Ett generellt funktionslyft och vässning av GPT-4o, ”basmodellen” i ChatGPT. Viktigaste förändringen? Färre emojis!

Claude testar en egen Deep research

Okej, det här är riktigt dåligt av ChatGPT-utmanaren Claude. Frågan är om det ens är lagligt.

En ny funktion har nu börjat testas. Compass. En Deep research-funktion. Som INTE heter Deep research?!

Skandal.

Utgår från att det kommer en anmälan till AI-domstolen vilken dag som helst.

Claude is testing ChatGPT-like Deep Research feature Compass

Claude could be getting a ChatGPT-like Deep Research feature called Compass. You can tell Claude’s Compass what you need, and the AI agent will take care of everything.

 

IoT – internet of things

Waymo genomför 200 000 obemannade taxiresor varje vecka

Ifall någon som är hyfsat intresserad av den digitala världen i allmänhet och Tesla i synnerhet har missat det så kommer Teslas nästa givna jättesuccé [sic!] att börja rulla i juni 2025 [sic!]. Och ja, det är det nog bara Elon Musk som tror. Och han har så här långt inte varit en auktoritet på Teslas egen tidslinje när det kommer till företagets självkörande teknik.

Men även om Tesla lyckas få till ett begränsat test med obemannade (men övervakade) taxibilar i Austin enligt plan så handlar det alltså om ett väldigt litet test. I skuggan av det så har Googles Waymo växt till en halvstor jätte på det här området med sin motsvarande tjänst.

Faktum är att Waymo numer genomför 200 000 obemannade (men även här övervakade) taxiresor varje vecka. Totalt 4 miljoner resor under 2024. Och det trots att tjänsten än så länge bara finns i San Francisco, Los Angeles, Phoenix och Austin.

Det innebär att Waymo nu gör dubbelt så många resor varje vecka som för ett halvår sedan. Och det ska bli ännu fler. Företaget har redan siktet inställt på tre städer till: Atlanta, Miami och Washington.

Waymo plans robotaxi launch in Washington, DC in 2026

Waymo says it will launch a robotaxi service in Washington, DC starting in 2026. The company says it will work with local leaders to change the law to allow for fully autonomous vehicles.