Spaningar inom tech och sociala medier från veckan som har gått.
Övriga delar i veckans sammanställning
Detaljhandel/e-handel
Amazon lägger till mer AI i sin e-handel
Mer AI från Amazon. Den här gången i kärnprodukten e-handeln. Det som alltså vänder sig till konsumenter.
Det handlar om den nya funktionen Interests, som har som mål att ”skapa en mer personaliserad och konversationsbaserad sökupplevelse”. Vilket är skönt corporatespeak.
Vad det betyder mer konkret är att den som söker efter något hos Amazon kan använda generativ AI för att hitta rätt. Det innebär att man kan skicka in egna sökparametrar, som intressen, preferenser och budget. Exempel som ges är ”bryggverktyg och prylar för kaffeälskare”.
Funktionen ligger dessutom och rullar i bakgrunden, vilket gör att man kan låta Amazon bevaka en sökning och hojta till när något nytt dyker upp som matchar. Men också ge notiser på när en produkt som man är sugen på åter är i lager eller reas.
I dagsläget är funktionen dock bara tillgänglig för en ”utvald” grupp användare i USA. Planen framåt är att fler amerikanska användare ska släppas in ”de närmaste månaderna”. När och om funktionen kommer till EU återstår att se.
Amazon launches personalized shopping prompts as part of its generative AI push | TechCrunch
Amazon continues to infuse AI into its shopping tools to encourage customers to make more purchases. The company announced on Wednesday a new feature Amazon launched a new feature called ”Interests,” aimed at creating a more personalized and conversational search experience.
TikTok Shop lanseras i Frankrike, Tyskland och Italien
Dags för TikTok att ta ett kliv in på Europas fastland. Efter Storbritannien är det nu dags för Frankrike, Tyskland och Italien att få plattformens shoppinglösning Shop.
Det är åtminstone vad uppgifter från Reuters nu säger. Att det är på gång vet vi, men enligt Reuters så kommer TikTok att slå upp sina Shop-portar i de här tre länderna på måndag.
Vi får helt enkelt se om det stämmer nästa vecka.
TikTok to launch TikTok Shop in France, Germany, and Italy | TechCrunch
TikTok is set to expand its TikTok Shop e-commerce platform to users in France, Germany, and Italy on Monday, Reuters reports. TikTok Shop has been
Strömmade medier
Youtube ändrar hur visningar räknas för Shorts
Google ändrar hur visningar räknas för Shorts, Youtubes TikTok-klon.
Så här långt har det krävts några sekunders tittande (fyra sekunder verkar vara konsensus kring vad som gällde) innan en visning registreras. Men från och med nu börjar visningar räknas direkt när en short börjar spelas. Det räcker att den överhuvudtaget visas för att man ska få en pinne.
Visningarna kan med andra ord gå upp för de som använder Shorts, men det behöver alltså inte betyda att man har fått fler tittare eller att innehållet fungerar bättre. Bara att Youtube räknar på annat sätt.
För den som föredrar det gamla sättet att räkna, eller vill kunna jämföra historiskt, så byter fyrasekunderstittandet namn till ”engaged views” (fast man får gräva lite i Youtube, i och med att det ligger under ”Advanced Mode” i Youtube-verktyget). Så lite samma språkterminologi som i Google Analytics.
YouTube is changing what a ’view’ means for YouTube Shorts
YouTube will now count views on YouTube Shorts based on viewers who come across the content.
AI – artificiell intelligens
Googles AI-bot Gemini får stöd för livekamera
Ny funktion på väg ut till Googles ChatGPT-utmanare Gemini: den har nu lärt sig se genom mobilkameran.
Det är ungefär samma funktion som även har dykt upp hos konkurrenter. Peka mobilens kamera mot något och prata med Gemini om det som syns i realtid, utan behov att att ladda upp en bild eller en video.
Dessutom har nu även Gemini fått stöd för att se mobilens skärm, så att man på ungefär samma sätt kan ställa frågor till Gemini om det som visas på den.
Däremot är funktionen just nu bara tillgänglig för den som betalar för Gemini Advanced. Men den lär säkerligen komma även till gratiskonton vad det lider.
Google is rolling out Gemini’s real-time AI video features
Google has begun rolling out Project Astra features to Gemini Live, letting Gemini ”see” smartphone owners’ screens or what they point their cameras at.
Google släpper Gemini 2.5 Pro
Google steppar upp sitt AI-game ytterligare. Nu släpps Gemini 2.5 Pro. En ny värsting i Google Gemini-AI-språkmodellsfamilj.
Och som vanligt ska den vara vassare än föregångarna och konkurrenterna. Åtminstone enligt Googles egna tester. Och den ska vara särskilt bra på mer komplexa uppgifter. Även den.
För att få tillgång till 2.5 Pro, som har ”experiment”-etikett, krävs att du betalar för Gemini Advanced-abonnemanget.
Google launches Gemini 2.5 Pro, its ’most intelligent AI model’ yet
Google announced the release of Gemini 2.5 Pro, their ’most intelligent AI model’ yet with built-in thinking for your most complex tasks.
Googles videoskaparapp Vids får AI-röster
Google dunkar ut AI-nyheter den här veckan. Ja, eller… det gör de väl varje vecka. Men den här veckan inleddes med en rejäl AI-rivstart för företaget. Som att Googles videoskaparapp får AI-röster.
Det är Google Vids som får det nya stödet. Den funkar som AI-tjänster gör mest, där innehåll skapas utifrån instruktioner. I det här fallet är det video som är formatet för det skapade innehållet. Komplett med föreslagna mediefiler, text, manus och bakgrundsmusik.
Och nu får Vids alltså AI-röster. Automatiskt. Google lägger helt enkelt automatiskt till ett kommentarsspår i de scener som skapas.
Däremot måste man inte nöja sig med det som Google föreslår. Det går fint att justera röstspåret på olika sätt.
Vids kan däremot (som de flesta av Googles AI-tjänster) bara engelska. Så det blir inte möjligt att välja svenska röster. Och precis som innan krävs det att du betalar för Workspace, Googles eget Office-paket, för att komma åt Vids.
Google Vids Can Now Generate AI Voiceovers in Each Scene
Announced last week, the Mountain View-based tech giant is now adding AI-powered voiceovers to its ’Help me create’ feature.
ChatGPT blir betydligt bättre på att skapa bilder
Ännu ett funktionslyft i ChatGPT. Den här gången handlar det lite om att bända loss lite av grundplåten och löda dit en förbättrad version. ChatGPT har nämligen blivit betydligt bättre på att skapa bilder.
Vad det handlar om är att Open AI byter ut den teknik som är motorn i ChatGPT:s bildskapande. Fram till nu har ChatGPT outsourcat bilderna till Open AI:s Dall-E-modell. Den som togs fram specifikt för att skapa just bilder.
Nu har stafettpinnen gått vidare till GPT-4o. Bilderna genereras med andra ord nu istället av samma språkmodell som den som är ”basmodellen” i ChatGPT. En modell som ha tränats på större volymer data – och framförallt annan slags data – än Dall-E. Det ska i sin tur innebära att den har en bättre ”förståelse” för världen och därför kan skapa bättre bilder.
Framförallt ser det ut som att den har blivit rejält mycket bättre på att hantera text i bilder, något som så här långt har känts lite som kvantfysik för de flesta AI-bildskapartjänster.
Men den verkar också ha fått ett lyft kring funktioner som sannolikt är mer praktiskt nyttigt för fler, som att skapa diagram och infografik. Att se hur bra den är i praktiken.
Intressant nog har även Open AI:s videoskapartjänst Sora fått stöd för bildhantering. Because det är klart.
Det nya stödet rullas ut nu för gratisanvändare och de flesta betalabonnemang. Enterprise och Edu får dock vänta lite. Tidplanen för den sistnämnda utrullningen är den alltid lika specifika ”snart”.
OpenAI announces native image generation in ChatGPT and Sora
OpenAI announced native image generation within ChatGPT. Here are the details.
ChatGPT:s nya bildskaparfunktion ”försenas” för gratisanvändare
En dag. Så länge kunde gratisanvändarna ”snart” se fram emot ChatGPT:s nya bildskaparfunktion. Nu har Open AI ”försenat” utrullningen till gratisanvändare.
Det var något dygn sedan som Open AI bytte ut motorn som skapar bilder i tjänsten. Istället för att, som det har varit så här långt, skicka iväg alla bildskaparfrågor till Open AI:s modell Dall-E – specialframtagen just för att skapa bilder – så är det nu GPT-4o som gäller. Det är alltså den ”basmodell” som gör allt annat i ChatGPT.
Poängen är att GPT-4o har tränats på betydligt mer – och bredare – data än bara bilder och har därför en bättre, tja, förståelse för världen. Det har visat sig att den är riktigt vass på att skapa bilder.
Men Open AI tog också bort ett antal skyddsmurar runt ChatGPT:s bildförmågor. Nu blir det helt plötsligt möjligt att skapa realistiska bilder på kändisar och bilder som innehåller våld. Och bilder skapade i samma stil som Studio Ghibli – en japansk animeringsstudio.
Och det var det sistnämnda som fick Open AI att dra i nödbromsen. Efter ”Studio Ghibli”-bilder skapade via ChatGPT vällde ut i sociala medier så fick Open AI kalla fötter. Upphovsrättskalla fötter. Inte så mycket att den skapar i samma stil som Ghibli har gjort sig kända för – det omfattas inte av upphovsrätt. Men för att kunna skapa det så måste modellen ha lärt sig det.
Med andra ord har Open AI – medvetet eller omedvetet – låtit GPT-4o (och säkert också föregångarna) träna på det materialet. Utan tillstånd eller ersättning. Och då är vi inne i betydligt mer av en gråzon när det kommer till upphovsrätt.
Open AI hoppas med andra ord minska risken att bli stämda och fällda för upphovsrättsbrott om de inte släpper in fler användare. Problemet är dock att den potentiella skadan bevisligen redan är gjord. Så det återstår att se om det här kommer att påverka ChatGPT ännu mer. Om det alltså kommer att kastas upp ännu fler skyddsväggar som säkerhetsbälte och krockkudde.
OpenAI’s viral Studio Ghibli moment highlights AI copyright concerns | TechCrunch
ChatGPT’s new AI image generator is being used to create memes in the style of Studio Ghibli, reigniting copyright concerns.
ChatGPT:s nya bildskaparfunktion är så populär att Open AI:s GPU:er smälter
Y’all done broke the ChatGPT.
OpenAI says ”our GPUs are melting” as it limits ChatGPT image generation requests
OpenAI is temporarily putting a rate limit on the number of image generation requests from users as it tries to make the AI-powered feature more efficient.
ChatGPT:s avancerade röstläge får en uppgradering
Kör du ofta ChatGPT:s avancerade röstläge, men stör dig på att boten avbryter dig lite ofta? Som att den är lite för snabb att svara när du pausar för att tänka på vad du ska säga härnäst? Nu uppgraderar Open AI sin bot så att den ska bli lite mindre hetsig.
Både gratisanvändare och betalande användare som kör röstläget ska nu drabbas av färre avbrott av den här typen. Ja, att man alltså inte måste säga allt man vill säga i ett enda snabbt flöde.
De som betalar får dessutom en ”förbättrad personlighet” i boten, som ska göra den ”mer direkt, engagerande, koncis, specifik och kreativ i sina svar”. Vilket inte alls känns som en onödigt lång uppradning av adjektiv för att beskriva förändringen.
OpenAI says its AI voice assistant is now better to chat with | TechCrunch
OpenAI has a new version of Advanced Voice Mode for paid users of ChatGPT that is more personable and interrupts people less often.
Open AI lägger till stöd för Anthropics integrationslösning MCP
Intressant drag från Open AI. ChatGPT-ägaren lägger nu till stöd för Multi Context Protocol (MCP). En integrationslösning som konkurrenten Anthropic har släppt som open source.
Vad är då MCP? Ett sätt för en språkmodell eller tillhörande AI-lösning att utföra uppgifter och handgrepp i externa system. Men också komma åt datan som finns där.
Nu är det som sagt var en open source-lösning, men ändå lite intressant att Open AI så snart lyfter in en lösning från sin förmodligen största fristående konkurrent.
Oavsett så kan det vara ett väldigt viktigt steg för AI-utvecklingen. Även Perplexity har lagt till stöd, vilket gör att vi kanske börjar se början på en integrationsstandard.
OpenAI adds support for Anthropic’s MCP LLM connectivity protocol – SiliconANGLE
OpenAI adds support for Anthropic’s MCP LLM connectivity protocol – SiliconANGLE
ChatGPT gör det möjligt att integrera interna datakällor
Ny funktion för ChatGPT:s Team-prenumeranter: möjlighet att lägga till ”interna kunskapskällor”. Vilket till att börja med konkret innebär Google Drive.
Vad det innebär är att ChatGPT får tillgång till ett teams Drive och användare kan sedan använda ChatGPT för att söka i eller ställa frågor om det materialet. Men också att ChatGPT på det sättet ska lära sig organisationens tonalitet och annat som är specifikt för en viss organisation eller del av en organisation.
Däremot fungerar det inte för personliga Drive-konton. Vi pratar Workspace-konton. Så med andra ord de Drive-ytor som är kopplade till Googles egen betal-Officepaketstjänst.
Älskar att ett exempel som Open AI själva tar upp är möjligheten att ställa frågor om vad förkortningar betyder. Det känns som en killerfunktion i rätt många organisationer…
Rullas ut för Team-användare nu och för Enterprise lite längre fram. Och som Open AI sa när de presenterade funktionen för några veckor sedan så är integrationer till fler tjänster på gång.
ChatGPT gets smarter: OpenAI adds internal data referencing
Users of ChatGPT Team can now add internal databases as references for ChatGPT, making the chat platform respond with better context.
ChatGPT chillar med emojisarna
Ha! Ett generellt funktionslyft och vässning av GPT-4o, ”basmodellen” i ChatGPT. Viktigaste förändringen? Färre emojis!
Claude testar en egen Deep research
Okej, det här är riktigt dåligt av ChatGPT-utmanaren Claude. Frågan är om det ens är lagligt.
En ny funktion har nu börjat testas. Compass. En Deep research-funktion. Som INTE heter Deep research?!
Skandal.
Utgår från att det kommer en anmälan till AI-domstolen vilken dag som helst.
Claude is testing ChatGPT-like Deep Research feature Compass
Claude could be getting a ChatGPT-like Deep Research feature called Compass. You can tell Claude’s Compass what you need, and the AI agent will take care of everything.
IoT – internet of things
Waymo genomför 200 000 obemannade taxiresor varje vecka
Ifall någon som är hyfsat intresserad av den digitala världen i allmänhet och Tesla i synnerhet har missat det så kommer Teslas nästa givna jättesuccé [sic!] att börja rulla i juni 2025 [sic!]. Och ja, det är det nog bara Elon Musk som tror. Och han har så här långt inte varit en auktoritet på Teslas egen tidslinje när det kommer till företagets självkörande teknik.
Men även om Tesla lyckas få till ett begränsat test med obemannade (men övervakade) taxibilar i Austin enligt plan så handlar det alltså om ett väldigt litet test. I skuggan av det så har Googles Waymo växt till en halvstor jätte på det här området med sin motsvarande tjänst.
Faktum är att Waymo numer genomför 200 000 obemannade (men även här övervakade) taxiresor varje vecka. Totalt 4 miljoner resor under 2024. Och det trots att tjänsten än så länge bara finns i San Francisco, Los Angeles, Phoenix och Austin.
Det innebär att Waymo nu gör dubbelt så många resor varje vecka som för ett halvår sedan. Och det ska bli ännu fler. Företaget har redan siktet inställt på tre städer till: Atlanta, Miami och Washington.
Waymo plans robotaxi launch in Washington, DC in 2026
Waymo says it will launch a robotaxi service in Washington, DC starting in 2026. The company says it will work with local leaders to change the law to allow for fully autonomous vehicles.