Kategorier
AI - Artificiell intelligens Detaljhandel/e-handel IoT - internet of things Spaningar Strömmade medier

Digitala spaningar vecka 41 2024 – del 2

Google lägger till Amazon i Merchant center. Open AI lanserar Swarm. Amazon introducerar AI Shopping Guides. DeepMind-medarbetare får Nobelpriset i kemi tack vare deras AI-genombrott. Tesla presenterar sin nya robottaxi och robotbuss.

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Detaljhandel/e-handel

Google lägger till Amazon i Merchant center

Så det var lite… oväntat. Google lägger till Amazon i Merchant center.

Merchant center är Googles e-handelshubb, där handlare som säljer via Googles shoppinglösning administrerar sitt konto och sin affär.. Och nu tänker Google alltså göra sina kunders liv enklare genom att lägga till en Amazon-integration.

Mer specifikt handlar det om att Google nu lägger till Amazons Multi-Channel Fulfillment-tjänst. En av Amazons logistiktjänster, alltså. Den nya integrationen gör att automatiskt lägga till leveransinformation för produkter som skeppas via Amazons lösning.

Logiken är det egentligen inget fel på. Google vill att företagets Shopping-portal ska bli stället folk går till för allt sitt e-handlande. Ju enklare och smidigare det är för handlare att hoppa på Shopping och hantera sin försäljning där, desto troligare är det att de väljer Google framför andra. Som Amazon.

Google verkar med andra ord tycka att det är värt att släppa in en av sina största konkurrenter. Men även det omvända gäller: Amazon känner av pressen från Google och andra konkurrenter som vill vara med och slåss om e-handelskunderna. Helst vill de förstås att e-handlare bara ska välja Amazon. Men om de envisas med att sälja via någon annan – helt eller delvis – så vill Amazon åtminstone få någon del av kakan genom intäkter från sin logistiklösning.

Google Merchant Center To Integrate Amazon For Shipping Data

Amazon börjar använda AI-visualisering för att hjälpa bud att snabbare hitta rätt paket

En rätt cool ny Amazon-lösing: AI-visualisering för att hjälpa buden att snabbare hitta rätt paket.

Tekniken, Vision-Assisted Package Retrival (VAPR) använder när ett bud har stannat vid en adress så markerar lösningen de paket som ska levereras där med grönt ljus. Ljus som ska visas direkt på paketet, så det krävs alltså inte någon form av AR-glasögon (som vissa flygbolag använder bland dem som hanterar bagage). Dessutom ska det heller inte behövs en mobil för att identifiera och hantera paketen.

Tekniken ska dessutom ge föraren en heads up redan innan hen kliver in i budbilen om att rätt paket har hittats.

Det känns överlag som en teknik som är väldigt närbesläktad med Amazons Just Walk Out, den som Amazon med lite blandad framgång har använt i sina butiker och där kunder ska kunna gå in i en butik, plocka på sig de varor de vill ha och gå ut utan att ens behöva stanna vid en betalstation. Och precis som den lösningen lär budbils-AI:n vara väldigt beroende av att det inte är för rörigt bland paketen.

Men oavsett: en väldigt intressant lösning i all sin relativa enkelhet.

New AI tech in Amazon vans spotlights packages to save drivers effort and time

Amazon introducerar AI Shopping Guides

Mer AI från Amazon. Mot konsumenter den här gången: AI Shopping Guides.

Vad är då detta? Ett sätt som ska hjälpa kunder att snabbare hitta rätt produkt. Tanken är Amazon ska bli bättre på att proaktivt kasta upp saker som är bra att tänka på när man funderar på att köpa en viss slags produkt. Och givetvis är det generativ AI som ska användas för att skapa AI-sökresultaten.

Amazon gör om man så vill en Google. Visar relaterade sökningar som är relevanta för det du har sökt på. Som tips om att saker som skärmtyp, upplösning och vilka internettjänster som ingår är bra att tänka på när man ska köpa en tv. Vill man kan man sedan chatta vidare med Amazons ChatGPT-utmanare Rufus och där ställa mer specifika frågor man kan ha.

Shopping Guides ska ha lagts till för 100 produkttyper, men det är inget för oss här än. I dagsläget rullas funktionen bara ut för Amazons app i USA.¨

Amazon’s new AI Shopping Guides make it easier to research product types and buy smarter. Here’s how.

 

Strömmade medier

Prime Video lägger till Apple TV+ i utbudet

Så det här var lite… oväntat. Ett nytt tillskott i Amazons videotjänst Prime Video. Apple TV+.

Men man får inte Apples tjänst på köpet med sin Prime-prenumeration. Istället kan du köpa till den. Och hur mycket billigare blir det för den som har Prime Video att prenumerera även på TV+ you ask? Exakt… noll kronor. Ja, eller dollar.

De Prime-medlemmar som vill ha Apples innehåll får snäll slanta upp 9,99 dollar i månaden. Utöver Prime. Och det är exakt samma summa som den kostar för alla andra – alltså även de som inte är Prime-medlemmar.

Så vad det handlar om är att Apple har fått – läs: betalat för – en annonsplats mot Amazons kundbas. Amazon får (förutom en hög pengar i förskottsbetalning?) del av intäkterna per Apple-abonnemang som köps via Prime Video.

Så det finns alltså en tänkt win även för Amazon – både pengar om möjlighet att visa upp mer innehåll. Men det visar framförallt att Apples strömningstjänst går… sådär bra. Och nu måste Apple försöka få ut kanalen hos konkurrenter för att försöka få den att flyga.

Apple TV Plus is coming to Prime Video

 

AI – artificiell intelligens

DeepMind-medarbetare får Nobelpriset i kemi tack vare deras AI-genombrott

Om ganska exakt två månader är det dags att dela ut Nobels AI-pris. Because AI.

Ja, det känns lite så. Igår tilldelades Nobelpriset i fysik Geoff Hinton och John Hopfield för sina banbrytande arbeten och framsteg inom maskininlärning och AI. Idag var det dags för motsvarande pristagare i kemikategorin att presenteras och även här var det AI som var i fokus.

Det handlar närmare bestämt om att Googles AI-uppköp DeepMind prisas för AlphaFold. Mer formellt är det DeepMind-VD:n Demis Hassabis och företagets Director John Jumper som är de som får skaka hand med kungen. De blir dessutom tre kemihandskakningar, eftersom duon får dela på priset med David Baker, som är chef för Institute of Protein Design vid University of Washington.

Och det är ingen slump att DeepMind delar priset med ett forskningssäte som arbetar med proteiner. AlphaFold är nämligen ett initiativ där DeepMind lyckades kartlägga merparten av alla de 200 miljoner olika proteiner som ska finnas. AlphaFold lyckades knäcka en nöt som forskare hade kämpat med länge: att förutse 3D-strukturen i proteiner baserat på deras genetiska sekvens (det kan hända att jag har skrivit av det sista där rakt av utan att ha full koll på vad det egentligen betyder).

Jag frågade Googles ChatGPT-utmanare Gemini vad dotterbolagets tjänst egentligen är: ”AlphaFold är en AI som hjälper oss att förstå livet på en helt ny nivå.” Så nu vet ni det.

Och den förståelsen kan inte minst användas i forskning kring mediciner och sjukdomar, där man med AlphaFolds lösning ännu bättre kan få en förståelse av hur proteiner är byggda. Och i 3D då. Gemini igen:

”Tänk dig att du har ett pussel med tusentals bitar, men du har ingen bild på vad det ska bli. AlphaFold är som en supersmart person som kan titta på bitarna och gissa hur hela bilden kommer att se ut.”

Ännu ett tillfälle när jag är glad att det finns så många människor som är så mycket smartare än jag.

DeepMind’s Demis Hassabis and John Jumper scoop Nobel Prize in Chemistry for AlphaFold

Open AI lanserar Swarm

Hur ska man lugna människor som är oroliga över en framtid där det gäller att välkomna våra AI overlords? Man döper en ny funktion till ”Swarm”.

Precis det tyckte Open AI var en bra idé nu när de har presenterat sin senaste funktion. Vad är då Swarm? Ett ”experimental AI framework for building, orchestrating, and deploying multi-agent systems”.

Ja, jag kopierade och översatte det rätt mycket rakt av. För jag ska inte säga att jag har full koll på vad det här i praktiken är. Men det handlar om en open source-lösning som ska göra det enklare för utvecklare att sjösätta AI-agenter som ska kunna samarbeta med varandra.

Kort sagt: AI-lösningar som kan fatta egna beslut kring hur en uppgift ska lösas. Och om man kopplar ihop olika AI-agenter som har optimerats för olika uppgifter så är tanken att de ska bli ännu mer effektiva.

Och nu vill Open AI alltså göra det ännu enklare att ta fram den här typen av lösningar.

OpenAI Releases Swarm: An Experimental AI Framework for Building, Orchestrating, and Deploying Multi-Agent Systems

Google lägger till videoverktyg i sin AI-svit för annonsörer

Nytt tillägg i Product Studio – Googles svit med AI-verktyg för annonsörer. Nu blir det möjligt för e-handlare att skapa videos baserat på stillbilder inuti Googles e-handelshubb Merchant Center Next.

Verktyget ska dessutom kunna förbättra bilden, ”markera” produktattribut, se till att videon är i linje med varumärkets uttryck, lägga till ljud och mer.

De videoklipp som skapas är förstås i huvudsak tänkta att användas i Googles kanaler, men kan laddas ned och köras även på andra ställen.

Men som vanligt är det här inte något för oss än. I dagsläget lanseras bara videofunktionen för handlare i USA.

Google Launches Video Generation In Product Studio

Meta AI rullar ut i 43 nya länder

Metas egen ChatGPT goes on the road. Meta AI är på väg till 43 nya länder.

Brasilien, Storbritannien, Filippinerna, Bolivia, Guatemala och Paraguay får chattboten från och med idag medan resten kommer i en ”gradvis utrullning”. Utrullningen innebär också att Meta AI kommer att stödja totalt 12 språk.

Och nej. Fortfarande inget land i EU, officiellt på grund av oklara lagmässiga villkor i AI-lagstiftningen. Meta anser alltså, precis som Apple, att de inte kan göra det som Google, Microsoft och Open AI har gjort.

Infoga lång rad ilskna inlägg med olika kombinationer av ”EU är dumma”, ”EU dödar all innovation” och ”det är helt kört för EU om Metas användare inte kan göra skojiga AI-bilder”.

Vilket – precis som i fallet med att Apple håller på sin AI-plattform Intelligence här i EU – snarare handlar om något GDPR-relaterat. Och när det kommer till Meta misstänker jag dessutom att det handlar om att Meta inte vill be om lov innan man börjar träna på EU-medborgares data.

Meta är inte stora fans av att be om lov av sina egna kunder på förhand. Något som de har visat genom att helt stoppa sina modeller från att träna på användarinnehåll här i EU – något som säkerligen enkelt hade kunnat EU-åtgärdas genom att just fråga sina användare om det är okej. Och berätta vilka fördelar det kan ge.

Vilket säger en hel del om förtroendet Meta har för sina användare. Och ännu mer om hur Meta rätt mycket helt och hållet självförvållat har satt sig i den varumärkesmässiga minuspositionen när det kommer till respekt för användarna och deras önskemål.

Meta AI launches in 6 countries, including Brazil and the UK

TikTok-ägaren skrapar webben efter AI-träningsdata 25 gånger snabbare än Open AI

Snabb, snabbare, Bytedance! Så skulle man kunna sammanfatta den här artikeln. För TikTok-ägaren skrapar enligt Fortune ihop AI-träningsdata från sajter snabbare än konkurrenterna. Betydligt snabbare.

Bytedances AI-bot Bytespider ska samla in AI-innehåll 25 gånger snabbare än Open AI:s motsvarighet. Och 3000 gånger snabbare än ClaudeBot, som är Google- och Amazon-backade AI-bolaget Anthropics datainsamlare.

Vi kan alltså lugnt utgå från att Bytedance håller på att sätta ihop sin egen AI-språkmodell. Och det verkar då inte bara gälla kinesiska sajter, utan globalt – vilket innebär att initiativet också lär användas för TikTok.

Ja, så länge som tjänsten inte tvängssäljs eller förbjuds i USA. Då har vi ett… lite annat läge för TikTok.

TikTok parent company ByteDance has a tool that’s scraping the web 25 times faster than OpenAI

Apple första Apple Intelligence-funktioner kan landa 28 oktober

Än så länge har det inte blivit så mycket AI för Apples senaste iPhone-modeller. ”AI” som i Apple Intelligence och inte artificiell intelligens, förstås. Because Apple. Men nu ser det ut som att de första AI-inte-AI-funktionerna kan landa rätt snart. 28 oktober, närmare bestämt.

Det ser ut att vara datumet när iOS 18.1 landar en uppdatering som ska lägga till några av funktionerna i Apples AI-plattform. Exakt vad det blir återstår att se, men enligt Apple-analytikern Mark Gurman så ska sammanfattningen av mejl och meddelanden redan i låsskärmsnotisen vara en sådan funktion. I betan för 18.1 har det också funnits några Siri-förbättringar och AI-hjälp när man skriver.

Det återstår även att se vad som gäller för Macar och iPads, som också ska få AI-sviten. Och hur det blir för oss i EU, med tanke på att Apple ”diskuterar” med EU kring vad som krävs för att Apple ska kunna bli med AI här.

(Apple skyller på Digital markets act och krav på att släppa in konkurrenter, men det känns mer som att det egentligen handlar om samma GDPR-oro som övriga AI-bolag har som främst käpphäst. Det vore däremot varumärkesmässigt självmord att lufta tankar om att det kan finnas GDPR-problem, eftersom det kan sätta frågetecken kring om Apples tänka AI-lösning är så toksäker som de vill göra gällande.)

Även när Apples Intelligence-plattform är fullt utrullad så är den, jämfört med konkurrenter, ett hyfsat stort ”meh”. På ett bra sätt. Precis som vanligt är Apple inte störst, bäst och vackrast (well, okej, de kanske blir vackrast) när det kommer till ny teknik. Apple håller sig till good-enough-för-stora-massan-nivån.

Det, i kombination med att Apple nu bokstavligen talat sätter tekniken i händerna på sina miljardmånga användare, är det som sannolikt kommer att bli Apples största bidrag till den senaste AI-vågen. På ytan rätt små och rätt oansenliga förbättringar av folks vardag, på ett sätt som gör att AI blir en självklarhet och inte ännu en sak man måste lära sig nununu.

Inkluderande snarare än exkluderande doom och gloom om hur illa det kommer att gå om man missar det enda tåget som avgår i morgon.

(Sidenote: skulle jag vara konspiratoriskt lagd så skulle jag misstänka att Apple och Google medvetet gör sina ”gamla” digitala assistenter medvetet sämre för att den nya generationen ska hamna i bättre ljus. När jag för några dagar sedan använde Google Maps så hade rösten tappat den rätt perfekta språkmelodi den har haft rätt länge på svenska. Det var en flashback typ 10 år tillbaka i tiden med robothackande röst. Och uppmaningar som ”kör på påfarten” snarare än ”shör på påfarten”. Jag har inte full koll på juridiken i det här specifika fallet, men tror inte att körer är tillåtna på motovägspåfarter.)

Your iPhone 16 may get its first Apple Intelligence features later this month

 

IoT – Internet of things

Tesla presenterar sin nya robottaxi och robotbuss

När Elon Musk inte lägger tid på att underminera hjälpinsatser i naturkatastrofdrabbade områden eller demokrati överlag med allehanda allt mer tossekonspiratoriska påståenden så hinner han ibland även ägna sig åt sina faktiska företag. Som Tesla.

Igår var det, två månader efter utsatt tidplan (och en timme efter utsatt starttid), dags för Tesla att så till sist presentera sitt upplägg för en robottaxi. En helt självkörande taxi alltså, som är tänkt att kunna köra omkring och taxia själv.

Något som dessutom är en förlängning av en vision som Tesla har haft rätt länge vid det här laget: att bilen du äger ska kunna tjäna pengar åt dig när du inte använder den genom att just bli en taxi som kan Uber-köra omkring på egen hand.

Cybercab, som den kommande modellen heter, ska vara i produktion 2026-2027. Och Tesla planerar att ha fullt självkörande bilar i Texas och Kalifornien nästa år. För att adressera ett annat problem med självkörande bilar – att de tar lika stor plats som en vanlig bil – så fick vi också se en självkörande, tja, buss som ska ha plats för upp till 20 personer.

Det enda vi nog kan vara säkra på är att tidplanen inte kommer att hållas. Och då inte på grund av lagstiftning kring självkörande fordon – en utmaning i sig – utan därför att Musks företag i princip aldrig har kunnat leverera en färdig produkt enligt den tidplan han har sagt. Det lär inte bli skillnad den här gången.

Så kortsiktigt kan det nog bita Tesla i svansen att de skrotade sina planer på en Model 2 – en billigare, vanlig Tesla. Med tanke på att konkurrenterna allt mer börjar få upp fart och satsar mer och mer på just billigare elbilar så lär det drabba Teslas marknadsandelar negativt. Sedan har Tesla en utmaning att komma ikapp exempelvis Google-ägda Waymo som redan har kommit längre på det helt självkörande området – både sett till teknik och faktiskt användning av just robottaxibilar (även om det i det stora hela fortfarande är väldigt småskaligt).

Oavsett så vill jag att den här typen av initiativ faktiskt ska gå bra. Även om jag ser en betydligt längre startsträcka innan tekniken faktiskt, bokstavligen talat, kan rullas ut brett.

Tänk om Elon kunde lägga alla sin tillgängliga arbetstid på den här typen av saker istället för konspirationsteoriknarkande. En drog som börjar bli ett samhällsmässigt riktigt stort problem.

Tesla Cybercab announced: Elon Musk’s robotaxi is finally here

Metas Ray-Ban-glasögon får stöd för röstmeddelanden och timer

Metas smarta Ray-Ban-samarbete uppdateras igen. Med några rätt bagatellartade nyheter: möjlighet att spela in och skicka en minut långa röstmeddelanden och att sätta en timer. Glasögonen kan även läsa upp inkomna meddelanden.

Det är med andra ord… något mindre avancerat än förmågan hos Orion – de konceptglasögon som Meta presenterade för nån vecka sen. Ingen fräsig AR och typ hjärnstyrning.

Men det är däremot funktioner som är… nyttiga i vardagen. Och typexempel på uppgifter där det inte behövs ögon och där händerna kan vara upptagna (som när man lagar mat).

Och för att göra en liknelse med AI (eftersom det nu står i LinkedIns användarvillkor att alla inlägg måste nämna AI åtminstone en gång): det här lär ungefär vara nivån på Apples kommande AI-plattform Apple Intelligence. Ett stort ”meh” jämfört med resonerande modeller och andra fräsigheter från ChatGPT, Claude och Google. Funktioner snäppet över Zapier-automatisering.

Men det lär bli funktioner som i sin enkelhet ger verklig nytta för användarna. Utan att prata om att det är ”AI”. Ja, inte ”AI” som i ”det som alla andra utom Apple menar med AI”. Snudd på osynliga, små förbättringar.

Och företaget kommer därmed förmodligen göra en väldigt stor insats att göra AI till vardag. För en riktigt stor andel användare. Inte genom att erbjuda de mest avancerade och ögonbrynshöjande AI-lösningarna. Utan genom att vara good enough för de flesta.

Ray-Ban Meta glasses hit version 9.0, get new voice messaging

Apples tillstånd för att framföra självkörande bilar dras tillbaka

Något halvår efter uppgifterna om att Apple har lagt ned sitt mesta av/på-projekt – bilprojektet Titan – så har Kaliforniens transportmyndighet nu dragit tillbaka Apples tillstånd att framföra självkörande bilar i delstaten.

Så nu kan vi nog konstatera att projektet som aldrig officiellt fanns en gång för alla är icke-officiellt dött.

Apple Cancels Self-Driving Vehicle Testing Permit in California After Abandoning Car Project


Prenumerera på mitt nyhetsbrev

Jag gillar Olas digitala spaningar!

Gillar du det jag gör? Visa gärna din uppskattning genom att donera lite pengar. Det hjälper till att betala för webbhotell och andra kostnader.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *