Kategorier
AI - Artificiell intelligens AR/VR Ekonomi och finans IoT - internet of things Mobilt Spaningar

Digitala spaningar vecka 44 2024 – del 3

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

AI-musiktjänsten Suno släpper iOS-app

Ännu ett steg för Suno. Igår var det dags för AI-musiktjänsten att bli med iOS-app. Det går nu alltså att skapa musik i iOS-appen. Ni vet hur det funkar: skriv vad du vill ha och låt Suno work its AI magic. Typ.

Microsoft skjuter upp lanseringen av kontroversiella Recall ännu en gång

När Microsoft i Windows presenterade ett gäng hårdvarunyheter i våras – inklusive en ”AI-first”-version av den bärbara Surface-datorn – så var den funktion som fick mest uppmärksamhet Recall. Ett fotografiskt minne för datorn.

Tanken är att funktionen regelbundet tar skärmdumpar av det som syns på skärmen och lagrar detta lokalt. Sedan är tanken att man ska kunna ”prata” med AI-boten Copilot om det man har gjort. Som att sammanfatta allt man har pysslat med kring ett visst projekt eller vilken den där sajten där man såg den snygga soffan var.

Det ledde till en hel massa frågetecken kring den personliga integriteten. Och värre: det visade sig att lösningen var lite sådär IT-säkerhetsmässigt när säkerhetsforskare bara ett par dagar efter det att funktionen presenterades kunde knäcka den.

Det ledde till att Microsoft sköt upp utrullningen av funktionen till juli. Sen hette det att testerna skulle börja i oktober. Och nu har det knuffats fram till december.

Anledningen? Det verkar som att Microsoft behöver ännu mer tid för att verkligen se till att funktionen är rejält säker. Något som de då tydligen inte har fått till så här långt.

Microsoft just delayed Recall again

Nästa steg för internet: en AI-kurerad webb

Länken nedan är en intervju med AI-sökmotorn Perplexitys grundare. Men det som jag mest tar med mig från den är inte så mycket innehållet som rubriken: en AI-kurerad webb.

Och ja, det kanske är precis det som är nästa stora fas för internet. Och då inte det faktum att en hejdlös massa innehåll på internet numer är AI-skapat (har hört siffror på uppemot 60 %, men sanningen är väl att ingen riktigt har en vettig aning) – utan att att innehållet på internet – och därmed kunskapen om världen – kommer att filtreras genom ett AI-raster.

Ja, ännu mer. AI har förstås länge påverkat vår syn på världen i form av ranking på webbsökningar och rekommendationer baserat på vilka vi är, men här pratar vi då om att AI-lösningar är de som skriver ihop (eller skapar bilder, ljud och video) det som vi sedan tar till oss.

Det är med andra ord ännu ett område som vi kommer att behöva förhålla oss till, inte minst när vi pratar källkritik. Och ens möjligheten att kunna källgranska.

Och i det sammanhanget är begreppet ”AI-kurerad webb” en intressant sinnebild för att sammanfatta det.

Perplexity CEO Aravind Srinivas on the rush toward an AI-curated web

En definition av ”open source AI” är på plats – men Meta håller inte med

En utmaning kring den senaste generationen AI-modeller är att det inte har funnits en tydlig definition av vad som räknas som ”open source” här. Nu har en sådan landat. Och open source-förkämparna Meta håller inte med.

Open source initiative (OSI) har länge varit go to-organisationen när det har kommit till att sätta definitioner inom open source. Nu har organisationen till sist landat i vad som krävs för att en AI-modell ska kunna kallas för ”open source”.

Det handlar i stort om rätt klassiska saker när det kommer till just open source. Koden ska vara öppet tillgänglig så att utvecklare kan ta del av hur något är byggt och att det ska vara fritt att använda och bygga vidare på en open source-lösning utan att först be om tillstånd.

Sen har vi en AI-specifik sak: det ska finnas tydlig dokumentation på vilken data som en modell har tränats på. Alltså ungefär det som är en av delarna i EU:s AI Act.

När det kommer till AI så har Meta, lite oväntat, gjort sig till open source-förkämpe. Metas lösningar är open source, till skillnad från de instängda modellerna som kontrolleras av Open AI, Microsoft, Google och flera andra.

Problemet är bara att… Metas open source AI inte alls är open source AI enligt OSI:s definition. Meta ställer vissa krav på användningen av Lllama (som restriktioner för kommersiell användning för tjänster med över 700 miljoner användare) och har inte delat vilken data som har använts för att träna modellen. Det sistnämnda säkerligen därför att det är en massa upphovsrättsskyddad data med här. Eller rättare sagt: en väldigt stor andel lär vara upphovsrättsskyddat material.

Föga förvånande håller Meta inte alls med om att den här definitionen. Det finns helt enkelt alternativa fakta.

Nu är OSI:s definitioner inte bindande något juridiskt sätt. Som så mycket annat så handlar det mer om att branschen har enats om att man anpassar sig efter det OSI kommer fram till. Men nu när det är ett helt nytt område – som dessutom potentiellt kan vara väldigt lukrativt på sikt – så vill Meta vara med och styra definitionen i sin egen favör innan standarden hinner sätta sig.

Open-source AI must reveal its training data, per new OSI definition

 

IoT – internet of things

Google lägger till AI-stöd för uppkopplade hem

När det kommer till AI i den form som vi menar just nu så är en av de saker jag verkligen har sett mest fram emot att kunna få smartare digitala assistenter. Och då inte att kunna prata om filosofiska frågor med ChatGPT utan att de ska bli bättre på att göra basala saker. Som att fatta när man vill göra saker.

Nu lägger Google till stöd för smarta hem i appen till sin ChatGPT-utmanare Gemini. Det blir med andra ord möjligt att styra uppkopplade prylar genom att på ren svenska säga vad man vill göra (ja, eller ren engelska än så länge).

Kort sagt att kunna säga att något ska göras med en pryl. Som att starta eller stänga av något.

Så ja, det jag är ute efter är rätt basala saker. Men saker som har visat sig vara svårt för exempelvis Siri. Svårigheter att förstå vad jag vill ha gjort. Och såväl Siri som assistenten i Google Maps har blivit rejält mycket sämre på att förstå. Kommandon som tidigare har funkat fint begriper den alls inte. Och rösten är betydligt mindre ”mänsklig” än tidigare.

Det är inte omöjligt att vi är i ett skifte nu, när det kommer att ta ett tag innan de nya (ännu mer) AI-uppgraderade assistenter måste börja om lite på ny kula.

Men jag hoppas som sagt var innerligt att det blir desto bättre sen. Ser fram emot att Siri kommer bli riktigt mycket smartare när Apple rullar ut motsvarande funktionalitet.

Ja, FÖRHOPPNINGSVIS blir Siri rejält mycket smartare.

Google is building smart home controls into Gemini

 

AR/VR

Snaps AR-glasögon Spectacles släpps i EU

Hör och häpna. När det kommer till senaste versionen av Snaps AR-glasögon Spectacles så blir EU första marknaden efter USA att få tillgång till enheten.

I samband med veckans kvartalsrapport så fick vi veta att Spectacles nu släpps i Österrike, Frankrike, Italien, Nederländerna, Tyskland och Spanien.

Vi pratar dock inte om en konsumentprodukt. Den femte generationen av Spectacles vänder sig bara till utvecklare och för att kunna lägga vantarna på dem så måste man betala för att vara med i Spectacles Developer Program för 110 dollar om året.

Syftet med senaste Spectacles-modellen är dessutom intressant nog inte enheten i sig, utan ett sätt att försöka få alla Snapchat-utvecklare att bygga fler AR-linser till plattformen.

Det återstår att se när de nya Spectacles kommer till Sverige. Och om de kommer. Och när nästa konsumentmodell kommer. Och om de kommer.

‘Simple’ Snapchat App to Launch in Q1 2025, Says CEO; Announces Expansion of Spectacles to More Countries

 

Mobilt

Apple använder AI för att sammanfatta recensioner

Dags för Apple att göra en Amazon. Apple har planer på att lägga till AI även i Appstore. Ja, eller: mer AI. Det handlar specifikt om recensioner.

Apple ser ut att göra det som Amazon redan har haft på plats ett hyfsat tag vid det här laget: låta en AI sammanfatta recensioner. Och då inte bara att sammanfatta långa recensioner i en kortare version, utan summera de huvudsakliga sakerna som användare har lyft fram om appar i sina recensioner. Bra såväl som dåliga saker.

Det är åtminstone vad vi kan anta. Vi vet ännu inte exakt hur Apple tänker sig att en Appstore-sammanfattningsbot ska fungera, men det känns som att Amazon-upplägget ligger väldigt nära till hands.

Apple is going to make it easier to read App Store reviews

 

Ekonomi och finans

Apples kvartalsrapport Q3 2024: stark iPhone-försäljning och ännu ett rekordkvartal för Services

Så kom det sig att världens största börsbolag visade upp visade upp siffrorna för Q3 (som i Apples värld är Q4 enligt Apples brutna bokföringsår). Där oron inför rapporten var den samma som inför de flesta Apple-kvartalsrapporter bra många år nu: hur går det med iPhone-försäljningen?

Så hur gick då förra kvartalet? Den korta versionen: bättre än väntat. Både vad gäller omsättning och vinst.

Omsättning och vinst

Omsättningen för kvartalet landade på 94,9 miljarder dollar, vilket är nytt rekord för kalender-Q3. Vinsten summerades till 14,7 miljarder, vilket var rejält mycket lägre än fjolårets 23 miljarder.

Men det berodde på att Apple till sist betalade av en långdragen skatteskuld till oss i EU på 10,2 miljarder. Så rensat för den engångsposten så var vinsten 12 % bättre än för ett år sedan.

Omsättning per segment

Bryter vi sedan ned på respektive rapporteringssegment så såg omsättningen ut så här:

  • iPhone: 46,2 miljarder dollar (+5,5 %)
  • Mac: 7,7 miljarder (+1,3 %)
  • iPad: 7 miljarder (+9,4 %)
  • Övrig hårdvara: 9 miljarder (-3,2 %)
  • Services: 25 miljarder (+12,1 %)

Förra kvartalets stora sänke, iPaden, klarade sig som synes bättre den här gången. Men som nästan alltid så var det tjänsterna som växte mest. Det blev dessutom ännu ett all-time high-rekord för just Services, som totalt stod för 26 % av omsättningen. Och Services-omsättningen var större än Macens, iPadens och den övriga hårdvaran – tillsammans.

En liten överraskning var att att den övriga hårdvaran (Airpods, Watch, Homepod etc.) backade en aning. Men det berodde sannolikt på att människor väntade in de uppgraderade modellerna som släpptes nu i höstas. De började säljas precis i slutet av kvartalet, så det är nog först det här kvartalet som vi får en bra bild av hur det har gått för de nya Airpods- och klockmodellerna.

Omsättning per region

Tittar vi på hur det gick för de olika marknaderna så får vi följande uppställning:

  • Amerika: 41,7 miljarder dollar (+4 %)
  • Europa: 24,9 miljarder (+10,7 %)
  • Kina: 15 miljarder (-0,7 %)
  • Japan: 5,9 miljarder (+7,3 %)
  • Resten av världen: 7,4 miljarder (+17,5 %)

Det har kommit lite olika bud kring hur bra försäljningen i Kina har gått senaste tiden, men det har mest lutat åt det negativa hållet. Känns som att Apple kan vara glada över den minimala nedgången. Lite oväntat att vi i Europa var så sugna på Apple-prylar förra kvartalet. Och när det kommer till den finkorniga regionen ”resten av världen” så är mycket sannolikt sprunget ur försäljningen i Indien.

Apple-aktien föll först runt 2 % på rapporten i efterhandeln, men börjar nu jobba sig uppåt så sakteliga. Känns med andra ord som att marknaden valde att mest fokusera på de positiva bitarna efter den techaktieslakt som rådde idag efter gårdagens rapportbesvikelser från Meta och Microsoft.

Apple sales rise 6%, company seeing early iPhone 16 demand

Googles kvartalsrapport Q3 2024: rejäl tillväxt inom samtliga segment

Dags för Google (eller om vi ska vara petiga ägarbolaget Alphabet) att summera hur det gick det tredje kvartalet. Och jotack bara bra blir den korta sammanfattningen.

Google överträffade förväntningarna när det gäller såväl omsättning som vinst. I reda tal innebär det här att Google omsatte 88,3 miljarder dollar, en ökning med 15 % jämfört med för ett år sedan. Vinstmässigt gick det ännu bättre: upp 34 %.

Omsättningen nedbruten per rapporteringsområde jämfört med motsvarande period förra året såg ut så här:

  • Sökannonser: 49,4 miljarder dollar (+12,2 %)
  • Youtube-annonser: 8,9 miljarder (+12,2 %)
  • Annonsnätverket: 7,5 miljarder (-1,6 %)
  • Prenumerationer och hårdvara: 10,7 miljarder (+27,8 %)
  • Cloud: 11,4 miljarder (+35 %)
  • Other bets (saker som självkörande bilar): 388 miljoner (+30,6 %)

Så rätt stadiga ökningar över i princip hela banan. Som synes är det förstås annonserna som står för den överlägset största omsättningsdelen, men tillväxten sker i de övriga verksamheterna. 

Efter att ha snubblat ett antal kvartal så verkar Youtube nu ha hittat upp på banan när det kommer till annonsverksamheten. Youtube lär även stå för största delen av pengarna för prenumerationssegmentet.

Alphabet shares rise on earnings beats boosted by cloud revenue

Youtube når 50 miljarder dollar i årsomsättning för första gången

När Google för första gången bröt ut Youtubes annonssiffror för några år sedan så var det var att flytta fokus från att sökannonsaffären saktat in och sätta strålkastarljuset på den stora tillväxtstjärnan på området. Men inte långt efter det så började Youtube snubbla rätt ordentligt. Nu ser Youtube ut att ha fått ordning på benföringen.

När Google igår redovisade siffrorna för det tredje kvartalet så visade det sig att Youtube gjort sitt omsättningsmässigt näst bästa annonskvartal någonsind. Totalt 8,9 miljarder dollar.

Men det stannar inte där. Rekordkvartalet gjorde att Youtube för första gången nått en omsättning över 50 miljarder dollar rullande tolv (alltså de fyra senaste kvartalen). Med tanke på att Youtube säkerligen lär gynnas av julkvartalet så är det inte omöjligt – till och med väldigt troligt – att Youtube når 50 miljarder även under ett kalenderår.

YouTube Hits $8.9B in Ad Revenue As Alphabet Beats Wall Street Expectations

Metas kvartalsrapport Q3 2024: sämre användartillväxt än väntat

Nästa techjätte att visa upp kvartalssifforrna: Meta. Igår kom Google med sin rapport, som visade bättre resultat än väntat över större delen av banan. Så hur gick det då för en av de värsta konkurrenterna?

När det kom till pengar så gick det bättre än väntat. Men användartillväxten överraskade negativt. Meta-aktien upprepade alltså inte Googles uppgång efter den rapporten.

Så här gick det:

Omsättningen landade på 40,6 miljarder dollar (+19 % jämfört med för ett år sedan), vilket innebär att Meta omsättningsmässigt hade sitt bästa kvartal någonsin. Till och med bättre än förra årets julkvartal, vilket kan lova gott inför Q4 för Meta. Vinsten räknat som nettointäkt landade i sin tur på 15,7 miljarder, vilket var en ännu större uppgång: 35 % upp.

Bryter vi ned omsättningen på de två rapporteringssegmenten så slutade Q3 så här:

  • Family of apps (de stora sociala apparna): 40,3 miljarder dollar (+19 %)
  • Reality labs (metaverse-delen): 270 miljoner (+29 %)

Så Metas ”kärnverksamhet” växer alltså betydligt bättre än kärnverksamheten. Ja, Reality labs ökar som synes rejält mycket mer än huvudapparna, men från väldigt låga nivåer. Faktum är att Reality labs, med omsättning på 270 miljoner, gick 4,4 miljarder dollar back.

Typ jätteouch.

Ifall någon undrar i vilket segment Meta har petat in sina AI-initiativ.

Så med andra ord: vinsten för Family of apps var 21,8 miljarder dollar. Sen fick fyra miljarder därifrån subventionera den andra delen.

Metas kvartalsrapporter är inte lika kul längre, eftersom de mer eller mindre har slutat redovisa alla användarsiffror. Numer är det bara en kvar: Daily active people. Hur många som använder någon av Metas fyra stora appar minst en gång om dagen. Här är den nya officiella siffran 3,29 miljarder användare (eller åtminstone konton).

Det betyder att Meta har plussat på 200 miljoner nya dagliga användare (och om mönstret sedan tidigare håller i sig så handlar det främst om att de som redan använder tjänsterna använder dem mer – inte att det är ett inflöde av nya användare. Det var därför som Meta i början av året slutade redovisa månadssifforrna, i ett försök att mörka den utvecklingen.)

Det antalet var alltså färre än marknaden hade väntat sig. På årsbasis är ökningen 4,8 %, vilket är ungefär den nivån som Meta har legat på rätt länge nu, men jämför man kvartal för kvartal så är ökningen den minsta den har varit det senaste fyra kvartalen.

Meta misses on user growth, warns of 2025 jump in AI spending

Kategorier
Spaningar

Digitala spaningar vecka 34 2024 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Perplexity planerar att börja med annonser mot slutet av året

Nu verkar det vara dags för dagen A för AI-söktjänsten Perplexity. A som i ”annonser”.

När det kommer till de AI-bolag som inte har någon annan intäktskälla än AI-produkten (alltså till skillnad från jättar som Microsoft och Google) så har de överlag två problem med sina affärsmodeller: de bygger på att de kan träna sina botar på material som de inte betalar för och de har ofta begränsade intäkter.

Det sistnämnda gör att de har svårt att börja betala för träningsmaterial. Och det i sin tur kan göra att innehållsleverantörer kan strypa tillgången till innehåll och därmed slå undan benen för AI-bolagens kärnprodukter.

Ett av dessa bolag är Perplexity, vars söktjänst uppskattas som ett bättre Google-alternativ av dem som använder den. De har bland annat kritiserats för att exempelvis strunta i robots.txt, alltså den lilla textfil som gör att en sajtägare kan styra hur de vill att botar ska interagera med en sajt. Och där det har varit en gentlemen-överenskommelse att respektera detta. Åtminstone om man inte kör med black hat-botande.

Nu ser det ut som att Perplexity gör sig redo att börja med annonser. Och de funderar lite på att köra ett, tja, X-upplägg. X då som i FKA Twitter.

Enligt ett upplägg som finns med i presentationer från Perplexity så är tanken att publicister ska kunna vara med i ett vinstuppdelningsupplägg för intäkter som genreras av annonser i samband med att innehåll från publicisternas sajter används i svaret. Så… lite sex steg till Kevin Bacon där i hur många steg som behövs för att eventuellt generera intäkter.

Perplexity hoppas förstås att det ska göra publicister tillräckligt glada så att de låter Perplexitys botar träna vidare på sajternas innehåll gratis. Och några titlar ska redan vara med på tåget, som Fortune, Time och Der Spiegel.

Det löser dock sannolikt inte alla Perplexitys problem, eftersom AI Act i EU och lagförslag i USA tvingar AI-bolag att redovisa om de tränar på upphovsrättsskyddat material och i så fall vilket. Innehållsföretag som inte är med i annonsdelningsprogrammet kan med andra ord stämma the bejeezus ur Perplexity.

Men det är oavsett ett intressant försök att ta sig an det som nu är en stor utmaning för alla bolag med AI-söktjänster för webben: hur tusan ska man egentligen tjäna pengar på den sortens lösningar på ett sätt som inte pajar användarupplevelsen?

Reports: Perplexity ads to launch in Q4

A pitch deck reveals new details about Perplexity’s advertising plans – including video ads and sponsoring related questions.

Apple öppnar upp betatillgång till Apple Intelligence i EU

I höst är det dags för Apple att lansera sin nya AI-plattform Apple Intelligence (och efter det kommer det bli ännu roddigare att använda förkortningen ”AI”). Ja, fast inte i EU – därför att EU är dumma tycker Apple. Eller, ja, enligt uppgifter så verkar det inte som att flera (förmodligen de fräsigaste) AI-funktionerna som presenterades i våras inte kommer att släppas i höst, utan först nästa år. Trots att Apple inte tycker att resten av världen är dumma.

Så om vi bortser från att Apple EU-diss mer och mer känns som ett bra svepskäl för Apple att använda som ursäkt för att de inte kommer att få AI-funktionerna på plats i tid till höstens OS-uppdateringar någonstans så kan vi i EU nu åtminstone testa betaversionen av plattformen.

Det ser nämligen ut som att 18.1 beta 2 så släpper Apple in EU-användare som är testsugna. Fast med några aber. Det är bara engelska som gäller när det kommer till språk (vilket å andra sidan också lär gälla när allt släpps skarpt, till en början åtminstone) och det verkar bara vara några få EU-länder. Irland är det enda som jag har hittat som bekräftat.

Men att åtminstone ett EU-land nu är med i betatestandet lovar ändå lite gott för oss. Och jag misstänker att AI-funktionerna till största del kommer att släppas ungefär samtidigt i EU som i övriga världen. När det nu blir.

How to Get Apple Intelligence in the EU

With the release of iOS 18.1 beta 2, Apple has apparently opened up access to Apple Intelligence for English speakers located in the European Union,…

Open AI börjar betala för träningsinnehåll från Wired, Vogue och The New Yorker

Vad gör egentligen Open AI med alla pengar de har fått från Microsoft undrar du? Köper gymkort. För åtminstone rätt mycket pengar. Nu är det senast Condé Nast som har slutit ett avtal med ChatGPT-ägaren.

Vad det innebär är att Open AI nu får träna sina AI-botar på innehåll från publikationerna Wired, Vogue och The New Yorker. På samma sätt som Open AI tidigare har övertygat företagen bakom titlar som Wall Street Journal, Time, The Atlantic och Politico att erbjuda botträningsläger i utbyte mot en hög pengar.

Anledningen är att innehållsbolag har insett att det finns ett helt nytt sätt att tjäna pengar på sitt innehåll. Och en irritation på att AI-bolagen har använt upphovsrättsskyddat material utan tillstånd eller ersättning för att sedan ta betalt för publicisternas innehåll av sina användare. Som de som betalar för ChatGPT.

Det har gjort att det har trillat in allt fler stämningar mot AI-bolagen i USA. Plus att EU:s AI Act kommer att tvinga dessa bolag att redovisa vilket innehåll de har använt för att träna sina botar. Vilket gör att de kommer att tvingas visa korten när det kommer till upphovsrättsskyddat material. Något som kan bli kostsamt även i USA.

Bättre då att förekomma än att förekommas. Och de pengar som Open AI och branschkollegor nu börjar betala publicister (och andra sajter med mycket innehåll, som Reddit) är sannolikt avsevärt mycket mindre än det som kan kan tvingas böta som straff från myndigheter eller domstolar.

Blir också intressant att se om Google kommer att hålla kvar vid inställningen att inte betala för träningsinnehåll från nyhetssajter.

OpenAI will now use content from Wired, Vogue and The New Yorker in ChatGPT’s responses

The partnership comes amid growing concerns over the unauthorized use of publishers’ content by AI companies.

GPT-4o får stöd för finjusteringar

Ny uppdatering av GPT – tekniken som driver bland annat ChatGPT. Nu får den senaste versionen av AI-modellen, GPT-4o, stöd förfinjusteringar för tredjepartsutvecklare.

Det här innebär att företag ännu mer kan pixelpusha hur egenframtagna anpassningar av GPT ska fungera för att lösningar baserade på dessa ska bli ännu mer användbara för en organisations behov.

Open AI känner sig dessutom väldigt givmilda, så fram till 23 september bjuder de på 1 miljon gratistokens att använda för sitt pixelpushande med GPT-4o. Intressant nog så känner de sig dubbelt så bjussiga när det kommer till de utvecklare som kör GPT-4o Mini. Användare av den mindre språkmodellen får 2 miljoner gratistokens att leka med.

Open AI vill verkligen att även de organisationer som har mindre pengar att röra sig med ska bli hoookade.

OpenAI brings fine-tuning to GPT-4o with 1M free tokens per day through Sept. 23

The company notes that developers can achieve strong results with as few as a few dozen examples in their training data.

Googles AI-söksvar rullas ut i sex nya länder

Så har det blivit dags för Googles AI-söksvar att påbörja sin världsturné. Nu rullas funktionen ut i sex nya länder och får ny funktionalitet.

AI Overviews, som lösningen heter, är Googles svar på de nya AI-sökmotorerna som skriver ihop sina egna svar snarare än att hänvisa tillsajter där svaret finns. Nästa steg på det som Google har velat göra länge, men inte vågat, av rädsla för sina annonsörer och konkurrensmyndigheter: ge svar direkt hos Google och inte släppa trafik till andra sajter.

Efter att ha släppts i USA i våra så får nu googlare i Storbritannien, Indien, Japan, Indonesien, Mexiko och Brasilien tillgång till AI Overviews. Dessutom på sina lokala språk (lite oklart hur omfattande det blir i Indien, som har ungefär en miljard olika språk).

Google ändrar också hur de hanterar hänvisningar genom att testa länkar till sajter direkt i AI-svaren. (Google säger att AI Overviews inte har påverkat trafiken till källsajterna, men det nya experimentet med att tydligare lyfta fram källor säger väl snarast att… funktionen nog visst har påverkat trafiken. Negativt.)

Utöver det så lägger Google också till en spara-funktion (lite oklart exakt hur den fungerar) och möjlighet att ”förenkla språket i vissa sammanfattningar”.

Google’s AI-generated search summaries change how they show their sources

Google is changing the way its AI Overviews display cited pages in search results. It will now show relevant links on the right instead of inside the AI-generated summary.

Googles AI-bot Gemini lär sig lyssna och prata

Gemini Live. Där har vi det lite lätt förvirrande namnet på Googles senaste ChatGPT-utmanare.

Vad det handlar om är att Google AI-chattbot nu har lärt sig att lyssna och prata. Det går alltså att föra en talkonversation med Gemini, på samma sätt som går hos exempelvis ChatGPT. Åtminstone för den som kör Android. Och pratar engelska. (Fler språk och en iOS-version ska komma ”de närmaste veckorna”.)

En annan nyhet som Google presentrerade igår var att Gemini nu dessutom kan förstå vad som händer på skärmen. Inklusive att ställa frågor om saker i videos.

Google Gemini’s voice chat mode is here

Gemini Live brings voice chat to Gemini on Android phones, letting users have natural conversations with Gemini and even interrupt it to ask about something else.

Google Assistant går i förtidspension

Igår presenterade Google ett gäng Pixel-relaterade nyheter, alltså nya modeller av saker som mobiler och smartklockor. Bland allt som presenterades så fanns också en lite historisk milstolpe. Google Assistant går i graven.

Ja, eller den går åtminstone i förtidspension.

Version 9 av Googles egen mobil får nämligen Gemini som förinställd digitalassistent. Det ska gå att backa tillbaka till Assistant för den som känner för det, men det är alltså Gemini som är huvudnumret.

Nu har vi alltså fått svaret på den fråga som snurrat runt ända sedan Google presenterade sin AI-smartnessuppgraderade assistent: skulle Assistant uppgraderas med Gemini-funktionalitet eller skulle Google helt kasta ut sin assistenttrotjänare? Efter åtta år så är det nu dags förAssistant att planera för mer fritid.

Nu återstår det att se hur Apple kommer att göra. Om SIri överlever Gen AI-vågen eller om det är något helt nytt som ersätter. Just nu ser lutar det åt att Apple kommer att fortsätta använda Siri som varumärke och gränssnitt ovanpå den nya AI-plattform som ska lanseras i höst (ja, eller krasst talat: förmodligen nästa år). Men det återstår att se.

Gemini, Google’s AI-powered chatbot, is the default assistant on Pixel 9 phones

You can still use Gemini as your assistant on most current Android phones – but only if you opt in. You must first fire up Google Assistant and tell it to replace itself with Gemini when you are asked.

Google hamnade på efterkälken i AI-racet på grund av distansarbete – enligt Google-grundare

Varför hamnade Google på efterkälken i det senaste AI-racet? Nu vet vi! På grund av distansarbete och hybridarbete!

Allt enligt Google-medgrundaren Erik Schmidt, som delade den här visdomen inför studenter på Stanford nyligen. Och när hans anförande började uppmärksammades i bredare kretsar så följde Schmidt upp med att… han sa fel. Och ville att videon från föreläsningen skulle plockas ned.

Men hej. Det gäller att hitta enkla grejer att skylla på, I suppose.

Google’s ex-CEO blames remote working on the company’s AI woes

Eric Schmidt was responding to a question about how Google have lost the lead in AI to startups like OpenAI and Anthropic.

Anthropic stäms för att ha tränat sina AI-botar på piratkopierade böcker

Tidigare idag skrev jag om att ChatGPT-ägaren Open AI har landat i ännu överenskommelse med en publicist som gör att företagets AI-botar får träna på innehåll från Wired, Vogue och The New Yorker. Här en nyhet om en av branschkollegorna som tydligt visar varför Open AI kastar en massa pengar efter träningsinnehåll.

Anthropic, som står bakom ChatGPT-utmanaren Claude, stäms i USA för att ha låtit sina botar träna på piratkopierade böcker. Ett sannolikt brott mot upphovsrätten, alltså.

Nu är det inte så att Anthropic, som på den gamla goda studenttiden före internet, har stått vid en kopiator och läst in umpton tusen sidor böcker. Istället har Anthropic använt en uppsättning data som är open source: The Pile. Problemet är dock att det innehåller piratat innehåll via en underuppsättning datapunkter som kallas Books3.

Frågan i målet är inte om Anthropic har använt The Pile – det har Anthropic erkänt – utan sannolikt hur medvetna AI-bolaget var att The Pile innehöll den här typen av innehåll. Enligt stämningen så var Anthropic väl medvetna om detta.

Oavsett hur den här stämningen går så visar den risken med att inte ha koll på vilket innehåll man tränar AI-botar på. Särskilt nu, när innehållsbolag, lagstiftare och myndigheter har blivit medvetna om det här nya värdet på innehåll.

Det är, om man så vill, väldigt mycket hiphop.

Även hiphopen tog sina första stapplande steg genom att använda andras musik utan att be om lov eller att ge ersättning. Något decennium senare så hade regelverken kommit ikapp, vilket på gott och ont styrde upp hur man får sampla andras musik. Vi lär se samma utveckling när det kommer till träningsdata för AI-modeller. Särskilt språkmodeller.

Authors sue Anthropic for training AI using pirated books

The proposed class action suit claims Anthropic used pirated books sourced from a dataset called The Pile to train its family of Claude AI models.

Grok lär sig skapa bilder och kommer i en miniversion

Ännu en dag, ännu en uppdaterad språkmodell och AI-chattbot. Den här gången: Grok (inte Groq). Alltså Elon Musks egen skapelse.

xAI lyfter nu Grok till version 2 och som vanligt innebär uppdateringen att den ska bli vassare på det mesta av det som den gör. Den kommer numer även i en miniversion. Det handlar däremot inte om en skarp utrullning, utan om ”tidiga testversioner” av de båda modellerna. Men med tanke på AI-tempot just nu så lär den snart släppas fullt ut.

Den enskilt största nyheten är att även Grok numer kan skapa bilder. Dessutom vad det verkar utan de begränsningar som finns hos de flesta andra när det kommer till att skapa bilder på offentliga personer. Så, ja, Elon verkar alltså vara sugen på att beefa ännu mer med EU och USA.

Däremot så ser det ut som att Grok inte skapar bilderna på egen hand. Istället är det en extern tjänst som gör jobbet: Flux.1. Den sistnämnda är skapad av teamet bakom Stable Diffusion och har den senaste tiden seglat upp som den bildskapartjänst som får flest ooooon och aaaaahn som reaktionen på de verklighetstrogna bilder den spottar ur sig.

Hur bra bilderna faktiskt blir via Grok återstår att se när den lämnar testfasen. Men xAI verkar alltså ha krokat arm med en riktigt vass tjänst för ändamålet. Ja, eller vad den nu är för relation mellan de båda företagen, med tanke på att Flux är open source.

Däremot så verkar det inte ha blivit någon ändring på vem som har tillgång till Grok. Det är fortfarande bara för dem som betalar för X Premium eller Premium+. Och dessutom bor på rätt ställe.

xAI releases Grok-2, adds image generation on X | TechCrunch

Elon Musk-owned X launched Grok-2 and Grok-2 mini in beta today with improved reasoning. The new Grok AI model can now generate images on the X social

AI-ljudbolaget ElevenLabs rullar ut sin rösttjänst globalt

Det börjar bli svårt att hålla kolla på alla AI-bolag som ploppar upp till vänster och höger numer (ja, eller det har varit knepigt ett tag nu). Ett av bolagen som fått mycket uppmärksamhet i år är ElevenLabs – ett av företagen som satsar på AI och ljud.

Nu tar ElevenLabs ännu ett steg och rullar ut sin Reader-app globalt. Det är tjänst som kan läsa upp text, för den som hellre lyssnar på en artikel än läser den.

Nu rullars Reader ut globalt och har totalt stöd för 32 språk, inklusive svenska.

För den som snabbt tröttnar på att höra en och samma röst så har ElevenLabs ett bibliotek med ”hundratals” röster – inklusive kändisar – som kan läsa upp texter som matas in.

Det gjorde att jag av misstag lyckades få en GDPR-text uppläst av en kvinnoröst som lät synnerligen förförisk. Det blev… intressant. När man trodde att man upplevt allt man kunde kring GDPR.

ElevenLabs’ text-to-speech app Reader is now available globally | TechCrunch

ElevenLabs, which develops AI-powered tools to create and edit synthetic voices, is making its Reader app available globally with support for 32 languages.

AI-videotjänsten Runway uppdateras

AI-videoskaparverktyget Runway blir nu ännu snabbare och vassare. Ja, enligt företaget bakom åtminstone. Den senaste versionen av tjänstens språkmodell uppdateras nu till det snärtiga Gen-E Alpha Turbo.

Det här ska, enligt Runway, innebära att tjänsten blir sju gånger snabbare än föregångaren och kostar hälften så mycket.

Runway’s Gen-3 Alpha Turbo is here and can make AI videos faster than you can type

Gen-3 Alpha Turbo should be priced at 5 credits per 1 second of video per Runway’s statement that it is 50% less.

Asos AI-chattbot låter dig pruta dig till bättre priser

Lite intressant. Och kul. Pruta dig till bättre pris hos brittiska modehandlaren Asos (och andra e-handlare som har lagt till samma lösning).

Vad det handlar om är en AI-chattbot – förstås, because AI – som låter dig komma med ett ”motbud” till det pris som är angivet på en vara. För lågt och du får tummen ned, men är ditt pris acceptabelt så kan du glädjas åt rabatten.

Det verkar dock vara så att den största utmaningen inte är att vara bra på att pruta, utan att överhuvudtaget hitta chattboten. Nibble, som boten heter, verkar dyka upp lite random på sajter. Det gäller helt enkelt att klicka sig runt för att hitta den. Ja, nu är det säkerligen inte så random som det verkar, utan boten triggas nog vid väl utvalda tillfällen på väl utvalda produkter.

Men det är oavsett lite kul. Och ett annat sätt att arbeta med dynamisk prissättning. Ett sätt där man, om man så vill, har lagt på ett gamification-lager. Dels när det kommer till att hitta boten och dels att chatta sig till ett bättre pris.

Och det verkar vara så många som 300 handlare som använder boten. Det är bara att börja klicka runt hos e-handlare för att se om Nibble vill prata med dig.

Asos introduces AI chatbot for shoppers to haggle prices – Retail Gazette

Asos has launched an AI chatbot called Nibble, which allows customers to haggle back-and-forth on prices between bot and buyer.

Open Source Initiative presenterar en definition på Open source AI

Ladies and gentlemen. We have en definition. På ”open source AI”.

Igår gick Mark Zuckerberg och Spotifys Daniel Ek ut i en gemensam artikel i The Economist, där de uppmanade EU att ”omfamna open source AI” för att inte riskera att halka efter i AI-racet. (Ja, eller ännu mer efter, beroende på vem du frågar.) Har givetvis absolut inget att göra med att Meta har ställt sig på open source-barrikaderna med sin AI-modell Llama och använder open source som ett argument mot konkurrenter som Google och Open AI.

Men exakt vad som open source innebär i AI-sammanhang har inte varit helt tydligt. Det har inte funnits en helt självklar, överenskommen definition som alla kan enas kring.

Nu har Open source initiative därför tagit fram ett förslag på en sådan definition, nästan exakt samtidigt som Zuckerberg och Ek gjorde sitt utspel. Här finns saker som att forskare ska kunna titta på hur delarna och systemet i stort fungerar, att det ska gå att modifiera systemet förvilket ändamål som helst och dela med andra – med eller utan ändringar – för vilket ändamål som helst.

Det lär säkerligen bli diskussioner kring OSI:s definition – och det kanske slutar med att den helt hamnar i papperskorgen – men det finns en i sammanhanget väldigt pikant detalj. En av de saker som OSI föreslår ska finnas med i definitionen av open source AI är att ett sådant system kan ”användas för vilket ändamål som helst utan att säkra rättigheter”. Begära åtkomst, alltså.

Nu har jag inte använt Llama själv, men det verkar som att man just måste fylla i ett formulär och begära åtkomst för att sedan använda Llama.

Så med andra ord kan det alltså ironiskt nog betyda att det, typ dagen efter det att Mark Zuckerberg uppmanade EU att satsa på open source AI i sitt AI-strävande, kommer en definition som säger att Zuckerbergs eget företag inte alls erbjuder en en AI-modell som är open source.

We finally have a definition for open-source AI

Researchers have long disagreed over what constitutes open-source AI. An influential group has offered up an answer.