Spaningar inom tech och sociala medier från veckan som har gått.
Övriga delar i veckans sammanställning
- Del 1: Sociala medier
- Del 3: AI – artificiell intelligens, IoT – internet of things, AR/VR, Ekonomi och finans, Övrigt
Sök/SEO
USA vill tvinga Google att sälja Chrome
Ryktet visade sig stämma. Nu måste Google sälja Chrome.
Ja, eller det är åtminstone så det blir om USA:s justitiedepartement DOJ får som de vill.
Den här begäran är en följd av den konkurrensrättegång mellan DOJ och Google som pågick fram till i början av hösten. Den där domslutet blev att Google har haft ett olagligt monopol kring sin sökverksamhet och att de har utnyttjat sin dominerande ställning för att slå undan benen på konkurrenterna.
Vi vet däremot fortfarande inte vad straffet blir för Google. Men vinnarsidan har nu alltså bestämt sig för vad de tycker är lämpligt: att Google måste kränga av sin webbläsare.
Google är, helt oväntat, inte helt nöjda över beslutet. I ett blogginlägg konstaterar de att det försämrar för konsumenter – eftersom ”beslutet skulle förstöra en rad Google-produkter även bortom sök”. Chrome som fristående produkt skulle bli mycket sämre än vad den är i Google-ägo och skulle även ”skada tjänster som Mozilla Firefox, som är beroende av Googles sök”.
Lite oklart exakt hur logiken ser ut kring det sistnämnda påståendet. Men hej.
Även om begäran att Google måste spinna loss Chrome är det mest långtgående i det som DOJ vill se som straff så finns det även ett antal andra åtgärder som myndigheten vill se. Som att Google ska förbjudas att ingå exklusiva sökavtal, som exempelvis att Google betalar för att vara förvald sökmotor i iOS.
(Som jag sagt förut, egentligen är det märkligt att Google straffas för att Apple – och andra, som Samsung, säljer den platsen. Men så blir det tydligen eftersom dessa inte var svarande i rättegången.)
Dessutom kräver DOJ att USA måste ”syndikera” sina sökresultat i USA till konkurrenter under det kommande årtiondet och att sajter ska ges alternativet att inte säga nej till att Google tränar sina AI-modeller på innehållet.
(Vilket förstås i princip går via robots.txt-filen, men eftersom det verkar som att AI-sökmotorn Perplexity har gett den interneturåldriga gentlemannaöverenskommelsen fingret så kan det här bli en fråga som kan aktualiseras på båda sidor om Atlanten framöver.)
Det är alltså en rätt dålig dag för Google. Men sista ordet är inte sagt. Ovanstående är DOJ:s önskelista. Som domaren i målet nu ska överväga. Och Google har redan gått ut med att de kommer att överklaga domen (beroende på vad straffet blir, kan tänkas. Det kan ju hända att Google kommer förhållandevis lindrigt undan).
DOJ: Google must sell Chrome to end monopoly
Detaljhandel/e-handel
Google gör det enklare att kolla priser i fysiska butiker med AI
Häromdagen rullade AI-sökmotorn en ny shoppingfunktion, som gör det möjligt att söka efter det man vill köpa och få upp rekommendationer på vad man skulle kunna köpa, var man kan köpa det och relevant information om produkten som rekommenderas (som för- och nackdelar). Nu är det Googles tur att uppgradera sitt shoppingerbjudande. För dem som handlar i fysisk butik, närmare bestämt.
Det handlar om att Google nu har byggt ut sin smarta kamera Lens.
Grundfunktionen i Lens är densamma som tidigare: peka mobilkameran mot något och låt Google söka upp svaret baserat på bilden. Som vem som har skapat ett konstverk eller var du kan köpa ett visst sorts plagg. Den nya funktionen bygger vidare på det sistnämnda.
Det nya är att du, när du har fotat en produkt, kan få upp förslag på liknande produkter i den fysiska butik som du tänker besöka eller befinner dig i. Du får också upp prisjämförelser för att se hur priset i den aktuella butiken står sig mot andra. Inklusive i onlinebutiker, som Amazon.
Sen finns det förstås en hög brasklappar kring funktionen.
Den finns, som så ofta när det kommer till nya AI-kopplade funktioner från techjättarna, än så länge bara tillgänglig i USA. Det fungerar bara för en handfull produktkategorier: skönhet, leksaker och elektronik. Och det det gäller inte för alla handlare – bara de som delar lokalt saldo med Google.
Google Lens can now check prices and inventory when shopping in the real world
Perplexity lägger till shoppingfunktioner
Perplexity går ännu en gång i Googles fotspår. Den här gången lägger AI-sökmotorn till shoppingfunktioner.
Mer konkret innebär det här att den som använder Perplexity kan be om att få shoppingrekommendationer och sedan kunna köpa en föreslagen produkt, direkt från sökresultatet. Utan att behöva passera e-handlarens sajt.
Rekommendationerna presenteras med basinformation om produkten och säljaren, en kort beskrivning och för- och nackdelar med produkten. Det ska även gå att trycka fram recensioner och ”detaljerade nyckelfunktioner”. Det går även att söka efter produkter med en bild.
Men inte bara det: det ska även gå att spara sina kortuppgifter direkt hos Perplexity för att sänka köptröskeln ytterligare. Rekommendationerna ska vara ”oberoende” (enligt Perplexity) och inte innehålla några sponsrade produkter.
Men Perplexity passar dessutom på att bygga upp lite infrastruktur kring den nya sökfunktionen genom lanseringen av ett program för säljare. De handlare som går med i programmet har en högre chans att förekomma bland de rekommenderade produkterna, kommer kunna visa mer fyllig information vid produkter som rekommenderas och det går även lägga till enklicksköp för dessa handlare.
Sist men inte minst ska handlare också få tillgång till ett API som gör att de kan använda Perplexitys sökmotor på sina egna sajter.
Det är ett oväntat drag från Perplexity – åtminstone att det kommer så snabbt. Det visar också att Perplexity hoppas att merchant-programmet ska bli ett nytt intäktsben. På gott och ont, efter som det ”oberoende” upplägget får sig en törn i kanten när det krasst talat handlar om att den som betalar får synligheten. Lite samma trovärdighetsproblem som kring Perplexitys uttalanden om att annonsörer inte kan påverka de frågor som de sponsrar.
Det finns med andra ord en del frågetecken. Men det är en intressant Google-kopiering från Perplexity.
För att överhuvudtaget få tillgång till funktionen så finns det just nu dessutom två grundkrav: dels att du bor i (eller VPN:ar dig till) USA och dels att du betalar för Perplexity Pro.
Så ja. Det är verkligen en personal shopper-tjänst.
Perplexity introduces a shopping feature for Pro users in the US
AI – artificiell intelligens
iOS 18.2 gör det möjligt att prata direkt med ChatGPT via Siri
Om några veckor är det dags för version 18.2 av iOS. Och då ser det ut som att det kommer en funktion som Apple inte har pratat särskilt mycket om (ja, eller inte alls?): möjlighet att prata direkt med ChatGPT via Siri.
När Apple presenterade det allmänna upplägget kring externa AI-chattbotar inom ramen för Apples egen AI-plattform så var dessa tänkta att användas om Siri inte kan svara själv på en fråga. Siri försöker först svara via den AI-modell som bor lokalt i enheten, räcker inte den så kan Apple ringa hem till en större AI-modell i Apples molntjänst och om inte heller det är nog kan frågan skeppas vidare till den externa AI-boten. Och i dagsläget är ”extern AI-chattbot” bara ChatGPT – även om fler lär följa.
Men om några veckor släpps iOS 18.2 och där visar det sig att man kan tvinga Siri att prata direkt med Open AI utan att försöka sig på att svara själv. Om man, när man har triggat igång Siri exempelvis via en knapp på sina Airpods, så kan man sedan säga ”Ask ChatGPT” för att frågan ska skickas direkt dit.
Och även de efterföljande frågorna skickas dit, utan att man måste säga ”Ask ChatGPT” varje gång.
Och betalar man för ChatGPT Plus så ska man den här vägen också kunna prata med ChatGPT:s avancerade röstläge den här vägen.
Så ja. Du måste fortfarande först trigga Siri och därmed gå omvägen via Apple först. Och det finns säkerligen de som redan har lagt in genvägar som gör det enklare att direkt dra igång ChatGPT. Men det ger en fingervisning om hur hur integrationen med externa AI-chattbotar kan fungera hos Apple. Och det sänker tröskeln för normalanvändare.
(Däremot är det fortfarande bara engelska som gäller till en bit in på nästa år. Och då kanske funktionen samtidigt också släpps här.)
iOS 18.2 makes AirPods more powerful than ever, here’s why
ElevenLabs lägger till stöd för att bygga röst-AI-agenter
Ännu ett företag släpper en AI-agent. Den här gången: text-till-röst-tjänsten ElevenLabs.
Ja, eller rättare sagt: ElevenLabs gör det nu möjligt för utvecklare att ta fram sina egna röst-AI-agenter. Kort sagt anpassade AI-lösningar som kan skräddarsys hyfsat mycket utifrån vilket behov man har.
Det innebär att man kan ställa in saker som agentens huvudsakliga språk, första meddelande och allmän systemprompt för att ”avgöra agentens personlighet”. Man kan också välja vilken språkmodell som agenten ska använda (Googles Gemini, ChatGPT eller Claude) och röstens tonalitet.
Det går också att ställa in ett antal andra saker, som vilken röst som ska användas, hur snabbt den ska svara och hur långt ett samtal max kan vara (för att därmed kunna påverka hur mycket API-pengar som konversationen ska bränna).
Men man måste inte bara förlita sig på de tre ovanstående modellerna, man kan även koppla in sin egen om man sitter på den. Botens ”kunskapskälla” kan också vara andra slags format, som filer, en URL eller en hög text.
Det ska även gå att ange vilken slags data som ska samlas in av boten. Som att den skulle kunna be om namn och mejl vid exempelvis kundtjänstanvändning.
Så med andra ord handlar tjänsten om möjlighet att hyfsat enkelt kunna koppla samman ett antal funktioner och tjänster under ett paraply och sedan låta Eleven Labs hantera själva röstinteraktionen.
ElevenLabs now offers ability to build conversational AI agents
Mistral släpper större språkmodell och nya AI-funktioner
Franska AI-bolaget Mistral har presenterat några – eller rättare sagt en mindre hög – nyheter.
Pixtral Large: En ny, stor språkmodell.
Webbsökning: Mistral (ja, eller mer korrekt chattboten Le Chat) lär sig söka på webben på samma sätt som de flesta konkurrenter.
Canvas: Le Chat får nu det som bland annat Claude och ChatGPT har: en yta bredvid själva textfältet där du kan se det som har skapats. Om du ändrar i din instruktion så kan du se förändringarna slå igenom direkt istället för att behöva scrolla ned för att se resultatet.
Bättre förståelse av dokument: Le Chat blir bättre på att förstå ”stora, komplexa PDF-dokument” och bilder, inklusive att förstå exempelvis diagram och tabeller.
Bildskapande: Le Chat lär sig skapa bilder genom att tagteama in funktionalitet från Black Forest Labs.
AI-agent: Klart att även Mistral måste ha med AI-agentnånting. I fransmännens fall handlar det om att det ska gå att spara ”arbetsflöden”, alltså kedjeuppgifter som man gör om och om igen (exempel som ges är ett automatiserat flöde för att skanna in utläggsrapporter och hantera fakturor.
Google Gemini får minne
Gemini har lärt sig ännu en ChatGPT-förmåga: den minns. Och då inte bara det som finns i en specifik chattråd, utan mer allmängiltiga saker.
Precis som hos ChatGPT så kan man ge boten instruktioner att minnas saker som den alltid ska ha i bakhuvudet när den svarar. Exempel som ges är att boten ska komma ihåg att någon är vegetarian, och därmed inte tipsa om kötträtter, eller att någon bara programmerar i ett visst språk och att kodningsförslag alltid ska baseras på det.
Det verkar än så länge bara vara ”vissa” Gemini-användare som har fått tillgång till funktionen, men det ser ut som att den håller på att rullas ut. Däremot fungerar den intressant nog bara på engelska i dagsläget. Och finns bara i webbjänsten, inte i någon av apparna.
Ja, plus att du måste betala för den. Det är nämligen bara de som prenumererar på Googles One AI Premium-abonnemang som får tillgång. Åtminstone i dagsläget.
Google’s Gemini chatbot now has memory
Google låter Android-användare dela filer direkt med Gemini för AI-analyser
Ännu en intressant funktion från Google. Android-användare får nu ett snabbare sätt att låta Googles AI-bot Gemini analysera filer.
Det blir nu möjligt att ”dela” en fil direkt till Gemini från en app, istället för att först öppna Gemini och sedan manuellt ladda upp filen.
Med andra ord är det en rätt liten förbättring, men en viktig sedan. Den sänker tröskeln mellan Gemini och resten av Android och apparna där, vilket gör det enklare för fler att både upptäcka och använda Googles ChatGPT-utmanare.
Gemini Nano Access Expanded to All Android Apps; Google Reportedly Adds Direct Image Sharing Support
Gemini som AI-bot i iOS kan dröja till 2025
Hur går det med arbetet att lägga till fler AI-tjänster än ChatGPT i Apples AI-plattformspaket? Bra fråga! Som bara Apple vet svaret på. Men nu kommer uppgifter om att det åtminstone kan dröja innan vi får se Googles motsvarighet Gemini här.
När Apple i våras presenterade Apple Intelligence så presenterade Apple sin lösning där Siri kommer att bli första anhalt för AI-uppgifter och om Siri känner att det behövs hjälp på traven så kan ChatGPT tagteamas in.
Det lär finnas flera anledningar till att Apple har valt det här upplägget. Att Apple ligger efter i AI-racet lär hamna en bit ned i den listan. Betydligt högre upp lär finnas att minska risken för monopolanklagelser och att det, precis som platsen som förvald sökmotor i Apples operativ, kan bli en intäktsmöjlighet.
Att Apple-analytikern Mark Gurman nu har landat i slutsatsen att det kan dröja till 2025 är inte särskilt konstigt. Apple ser oavsett inte ut att ha fått alla Intelligence-funktioner (i en första version) på plats förrän en bit in på nästa år. Ingen idé att börja böka in fler externa tjänster innan man vet att grunden funkar.
Men en sak är interessant i Gurmans spekulation: att det kan finnas en annan anledning till att Gemini-integrationen dröjer. Att det beror på att Apple vill ge ChatGPT ett ”exklusivitetsfönster”.
Med andra ord att Open AI ska få äga den här marknadsföringsplatsen under en period innan den släpps på för andra. Och det… känns inte alls särskilt orimligt.
Inga pengar ska ha bytt händer i samband med Apple Intelligence-avtalet mellan Apple och Open AI. Istället är det en tänkt quid pro quo som kickar in: Apple får in den populäraste gen AI-tjänsten för att boosta sitt eget AI-initiativ och Open AI får alltså kostnadsfritt marknadsföra sig mot Apples miljardpublik. Men det är inte omöjligt att en exklusivitetsperiod kan ha varit ett krav från Open AI:s sida.
Uppgiften låter ännu rimligare i ljuset av att Open AI sägs kräva av sina investerare att de inte plöjer in pengar i konkurrenter.
Det återstår att se om vi får veta hur det egentligen ligger till här. Och när Gemini blir valbar som förvald, extern chattbot i Apples operativ. För det lär oavsett handla om ”när” och inte ”om”.
Google Gemini Integration With Apple Intelligence Reportedly Delayed to 2025