Spaningar inom tech och sociala medier från veckan som har gått.
Övriga delar i veckans sammanställning
- Del 1: Sociala medier, Detaljhandel/e-handel, Strömmade medier, AI – artificiell intelligens
- Del 3: AI – artificiell intelligens, IoT – internet of things, AR/VR, Ekonomi och finans, Övrigt
AI – artificiell intelligens
Open AI kan höja priserna för sina företagsabonnemang
Veckans minst oväntade besked: Open AI kan höja priserna på sina företagsabonnemang.
Prishöjningar överlag är sånt som oavsett händer med jämna mellanrum, men förra veckans besked att ChatGPT får ett nytt, rätt skitdyrt Pro-abonnemang för ”privatpersoner” gör de här uppgifterna än mer troliga.
Vi pratar kanske inte om en höjning som är i nivå med Pro, som är tio gånger dyrare än det vanliga betalabonnemanget, men Open AI är säkerligen sugen på en höjning som är högre än någon enstaka procent. Och det förstås inte omöjligt att de rullar ut något slags ”Enterprise Pro” för att göra det enklare att motivera höjningen.
Frågan är också om vi kommer att se ett brott i kurvan av att AI-lösningar blir allt billigare, när AI-bolagen måste börja kunna räkna hem sina investeringar. Och de hysteriskt höga kostnaderna för att träna och drifta de AI-modeller som tjänsterna bygger på.
Det är med andra ord ytterligare en sak som talar för de absolut största techbolagen – de som kan subventionera AI-satsningen utan att tvingas leva på lånade pengar. Pengar som investerare någon gång förväntar sig få tillbaka. Här kan exempelvis Apple ha en fördel genom att styra folk mot nyare prylar som man måste köpa för att överhuvudtaget få tillgång. (Även om det fortfarande är långt ifrån det viktigaste när de flesta köper mobil eller annan uppkopplad pryl idag.)
Och allt det leder också till hela argumentet om att AI-tekniken kan demokratisera kunskap. Fast bara så länge som man har råd att betala. Och då inte bara för tjänsten eller tjänsterna i sig, utan även kostnaderna för att ens kunna nå verktygen.
OpenAI plans to change AI pricing for business clients
Open AI ser ut att ha tränats på innehåll från Twitch och Youtube
Här har vi sannolikt en rätt tungt vägande faktor kring varför de amerikanska bolagen släpar fötterna efter sig när det kommer till lansering i EU: ovilja att dela information om vilka källor som en AI-modell har tränats på. Senast ut: Open AI:s Sora.
Två av kraven som är del av EU:s AI Act är att företag som tar fram lösningar baserade på generativ AI dels säkerställer att modeller förhindras från att skapa olagligt upphovsrättsskyddat material och dels ska sammanställa ”sammanfattningar” av vilken upphovsrättsskyddad data som har använts för träningen.
Nedanstående artikel har hittat VÄLDIGT starka indicier på att Sora har tränats på Twitch. Och att de därmed kan skapa väldigt snarlika varianter av exempelvis spel som skyddas av upphovsrätt. (I relaterat sammanhang så bad Youtubes meste techtestare Marques Brownlee Sora skapa ett klipp med en Youtube-techtestare. Det dök då upp ett skrivbord med den blomma som han har på sitt eget skrivbord.)
Open AI:s vd Sam Altman har sagt att det i praktiken inte går att träna AI-modeller bara på helt öppet innehåll, dvs. sånt som inte omfattas av någon form av upphovsrätt. Och nära nog alla AI-modeller lär nog ha tränats på just den typen av material.
Men det är nog kanske inte så mycket oron att EU-företag ska bli sura om Open AI och övriga har tränat sitt material på upphovsrättsskyddat material. Om företagen tvingas öppna korten här så blir det inte bara tillgängligt för EU och dess apparat utan även andra. Som stora stämningssugna, amerikanska innehållsbolag.
Som säkerligen blir än mer stämningssugna av det faktum att Open AI backas av ett av världens högst värderade börsbolag (vilket gäller de flesta av de större, semifristående AI-bolagen).
Open AI lägger till jultomten i ChatGPT
Ha. Ännu en ny funktion i ChatGPT. Open Ai lägger nu till jultomten!
Så nu kan du chatta med jultomten via tjänstens avancerade röstläge.
Hur man får barn som inte vill använda ChatGPT att börja göra det.
Say ho ho ho to Santa in voice mode, Santa
NotebookLM får interaktiva podcasts och betalabonnemang
Clubhouse är tillbaka! Tillbaka!! TILLBAKA!!! Det trodde ni inte! Än mer förvånade kanske ni blir över att tjänsten har hittat nytt liv inuti Googles AI-podcastfunktion NotebookLM.
Eller ja. Det handlar förstås om den del av Googles AI-anteckningsbokstjänst där man kan skapa just en podd, med två virtuella och jättepeppiga amerikanska poddvärdar som pratar om nära nog vad som helst man vill att de ska prata om. Som ditt musiklyssningsår, en funktion som Spotify samarbetade sig fram till för sin årliga Wrapped-funktion.
Eftersom precis all AI-tjänster var lagligt bundna av såväl EU-förordningar som lagstiftning i USA att den här veckan presentera en hög nyheter så blev Google tvungna att hitta på ett antal nyheter i NotebookLM.
Och den på pappret roligaste nya funktionen är alltså Clubhouse-funktionen. Du kan nu prata med poddvärdarna om innehållet och ställa frågor till dem. Kort sagt styra diskussionen i realtid. Och till skillnad från Clubhouse så är det du som lyssnare som kan gå in och avbryta när du vill, utan att det blir dålig stämning.
Google passade dessutom på att peta in två andra nyheter i NotebookLM när de ändå var inne och grottade i koden.
NotebookLM har nu även den fått ett betalabonnemang. Ett som ska ge fem gånger så många poddar (eller Audio overviews som poddfunktionen heter på NotebookLM:iska), fem gånger så många anteckningsböcker och fem gånger så många källor per anteckningsbok (vilket då borde innebära 250 källor).
Det nya abonnemanget rullas ut för företag, skolor och universitet nu och kommer att packas in i Googles prenumerationstjänst Google One AI Premium (GOAP och inte GOAT, alltså) tidigt nästa år.
NotebookLM får också ett nytt, vad det ser ut, mer användarvänligt gränssnitt, där basen blir tre kolumner: källorna till vänster, chattfönstret i mitten och andra funktioner (som att skapa en podd) ute till höger.
Sist men inte minst har Google även lanserat ”Agentspace”, en plattform där företag kan skapa anpassade AI-agenter.
Google passar också på att peta in lite kul användningsdata om just podcastfunktionen. Folk har skapat 350 års poddar sedan tjänsten lanserades i mitten av september. Så lång tid skulle det alltså ta att lyssna igenom alla skapelser.
Men nu – tillbaka till dig Clubhouse!
Google’s NotebookLM now offers audio overviews and a subscription tier
Google lanserar AI-modellen Gemini 2.0 med stöd för bilder, ljud och fler Google-tjänster
Google tänker inte låta Open AI suga åt sig allt strålkastarljus med sin produktlanseringsjulkalender. Därför passade företaget i veckan på att presentera Gemini 2.0 – alltså nästa stora versionshopp av Googles egen AI-modell.
Ja, eller mer specifikt är det bara en medlem i Gemini-familjen som nu har presenterats. Minstingen Flash. Och det är dessutom bara en ”experimentell förhandsversion” (Google vill alltså vara övertydlig med att den verkligen inte är skarp).
Hoppet till version 2 gör att även Gemini nu får det som de flesta konkurrerande tjänster redan har: inbyggt stöd för att skapa bilder. Men Gemini har också lärt sig skapa ljud, något som Google med sin NotebookLM-tjänst har visat sig vara riktigt bra på (på engelska åtminstone). Dessutom får Gemini fullt ut inbyggt stöd för Googles sök och Google Maps.
Men det räcker ju inte långt idag. Att gå ut med att säga att man har kommit ikapp konkurrenterna, alltså. Så då gäller det att droppa några buzzord som ger mer uppmärksamhet just i december 2024. Som… AI-agenter!
För Gemini är nu byggt för *trumvirvel* The AI Agentic Age (triple A?)! Ja, eller för AI-agenter. Steget som kommer efter de AI-assistenter som vi vant oss vid med ChatGPT och liknande tjänster, där en AI-bot är instängd i sitt gränssnitt till största del. AT-agenter ska kunna gå utanför sig själv och hyfsat självständigt kunna utföra uppgifter åt användare. Som att googla upp bästa hotellet, destinationen och flygpriset när man vill åka på semester – och boka och betala allt på egen hand.
Ja, det är ungefär visionen för hur den här typen av AI-botar skulle kunna bli våra virtuella jag i snart sagt alla digitala gränssnitt som vi har.
Och nu ska Googles AI-modeller alltså vara redo för den här typen av AI-funktioner.
Google’s Gemini 2.0 AI model launches with image and audio support
Googles Project Astra placerar en AI-agent i mobilkameran
För något halvår sedan presenterade Google Project Astra, en tänkt AI-agent. Alltså en AI-lösning som ska kunna utföra uppgifter hyfsat mycket på egen hand. I veckan var det dags för en uppdatering, där Project Astra fick ett antal nya funktioner.
Uppdateringen av Project Astra sammanföll med att Google uppdaterade sin AI-modell Gemini till version 2. Det är också det versionslyftet som har har möjliggjort Astras förbättrade förmågor.
Astra kan svara på frågor om en användares omgivning genom att man pekar mobilkameran mot det man har runt sig. Som att låta Astra ge information om en staty eller en byggnad man står vid.
Astra ska dessutom ha lärt sig prata flera språk och kan även hantera att hoppa mellan språk. Och Astra har dessutom också fått tillgång till en verktygslåda i form av Google-tjänster. Tjänsten kan alltså ta hjälp av saker som Googles sök, Google Lens, Google Maps eller Gemini för att svara på mer komplexa frågor. Sist men inte minst har Astra också fått ett utökat minne, så den kan nu komma ihåg saker som den har ”sett” de senaste tio minuterna.
Google DeepMind’s Project Astra Upgraded With Gemini 2.0 Capabilities
Google presenterar AI-agenten Mariner
När ”AI” (som vi definierar det numer) har blivit såååå gårdagens nyhet så gäller det att uppa sitt game. Nu gäller det att prata AI-agenter. Alltså AI-baserade tjänster och funktioner som hyfsat självständigt kan utföra uppgifter å dina vägnar. I veckan var det dags för Google att presentera ett par nyheter på det här området. Som Project Mariner.
Mariner är, om man så vill, Claudes funktion för att styra en dator – fast isolerat i Chrome. Där kan den interagera med din webbläsare precis som du skulle, dvs. flytta muspekare, klicka på saker och fylla i formulär. Tanken är med andra ord att Mariner på det här sättet ska kunna navigera på nätet ungefär som du själv skulle göra.
Här finns någon slags framtidsscenario att den alldeles egna, personliga AI-bot skulle kunna skickas ut på nätet för att hitta bästa solsemestern, hitta bästa hotellet och bästa flygningarna – baserat på dina personliga preferenser.
Ja, nu är vi ännu inte riktigt där, men med Mariner så tar Google ännu ett steg mot det. Och passar också på att rikta upp lite möjliga framtidsvägar för såväl sökning på nätet som hur en webbläsare faktiskt fungerar.
När internet flyttade in i mobilen så förvandlades webbläsare till appar. Nu kanske det är dags för webbläsarna att ta nästa steg. Det blir intressant att se vad den utvecklingen kan leda till. Såväl hur vi interagerar med internet – som hur internet i sig kommer att förändras.
Google unveils Project Mariner: AI agents to use the web for you
iOS 18.2 rullas ut med ChatGPT-integration
I veckan tog Apple nästa steg i byggandet av sin egen AI-plattform. Apple Intelligence får i och med iOS 18.2 och motsvarande uppdateringar för iPad och Mac ett antal nya funktioner:
- Genmoji: Apples funktion att kunna masha ihop egna emojis
- Image Playground: Verktyg för att AI-skapa och AI-redigera bilder
- Image Wand: Ungefär en version av Image Playground som bor inuti Anteckningar
- Förbättringar i AI-textfunktionen
- Visual intelligence i kameran: Apples AI-verktyg kan förstå och interagera med text via kameran, som att peka kameran mot en text. Sedan kan man låta AI:n sammanfatta text, plocka ut telefonnummer, översätta mellan språk, söka efter en liknande produkt via Google eller använda den nya ChatGPT-integrationen för att svara på mer utförliga frågor om det som visas i en bild.
- ChatGPT-integration i Siri: Siri kan nu ”sömlöst” tagteama med ChatGPT för ytterligare stöd och hjälp vid behov.
Apple Intelligence now features Image Playground, Genmoji, and more
Apple Intelligence lanseras utanför USA
I och med uppdateringarna av Apples olika operativ i veckan så blev Apple Intelligence, Apples egen AI-plattform, för första gången tillgängligt utanför USA. Ja, officiellt alltså, eftersom tjänsten har gått att nå på olika sätt även tidigare.
Men nu finns tjänsten alltså formellt även i Storbritannien, Kanada, Australien, Nya Zeeland och Sydafrika. Och intressant nog Irland. Vilket alltså betyder att Apple Intelligence nu har lanserats i EU!
Ja, eller även om jag har sett lite olika besked från användare baserade i Irland så betyder det första utrullningssteget utanför hemlandet sannolikt inte att Apple Intelligence nu går att köra i Irland utan att VPN:a sig ut ur EU. För vad det handlar om är att Apple Intelligence har fått stöd för några fler ”dialekter” av engelska. Och en av de varianter som nu ska ha fått stöd är irländsk engelska.
Så med andra ord: du kan prata engelska på ”irländska” med Siri, men bara om du befinner dig utanför EU. Annars fungerar inte Apple Intelligence. Så den fungerar inte på plats hemma i Irland.
Tror jag som sagt. För beskeden kring vad som gäller är inte helt solklara. Jag såg ett Reddit-inlägg från en irländare som hade kontaktat Apple-supporten i Irland och fått besked om att tjänsten nu har lanserats där. Så det verkar inte vara helt tydligt för dem som jobbar på Apple heller.
Men jag tror som sagt att även irländarna får vänta fram till april nästa år att få Apple Intelligence. Precis som vi övriga EU-medborgare.
Apple Intelligence Officially Expands Today
Reddit släpper en egen AI-sökfunktion
Vad är Reddits innehåll värt för någon som vill träna en AI-modell? Sisådär 60 miljoner dollar. Det var åtminstone vad Google uppges ha betalat för det ändamålet. Men det hindrar inte Reddit från att nu släppa sin egen AI-sökfunktion.
Reddit Answers, som tjänsten heter, fungerar precis som man kan förvänta sig av en AI-sökmotor. Istället för att få upp en lista med inlägg och trådar som kan innehålla svaret så försöker tjänsten själv skriva ihop ett svar baserat på den samlade kunskapen hos användarna på plattformen. Ja, eller åtminstone det som de har skrivit.
Däremot börjar Reddit i liten skala med den nya funktionen. Precis som hos de flesta andra stora AI-bolag så är det till att börja med bara USA och språket engelska som gäller för funktionen – och dessutom bara för ”ett begränsat antal användare”. Så ett test, alltså. Dessutom för webben och iOS, men inte Android.
Android-version, fler länder och fler språk finns förstås i någon plan framåt, men just nu är det det inte särskilt konkreta ”någon gång i framtiden” som gäller som tidplan.
Reddit Answers: an AI-powered search tool
X:s AI-bot Grok uppgraderas och blir snabbare
X:s (eller xAI:s om vi ska vara formella) AI-bot Grok fick även den i veckan en uppgradering. Språkmodellen bakom boten har fått sig ett lyft, vilket gör att Grok nu ska vara tre gånger snabbare.
Dessutom ska Grok nu ha fått ”ökad träffsäkerhet, ha blivit bättre på att följa instruktioner och ha fått flerspråksstöd”.
X – tjänsten alltså – har även fått en ny Grok-knapp för att sänka tröskeln till boten ytterligare lite.
Även Grok-API:et ska ha förbättrats och blivit mer resurseffektivt och som en följd av det – lite oväntat – så sänks priset på anropen.
X gains a faster Grok model and a new Grok button
Claude rullar ut språkmodellen 3.5 Haiku
Det jag gillar absolut mest med ChatGPT-utmanaren Claude är namngivningen på dess olika stora språkmodeller. Där andra valde helt obegripliga namn, om man inte gick kurs i AI-kunskap, eller generiskt tråkiga trappstegsnamn som ”mini” och ”pro” så valde företaget bakom Claude, Anthropic, en helt annan väg.
Där heter modellerna Haiku, Sonnet och Opus – i storleksordning. Och den minsta av dem har nu rullats ut i en ny version: 3.5 Haiku. Den går nu alltså att välja som modell inuti Claude.
Vad är då införsäljningsargumentet för senaste Haiku-modellen? Den ska vara särskilt bra på ”kodförslag, datautdrag, datataggning och innehållsmoderering”.
Anthropic’s 3.5 Haiku model comes to Claude users
X lanserar nya AI-bildskapare, drar tillbaka den och lanserar den igen
I förra veckan fick FKA Twitter en ny AI-bildskaparfunktion: Aurora. Det blev möjligt att skapa bilder med det nya verktyget via X:s egen AI-bot Grok.
Men bara någon dag senare drogs Aurora tillbaka. Och ytterligare någon dag senare presenterades den officiellt. Nu kommer den att rullas ut i ”utvalda länder” inom en vecka.
Som vanligt är det ont om detaljer när Musk är inblandad i nya funktioner, men vi kan gissa att det rätt snabbt uppdagades några oopsie-grejer som måste fixas till.
X says its new image generator Aurora will launch for all users within the week