Spaningar inom tech och sociala medier från veckan som har gått.
Övriga delar i veckans sammanställning
- Del 1: Sociala medier, Sök/SEO, Detaljhandel/e-handel, Strömmade medier
- Del 3: IoT – internet of things, Mobilt, Ekonomi och finans, Övrigt
AI – artificiell intelligens
Google NotebookLM gör det möjligt att anpassa AI-podcast-resultatet
Googles AI-anteckningstjänst växer upp och tappar nu sin ”experiment”-märkning. Men den får också en rätt stor uppdatering: det blir möjligt att anpassa den AI-podd som tjänsten kan generera.
NotebookLM har funnits i något drygt år, men det var först sedan Google för några veckor sedan la till funktionen att skapa en podcast från exempelvis en pdf-rapport som tjänsten tog fart på riktigt. Ladda upp en pdf, en ljudfil, allmänna anteckningar eller en Youtube-länk och låt NotebookLM skapa en podcast med två virtuella poddvärdar som diskuterar innehållet i det källmaterial som du har laddat upp.
Ladda upp och vänta några minuter, det var allt som krävdes för att få en imponerande bra podd. Men det var också allt. Det gick inte att anpassa resultatet på något sätt. Det blir det ändring på nu.
Den senaste uppdateringen bjuder på en anpassningsfunktion. Här kan du ange om det är några avsnitt eller specifika delar i källmaterialet som du vill att podden ska fokusera på, om det är vissa teman som poddvärdarna ska fokusera på eller ange en tänkt målgrupp för podden.
Dessutom passar Google på att sjösätta NotebookLM Business – ett pilotprogram som alltså vänder sig specifikt mot företag. Det ska gå att anmäla sig till piloten redan nu och den ska ge ”tidig tillgång till funktioner, träning och mejlsupport”.
Google tänker nu alltså börja tjäna pengar på den produkt som så här långt har varit gratis. Prislappen? Finns i sjön! Ja, eller så kommer Google att gå ut med det ”senare i år”. Vilket är typ… i morgon. Med tanke på hur mycket av året som vi har kvar.
Apple-forskare sågar ”resonerande” AI-språkmodeller som Open AI:s o1
Open AI:s resonerande AI-modell o1 SUGER! Säger Apple.
När ChatGPT-ägaren presenterade efterföljaren till modellen GPT-4 – eller åtminstone nya generationskamraten – o1 så var det stora införsäljningsargumentet att den kunde resonera. Men det är lite så och så med den saken enligt forskare på Apple.
Och det är inte bara o1 som svajar. Faktum är att den klarar sig bäst i sällskapet. Modellerna för Google, Microsoft och Meta presterar ännu sämre. Eller mindre bra, beroende på hur du ser på det.
Enligt Apples studie så handlar det snarare om ”sofistikerad mönstermatching” än ”verkligt logiskt resonerande”. Med andra ord att o1 & co har blivit ännu bättre på att göra det som AI-språkmodeller gör: gissar nästa bokstav och ord baserat på den data de har tränats på. Typ.
Det Apple-forskarna argumenterar är att det är enkelt att få modellerna att snubbla i sitt resonerande genom att kasta in lite irrelevant data i mixen. Läs mer i artikeln om du är intresserad av detaljerna. Men det mest intressanta är vad som forskarna ironiskt nog anser är felkällan: ett verktyg för att testa en modells resonerande förmåga.
Att modellerna alltså har tränats på svaren i det testet – och det är anledningen till att de kan lista ut svaret. Så, tja, AI-Jeopardy.
Vi kan väl anta att de utpekade företagen inte delar Apple-forskarnas bild och kommer att svara.
Apple study reveals major AI flaw in OpenAI, Google, and Meta LLMs
Perplexity släpper Spaces och stöd för sökning i interna dokument
Nya funktioner i Perplexity: Spaces och intern dokumentsök.
Den sistnämnda är precis vad det låter som: sök bland företagets egna dokument med Perplexity. Det ska dessutom gå att kombinera dokumentsökning med webbsökning så att man alltså kan göra kombosökningar från ett ställe. Finns dock ett aber: det går inte att plugga in sitt interna dokumentbibliotek i Perplexity. Den interna sökfunktionen fungerar bara för dokument man laddar upp till Perplexity. I dagsläget, i alla fall.
Det finns dessutom ett tak på hur många filer man kan ladda upp. Max 500 för de som kör Enterprise-abonnemanget och sannolikt rätt mycket färre för Pro. Det är dessutom dessa både abonnemang som krävs för att komma åt nya funktionen.
Om man så vill så rullar Perplexity alltså ut en motsvarighet till Googles NotebookLM. Som dessutom enuppar Googles lösning genom att det alltså går att korsökra sökningar i dokument på webben. Det verkar dock inte som att Perplexity erbjuder någon poddfunktion. Inte ån, åtminstone.
Dessutom lanserar Perplexity Spaces, som också är ungefär vad det låter som och ungefär det som konkurrenter erbjuder: stöd för att dela filer inom ett team och göra gemensamma anpassningar av Perplexity.
Perplexity kommer inte träna på Enterprise-användares Spaces-sökningar eller filer som laddas upp. Ja, eller funktionen att göra det är avslagen per default. Det omvända gäller för Pro-användare, som själva får stänga av träningen om de inte vill att Perplexity ska få tillgång.
Sist men inte minst jobbar Perplexity på möjligheten att plugga in tredjepartskällor som Crunchbase och FactSet i Spaces för Pro-abonnemang.
Perplexity lets you search your internal enterprise files and the web
New York Times stämmer Perplexity för olovligt AI-tränande
Enough is enough! Efter att tidigare ha stämt ChatGPT-ägaren Open AI så är det nu dags för New York Times att skicka ut ännu ett stämningshot. Den här gången till AI-söktjänsten Perplexity.
Det handlar även denna gång om att New York Times inte gillar att AI-bolag tränar på tidningens innehåll utan tillåtelse och (framförallt) utan att betala för sig.
Perplexity har i år mer än en gång anklagats för att köra lite gråhattsupplägg i sitt skrapande av webbsidor. Att man alltså har använt sig av metoder som rundar praxis för hur man gör saker på nätet – som att respektera om en sajt i sin robots.txt-fil inte tillåter en bot att skrapa sidan. Perplexity sägs dessutom ha hittat på ett sätt att även kunna komma åt innehåll bakom betalvägg.
Det senare låter inte alls orimligt. Dels med tanke på ovanstående uppgifter om hur Perplexity sköter sin affär och dels därför att Google vid ett tillfälle för ett par år sedan tvingades panikändra en justering av sökalgoritmen som gjorde att innehåll bakom betalväggar läckte ut.
Det är ännu ett exempel på hur de flesta AI-bolag idag har en i grunden långsiktigt ohållbar affärsmodell. I takt med att sajter med mycket innehåll har uppmärksammats på att innehåll har ekonomiskt värde som AI-träningsunderlag så börjar allt fler blocka gratisätande AI-botar. Det gör att AI-bolagen inte får det som de behöver för att sedan kunna tjäna pengar.
Det är med andra ord ingen slump att Open AI nu dammsuger upp innehållsavtal med stora publicister i ett rasande tempo. Men för de AI-bolag som inte ha lika djupa fickor blir det en betydligt större utmaning.
Det kommer med andra ord bli väldigt intressant att följa hur en ”AI-ekonomi” kan få för former. För bevisligen behöver rättighets- och ersättningsfrågan redas ut. Och även här lär det i slutändan bli regleringar som kommer att tvingas styra upp. Läs: EU lär gå först även här.
The New York Times has had it with generative AI companies using its content
Mistral släpper AI-modeller för mobiler och andra bärbara enheter
Dags för franska Mistral att utöka sin familj AI-modeller. Den här gången med två modeller som är framtagna specifikt för att användas i mobiler, bärbara datorer och andra portabla enheter. Enheter som kort sagt överlag har mindre processorkraft och därmed behöver mer extern datorkraft eller som helt enkelt går på batteri och gillar saker som inte bränner så mycket batteritid.
Och Mistral fortsätter leda AI-racet när det kommer till bäst namn på sina olika modeller. Den nya modellfamiljen heter Les Ministraux och de två första modellerna här Ministral 3B och Ministral 8B. Siffran anger hur många miljarder parametrar som de består av. Båda modellerna kan i en enskild fråga svälja ungefär den textmängd som en 50-sidig bok består av.
Men de exakta tekniska specarna känns mindre viktiga i sammanhanget. Desto viktigare är själva principen att även Mistral nu lanserar AI-modeller som är tänkta att kunna skyffla runt data lokalt i enhet, utan att behöva ringa hem till en server i molnet för att svara på frågor och utföra kommandon.
Förutom att det gör saker och ting snabbare för slutanvändaren när data inte behöver skickas fram och tillbaka över internet så innebär det säkrare lösningar och även energisnålare sådana.
Apples hela kommande AI-plattform Apple Intelligence är tänkt att bygga på den här som en grundprincip. Mycket ska kunna hanteras direkt i enheten, men om den uppgift kräver större muskler så kommer automatiskt en förfrågan skickas till Apples egna molnservrar. Men tanken är att mycket alltså ska kunna hanteras utan det sistnämnda steget.
Det här är del av en större trend där ”megapixelracet” när det kommer till AI-modeller börjar tappa betydelse. Istället för att jaga allt större modeller – och därmed allt större mängder träningsdata – så börjar intresset öka för att ta fram andra sätt att träna AI-modeller. Mest därför att det snart inte finns tillräckligt mycket data för att tillfredställa de allt större modellerna.
Det innebär också att man försöker göra modellerna mindre elintensiva. Att det helt enkelt krävs mindre el för att driva de servrar som används för att träna modellerna och för att sedan använda dem.
Ännu mer forskning och utveckling på det här området känns som något som borde få betydligt mer uppmärksamhet och resurser (något som även gäller förnyelsebara energiteknik). Istället för att vi ska backa oss in i det förflutna genom att kasta en massa miljarder på att bygga nya kärnkraftverk för att hantera framtidens energibehov.
Mistral släpper AI-modeller för mobiler och andra bärbara enheter
Meta lanserar AI-modelen Spirit LM
En ständig utmaning: hur ska man egentligen fira Halloween? Är man Meta så passar man på att lansera en ny AI-modell lagom till den spöklika högtiden. Med det passande namnet Spirit LM.
I linje med att Meta har ställt sig på open source-barrikaderna när det kommer till AI så är även Spirit LM fri att använda. Men precis som övriga open source-AI-initiativ som Meta har släppt så… är Spirit LM inte fullt ut open source. Det finns med andra ord ett villkor kopplat till användningen: den får inte användas kommersiellt.
Köper man den förutsättningen så får man en multimodal AI-lösning, som med andra ord innebär att den kan hantera fler format i samma gränssnitt. I det här fallet text och röst.
Vad är det då som gör Spriit LM bättre än konkurrenterna you ask? Den ska erbjuda ”mer uttrycksfullt och mänskligt röstskapande”. Med andra ord att rösterna ska låta och bete sig mer som vi människor. Jag tänker på saker som ChatGPT:s avancerade röstläge eller poddfunktionen i Googles Notebook LM.
Den nya modellen kommer i två smaker Base och Expressve. Där den senare, som hörs, ska vara bättre på att väva in nyanser och tonlägen i de röster som skapas.
Meta Introduces Spirit LM open source model that combines text and speech inputs/outputs
ChatGPT får Windows-app
Dags för Windows-användare att bli lika coola som oss som kör Mac. Ja, eller det är förstås inte möjligt, men nu släpper Open AI oavsett en Windows-app för ChatGPT.
Än så länge handlar det dock en ”en tidig version” som dessutom bara är tillgänglig för dem som betalar för ChatGPT. Men en ”full experience”-version ska släppas senare i år. Vi kan anta att denna version även blir tillgänglig för gratisanvändarna, precis som på Mac-sidan.
Forskare tar fram algoritm som minskar energiåtgången för att träna AI-modeller med 95 %
Väldigt intressant. Och väldigt viktigt. Forskare vid BitEnergy AI har tagit fram en algoritm som minskar energiåtgången vid träning av AI-modeller med 95 %, med bibehållen kvalitet.
Mer specifikt så har forskarna ”developed Linear-Complexity Multiplication (L-Mul), a method that replaces energy-intensive floating-point multiplications with simpler integer additions in AI computations”.
Nej. Jag förstår inte vad som står här ovan. Och förstår knappt på förklaringen i artikeln heller. Så vill du veta mer så rekommenderar jag att du går in i artikeln (eller frågar ChatGPT).
Så istället för att recensera lösningen som forskarna har tagit fram nöjer jag mig med att fokusera på den principiella frågan.
Dagen AI-språkmodeller har två stora problem – eller utmaningar, beroende på vem du frågar. Den ena är att det krävs hiskeligt mycket data för att träna dem och det andra är att det krävs nästa lika hiskeligt mycket el för att driva de servrar och datacenter där beräkningarna görs.
För ett par veckor såg jag någon som kommit fram till ett annat sätt att träna språkmodeller, som inte kräver lika mycket datainput. Och nu alltså ännu ett initiativ för att försöka få ned elförbrukningen. Båda två extremt viktiga för den fortsatta AI-utvecklingen.
Nu verkar det som att det krävs särskilt hårdvara för att få den strömsnåla modellen att funka – utöver att jag som sagt var absolut inte har en aning om hur bra det tekniska kan funka.
Men hej. Vi kanske är nära AI-modellernas MP3 moment?
This New Technique Slashes AI Energy Use by 95%
IoT – internet of things
Open AI-VD:n presenterar ett ögonskannande ID-klot
Så så kommer den alltså att se ut. Open AI-VD:n Sam Altmans nya hårdvarupryl. Ett… ögonskannade ID-klot.
Det handlar om ett initiativ som inte hör hemma i Open AI, utan är en separat startup. Det började som Worldcoin – en lösning där användare betalar med sina ögon. Men i samband med att klotet visades upp så fick vi också veta att initiativet numer bara heter World. Ambitionen är alltså att gå bortom bara betalningar.
Men i grund och botten är missionen den samma. Få oss att lagra våra unika irisar i företagets klot så att vi sedan kan identifiera oss med just våra ögon. Kloten ska både kunna finnas på offentliga plaster och hemma. Och…
…jag ska inte säga att det är helt klart för mig varför någon skulle få för sig att köpa ett.
Som konsument i väst är behovet förmodligen inte jättestort, i och med att det blir allt vanligare med digitala ID-handlingar i mobilen eller datorn – prylar vi redan äger. Och ska det fungera som betalsätt eller ID-handling på andra ställen så måste man fortfarande skanna in sitt öga på något sätt. Även här skulle förmodligen mobilen vara det enklaste sättet att göra det.
Visst. Jag tänker mig att målgruppen mycket är ställen där ID-handlingar inte är helt självklara. Definitivt inte digitala sådana. Men även här blir smartmobiler allt vanligare. Och visst. Genom att skanna sitt öga i ett klot i butiken gör att man slipper ha med sig något – men oklart om just Altmans klotpryl är det givna sättet att hantera det.
Jag gillar verkligen hela initiativet att bygga en världsomspännande ID-handlingsdatabas som skulle bygga på biometriskt unika värden. Jag tror alltså mer på själva nätverket än prylen. (Utan att ens ha gått in på de potentiella säkerhetsriskerna.)
Sam Altman’s Eye-Scanning Orb Has a New Look – and Will Come Right to Your Door
Apple kan släppa ”vanliga” smartglasögon 2027
Rätt länge vid det här laget har Apples Tim Cook velat ta fram ett par AR-glasögon med Apple som avsändare. Så fick vi vardagsrumscyklopet Vision Pro förra året – en produkt som verkar ha varit en rätt rejält kompromiss utifrån den ursprungliga visionen (hoho). Men ska vi tro på de senaste uppgifterna så är Apple fortfarande på AR-glasögonbollen.
Enligt Mark Gurman, en av de Apple-analytiker som har mångas öra, så siktar Apple på att släppa ett par ”vanliga” AR-glasögon 2027. Ja, smarta glasögon överlag, alltså, där AR-stöd i linserna lär vara en viktig funktion.
Men precis som exempelvis Metas hyfsat nyligen uppdaterade solglasögonsamarbete med Ray-Ban så kan vi nog anta att Apple Intelligence också ingår i det paketet. Apples kommande AI-plattform, alltså. Med andra ord så att du skulle kunna prata med Siri (eller någon annan digitalassistent) för att få svar på frågor och utföra kommandon.
Smarta glasögon har visat sig vara rätt svåra att göra – bara att fråga Google, Snap och nu senast Meta. Och då inte så mycket att få oss att använda dem, utan att få dem att funka på ett bra sätt. Batteritidsmässigt inte minst. För att inte tala om hur interaktionerna ska ske (där både Apple och Meta har eller har koncept på att ha styrmekanismer som är baserade på handrörelser eller exempel där ögonstyrning blir allt bättre).
Men just den här enhetstypen har en stor fördel för många av oss jämfört med andra försök att utmana mobilen: det handlar om att lägga till smart funktionalitet i en pryl vi redan har med oss och på oss – inte att få oss att kånka runt på en grej till.
(Sen förhåller jag mig lätt skeptisk till att Apple lyckas få till ett par uppkopplade bågar som inte ser ut som en kloss i ansiktet redan till 2027. Men hej. Jag har gärna fel.)
Apple might launch smart glasses in 2027
Optimus-robotarna under Teslas senaste event kontrollerades av människor
I förra veckan var det så slutligen dags för Tesla att presentera sin nya robottaxi – som också gav oss en minirobotbuss. Men en tredje produkt visades också upp, både i skymundan och som nära nog huvudroll. Det var den humanoida roboten Optimus som förekom mest överallt där den minglade med besökare.
Den fick mer än en att ooaha och aaaha över hur långt Optimus hade kommit, där den kunde dela ut goodiebags, prata och spela sten, sax, påse med besökare.
Men… det visar sig nu att de var ännu mindre självgående än vad det verkade.
Enligt Tesla själv ska robotarna ha ”använt AI för att gå”, men övriga rörelser kontrollerades av mänskliga operatörer på distans. Dessa ska även ha pratat åt robotarna.
Med tanke på att Optimus, när den först presenterades, bestod av dansande människor i robotkostymer så känns det helt rimligt att de humanoida inslagen var ännu mer humanoida än vad Tesla (läs: Elon Musk) ville få dem att framstå.
Vi har med andra ord fortfarande ingen riktigt säker bild på hur långt Teslas robot har kommit som en fullt autonom produkt. Och hur långt det är kvar till det målet.
The Optimus robots at Tesla’s Cybercab event were humans in disguise