Kategorier
AI - Artificiell intelligens Spaningar Strömmade medier

Digitala spaningar vecka 23 2025 – del 2

Youtube får fler annonser. Gemini Live kan nu livesöka med kameran. ChatGPT får mötesinspelning och integrationer till Google Drive, Sharepoint och Dropbox. ElevenLabs vässar sin röst-AI ytterligare.

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Strömmade medier

Youtube får fler annonser

Vad vill vi ha? FLER ANNONSER! När vill vi ha det? 30 JUNI!

Så verkar Youtube ha resonerat. För nu blir det fler annonser i plattformen från och med halvårsskiftet.

Nu gäller det inte för hela Youtube, men väl det så kallade Premium Lite-abonnemanget. De som alltså betalar en lägre kostnad än vad det vanliga Premium-abonnemanget kostar och som får betala mellanskillnaden med annonstittande. Exempelvis när man tittar på musikvideos.

Nu kommer annonser också börja visas i Shorts. Vilket gör att det snart inte finns några tillfällen där Lite-prenumeranterna kommer att slippa se annonser. Bara ”vanliga” Youtube-videos, fast inte om man söker eller kollar runt.

Vi kan nog anta att det kommer att bli ännu fler annonser här vad det lider. Youtube vill bevisligen maxa intäkterna och tvinga folk att antingen gå all in på annonser eller betala för vanliga Premium. Och vi kan nog anta att det rätt snart blir prishöjningar även för det sistnämnda.

YouTube is bringing more ads to Premium Lite users starting June 30

Well, this is great. YouTube is now bringing more ads to its Premium Lite subscription plan.

 

AI – artificiell intelligens

Gemini Live kan nu livesöka med kameran

Ännu en realtids-AI-funktion. Nu är Googles Gemini Live live.

Ja, eller Gemini Live har fått ögon. Det går med andra ord att hålla upp kameran mot något när man har Gemini Live-appen igång och sedan prata på om det som visas – istället för att ladda upp en bild. Samma som går att göra via exempelvis ChatGPT, alltså.

Ska vara släppt för både iOS och Android. (Släpptes dessutom redan i fredags, men vi låtsas som att ingen har sett det under helgen och att jag är jättesnabb med den här infon.)

NotebookLM gör det möjligt att göra anteckningsböcker publika

Google verkar vara på ett NotebookLM-streak just nu. Ännu en funktion i AI-anteckningsboktjänsten: nu blir det möjligt att göra en anteckningsbok publik.

Vad det innebär är att man kan dela en anteckningsbok på ungefär samma sätt som övriga Google-dokument. Andra kan sedan komma åt innehållet i anteckningsboken, inklusive att lyssna på eventuell ”podd” (ljudöversikt) man har gjort. Det går även att chatta om och ställa frågor kring materialet.

Med andra ord: ett sätt att skapa interaktiva kunskapssammanställningar för den som vill.

Delningen innebär dock inte att man kan bjuda in andra att redigera och lägga till nytt innehåll. För att få tillgång till samarbetsfunktionalitet så krävs fortfarande att man betalar för ett abonnemang som har stöd för det och därmed går in i en anteckningsbok den vägen.

Google’s NotebookLM now lets you share your notebook – and AI podcasts – publicly

Google’s AI-powered note-taking app, NotebookLM, will now let others view your notebooks with public links.

Google släpper app för att köra LLM:er lokalt i mobilen

Sugen på att leka med olika språkmodeller (large language models) i mobilen? Lokalt, utan internetuppkoppling? Nu ger Google dig precis det.

Den nya appen Google AI Edge Gallery gör det möjligt att söka upp, ladda ned och sedan köra LLM:er i sin mobil. Ja, eller i sin Android-enhet. Därför att det är den plattformen som gäller just nu.

Däremot ska det sägas att det är ”experimentell alfarelease”, vilket är ett halvt steg efter en servettskiss. Förväntningarna ska med andra ord ses läggas i nivå med det.

This New Google App Can Run AI Models Locally On Your Device

Google AI Edge Gallery, a new app for Android that allows users to experience running artificial intelligence (AI) models locally on a device, was released on Sunday.

ChatGPT får mötesinspelning och integrationer till Google Drive, Sharepoint och Dropbox

ChatGPT fortsätter att koppla ihop sig med omvärlden. Rätt bokstavligen. Nu får får ChatGPT fler färdiga integrationer. Och stöd för att spela in möten.

Integrationsmässigt får ChatGPT nu integrationer med Google Drive, Sharepoint, OneDrive, Dropbox och Box. Precis som det stöd som har lagts till i ChatGPT:s Deep research-funktion och som finns hos flera av konkurrenterna så kan man nu låta ChatGPT arbeta med lokala filer.

Men integrationerna stannar inte där. Tack var konkurrenten Anthropic, bakom AI-boten Claude. Stödet för Anthropics så kallade MCP-ramverk (Model Context Protocol) gör att betalande ChatGPT-användare nu kan koppla in fler lokala källor i Deep research-funktionen.

Och på tal om Deep research så får även den funktionen fler nya, färdiga integrationer: Hubspot, Linear och ”utvalda Microsoft- och Google-verktyg”. Här är det dock än så läng betaversioner som gäller.

Och så får ChatGPT nu också hänga med på möten. Som sekreterare. Eller, det finns säkert många som har använt ChatGPT till det redan – åtminstone som test – men nu får den officiell mötesanteckningsfunktionalitet. Det innebär saker som tidsstämplad transkribering och förslag på saker som ska göras efter mötet. (Dock bara stöd i MacOS-appen till att börja med.)

Den som vill kan också förvandla to dos till en så kallat canvas-dokument – ChatGPT-funktionen där man kan samarbeta med ChatGPT via en yta bredvid själva chattflödet.

ChatGPT introduces meeting recording and connectors for Google Drive, Box, and more | TechCrunch

As part of the launch, ChatGPT is gaining connectors for Dropbox, Box, SharePoint, OneDrive, and Google Drive. This allows ChatGPT to look for information across users’ own services to answer their questions.

Gratis-ChatGPT får längre minne

Nu är det dags även för gratisanvändarna av ChatGPT att få bättre minne. Ja, eller att ChatGPT får en utökad minnesfunktion, åtminstone.

Det innebär att ChatGPT, så länge som man är inloggad, kan komma ihåg saker från tidigare konversationer. En funktion som tidigare krävde betalabonnemang.

Som artikeln konstaterar så verkar det däremot vara en light-version av funktionen. Minnet sträcker sig kort sagt inte lika långt tillbaka som för betalande användare.

ChatGPT rolls out Memory upgrade for free users

ChatGPT’s memory feature is now better and capable of referencing past conversations for free accounts.

ChatGPT har nu över 3 miljoner betalande företagskunder

ChatGPT fortsätter att skörda framgångar. Nu har vi fått en uppdaterad användarsiffra. Kring betalande företagsanvändare, närmare bestämt.

Totalt har plattformen nu över 3 miljoner sådana kunder. Upp från 2 miljoner i februari. 50 % fler på ett kvartal, alltså. 

OpenAI Tops 3 Million Paying Business Users, Expands Enterprise Features

OpenAI said Wednesday it now has more than 3 million paying business customers using its workplace offerings, up from 2 million in February. The figure includes ChatGPT Enterprise, Team, and Edu clients, according to the company.

ElevenLabs vässar sin röst-AI ytterligare

Dags för AI-röstbolaget ElevenLabs att vässa sin tjänst ännu lite mer. Senast ut: Conversational AI 2.0.

Vad betyder då tvåpunktnollan? Som hörs på namnet så har ElevenLabs gjort sin tjänst ännu bättre på att prata. Bokstavligen. Föra konversationer, alltså.

Utöver att den ska ha fått ännu mer ”naturligt” flyt i det tal som skapas. Som att den har blivit bättre på att förstå när människan som interagerar med röst-AI:n har en tankepaus. Kort sagt att ElevenLabs bot inte hoppar in mitt i någons tanketråd och ställer en fråga eller irrelevant kommentar som kraschar tanketråden.

Tjänsten ska också bli bättre på att identifiera vilket språk som talas och automatiskt byta till detta utan att användaren behöver göra något.

ElevenLabs har också byggt in en RAG i sin rösttjänst. Ett Retrieval-Augmented Generation-system som gör att AI-boten snabbare kan dyka ned i externa datakällor och där hitta svar på frågor.

ElevenLabs modell är numer också multimodal, vilket gör att den kan hantera andra former av kommunikation – som text. Den kan också växla mellan olika personligheter och kan nu hantera större mängder utgående samtal (det sistnämnda kräver dock Enterprise-abonnemang).

ElevenLabs debuts Conversational AI 2.0 voice assistants that understand when to pause, speak, and take turns talking

With Conversational AI 2.0, ElevenLabs aims to provide tools and infrastructure for truly intelligent, context-aware enterprise voice agents.

ElevenLabs börjar testa audio tags

Ny testfunktion i text-till-tal-AI-tjänsten (och företaget) ElevenLabs: Audio tags.

Audio tags är rätt mycket vad det låter som: ett sätt att tagga upp det som ska sägas med HUR det ska sägas.

Via ElevenLabs senaste modellversion (nummer tre i ordningen) så kan man nu peta in ord inom hakparenteser och på så sätt styra hur något ska sägas. Bokstavligen.

Det innebär saker som ”excited”, ”whispers” och ”sighs”. Men också ljudeffekter som ”gunshot”, ”clapping” och ”explosion”. (Ja, jag tror åtminstone att de sista tre är ljudeffekter, men hej – man kan säkert säga saker som ett pistolskott, så helt säker är jag inte.)

Ljudtaggarna kan också användas för att påverka andra saker, som tonläge, pauser och tempo. Med andra ord ger de överlag möjlighet att pixelpusha det som AI-rösten ska säga genom att ange den här typen av uttryck.

Det ska dock sägas att det än så länge är ett väldigt litet test som primärt vänder sig mot forskningsvärlden. Så det återstår att se när det kan dyka upp för bred användning.

ElevenLabs Audio Tags: More control over AI Voices | ElevenLabs

Use ElevenLabs v3 audio tags for precise control over AI voice emotion, pacing, and sound effects. Improve your projects with enhanced audio delivery.

Meta vill outsourca riskutvärdering från människor till AI

Nytt AI-initiativ från Meta. Nu kommer uppgifter om att Meta håller på att outsourca fler arbetsuppgifter som i dagsläget hanteras av människor. Frågor kopplat till riskutvärdering av nya funktioner och produkter.

Vad innebär då det här kanske du undrar? Frågor kopplade till om det finns risk för användares integritet, risk för skada mot minderåriga eller om det finns risk att spridningen av hatinnehåll eller desinformation kring öka.

Frågor som kort sagt är… rätt relevanta att ställa sig. Inte minst om man är ett av världens största företag. Som dagligen brottas med just den här typen av utmaningar. Och där Metas plattformar har visat sig har risker inom samtliga dess områden.

I dagsläget går den här typen av granskningar via en riskutvärderingsgrupp, som har i ansvar att ta ett helhetsgrepp kring potentiella risker. Men nu är tanken att AI-algoritmer istället ska göra det.

Tanken är att produktutvecklingen på det här sättet ska kunna gå snabbare. På någon minut eller några Deep research-minuter. Typ. Oavsett betydligt snabbare än om människor skulle göra motsvarande utvärdering.

Och det lär absolut vara korrekt. Men med tanke på att Meta numer har gått all in på maskulin energi så är det förstås svårt att släppa tanken att det också blir enklare för de som ansvarar för produktutvecklingen att trycka igenom produkter. Att det alltså sannolikt inte blir så att AI:n är instruerad att protestera eller använda visselblåsarfunktionen om man anser att företaget tar fram funktioner som är skadliga. Eller om vi ska vara krassa: som har åsikter som går stick i stäv med Trump-sektens agenda.

Nu ska det sägas att det här alltså är uppgifter och att planen är att testa det på ”lågriskbeslut”. Men spontant tänker jag att Meta nog redan har bestämt sig för att de kommer att vilja köra det här spåret så länge som AI-algoritmen inte beter sig helt uppåt väggarna galet.

Eller om man så vill: ännu ett exempel på hur Mark Zuckerberg och därmed Meta vill tillbaka till sina move fast and break things-rötter. Där säkerheten hamnar betydligt längre bak i åhörarsalen.

Meta plans to replace humans with AI to assess privacy and societal risks

Current and former Meta employees fear the new automation push comes at the cost of allowing AI to make tricky determinations about how Meta’s apps could lead to real world harm.

Reddit stämmer Anthropic för otillåtet AI-tränande

Nu gör Reddit en publicist. Stämmer ett AI-bolag, alltså. Och det ska tydligen vara första gången som just ett techbolag, med egna AI-ambitioner, gör det.

Bolaget som är i Reddits stämningssikte är Anthropic, bakom ChatGPT-utmanaren Claude. I en stämning som har lämnats in anklagar Reddit Anthropic för att ha brutit mot de förstnämndas användarvillkor när de tränade sina modeller.

Det mest pikanta i situationen är inte att Reddit är första techbolag ut att AI-stämma – utan relationen mellan Reddit, Anthropic och ett tredje bolag.

Anthropic backas nämligen bland andra av Google. Och Google har även betalat Reddit en stor hög pengar för att träna på Reddits innehåll.

Och med tanke på att i princip alla ”oberoende”, större AI-bolag idag har fått investeringar från minst en (ofta flera) techgiganter så kan det här vara början på ett pärlband… intressanta Game of Thornes-stämningar på AI-området.

Reddit sues Anthropic for allegedly not paying for training data | TechCrunch

Reddit is suing Anthropic for training on its site’s data without a proper licensing, joining a litany of publishers with similar claims.


Prenumerera på mitt nyhetsbrev

Jag gillar Olas digitala spaningar!

Gillar du det jag gör? Visa gärna din uppskattning genom att donera lite pengar. Det hjälper till att betala för webbhotell och andra kostnader.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *