Kategorier
AI - Artificiell intelligens Spaningar

Digitala spaningar vecka 39 2024 – del 2

Open AI:s CTO Mira Murati slutar. ChatGPT:s avancerade röstläge släpps i Sverige. Google NotebookLM får stöd för Youtube och ljudfiler. Metas AI-modeller Llama lär sig hantera bilder. Cloudflare lanserar marknadsplats för AI-träningsdata.

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Open AI:s CTO Mira Murati slutar

Och där tappar ChatGPT-ägaren Open AI ännu en hög chef. Den här gången CTO:n Mira Murati. Dessutom kliver forskningschefen Bob McGrew av.

Och där skulle historien kunna sluta. Murati har varit på Open AI i över sex år. Oceaner av tid i techvärlden. Men nu finns det en del detaljer här som gör det värt att stanna upp kring beskedet en stund. Och inte bara för att hon var med och tog fram såväl ChatGPT som bild-AI:n Dall-E.

Utöver att vara CTO så var Murati VD för Open AI i… typ en dag. Efter det att Open AI:s styrelse abrupt gav VD:n Sam Altman kicken för snart ett år sedan så utsågs hon till interim VD. Och Murati ska ha varit en av dem som ska ha hört av sig till Open AI:s styrelse och uttryckt oro över att Altman började ta lite väl många säkerhetsmässiga genvägar i jakten på att ta fram kommersiella produkter. Alltså en av dem som bidrog till att Altman tillfälligt fick lämna VD-posten.

Och nu slutar Murati, för att istället ”utforska på egen hand”. Och hon gör det med formuleringen ”After much reflection, I have made the difficult decision to leave OpenAI”. Följt av ”There’s never an ideal time to step away from a place one cherishes, yet this moment feels right.”

Vi kan utgå från att det är en ren slump att det rätta tillfället infaller bara någon vecka efter det att Sam Altman under ett internt möte lämnade beskedet att Open AI ska ställa om till vinstdrivande fullt ut nästa år. Och därmed klippa de sista banden till organisationens ursprungliga rötter, med öppenhet och forskning som skulle gynna AI-utvecklingen i stort.

Det känns inte mindre konstigt när Altman svarade på Muratis FKA tweet med ”we’ll say more about the transition plans soon, but for now, I want to take a moment to just feel thanks”. Vilket inte heller känns som en helt vanlig sak att säga i de lägena. Snarare ”vi återkommer med vem som tar över”. Eller till och med berätta vem som nu tar över. Inte att det ska dras upp ”övergångsplaner”.

Så om jag skulle sammanfatta beskedet lite konspiratoriskt: Altmans utrensning av dem som han upplever högg honom i ryggen fortsätter.

OpenAI CTO Mira Murati says she’s leaving the company | TechCrunch

The decision comes just a few weeks before OpenAI’s Dev Day, its annual developer conference.

Open AI rullar ut Advanced Voice Mode för ChatGPT bredare

Sitter du och studsar i väntan på att din ChatGPT ska få Advanced Voice-läget? Nu kanske du snart kan sluta studsa. Open AI börjar nu rulla ut funktionen till fler.

Advanced Voice Mode gör det enklare att prata med chatGPT. Bokstavligen.

Först ut att få funktionen den här svängen är de som betalar för Plus- och Teams-abonnemangen. Enterprise- och Edu-kontona får funktionen från och med nästa vecka.

Däremot är det inte dags för Europa än vad det verkar. Och då inte bara EU. Storbritannien och Norge tillhör också de vita fläckarna. Vi kan anta att det överlag handlar om länder som har tuff integritetslagstiftning.

OpenAI rolls out Advanced Voice Mode with more voices and a new look | TechCrunch

OpenAI announced it is rolling out Advanced Voice Mode (AVM) to an expanded set of ChatGPT’s paying customers on Tuesday. The audio feature, which makes

ChatGPT:s avancerade röstläge släpps i Sverige

Huh. Det var lite… oväntat. Häromdagen släppte ChatGPT sitt nya avancerade röstläge. Men inte i Europa (vilket förstås fick en massa människor att reflexmässigt gå i taket och skrika att EU kommer att gå under på grund av att vi inte får det nununu).

Och… idag fick jag det. Det gick… lite fortare än vad jag hade trott kan man lugnt säga.

Så nu verkar röstläget alltså vara släppt i Sverige.

(EDIT: Det verkar som att ChatGPT ljög för mig. Och när jag frågade om den kan ljuga så ljög den igen. Kort sagt: det verkar som att notisrutan slank ut lite för tidigt. En oopsie. Och att det avancerade röstläget fortfarande inte är släppt här än. Men andra användare i Sverige ser ut att ha fått funktionen, så den verkar rullas ut här.)

ChatGPT finns redan djupare inbyggt i iOS

Det här är… intressant. Och inte något jag har sett innan. Det verkar redan finnas en djupare integration av ChatGPT i iOS.

När jag, som jag ofta gör när jag öppnar appar, drog ned skärmen och började skriva det jag ville ha så fick jag upp det som syns i bilden längst till vänster. En ”widget” enligt den modell som lanseras i iOS 18, med fyra möjliga alternativ istället för bara tre.

Men widgeten ligger i själva sökrutan, som ett Siri-förslag. Och när jag sedan trycker på något av de fyra alternativen så visas en modal ovanpå själva sökvyn där jag kan skriva eller prata in min fråga. Svaret kommer sedan även det som en modal ovanpå sökresultatet. När jag trycker på ”Klar” i svaret så kommer jag tillbaka till sökläget. Jag är med andra ord vare sig i ChatGPT-appen eller på webbsidan.

Det känns med andra ord som att en djupare integration av ChatGPT nu är på plats. Den som kommer med iOS 18.

Förutom att jag inte sett den här sortens interaktion tidigare så är det två saker som gör det ännu märkligare. Dels så kommer en AI-smartare Siri och tillhörande ChatGPT-koppling sannolikt först i iOS 18.3 eller 18.4 – vilket sannolikt betyder under Q1 2025. Och dels sitter jag fortfarande med senaste versionen av iOS 17 (jag brukar vänta att uppdatera till .1-versioner, när de värsta buggarna har rensats ut).

Jag har som sagt var inte sett det här innan, vare sig för ChatGPT eller annan app. Och det kommer intressant nog samtidigt som att EU-användare har börjat få ChatGPT:s avancerade röstläge.

Frågan är alltså om det här är kopplat till det senare – eller en tidig version av den kommande iOS-integrationen. Eller tja, bara en oopsie som har råkat slinka ut för tidigt (som när min ChatGPT-app igår sa att jag hade fått det nya röstläget – fast det inte alls visade sig vara så. ChatGPT ljög med andra ord för mig. Och när jag frågade om ChatGPT kunde ljuga så ljög den igen. Och med tanke på att det ser ut som att röstläget har börjat rullas ut i EU så ljuger ChatGPT även här för mig. Pfft.) Med tanke på att svarsrutan ser lite ofärdig ut, så känns det lite som oopsie-läge.

Är jag sist på bollen med den här? Har det här funnits länge utan att jag har lyckats trigga det? Eller något helt nytt?

Google NotebookLM får stöd för Youtube och ljudfiler

Den senaste tidens mest buzziga AI-tjänst vid sidan av ChatGPT:s avancerade röstläge (som igår släpptes i Sverige) har varit Googles NotebookLM. Nu får den ännu fler skills: stöd för Youtube och ljudfiler.

Att NotebookLM fått så mycket uppmärksamhet just nu var att Google rullade ut en funktion som kan sammanfatta källor och sedan skapa en fullständig podd där AI-skapade röster diskuterar innehållet som om det vore två människor som pratade om det. Men i grund och botten är NotebookLM vad det heter: en anteckningbok.

Man kan dra upp olika textkällor i verktyget och sedan ställa frågor om dessa via Googles Gemini-AI-bot. Och huvudmålgruppen är forskare och researchers. Nu blir det möjligt att komplettera med fler format, så att det alltså går att länka till Youtube-klipp eller ladda upp ljudfiler och ställa frågor även om detta innehåll.

Ja, det går förstås även att göra annat med materialet. Som att låta NotebookLM sammanfatta de viktigaste punkterna i en podd eller till och med ställa frågor eller få insikter baserat på flera ljudfiler. 

Så nu blir det alltså äntligen möjligt att ladda upp en podd till NotebookLM, transkribera innehållet och sedan låta NotebookLM skapa en podd som diskuterar och sammanfattar innehållet i den första podden.

NotebookLM adds audio and YouTube support, plus easier sharing of Audio Overviews

Today, we’re expanding the types of sources you can use with NotebookLM and giving you an easier way to share an Audio Overview.

Perplexity kommer att sälja annonser i söksvar som är ”godkända” av annonsörer

En av de saker som många av dem som föredrar andra sökmotorer än Google gillar är att AI-sökalternativen inte har annonser. Ett populärt sådant alternativ är Perplexity. Men de senare har gått ut med att det kommer annonser till tjänsten och nu har de börjat presentera hur det ska gå till. Och det leder till ett par frågetecken.

Enligt Financial Times så ska Perplexitys annonsmodell bygga på att företag får buda på ”sponsrade svar”. Den som budar högst vinner kan vi tänka. Så långt egentligen inga konstigheter (åtminstone utifrån hur den här typen av sökannonser traditionellt har fungerat).

Det som däremot leder till funderingar är de ”sponsrade svaren”, som ”ska innehålla AI-genererade svar som har godkänts av annonsören”.

Vi kan nog anta att grundtanken här är att annonsörers varumärken inte ska hamna intill tips på bombbyggande eller hjälpsamma tips om att lim kittlar dödsskönt i pizza. Men en poäng med de AI-skrivna svaren är att de – på gott och ont – är synnerligen flytande materia. Inte minst när vi pratar om botar som ska söka på nätet – och därmed söka i vad som händer i en verklighet som förändras varje minut.

Så frågan är hur långt annonsörernas mandat kommer att sträcka sig här?

Om jag ska läsa det här till sin spets så känns det nästan som att Perplexity kommer att ”låsa” de sponsrade svaren och där låta annonsörer skriva sin annonstext precis som vanligt. Fullständigt självklart i en annons, men är det lika självklart i en AI-sökmotor? Särskilt som att det alltså inte handlar om att Nike – som är en av annonsörerna som Perplexity pratar om kring den nya produkten – bara får en yta att förfoga över, utan att de alltså ”köper” ett svar varje gång det visas.

Med tanke på att AI-botar, som vi har sett många exempel på senaste två åren, lever sina egna liv så kan det hända saker även kring svar på frågor som borde vara rätt okontroversiella. Som… hur gör jag på bästa sätt rent mina sneakers. Men vad händer om svaret ändå blir hej kom och hjälp mig därför att internet befolkas av människor som i många fall inte borde ha internetkörkort? Eller ens ha uppkoppling.

AI Firm Perplexity Reportedly Plans New Advertising Model | PYMNTS.com

Perplexity is planning a new advertising model for its AI search engine, and the company is in talks with brands such as Nike and Marriott.

Metas AI lär sig läppsynkat översättande och får kändisröster

Ryktena visade sig stämma. Meta kommer nu lägga till ett antal kändisröster i sin AI-bot. Meta AI kan nu låta som Awkwafina, Judi Dench, John Cena, Keegan-Michael Key eller Kristen Bell när den pratar. Och Metas bot har alltså därmed också lärt sig prata. Den förstår nu alltså inte bara vad som sägs utan kan också läsa upp sitt svar.

Dessutom har Meta AI också fått ett nytt översättningsverktyg – en HeyGen-funktion. Precis som den jättehypade realtidsöversättnings-AI-tjänsten HeyGen (eller den var åtminstone jättehypad när den kom) så kan Metas bot nu översätta talat språk och läsa upp texten på ett annat språk. Och den kan göra översättningen läppsynkad.

Kort sagt så att personen i en video inte bara ljudmässigt kan tala ett annat språk – utan även munrörelserna hänger med. Det ser kort sagt ut som att en person faktiskt talar på ett annat språk, utan att behöva kunna det språket.

Den senare funktionen är dock än så länge bara ett litet test där ”några kreatörer” kan översätta Reels-videos i Instagram och Facebook mellan engelska och spanska. Återstår alltså att se när funktionen väl släpps brett.

Meta AI gets lip-synced translations and celebrity voices, like Judi Dench and John Cena | TechCrunch

Meta is bringing a voice mode to its AI assistant, Meta AI, along with an Meta AI-powered translation feature for Instagram Reels.

Metas AI-modeller Llama lär sig hantera bilder

Fyra nya AI-modeller. Det blev resultatet för Meta den här veckan. Och nya förmågor för modellerna.

Det handlar mer specifikt om att Metas egen AI-modell Llama nu lyfts till version 3.2, som i sin tur kommer i fyra versioner: 1B, 3B, 11B och 90B. Vilket står för hur många miljarder parametrar som de innehåller.

De två största, 11 och 90, är nu multimodala, vilket betyder att de kan hantera mer än bara text. De kan med andra ord göra saker som att tolka diagram, förstå text i bilder och förstå innehåll i bilder.

Alla fyra rullas ut nu, men för oss i EU får vi nöja oss med de två minsta. Vi får kort sagt inte de multimodala modellerna. Och anledningen är som vanligt när det kommer till techjättarna att EU är dumma. Sedan är det lite oklart om det är AI Act eller GDPR som är det största problemet. Sannolikt det sistnämnda.

Ingen av modellerna har tränats på EU-användares data – eftersom Meta inte vill fråga användarna om det är okej för Meta att träna på deras innehåll. Istället har Meta valt att inte alls träna på EU-användare – vilket inte bara är bra för oss. Metas modeller blir därmed än mer USA-tunga.

Meta’s Llama AI models now support images, too | TechCrunch

At Meta Connect 2024, the company announced a new family of Llama models, Llama 3.2. It’s somewhat multimodal.

Metas AI-bot används av nästa 500 miljoner människor varje månad

Nya användarsiffror från Meta. För AI-boten Meta AI, närmare bestämt. 500 miljoner människor (eller åtminstone konton) använder nu Metas ChatGPT-utmanare varje månad.

I samband med att Mark Zuckerberg droppade den här siffran så konstaterade han att det gör Meta AI till ”en av de mest använda AI-assistenterna” i världen.

Det lär stämma, med tanke på att exempelvis ChatGPT har 200 miljoner användare varje vecka. Och jag misstänker att den siffran också ligger hyfsat nära antalet som använder tjänsten varje månad (säg kanske 300 miljoner).

Mark Zuckerberg says Meta AI has nearly 500 million users | TechCrunch

Meta had previously noted that there are more than 400 million monthly users across the world.

Cloudflare lanserar marknadsplats för AI-träningsdata

Väldigt intressant initiativ från Cloudflare: en marknadsplats för AI-träningsdata.

Cloudflare är ett av de där företagen som väldigt många internetanvändare drar nytta av varje dag, men få har koll på. Cloudflares produkter gör, lite förenklat, internet snabbare och säkrare.

Den förstnämnda genom CDN-lösningar som kan ”förladda” innehåll på sidor, som bilder, så att de inte behöver laddas först när en besökare kommer in på en sajt och det sistnämnda genom skydd mot saker som överbelastningsattacker.

Som del av den sista tjänsten så tog Cloudflare tidigare i år fram en lösning som ska kunna stoppa AI-botar som vill skrapa sajter på träningsdata, även om botarna är inställda på att strunta i en sajts robots.txt-fil. Kort sagt botar som struntar i en av de äldsta ”överenskommelserna” på internet som är tänkt att ge sajter kontroll över vad botar – inklusive Googles sökbotar – får göra på en sajt. AI-söktjänsten Perplexity är en av tjänsterna som har beskyllts för att fula sig på det här sättet.

Nu kommer Cloudflare alltså med ännu en tjänst som är tänkt att göra det enklare för sajter att tjäna pengar på sitt innehåll när det ska användas för att träna AI-modeller.

Tanken är att mindre sajtägare – de som inte är stora nog att sluta lukrativa avtal med de stora AI-bolagen – ska kunna ställa in vilka AI-botar som får tillgång och vilka som inte får tillgång. Komplett med att kunna ta betalt av AI-bolagen för skrapandet och träningsinnehållet. Med pengar eller på annat sätt, som att man vill ha erkännande att sajten har använts, ungefär som Creative commons-licenser.

Och… ja, det är det vi vet så här långt. Det återstår att se exakt hur det här ska fungera i praktiken. Som hur betalningar faktiskt ska fungera. Men Cloudflare ser framför sig hur allt fler sajter kommer att låsa in sitt innehåll istället för att låta AI-bolag sno innehåll utan att betala för sig. Och då vill Cloudflare vara mellanhanden som kan göra det enklare för köpare och säljare att mötas.

Det är med andra ord ett väldigt intressant koncept i byggandet av en långsiktigt hållbar AI-ekonomi.

Cloudflare’s new marketplace will let websites charge AI bots for scraping | TechCrunch

Cloudflare announced plans on Monday to launch a marketplace in the next year where website owners can sell AI model providers access to scrape their

Google lägger till Gemini-appen i Workspace

Dags för Google att AI-uppgradera sin samarbetssvit Workspace ytterligare. Under Q4 kommer Google att lägga till den fristående Gemini-appen som standard för de som betalar för kontona Business, Enterprise eller Frontline.

Det intressanta här är inte att Googles eget Office-paket får Googles ChatGPT-utmanare. Det är att den alltså verkar ingå i basabonnemangen. Man behöver alltså inte längre köpa till Gemini.

När det kom till AI så lärde sig bolagen som tar fram AI-botarna snabbt att vi var villiga att betala för den sortens tjänst. De tänkte inte göra om det tidiga internets stora miss: inte ta betalt på grejer från början så att en gratisvana hinner infinna sig.

Sedan dess så har vi glatt fått betala för AI-tjänster och AI-funktioner. Antingen genom att betala för AI-funktionalitet utöver vanliga abonnemang (Microsoft) eller genom att jacka upp priset rejält med AI som ursäkt (Canva).

Men nu tänker Google alltså inte ta betalt separat för Gemini i Workspace. Och de verkar heller inte göra en större prishöjning. Förmodligen finns det två saker som ligger bakom det.

Det ena – och garanterat den största anledningen – är just att Microsoft tar extrabetalt för Copilot i 365-paketen. Google ser alltså en möjlighet att locka över fler 365-kunder med AI som argument.

Det andra skälet hittar vi förmodligen hos en annan konkurrent: Apple. Apple tänker som bekant inte ta betalt för den kommande AI-plattformen Apple Intelligence. (Ja, utöver att du måste köpa en skitdyr Apple-pryl för att överhuvudtaget kunna köra den. Även Google lägger till allt mer Gemini som del av såväl Android som sina Pixel-mobiler.

Båda företagen hoppas med andra ord att kunder inte ska behöva välja separata AI-tjänster. Åtminstone inte för stora delar av sitt AI-behov.

Och tillsammans gör de dessutom att AI kommer att bli en självklar del i våra uppkopplade liv. För betydligt fler än idag.

Google’s Gemini AI might soon appear in your corporate Workspace

Google is adding Gemini AI and new security tools to its Workspace productivity suite as standard, which could see the chatbot adopted by millions more users.

Google presenterar nya AI-verktyg för kundtjänster

Den här veckan presenterade Google ett antal nya AI-nyheter och en av dem var en ny svit AI-verktyg specifikt för kundtjänster.

Tanken med den nya uppsättningen verktyg är att företag ska kunna sätta upp virtuella kundtjänstmedarbetare ska kunna hantera ärenden över olika kanaler, som web, röst, mejl och chattjänster och i dessa kunna hantera kundtjänstärenden på egen hand. Det blir möjligt att pussla ihop olika AI-agenter, alltså.

Verktygen ska vara baserade på Googles nya modell Gemini 1.5 Flash, vilket ger dem multimodala funktioner. Med andra ord att de kan förstå inte bara text, utan även röst och bilder.

https://cloud.google.com/solutions/customer-engagement-ai

Google unveils new generative AI innovations for customer engagement and Gemini in Workspace – SiliconANGLE

Google unveils new generative AI innovations for customer engagement and Gemini in Workspace – SiliconANGLE

Gmail får smartare svarsförslag med Gemini

Gmail får nu ännu mer AI-funktionalitet. Det är de smarta svarsförslagen som nu blir ännu smartare, tack vare Googles AI-bot Gemini.

Svarsförslagen ska nu bli bättre på att förstå kontexten i ett mejl för att på så sätt komma med mer relevanta formuleringar.

Däremot måste du betala för att få tillgång till den förbättrade funktionen. Den blir tillgänglig som del av abonnemangen Business, Enterprise, Education eller Education Premium eller Googles One AI Premium-prenumeration.

Google launches Gemini’s contextual smart replies in Gmail

Google has started rolling out Gemini-generated smart replies for Gmail, which are more detailed and have more context than its old version of smart replies.


Prenumerera på mitt nyhetsbrev

Jag gillar Olas digitala spaningar!

Gillar du det jag gör? Visa gärna din uppskattning genom att donera lite pengar. Det hjälper till att betala för webbhotell och andra kostnader.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *