Kategorier
AI - Artificiell intelligens Sociala medier Spaningar

Digitala spaningar vecka 2 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Sociala medier

TikTok

Amerikansk organisation har lagt bud på att köpa TikTok

Idag är dagen D för TikTok. ”D” som i domstolsförhandling. En kanske sista chans att åtminstone skjuta upp det hotande förbudet. Samtidigt landade igår ett första, offentligt bud på att köpa TikTok.

I våras skrev Joe Biden under en lag som röstats igenom i den amerikanska kongressens båda kammare. En lag som innebär att TikTok (ja, eller well tjänster som ägs av ”fientligt inställda” länder – med, som av en händelse, TikTok som den enda namngivna tjänsten) inte längre tillåts i USA. Eller rättare sagt: TikTok fick två val. Antingen säljer tjänstens icke-kinesiska-kinesiska ägare Bytedance TikTok eller så blir det förbud i USA.

TikTok fick 9 månader på sig att få till en försäljning – och den deadlinen infaller 19 januari. TikTok försökte under hösten stoppa lagen helt domstolsvägen, men fick tummen ned. Därför slängde de in en sista, desperat, ny domstolsbegäran till USA:s högsta domstol: att lagen ska pausas till dess att en fullständig rättegång kan hållas om huruvida förbudslagen lirar med den amerikanska författningen eller inte. Mer specifikt om lagen bryter mot yttrandefrihetsskrivningarna i det första tillägget.

Och idag ska alltså högsta domstolen ta sig an ärendet och se om TikTok ska få gehör för sin önskan att skjuta på det praktiska genomförandet av lagen.

Hela förbudscirkusen initierades 2020 av USA:s dåvarande och snart nuvarande president Donald Trump. Men när Joe Biden tog över så hamnade hela förbudsförsöket i papperskorgen, men plockades upp igen ett par år senare.

Ironiskt nog har Trump själv nu bytt fot i frågan och vill inte längre förbjuda TikTok. Det visade sig att han 2024 tyckte mer illa om Mark Zuckerberg och Meta, eftersom de bidrog till att demokraterna kunde fuska bort Trumps valseger 2020 [sic!]. Trump har nu sagt att högsta domstolen bör skjuta upp förbudet så att han ”kan hitta en politisk lösning”.

2020 var TikToks amerikanska verksamhet (inklusive TikTok i Kanada, Australien och Nya Zeeland) på vippen att säljas till den milt sagt oväntade kombon Walmart och Oracle (eller att de åtminstone skulle ta över stora delar av företaget). Men den här gången har Bytedance tvärvägrat försäljning (som av en händelse tycker kinesiska regimen samma sak).

Och igår gick alltså organisationen Project Liberty, grundad av affärsmannen Frank McCourt, ut med att den vill köpa TikTok, tillsammans med ”sina partners”. Dessa partners ska vara en spretig skara, från investmentbolag och pensionsfonder till ”föräldrar som har förlorat sina barn på grund av sociala medier”. Men även Tim Berners-Lee, mannen som uppfann internet som vi känner det idag.

Project Liberty vill bygga ett bättre TikTok. Förutom att tjänsten ska byggas på amerikansk teknik så ska den bli open source och ge användarna större kontroll över sin data. I linje med organisationens mål att överlag ”bygga ett mer användarkontrollerat internet”.

Och en del av det nya bygget är att TikTok ska rulla vidare utan tjänstens största framgångsfaktor: algoritmen. Vilket också är en förutsättning för en affär, eftersom Kina förbjuder försäljning av den typen av avancerad teknik till icke-kinesiska ägare. En lag som, av en händelse, stressades fram när TikTok förra gången höll på att säljas (och det är ännu ett tecken på att Bytedance och därmed TikTok verkligen inte är kinesiska eller kontrollerade av Kina).

Men nu är det alltså först dags för högsta domstolen att titta på frågan. Om TikTok inte lyckas övertyga domarna att skjuta upp förbudsdeadlinen så är är företagets sista hopp att TikTok får den frist på ytterligare tre månader som lagen tillåter. Men det ska i så fall godkännas av Joe Biden. Och det är långtifrån säkert att han kommer att säga ja.

Billionaire Frank McCourt’s Project Liberty Bids for TikTok

USA:s högsta domstol verkar luta åt att inte stoppa TikTok-förbudet

Igår hörde USA:s högsta domstol – bokstavligen – argumenten kring varför de tillfälligt borde stoppa effekten av den lag som kan förbjuda TikTok 19 januari. Vi vet ännu inte när domstolens beslut kommer – inte ens om det sker före förbudsdagen – men det… verkar inte lovande för TikTok.

TikTok har, precis som 2020, i princip helt och hållet lutat sig mot att ett förbud av TikTok är ett brott mot det första tillägget i USA:s författning. Det tillägg som handlar om statlig inblandning kopplat till yttrandefrihet.

Domaren Elena Kagan konstaterade att TikToks moderbolag Bytedance inte omfattas av skydd enligt första tillägget, eftersom det är ett utländskt företag. Domaren John Roberts å sin sida frågade TikToks jurist ”förväntas vi ignorera det faktum att ägarbolaget faktiskt omfattas av krav att utföra underrättelsearbete åt den kinesiska regeringen”?

Det gynner inte direkt TikTok att Bytedance har sagt att Kina inte kommer att godkänna en försäljning av TikTok och framförallt inte algoritmen. Det om något bekräftar ju precis det som lagen vill komma åt: att Bytedance och därmed TikTok kontrolleras av kinesiska staten.

TikTok kan fortfarande överleva i USA om Bytedance säljer TikTok till ett icke-kinesiskt företag (allra helst ett amerikanskt). Men även om det skulle få tummen upp från kinesiskt håll så lär det ju inte hända till 19 januari.

Så just nu ser den enda räddning – temporärt – ut att vara att Joe Biden ger TikTok ytterligare tre månaders frist, i linje med det som lagen ger utrymme för. Men det känns… sådär troligt. Dels därför att Biden skrev under lagen och dels eftersom Trump har uppmanat högsta domstolen att skjuta på förbudet till dess han är president så att han kan hitta en ”politisk lösning” för att undvika ett förbud (förbudet är alltså satt att kicka in 19 januari – dagen innan Trump svärs in).

Så det som både 2020 och nu trots allt har känts som ett osannolikt scenario rycker allt närmare verkligheten.

TikTok Ban Looking Likely After U.S. Supreme Court Hears Case

 

AI – artificiell intelligens

ChatGPT:s webbsök breddas till gratisanvändare och får fler funktioner

Bakom dagens lucka i Open AI:s julkalender över produktnyheter från företaget dolde sig ChatGPT:s dedikerade webbsökfunktion: SearchGPT. Ja, eller den har ju släppts tidigare, så nyheten nu var att den också öppnas för inloggade gratisanvändare.

Det innebär att inte bara de som betalar kan ”googla” via ChatGPT.

Dessutom ska SearchGPT ha optimerats för vissa slags sökningar för att på så sätt kunna ge snabbare svar. Söker man exempelvis ”hotellbokningssajter” så kommer ChatGPT först att visa länkar till sajterna och först därefter fylla på med mer information om respektive sajt. Något som alltså delvis löser problemet att de pratiga AI-tjänsterna tar längre tid på sig att svara på enkla frågor än vad det tar att få fram samma sak via traditionella sökmotorer.

Sökfunktionen kommer i mobilen också kunna ge mer handfast hjälp när man söker efter ”vissa” slags platser – utan att vi vet exakt vad det innebär. Men restauranter och lokala sevärdheter är exemplen. Då kommer man förutom platser också att få upp saker som bilder från platsen, betyg och öppettider. Går du in på en av platserna som ChatGPT har listat så kan du få upp en karta med vägbeskrivningar dit. Kort sagt det som vi har vant oss vid när vi söker via Google.

Sist men inte minst ska det också bli möjligt att webbsöka via ChatGPT:s avancerade röstläge, men det kommer lite längre fram. Och det röstläget – och därmed möjligheten att webbsöka med rösten – är fortfarande bara tillgängligt för betalande ChatGPT-användare.

ChatGPT’s Search Engine Is Now Rolling Out to Free Users

Ring ChatGPT från gamla mobiler och fasta telefoner

Ha. Who you gonna call? 1-800-CHATGPT!

Japp. Det är senaste nyheten från Open AI. Du kan nu ringa till och prata med ChatGPT. Du vet. Via en telefon. En gammal Nokia alltså. Eller en… fast telefon.

Okej, du kan också chatta via WhatsApp. Men det är ju inte tillnärmelsevis lika coolt.

Enda dang it? Ja, eller två. Du får bara 15 minuters gratis samtal i månaden (fast det ska vara per nummer, så det är bara att skaffa ett gäng burners). Och tjänsten är dessutom bara tillgänglig i USA (medan WhatsAppandet funkar i hela världen).

Det är förmodligen EU:s fel.

OpenAI Launches 1-800-CHATGPT and WhatsApp Chat for Global Users

Open AI går back på varje ChatGPT Pro-prenumeration

Hur mycket tjänar Open AI på sin rätt nya, svindyra Pro-prenumeration om 200 dollar i månaden? Väldigt lite. Ja, eller Open AI går back på varje Pro-prenumeration. Anledningen? De används för mycket.

Det är åtminstone vad VD:n Sam Altman gick ut med igår. Vi vet med andra ord inte mer än så. Vi vet exempelvis inte hur många som har grävt djupt i sina plånböcker och signat upp på ett Pro-abonnemang. Men de som har gjort det verkar maxa värdet av sin investering. Pro-abonnemangen används mer än vad Open AI hade trott.

När abonnemanget först släpptes spekulerade jag i att det främsta införsäljningsargumentet inte var tillgång till den mer avancerade o1 Pro-språkmodellen utan de rejält mycket högre användningstaken som man får för pengarna. Det ser ut att ha stämt. Användningstaksfrågan lär ha blivit än mer aktuell när Open AI i sin julkalender i slutet av förra året började rulla ut videoskaparstjänsten Sora.

Nu innebär inte ens Pro-abonnemangen obegränsad användning och obegränsat antal frågor, men användarna ser alltså ut att få mer valuta för sina pengar än vad Open AI hade räknat med. Och med tanke på hur hysteriskt mycket pengar som Open AI redan går back så ser behovet av kapitaltillskott alltså ut att öka mer ju fler som väljer Pro.

Det är med andra ord inte omöjligt att Open AI kommer försöka vrida upp priset för Pro ytterligare något hyfsat snart (ett krympflationera ned användartaken). Och det lär nog även drabba de vanliga abonnemangen. Eller kanske än mer troligt att Open AI lägger till ännu fler abonnemang som är dyrare än dagens, med förhoppningen att styra användare dit.

OpenAI Is Losing Money on Its Pricey ChatGPT Pro Plan, CEO Sam Altman Says

Google uppdaterar sin AI-videoskapare Veo till version 2

Ibland går det fort. I början av december presenterade Google sin AI-videoskapartjänst Veo i en förhandsversion. Redan nu släpper Google en uppdatering: Veo 2.

Google vässar alltså armbågarna i kampen mot Open AI:s nyligen släppta motsvarighet Sora. Och baserat på de jämförelser som jag har sett så här långt så slår nya Veo Sora när det kommer till kvaliteten i de skapade filmerna.

Även rent objektivt tekniskt så är Veo vassare än Sora. Medan Sora bara kan skapa klipp som är upp till 20 sekunder långa i som mest upplösningen 1080p så är det upp till två minuter respektive 4K-upplösning som gäller för Veo.

Åtminstone på pappret. Enligt Google. Den version som nu rullas ut toppar på 8 sekunder och 720p. Så rätt långt under det som går att skapa med Sora. Dessutom finns Veo bara tillgänglig via VideoFX, Googles ”experimentella videoskaparplattform”. Och VideoFX har dessutom en väntelista för att bli insläppt.

Precis som när Sora först släpptes så ska vi nog ta oooandet och aaandet med en nya salt och helt enkelt vänta lite till innan vi verkligen vet hur bra Veo är. Men baserat på de klipp som så här långt har dykt upp så ser det väldigt bra ut. Att se om det blir lika bra när tjänsten är brett ute.

Och hur snabbt det kommer att gå att skapa filmer, något som i Sora visat sig ta en stund om man hoppar upp i kvalitet.

Google strikes back with an answer to OpenAI’s Sora launch

Google’s DeepMind Updates Veo to Version 2 in Imagen 3 Release

Google släpper ny språkmodell som är bättre på resonemang och att ta fram steg-för-steg-instruktioner

Det är bara några dagar sedan Google uppdaterade sin egen språkmodell Gemini till version 2.0. Då fick vi också stifta bekantskap med den enda medlemmen i den uppgraderade familjen: Flash. Nu får lillasyskonet ett storasyskon: Experimental advanced.

Som, ja, är experimentell. Vilket även Flash är. Utan att heta det. Så vi kan väl anta att Advanced-modellen är extra mycket experimentell, eftersom Google kände att det behövde förtydligas i namnet. Vilket känns som att Google säger: wooah boy vad den kommer kunna hitta på knasigheter.

But I digress.

Advanced är, som hörs på den andra delen av namnet, en modell som är optimerad för mer komplexia uppgifter. Som att koda, resonera, lösa matematiska beräkningar och skapa detaljerade steg-för-steg-instruktioner.

Det låter med andra ord som att Gemini Advanced väldigt mycket är Googles svar på ChatGPT-modellen o1. Som slutade vara experimentell för bara några dagar sedan.

Som så ofta så måste man dock betala för att få leka med Advanced, även i sitt icke-färdiga skick. Den är med andra ord bara tillgänglig för den som betalar för Gemini.

Google Gemini 2.0 Experimental Advanced AI Model Exp 1206 Rolling Out to Subscribers

Google släpper konkurrent till Open AI:s resonerande språkmodell o1

Häromdagen skrev jag om Google släppt en ny uppdaterad medlem i sin familj av Gemini-AI-språkmodeller: Gemini 2.0 Experimental Advanced. En som jag skrev var en motsvarighet till Open AI:s o1-modell. En som alltså ska vara bättre på att resonera sig fram till ett svar och därmed bättre hantera mer komplexa frågeställningar och uppgifter. Håll vår gemensamma gratisöl, sa tydligen Google.

För nu har de släppt ännu en modell. En som uttalat ska vara bra på just resonemang. Och en som ska vara ”de första steget i Googles resonerande resa”. Vilket förmodligen låter precis lika knasigt på engelska.

Vad det handlar om är alltså en modell som ska kunna faktachecka sig själv när den tar fram svaret. Att helt enkelt fundera ett varv extra om något stämmer innan modellen bygger vidare på ett steg i en resonemangskedja. Ja, det är åtminstone tanken med den här typen av lösningar. Färre hjälpsamma tips om att ha lim på pizzan som lösning på problemet att osten åker av när man äter pizzan.

Och när artikelförfattaren vände sig till det nya Turing-testet för att testa just det här så gick det lite… sådär. Hur många ”r” är det i ”strawberry” enligt den nya modellen? Två. Vi hoppas väl att den blir vassare här.

Men hej. Den har ju åtminstone ett hopplöst namn: Gemini 2.0 Flash Thinking Experimental.

Google gotta be Google.

Google Releases Its Own Reasoning AI Model

EU landar i rekommendation kring GDPR och tränande av AI-modeller

Då har EU landat i besked vad som gäller kring tränande av AI-modeller i relation till GDPR! Och svaret är att… det beror på.

Det är Europeiska dataskyddsstyrelsen (EDPB), EU:s centrala dataskyddsinstans, som på begäran av Irlands nationella motsvarighet som bett om lite klargörande och vägledning kring hur GDPR ska tolkas för de som vill träna AI-modeller.

Många andra kan sammanfatta EDPB:s yttrande betydligt bättre än jag, som Anna här nedan, men i stort så ville den irländska myndigheten, som har det huvudsakliga tillsynsansvaret av de flesta av de stora techbolagen, ha lite mer kött på benen inom tre områden. Mina väldigt korta sammanfattningar här (igen, läs hellre det Anna skriver):

Anonymitet: Om GDPR överhuvudtaget ska gälla eller inte. Här är svaret att en modell kan anses vara anonym om det är ”väldigt osannolikt” att ”direkt eller indirekt identifiera de individer vars data användes för att träna modellen”. Kort sagt ska det inte gå att prompta sig fram till saker som kan koppla ihop något med en person. Ska dock avgöras ”från fall till fall”, så räkna med anmälningsbonanza.

Rättslig grund: Av de sex villkor som företag kan välja att basera sin datainsamling på så ser det ut som att det kommer att räcka att hävda ”berättigat intresse”. Det ser alltså inte ut att krävas individuellt samtycke (även om det förstås är snyggt). Även här blir det dock i princip aktuellt med utvärdering från fall till fall och samma GDPR-regler som vanligt gäller för att kunna åberopa berättigat intresse.

Olagligt tränade modeller: Vad händer om man har tränat på användares data utan att man har gjort det på ett korrekt sätt enligt GDPR? Typ…. ingenting. Så länge som man kan säkerställa att allt det tvättas på vägen ut till de slutgiltiga produkten. Även här gäller dock fall-till-fall-principen.

Men här har kritik redan kommit in som pekar på att EDPB ensidigt tittar på slutprodukten och ger lite carte blanche att dammsuga persondata lite hur som helst om man sedan ser till att ingen kan hitta den i slutprodukten. Vilket kan innebära risker med slarvig GPDR-hantering i själva processen, vilket kan drabba individer.

Vi har ju dessutom sett att Italien, i ChatGPT:s fall, har krävt möjligheter för individer att säga nej till att data används för att träna modeller – något som redan har blivit lite standard. Blir intressant på att se hur det står sig mot ”berättigat intresse” för de företag som väljer den vägen. Vems intressen som väger tyngst: företagens eller individens.

Som vanligt så lär det bli upp till domstolar att i slutändan avgöra vad som faktiskt gäller. Och det lär som sagt var rasa in anmälningar (och har redan gjort) på AI-GDPR-området.

Sist men inte minst, vad EDPB INTE har uttalat sig om är lagligheten kopplat till upphovsrättsskyddat material. Att det inte har sagt något om det är inte så oväntat, eftersom det inte är en GDPR-fråga.

Men det är en fråga som egentligen är en större utmaning för AI-tränande än GDPR. Det blir intressant hur AI Acts krav på transparens här kommer att landa (att företag måste redovisa om AI-modeller har tränats på upphovsrättsskyddat material och i så fall vilket).

Här har vi en fråga som definitivt lär valsa runt i domstol.

Opinion of the Board Art. 64 (EDPB)

Apple samarbetar med Nvidia för att öka prestandan i sina AI-modeller

Milt sagt intressant – och oväntat. Apple och Nvidia – världens två största börsföretag – samarbetar på AI-området.

Det här låter kanske inte särskilt konstigt. Alla samarbetar ju med ungefär alla när det kommer till AI. Eller investerar i samma bolag och varandra.

Men Nvidia hade ju även verksamhet före ChatGPT – och även då grejer kopplat till AI. Och de hade verksamhet innan AI ens blev del av verksamheten. Men när det kommer till alla grafikkort och chip som Nvidia har tillverkat genom åren så har Apple aldrig varit en stor kund.

Apple har valt andra leverantörer och har som bekant tagit fram en serie egendesignade chip som numer sitter i alla nya Apple-prylar (ja, åtminstone de som har chip i sig). Fram till dess har det senaste två årtiondena eller så varit Intel-chip som gällt. Apple har heller inte använt Nvidia särskilt mycket för grafikkort (och hade problem när de gjorde det).

Senast så dissade Apple Nvidias AI-chip för att träna AI-plattformen Apple Intelligence tidigare i år. Istället valde Apple Googles motsvarigheter.

Men nu ser det ut som att Apple har vänt sig till Nvidia. Just för träningen av språkmodeller. Eller mer specifikt för att försöka optimera träningen och modellerna. Hur de kan bli effektivare och få snabbare svarstider.

Jag tänker inte ge mig på att försöka beskriva rent tekniskt vad de två företagen nu testar – gå in i artikeln om du vill ha mer av det. Jag nöjer mig med att konstatera att Nvidia nu kan ha fått in en ny fot i dörren hos Apple. Det blir intressant att se hur mycket dörren nu kommer att öppnas.

Apple, Nvidia Partner to Boost AI Model Performance and Speed

En AI-smartare Siri kan dröja till 2026

Även om Apple, som precis alla andra, har sugits med i AI-vågen som sköljer fram just nu så har företaget skyndat rätt långsamt. Det verkar dessutom som att Apple har stött på problem eftersom funktioner som var utlovade till 2024 i vissa fall skjutits fram ända till april i år.

Nu ser det dessutom ut som att ett större lyft av Siri även det kan dröja längre än vad man kanske kunnat hoppas på.

Enligt Apple-analytikern Mark Gurman så kan det dröja till iOS 19, som släpps i höst, innan Apple rullar ut ett ”avancerat röstläge” för Siri. Ja, att Siri alltså ska kunna föra en konversation och förstå vad som sägs lika bra som exempelvis ChatGPT:s röstfunktion. Komplett med hög nivå av ”mänsklighet” i såväl tonalitet som förmåga att bli avbruten utan att tappa tråden.

Det återstår förstås att se hur bra en sådan tjänst från Apple blir, men oavsett så ser det alltså ut som att vi kommer att få vänta ett bra tag innan vi får ett svar. För inte nog med att funktionen dyker upp först i nästa stora uppdatering av Apples olika operativ, det kan till och med bli så att det kommer i en uppdatering som släpps först på våren. Våren 2026, alltså.

Vi får se hur träffsäker Gurman är i sitt spåkuletittande.

Siri Upgrade May Not Arrive Until iOS 19 in 2025

Musks AI-bot Grok kan få ett ”unhinged” läge

Vad är det värsta som skulle kunna hända?

Grok May Soon Get an ‘Unhinged’ Mode

Kategorier
AI - Artificiell intelligens Spaningar

Digitala spaningar vecka 50 2024 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Open AI kan höja priserna för sina företagsabonnemang

Veckans minst oväntade besked: Open AI kan höja priserna på sina företagsabonnemang.

Prishöjningar överlag är sånt som oavsett händer med jämna mellanrum, men förra veckans besked att ChatGPT får ett nytt, rätt skitdyrt Pro-abonnemang för ”privatpersoner” gör de här uppgifterna än mer troliga.

Vi pratar kanske inte om en höjning som är i nivå med Pro, som är tio gånger dyrare än det vanliga betalabonnemanget, men Open AI är säkerligen sugen på en höjning som är högre än någon enstaka procent. Och det förstås inte omöjligt att de rullar ut något slags ”Enterprise Pro” för att göra det enklare att motivera höjningen.

Frågan är också om vi kommer att se ett brott i kurvan av att AI-lösningar blir allt billigare, när AI-bolagen måste börja kunna räkna hem sina investeringar. Och de hysteriskt höga kostnaderna för att träna och drifta de AI-modeller som tjänsterna bygger på.

Det är med andra ord ytterligare en sak som talar för de absolut största techbolagen – de som kan subventionera AI-satsningen utan att tvingas leva på lånade pengar. Pengar som investerare någon gång förväntar sig få tillbaka. Här kan exempelvis Apple ha en fördel genom att styra folk mot nyare prylar som man måste köpa för att överhuvudtaget få tillgång. (Även om det fortfarande är långt ifrån det viktigaste när de flesta köper mobil eller annan uppkopplad pryl idag.)

Och allt det leder också till hela argumentet om att AI-tekniken kan demokratisera kunskap. Fast bara så länge som man har råd att betala. Och då inte bara för tjänsten eller tjänsterna i sig, utan även kostnaderna för att ens kunna nå verktygen.

OpenAI plans to change AI pricing for business clients

Open AI ser ut att ha tränats på innehåll från Twitch och Youtube

Här har vi sannolikt en rätt tungt vägande faktor kring varför de amerikanska bolagen släpar fötterna efter sig när det kommer till lansering i EU: ovilja att dela information om vilka källor som en AI-modell har tränats på. Senast ut: Open AI:s Sora.

Två av kraven som är del av EU:s AI Act är att företag som tar fram lösningar baserade på generativ AI dels säkerställer att modeller förhindras från att skapa olagligt upphovsrättsskyddat material och dels ska sammanställa ”sammanfattningar” av vilken upphovsrättsskyddad data som har använts för träningen.

Nedanstående artikel har hittat VÄLDIGT starka indicier på att Sora har tränats på Twitch. Och att de därmed kan skapa väldigt snarlika varianter av exempelvis spel som skyddas av upphovsrätt. (I relaterat sammanhang så bad Youtubes meste techtestare Marques Brownlee Sora skapa ett klipp med en Youtube-techtestare. Det dök då upp ett skrivbord med den blomma som han har på sitt eget skrivbord.)

Open AI:s vd Sam Altman har sagt att det i praktiken inte går att träna AI-modeller bara på helt öppet innehåll, dvs. sånt som inte omfattas av någon form av upphovsrätt. Och nära nog alla AI-modeller lär nog ha tränats på just den typen av material.

Men det är nog kanske inte så mycket oron att EU-företag ska bli sura om Open AI och övriga har tränat sitt material på upphovsrättsskyddat material. Om företagen tvingas öppna korten här så blir det inte bara tillgängligt för EU och dess apparat utan även andra. Som stora stämningssugna, amerikanska innehållsbolag.

Som säkerligen blir än mer stämningssugna av det faktum att Open AI backas av ett av världens högst värderade börsbolag (vilket gäller de flesta av de större, semifristående AI-bolagen).

It sure looks like OpenAI trained Sora on game content, and legal experts say that could be a problem

Open AI lägger till jultomten i ChatGPT

Ha. Ännu en ny funktion i ChatGPT. Open Ai lägger nu till jultomten!

Så nu kan du chatta med jultomten via tjänstens avancerade röstläge.

Hur man får barn som inte vill använda ChatGPT att börja göra det.

Say ho ho ho to Santa in voice mode, Santa

NotebookLM får interaktiva podcasts och betalabonnemang

Clubhouse är tillbaka! Tillbaka!! TILLBAKA!!! Det trodde ni inte! Än mer förvånade kanske ni blir över att tjänsten har hittat nytt liv inuti Googles AI-podcastfunktion NotebookLM.

Eller ja. Det handlar förstås om den del av Googles AI-anteckningsbokstjänst där man kan skapa just en podd, med två virtuella och jättepeppiga amerikanska poddvärdar som pratar om nära nog vad som helst man vill att de ska prata om. Som ditt musiklyssningsår, en funktion som Spotify samarbetade sig fram till för sin årliga Wrapped-funktion.

Eftersom precis all AI-tjänster var lagligt bundna av såväl EU-förordningar som lagstiftning i USA att den här veckan presentera en hög nyheter så blev Google tvungna att hitta på ett antal nyheter i NotebookLM.

Och den på pappret roligaste nya funktionen är alltså Clubhouse-funktionen. Du kan nu prata med poddvärdarna om innehållet och ställa frågor till dem. Kort sagt styra diskussionen i realtid. Och till skillnad från Clubhouse så är det du som lyssnare som kan gå in och avbryta när du vill, utan att det blir dålig stämning.

Google passade dessutom på att peta in två andra nyheter i NotebookLM när de ändå var inne och grottade i koden.

NotebookLM har nu även den fått ett betalabonnemang. Ett som ska ge fem gånger så många poddar (eller Audio overviews som poddfunktionen heter på NotebookLM:iska), fem gånger så många anteckningsböcker och fem gånger så många källor per anteckningsbok (vilket då borde innebära 250 källor).

Det nya abonnemanget rullas ut för företag, skolor och universitet nu och kommer att packas in i Googles prenumerationstjänst Google One AI Premium (GOAP och inte GOAT, alltså) tidigt nästa år.

NotebookLM får också ett nytt, vad det ser ut, mer användarvänligt gränssnitt, där basen blir tre kolumner: källorna till vänster, chattfönstret i mitten och andra funktioner (som att skapa en podd) ute till höger.

Sist men inte minst har Google även lanserat ”Agentspace”, en plattform där företag kan skapa anpassade AI-agenter.

Google passar också på att peta in lite kul användningsdata om just podcastfunktionen. Folk har skapat 350 års poddar sedan tjänsten lanserades i mitten av september. Så lång tid skulle det alltså ta att lyssna igenom alla skapelser.

Men nu – tillbaka till dig Clubhouse!

Google’s NotebookLM now offers audio overviews and a subscription tier

Google lanserar AI-modellen Gemini 2.0 med stöd för bilder, ljud och fler Google-tjänster

Google tänker inte låta Open AI suga åt sig allt strålkastarljus med sin produktlanseringsjulkalender. Därför passade företaget i veckan på att presentera Gemini 2.0 – alltså nästa stora versionshopp av Googles egen AI-modell.

Ja, eller mer specifikt är det bara en medlem i Gemini-familjen som nu har presenterats. Minstingen Flash. Och det är dessutom bara en ”experimentell förhandsversion” (Google vill alltså vara övertydlig med att den verkligen inte är skarp).

Hoppet till version 2 gör att även Gemini nu får det som de flesta konkurrerande tjänster redan har: inbyggt stöd för att skapa bilder. Men Gemini har också lärt sig skapa ljud, något som Google med sin NotebookLM-tjänst har visat sig vara riktigt bra på (på engelska åtminstone). Dessutom får Gemini fullt ut inbyggt stöd för Googles sök och Google Maps.

Men det räcker ju inte långt idag. Att gå ut med att säga att man har kommit ikapp konkurrenterna, alltså. Så då gäller det att droppa några buzzord som ger mer uppmärksamhet just i december 2024. Som… AI-agenter!

För Gemini är nu byggt för *trumvirvel* The AI Agentic Age (triple A?)! Ja, eller för AI-agenter. Steget som kommer efter de AI-assistenter som vi vant oss vid med ChatGPT och liknande tjänster, där en AI-bot är instängd i sitt gränssnitt till största del. AT-agenter ska kunna gå utanför sig själv och hyfsat självständigt kunna utföra uppgifter åt användare. Som att googla upp bästa hotellet, destinationen och flygpriset när man vill åka på semester – och boka och betala allt på egen hand.

Ja, det är ungefär visionen för hur den här typen av AI-botar skulle kunna bli våra virtuella jag i snart sagt alla digitala gränssnitt som vi har.

Och nu ska Googles AI-modeller alltså vara redo för den här typen av AI-funktioner.

Google’s Gemini 2.0 AI model launches with image and audio support

Googles Project Astra placerar en AI-agent i mobilkameran

För något halvår sedan presenterade Google Project Astra, en tänkt AI-agent. Alltså en AI-lösning som ska kunna utföra uppgifter hyfsat mycket på egen hand. I veckan var det dags för en uppdatering, där Project Astra fick ett antal nya funktioner.

Uppdateringen av Project Astra sammanföll med att Google uppdaterade sin AI-modell Gemini till version 2. Det är också det versionslyftet som har har möjliggjort Astras förbättrade förmågor.

Astra kan svara på frågor om en användares omgivning genom att man pekar mobilkameran mot det man har runt sig. Som att låta Astra ge information om en staty eller en byggnad man står vid.

Astra ska dessutom ha lärt sig prata flera språk och kan även hantera att hoppa mellan språk. Och Astra har dessutom också fått tillgång till en verktygslåda i form av Google-tjänster. Tjänsten kan alltså ta hjälp av saker som Googles sök, Google Lens, Google Maps eller Gemini för att svara på mer komplexa frågor. Sist men inte minst har Astra också fått ett utökat minne, så den kan nu komma ihåg saker som den har ”sett” de senaste tio minuterna.

Google DeepMind’s Project Astra Upgraded With Gemini 2.0 Capabilities

Google presenterar AI-agenten Mariner

När ”AI” (som vi definierar det numer) har blivit såååå gårdagens nyhet så gäller det att uppa sitt game. Nu gäller det att prata AI-agenter. Alltså AI-baserade tjänster och funktioner som hyfsat självständigt kan utföra uppgifter å dina vägnar. I veckan var det dags för Google att presentera ett par nyheter på det här området. Som Project Mariner.

Mariner är, om man så vill, Claudes funktion för att styra en dator – fast isolerat i Chrome. Där kan den interagera med din webbläsare precis som du skulle, dvs. flytta muspekare, klicka på saker och fylla i formulär. Tanken är med andra ord att Mariner på det här sättet ska kunna navigera på nätet ungefär som du själv skulle göra.

Här finns någon slags framtidsscenario att den alldeles egna, personliga AI-bot skulle kunna skickas ut på nätet för att hitta bästa solsemestern, hitta bästa hotellet och bästa flygningarna – baserat på dina personliga preferenser.

Ja, nu är vi ännu inte riktigt där, men med Mariner så tar Google ännu ett steg mot det. Och passar också på att rikta upp lite möjliga framtidsvägar för såväl sökning på nätet som hur en webbläsare faktiskt fungerar.

När internet flyttade in i mobilen så förvandlades webbläsare till appar. Nu kanske det är dags för webbläsarna att ta nästa steg. Det blir intressant att se vad den utvecklingen kan leda till. Såväl hur vi interagerar med internet – som hur internet i sig kommer att förändras.

Google unveils Project Mariner: AI agents to use the web for you

iOS 18.2 rullas ut med ChatGPT-integration

I veckan tog Apple nästa steg i byggandet av sin egen AI-plattform. Apple Intelligence får i och med iOS 18.2 och motsvarande uppdateringar för iPad och Mac ett antal nya funktioner:

  • Genmoji: Apples funktion att kunna masha ihop egna emojis
  • Image Playground: Verktyg för att AI-skapa och AI-redigera bilder
  • Image Wand: Ungefär en version av Image Playground som bor inuti Anteckningar
  • Förbättringar i AI-textfunktionen
  • Visual intelligence i kameran: Apples AI-verktyg kan förstå och interagera med text via kameran, som att peka kameran mot en text. Sedan kan man låta AI:n sammanfatta text, plocka ut telefonnummer, översätta mellan språk, söka efter en liknande produkt via Google eller använda den nya ChatGPT-integrationen för att svara på mer utförliga frågor om det som visas i en bild.
  • ChatGPT-integration i Siri: Siri kan nu ”sömlöst” tagteama med ChatGPT för ytterligare stöd och hjälp vid behov.

Apple Intelligence now features Image Playground, Genmoji, and more

Apple Intelligence lanseras utanför USA

I och med uppdateringarna av Apples olika operativ i veckan så blev Apple Intelligence, Apples egen AI-plattform, för första gången tillgängligt utanför USA. Ja, officiellt alltså, eftersom tjänsten har gått att nå på olika sätt även tidigare.

Men nu finns tjänsten alltså formellt även i Storbritannien, Kanada, Australien, Nya Zeeland och Sydafrika. Och intressant nog Irland. Vilket alltså betyder att Apple Intelligence nu har lanserats i EU!

Ja, eller även om jag har sett lite olika besked från användare baserade i Irland så betyder det första utrullningssteget utanför hemlandet sannolikt inte att Apple Intelligence nu går att köra i Irland utan att VPN:a sig ut ur EU. För vad det handlar om är att Apple Intelligence har fått stöd för några fler ”dialekter” av engelska. Och en av de varianter som nu ska ha fått stöd är irländsk engelska.

Så med andra ord: du kan prata engelska på ”irländska” med Siri, men bara om du befinner dig utanför EU. Annars fungerar inte Apple Intelligence. Så den fungerar inte på plats hemma i Irland.

Tror jag som sagt. För beskeden kring vad som gäller är inte helt solklara. Jag såg ett Reddit-inlägg från en irländare som hade kontaktat Apple-supporten i Irland och fått besked om att tjänsten nu har lanserats där. Så det verkar inte vara helt tydligt för dem som jobbar på Apple heller.

Men jag tror som sagt att även irländarna får vänta fram till april nästa år att få Apple Intelligence. Precis som vi övriga EU-medborgare.

Apple Intelligence Officially Expands Today

Reddit släpper en egen AI-sökfunktion

Vad är Reddits innehåll värt för någon som vill träna en AI-modell? Sisådär 60 miljoner dollar. Det var åtminstone vad Google uppges ha betalat för det ändamålet. Men det hindrar inte Reddit från att nu släppa sin egen AI-sökfunktion.

Reddit Answers, som tjänsten heter, fungerar precis som man kan förvänta sig av en AI-sökmotor. Istället för att få upp en lista med inlägg och trådar som kan innehålla svaret så försöker tjänsten själv skriva ihop ett svar baserat på den samlade kunskapen hos användarna på plattformen. Ja, eller åtminstone det som de har skrivit.

Däremot börjar Reddit i liten skala med den nya funktionen. Precis som hos de flesta andra stora AI-bolag så är det till att börja med bara USA och språket engelska som gäller för funktionen – och dessutom bara för ”ett begränsat antal användare”. Så ett test, alltså. Dessutom för webben och iOS, men inte Android.

Android-version, fler länder och fler språk finns förstås i någon plan framåt, men just nu är det det inte särskilt konkreta ”någon gång i framtiden” som gäller som tidplan.

Reddit Answers: an AI-powered search tool

X:s AI-bot Grok uppgraderas och blir snabbare

X:s (eller xAI:s om vi ska vara formella) AI-bot Grok fick även den i veckan en uppgradering. Språkmodellen bakom boten har fått sig ett lyft, vilket gör att Grok nu ska vara tre gånger snabbare.

Dessutom ska Grok nu ha fått ”ökad träffsäkerhet, ha blivit bättre på att följa instruktioner och ha fått flerspråksstöd”.

X – tjänsten alltså – har även fått en ny Grok-knapp för att sänka tröskeln till boten ytterligare lite.

Även Grok-API:et ska ha förbättrats och blivit mer resurseffektivt och som en följd av det – lite oväntat – så sänks priset på anropen.

X gains a faster Grok model and a new Grok button

Claude rullar ut språkmodellen 3.5 Haiku

Det jag gillar absolut mest med ChatGPT-utmanaren Claude är namngivningen på dess olika stora språkmodeller. Där andra valde helt obegripliga namn, om man inte gick kurs i AI-kunskap, eller generiskt tråkiga trappstegsnamn som ”mini” och ”pro” så valde företaget bakom Claude, Anthropic, en helt annan väg.

Där heter modellerna Haiku, Sonnet och Opus – i storleksordning. Och den minsta av dem har nu rullats ut i en ny version: 3.5 Haiku. Den går nu alltså att välja som modell inuti Claude.

Vad är då införsäljningsargumentet för senaste Haiku-modellen? Den ska vara särskilt bra på ”kodförslag, datautdrag, datataggning och innehållsmoderering”.

Anthropic’s 3.5 Haiku model comes to Claude users

X lanserar nya AI-bildskapare, drar tillbaka den och lanserar den igen

I förra veckan fick FKA Twitter en ny AI-bildskaparfunktion: Aurora. Det blev möjligt att skapa bilder med det nya verktyget via X:s egen AI-bot Grok.

Men bara någon dag senare drogs Aurora tillbaka. Och ytterligare någon dag senare presenterades den officiellt. Nu kommer den att rullas ut i ”utvalda länder” inom en vecka.

Som vanligt är det ont om detaljer när Musk är inblandad i nya funktioner, men vi kan gissa att det rätt snabbt uppdagades några oopsie-grejer som måste fixas till.

X says its new image generator Aurora will launch for all users within the week

Kategorier
AI - Artificiell intelligens Detaljhandel/e-handel Sociala medier Spaningar Strömmade medier

Digitala spaningar vecka 50 2024

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Sociala medier

Facebook, Instagram och WhatsApp

Instagram låter användare testköra reels mot icke-följare

Intressant ny funktion i Instagram: Trial reels. En funktion som är ungefär vad det låter som: möjlighet att testköra reels innan man publicerar dem.

Ja, innan man publicerar dem mot sina följare. För den stora poängen med funktionen är att den testreel man kör ut bara visas för icke-följare. Baserat på visnings- och engagemangsstatistiken kan man sedan välja om man vill köra ut sitt klipp till sina följare – och om det ska ske automatiskt.

Det är med andra ord ett sätt att testa annat slags innehåll än vanligt innan man låter följarna ta del av det. Men det löser delvis också en av utmaningarna överlag med sociala medier – att det mesta man vill ”testa” måste gå ut skarpt. Vilket inte minst kan vara en tröskel för den som vill börja dela innehåll. Eller bara ge sig på att testköra en ny version som man är osäker på.

Instagram’s new ‘Trial Reels’ feature lets creators test content with non-followers

TikTok

TikTok lämnar in begäran att tillfälligt stoppa förbudslagen i USA

I förra veckan fattade en amerikansk domstol ett potentiellt förödande beslut för TikTok: den lag som kan förbjuda tjänsten i USA fick grönt ljus.

Det var i våras som USA klubbade den lag som kräver att ägarbolaget Bytedance kapar alla band mellan TikTok och den kinesiska staten. Det betyder i praktiken att Bytedance måste sälja TikTok. Om så inte sker väntar förbud.

TikTok överklagade lagen, men fick alltså tummen ned av domstolen förra veckan.

Nästa hopp – och kanske det sista – sätter TikTok nu till USA:s högsta domstol. Men chansen att de ska kunna hinna titta på ärendet före 19:e januari, när förbudet kan träda i kraft, lär vara obefintlig. Det blir nog svårt att ens hinna med till slutet av april, som är den förlängningstid som lagen öppnar för för att TikTok ska hinna slutföra en försäljning.

TikTok lämnade därför idag in en begäran om att lagen tillfälligt ska stoppas fram till dess att högsta domstolen har hunnit säga sitt.

I andra hand (eller kanske i första hand) hoppas Bytedance också på att Trump ska upphäva lagen – eller på något annat sätt stoppa TikTok från att förbjudas. Men även om Trump i sitt kampanjande lovade att TikTok inte skulle förbjudas om han blir president så återstår att se om han fortfarande tycker det. Och även om han gör det så återstår att se vad Trump då överhuvudtaget ens skulle kunna göra.

TikTok files emergency motion seeking temporary pause to looming US ban

Bluesky

Bluesky på gång med betalabonnemang

För ett par månader sedan släppte Twitter-alternativet Bluesky uppgifter om ett betalabonnemang – och nu är tjänsten ännu ett steg närmare mot att det blir verklighet.

Det är skisser som laddats upp till tjänsten GitHub som gett fler ledtrådar kring vad vi kan vänta oss av ett eventuellt abonnemang. Saker som högre kvalitet för uppladdad video och anpassningar av profilen. Andra saker som övervägs är en anpassad appikon för betalande användare, översättning av inlägg, inläggsstatistik och en ”mapp” för bokmärkta inlägg.

Vad det blir i slutändan återstår att se (och även vilka funktioner som kan komma först). Det som Bluesky däremot har varit tydliga med är att det inte kommer att bli möjligt att köpa sig till verifiering, som hos X och Meta. Däremot får vi se om – och i så fall hur – en sådan funktion kan dyka upp i Bluesky.

Bluesky teases paid subscription ‘Bluesky+’ in new mockup

 

Detaljhandel/e-handel

Amazon börjar sälja bilar

Nytt officiellt verksamhetsområde för Amazon: bilar. Så nu är tanken att du ska gå till Amazon när du är på jakt efter en ny bil.

Ja, kanske inte riktigt än, men det är nog det som Amazon helst skulle vilja. Att man alltså går hit istället för till Google även när man vill shoppa det här produktsegmentet.

Och den Google-referensen skvallrar sannolikt också om var den nya avdelningen Amazon Autos blir tillgänglig: i USA. Landet där Amazon snarare än Google är startpunkten när man söker efter produkter.

Amazon börjar dock inte med en… helt heltäckande produktkatalog. Till att börja med är det bara bilar från Hyundai som går att amazona fram. Dessutom är tjänsten initialt bara tillgänglig i 48 amerikanska städer. Amazon ska lägga till fler märken och fler städer under 2025, men även då lär det bara vara USA som gäller.

Oavsett begränsningen så funkar det i stort på samma sätt att söka fram bilar som vilken annan produkt som helst hos Amazon. Filtrera på de egenskaper som är relevanta och får fram produkter som matchar din sökning.

Du kan även fixa finanseringen och skriva under köpeavtalet via Amazons sajt. Och ja, det ska även gå att hantera inbytesbilar den här vägen. Och priset som visas i utcheckingen ska vara det slutgiltiga, inklusive eventuella avgifter och annat.

Jag utgår från att stöd för CarPlay är ett av filtreringsalternativen. Det ungefär enskilt viktigaste när jag kollar efter bil.

Amazon is officially in the online car sales business

TikTok Shop slår upp portarna i Spanien och Irland

TikTok har tagit sitt första e-handelskliv in i EU. TikTok Shop har nu slagit upp portarna i Spanien och Irland.

Det innebär att spanjorer och irländare alltså snart kan börja shoppa loss direkt inuti TikTok. Än så länge är det bara inbjudna företag som släpps in och kan börja sälja, men det lär sannolikt breddas rätt snart.

I USA blev Black friday-perioden ett rejält uppsving för TikTok Shop i USA, även om det i det stora hela fortfarande är förhållandevis låga volymer vi pratar om. Det har även gått lite sådär i Storbritannien. Men TikTok verkar alltså vilja satsa ordentligt på funktionen.

Och det kanske delvis beror på det hotande förbudet mot tjänsten i USA, som kan bli verklighet i slutet av januari. Som senast tre månader senare – om TikTok beviljas den förlängningen.

Det kan alltså bli rätt akut att väga upp ett intäktstapp från TikToks största marknad inom kort.

TikTok Shop launches in Ireland and Spain

Googles Product Studio lanseras i Sverige

Den här veckan droppade Google version 2 av sin AI-modell Gemini. Google passade då också på att trycka ut några mer eller mindre betaversionsmässiga AI-funktioner kopplade till Gemini. Men det var inte det enda AI:iga som Google gjorde. En av de andra sakerna var att Product Studio lanserades i 15 nya länder. Sverige var ett av dem.

Product Studio är en del av Googles produktsvit mot e-handlare, där man med AI-hjälp ska kunna skapa saker som produktbilder och produktvideos från textpromptar. Eller ändra utseendet på en produktbild där bakgrunden bättre matchar den aktuella högtidssäsongen.

Det är kort sagt tänkt att vara ett redskap för att hjälpa mindre e-handlare att bättre presentera sina produkter för att därigenom öka försäljningen. Även om de inte har råd att anlita byråer. Och nu får alltså även svenska e-handlare möjlighet att använda funktionen.

Google Product Studio Rolls Out to Additional Countries

 

Strömmade medier

EU utreder hemligt annonsavtal mellan Google och Meta

Dags för ännu en EU-utredning mot techjättar. Den här gången passar EU på att inte bara utreda ett utan två bolag: Google och Meta. Anledningen: hemligt samarbete som har inneburit att Meta har kunnat köra riktade Instagram-annonser mot barn, i strid mot såväl Googles som EU:s regler.

Det handlar om annonser för Instagram som körts via Youtube och där anställda hos de senare har hjälpt Instagram att runda spärrar i Googles system genom att skapa en grupp ”okända” användare, som främst bestod av minderåriga. På så sätt så riktade Meta alltså inte sina annonser mot barn, utan just mot ”okända” användare.

Det här ska ha skett i somras och loggades redan då som en ”incident” av Google. Eftersom hela upplägget alltså skedde genom att anställda hos Youtube och Meta medvetet rundade systemet så är EU nu alltså väldigt nyfikna på hur det här kunde gå till.

Och kanske också framförallt hur länge det i så fall kan ha skett. Med tanke på att det var Finacial Times som i somras avslöjade den av Google inrapporterade incidenten så är det en inte alltför vågad gissning att den skickades in efter att det visade sig att tidningen var upplägget på spåren.

Det är oavsett intressant att det är de två inblandade bolagen som det rör. Att den primära målgruppen i sammanhanget är tonåringar gör saker och ting extra pikanta. Detta i ljuset av uppgifter att just tonåringar i allt högre utsträckning vänder sig till plattformar som Instagram och TikTok istället för Google när de vill söka och att Instagram rätt länge har försökt bearbeta just den här användargruppen i takt med att Instagrammarna blir allt äldre.

EU utreder hemligt avtal mellan Google och Meta

Youtube rullar ut funktion för att automatiskt dubba videos till andra språk

Den som jobbar med Youtube och har en internationell publik – eller vill nå ut till en sådan – fick en tidig julklapp av Google. Youtube rullar nu ut sin autodubbningsfunktion till ”hundratusentals fler kanaler”.

Vad det handlar om är en funktion som automatiskt identifierar språket i en uppladdad video och sedan automatiskt skapar ljudspår på andra språk.

Nu finns det förstås fortfarande begränsningar i funktionen. Den fixar inte alla språk på planeten, utan bara 9 stora språk (vilket å andra sidan täcker en hel del av planetens talade språk totalt sett). Dessutom kickar funktionen bara in på ”informativt innehåll”. Saker som how to-videos.

Nu handlar det just bara om ljudspåret, så förvänta dig inte att munrörelserna hänger med, som hos HeyGen. Och upsprungsrösten klonas inte, så det kommer inte låta som personen som skapade klippet.

Men som Google själva säger: det är en tidig version. Den kommer med andra ord att utvecklas. En av sakerna som Google arbetar på i detta nu är ”expressive speech”, som är vad det låter som: att de ”översatta” rösterna ska försöka återskapa ursprungsröstens tonläge, känslor och även ”stämningen i omgivningen”.

YouTube’s new auto-dubbing feature is now available for knowledge-focused content

 

AI – artificiell intelligens

Open AI lanserar AI-videotjänsten Sora

Tio månader efter det att tjänsten presenterades så blev det i veckan dags för Open AI att sjösätta sin AI-videoskapare Sora. En där det alltså blir möjligt att skapa video baserat på en textinstruktion eller en bild (ja, eller både och).

Under tiden som har gått har Open AI byggt en ”betydligt snabbare” version av Sora, Sora Pro. Med den så kan betalande ChatGPT-användare nu skapa korta videoklipp. Och ”korta” är ledordet. Upp till 20 sekunder långa klipp i dagsläget.

Sora kommer dock inte vara del av ChatGPT, utan ligga som en egen fristående tjänst. Där kommer användare varje månad kunna skapa upp till 50 videos i 480p-upplösning och ”färre” om man väljer den högre upplösningen 720p. Eller om det är 50 720p videos, fast då bara 5 sekunder långa? Det är lite olika besked kring vad som gäller beroende på var man tittar verkar det som.

Den som vill få ut ännu mer av Sora kan välja att hoppa på det Pro-abonnemang för ChatGPT som Open Ai lanserade förra veckan. Det med den nätta månadskostnaden 200 dollar, eller lite över 2000 kr. Då kan man skapa videos i kvaliteter upp till 1080p. Men intressant nog så kommer inte ens det räcka för obegränsat antal Sora-videos, utan ”10x” enligt Open AI. Så 500 480p-videos som exempel, alltså.

Youtubes mesta pryltestare Marquis Brownlee fick lägga vantarna på en förhandsversion. Han konstaterar att Sora är vass på att göra landskap och abstrakta videos, men har de vanliga problemen med händer och att konsekvent generera exempelvis rörelser och att de skapade klippen följer fysikens lagar.

Däremot är det sannolikt dumt att redan nu slanta upp för ett Pro-abonnemang om man tänker ha det till Sora. Den nya tjänsten finns ännu inte i Sverige – eller i något EU-land än vad det verkar. Så som tur är kommer alltså det finnas möjlighet att rasa över EU även vid denna lansering.

OpenAI Launches Sora Video Generator for All Users

ChatGPT:s Canvas-funktion släpps skarpt

Lucka fyra i Open AI:s julkalender var ingen ny produkt, men däremot beskedet att en befintlig funktion nu blir skarp.

Det handlar om Canvas, funktionen som gör det möjligt att få upp en arbetsyta vid sidan av själva chatten där man kan se resultatet och eventuella förändringar man ber om, istället för att behöva rulla ned och se resultatet under chatten. Det visade resultatet kan dessutom bli mer visuellt anpassat.

Canvas släpptes i oktober, men då bara som en förhandsversion. En testversion, alltså. Nu släpps versionen skarpt för alla användare.

Däremot är det nog fortfarande i praktiken bara för betalande användare, eftersom Canvas bygger på att du har tillgång till modellen GPT-4o och gratisanvändare har i dagsläget begränsad tillgång till just den.

OpenAI ChatGPT Canvas Tool Available to All Users Out of Preview

ChatGPT lär sig se och förstå realtidsvideo

Året är slut och snön ligger ännu inte djup. Men Open AI hann lansera den kanske mest imponerande ChatGPT-funktionen bland dem som presenterades i våras: nu har ChatGPT lärt sig förstå realtidsvideo.

Nu lyssnar ChatGPT:s avancerade röstläge inte längre bara på din röst. Nu kan du även peka mobilkameran mot något och chatta vidare om det. I det exempel som Open AI gav under demon när funktionen först presenterades kunde Greg Brockman ställa frågor om saker som hände bakom honom tack vare att mobilen var riktad mot honom.

Det avancerade röstläget kan nu även förstå vad som händer på en skärm via skärmdelning. Som att förstå inställningar i en app, vilket är ett användarfall som ges. Med andra ord: en föräldersupportfunktion.

Funktionen började rullas ut igår för de vanliga betalkontona. Enterprise och Edu får det i januari.

Däremot, som vanligt, så släpps funktionen inte här i EU än – och det finns heller ingen tidplan för när så kommer att ske (tittar vi på hur det var med det avancerade röstläget så var skillnaden en månad). Så folk kommer som tur är alltså även denna gång kunna rasa över EU.

Phew.

ChatGPT now understands real-time video, seven months after OpenAI first demoed it

ChatGPT får nya funktionen Projects

Ännu en ny funktion i ChatGPT: Project. Som är, tja, vad den låter som. Dela in dina chattar med ChatGPT i project. Eller krasst talat mappar.

Den som jobbar med ChatGPT inom ett antal olika områden kan med andra få ett lite mer lättorganiserat liv.

OpenAI ChatGPT Projects: Folders for AI chats

ChatGPT får ett mer inkluderande och vägledande gränssnitt

Open AI dunkar ut nya funktioner i parti och minut just nu. I gårdagens lucka i företagets julkalender så dolde sig den kanske mest imponerande funktionen som presenterades under Open AI:s event i våras: möjligheten att låta ChatGPT hela tiden både lyssna och se vad som händer framför kameran i realtid. Med andra ord har ChatGPT lärt sig kunna förstå ”realtidsvideo”.

I veckan fick vi också den här funktionen. En betydligt tråkigare och mindre sexig nyhet: en tydligare visualisering av vad man faktiskt kan göra i och med ChatGPT. Meh i skuggan av fräsigt livevideochattande med tjänsten.

Men för ChatGPT som tjänst är det här lilla tillägget sannolikt betydligt viktigare än de mer avancerade funktioner som nu rullas ut.

När ChatGPT först lanserades (och därmed startade den senaste AI-vågen) så kastades vi tillbaka 30 år i tiden. Eller egentligen ytterligare ett par årtionden. Vi fick html. Eller en DOS-prompt.

Ett i det stora hela odesignat textinmatningsfält. Och precis som med html (och kodning överlag) så kunde man göra massor bara från detta anspråkslösa gränssnitt. Bara man lärde sig koda.

Som så ofta när ny teknik kommer så var människan tvungen att anpassa sig efter tekniken – inte omvänt som det borde vara. Det underlättades inte av att marknadsavdelningarna inte var inkopplade i namngivningen av tjänster och funktioner, vilket gjorde att man var tvungen att sitta genom en föreläsning bara för att förstå namnet.

Men nu börjar de här AI-tjänsterna allt mer bli som, tja, program. Som vi är vana vid. Vi har fått den mer visuella html-editorn. DOS-prompten har blivit grafiska ikoner.

Och alternativen heter dessutom saker på ren svenska. Som man kan förstå utan att gå kurs.

Verktygen börjar bli mer som vi har vant oss vid när vi använder digitala tjänster. Och gränssnittet i sig ger oss vägledning i användningen.

Vi har förstås fortfarande en bra bit kvar. Jag kan fortfarande inte fullt ut bygga en html-sajt genom att dra runt grafiska element som man kan när man numer vill bygga en sajt. Men vi kommer allt närmare även det.

AI-UX-design, alltså. (AIUX?)

Och alla de här stegen som vi har hunnit gå igenom på två år gör det enklare att komma igång med den här typen av tjänster. Något som i sin tur gör det enklare för tekniken att nå ut och bli mainstream på riktigt.

Screenshot
Kategorier
AI - Artificiell intelligens Spaningar

Digitala spaningar vecka 49 2024 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Amazon introducerar sin egen familj AI-modeller

Fler AI-modeller för den som inte kan få nog. Den här gången från den techjätte som överlag har legat rätt lågt på AI-området: Amazon.

Nu har Amazon släppt inte bara en utan tre olika modeller under paraplynamnet Nova. Och som hos konkurrenterna så spänner modellerna från snabbt och enkelt till långsamt och avancerat. Ja, lite förenklat. Nova Micro, Lite och Pro. Dessutom ska en värstingmodell lanseras i början av 2025: Premier.

Amazon passar också på att släppa tjänster byggda på Nova: Canvas, en AI-bildskapare och Reel, som inte inte oväntat är en videofunktion.

Amazon kommer senare nästa år följa upp med en egen tal-till-tal-modell (som sannolikt lär handla om realtidsöversättning) och en “native multimodal-to-multimodal”-historia.

Sist men inte minst fördjupar Amazon sitt samarbete med Open AI-konkurrenten Anthropic. Och tar upp kampen mot Elon Musks AI-bolag xAI. De båda företagen bygger ett “enormt AI-datakluster”.

Amazon announces Nova, a new family of foundation AI models developed with Anthropic

Apple använder Amazon-chip för sin AI-satsning

Det här är lite intressant. Och oväntat. Vem vänder sig Apple till för chip för sin AI-satsning? Amazon.

På sätt och vis är det inte helt oväntat. Apple har använt Amazons molntjänst AWS i över ett årtionde för Siri, kartjänsten och Apple Music. Men det förvånar mig ändå att Apple ser ut att kunna välja Amazon även som leverantör av AI-chip.

Enligt Amazon så planerar Apple att testköra Amazons anpassade Trainium2-chip för att träna sin AI-plattform Apple Intelligence. Men även för “andra modeller”, intressant nog.

Pratar vi AI-chip så är företagen som nämns oftast, i fallande ordning, Nvidia, Nvidia och Nvidia. Att Apple inte hoppar på Nvidia-tåget är däremot inte särskilt oväntat. Apple har inte varit stor Nvidia-kund.

Däremot har Amazon inte gjort särskilt mycket väsen av sig på just AI-chipområdet. Det återstår att se hur de står sig i konkurrensen. Men Apple och Amazon kan alltså komma att utgöra en väldigt oväntad AI-allians.

Apple Reportedly Testing Amazon’s Trainium2 AI Chips Amid Major AI Push

Microsoft sparkar hela teamet som jobbar med etisk AI-utveckling

Ett tecken i tiden. Inte minst pådrivet av vad som händer hos Open AI. Behovet av att springa jättejättejättefort med AI-utvecklingen gör att vissa aspekter får stryka på foten. Som säkerhet och etik.

Microsoft har nu sparkat hela teamet som arbetar (ja, eller arbetade) med “etik och samhälle” inom ramen för AI-verksamheten.

Microsoft själva argumenterar att de fortfarande har ett “Office of responsible AI” som har som uppgift att “skapa regler och principer som ska styra företagets AI-initiativ”. Vilket förstås är bra.

Men den som nu har fått gå hade, enligt intervjuer med några av dem, ett mer handgripligt ansvar. Att tolka de reglerna och se till att de efterlevs i de produkter som tas fram.

Kort sagt sannolikt ett ansvar som säkerligen kan ses som bromsklossigt. Ni vet: den interna företagsmotsvarigheten till suckande över att EU reglerar sönder Europas möjlighet att hänga med i AI-racet.

Som utomstående är det förstås svårt att se hur mycket teamet faktiskt bidrog med och vad skillnaden blir när de inte längre finns kvar. Men precis som när Open AI cirkusade runt för något år sedan – något som slutade med att just den avdelning som hade ansvar att säkerställa att AI inte förgör mänskligheten upplöstes – så är det ett lite oroväckande tecken att breakandet av saker blir ledstjärna snarare än diskussioner om man borde göra saker bara för att man kan.

En inställning som ironiskt nog lär leda till ännu fler regleringar. Därför att bolag även denna gång inte kan hålla fingrarna ur syltburkarna.

Microsoft lays off team that taught employees how to make AI tools responsibly

Microsoft lays off entire ethics and society team as it accelerates AI development

Microsoft rullar ut Copilot Vision som kan se och förstå din skärm

När Microsoft presenterade AI-nyheter i våras så var det stora utropstecknet Rewind-funktionen, som var ett fotografiskt minne över allt man gör i sin dator. Tanken var att man sedan ska kunna gå tillbaka och chatta om det med Copilot i efterhand. Den utrullningen har så här långt gått…. sådär.

Nu ska den vara på väg ut efter flera förseningar, men det återstår att se om den är utan större brister den här gången, eller om det fortfarande finns säkerhetshål kvar.

Men oavsett så är det nu dags för Microsoft att ge oss ett lillasyskon till Rewind: Copilot Vision. Det är förmågan hos Microsofts AI-bot att se och förstå din skärm. Motsvarigheten till det som såväl Google som Claude har på gång.

Det innebär att det ska gå att fråga om innehållet på en sajt, som att få en sammanfattning av en text, eller att be om hjälp i ett spel (eller ”fuska” som vi sa förr). Ja, okej, gällande det sista så ska man kunna ”få tips” om spel som schack när man spelar online – men jag kan läsa mellan raderna.

Men det finns ett stort problem med Vision. Ja, eller två.

Dels finns funktionen bara för Windows och dels så funkar den bara i Microsofts webbläsare Edge.

Så inte ens de som utsätter sig för Windows kommer alltså använda funktionen.

Microsoft’s Copilot Vision Preview Introduces AI That Understands On-Screen Content

Elon Musk vill stoppa Open AI:s omvandling till vinstdrivande bolag

När ChatGPT-ägaren en gång i tiden startade så var syftet att som icke-vinstdrivande organisation verka för utvecklingen inom AI. VD:n Sam Altman var en av dem som var med vid organisationens tillblivande. Elon Musk en av de andra.

Elon Musk klev dock av rätt tidigt i och med att han kände att Open AI var på väg åt fel håll. Han kände att initiativet att delvis låta Open AI bli vinstdrivande gick stick i stäv med det som sades när organisationen sjösattes. Musk kände att han var med och finansierade en startup utan att få någon ägarandel.

Sen var det inget mer med det. Förrän några år senare, när ChatGPT explodera och piskade upp den senaste AI-vågen. Då blev Musk sannolikt sur att de andra nu kunde casha in på den ekonomiska bottenplatta som han hade lagt.

I samband med att Musk sedan drog igång sitt eget AI-bolag xAI så stämde Musk Sam Altman för det “kontraktsbrott” som Open AI:s nya vinstväg innebar. Därefter drog Musk tillbaka stämning och skickade nästan omgående in en ny.

Nu är det dags för nästa kapitel: Open AI har uttalade planer att helt ställa om sin organisationsform till fullt ut vinstdrivande bolag, med en mindre icke-vinstdrivande del. Och det vill Musk nu sätta stopp för.

Enligt en begäran som Musk nu har skickat in så kräver han att en domstol ska sätta stopp för planerna, med argumentet att Open AI, tillsammans med Microsoft, bygger ett olagligt monopol.

Och det som kan vara ännu jobbigare för Sam Altman och Open AI i det här sammanhanget är att Musk som bekant har Trumps öra. Och i samband med nästa Trump-presidentperiod också har – i praktiken – formell och reell politisk makt.

Elon Musk Urges Court to Block Alleged Illegal For-Profit Conversion of OpenAI

Claude får ny Google Docs-integration

ChatGPT-utmanaren Claude får ny förmåga. Ja, eller mer specifikt en ny integration. Till Google Docs.

Det innebär att den som betalar för Claude nu kan länka direkt till dokument i Googles tjänst som del i det som man vill att Claude ska göra.

Så ja, egentligen gör det bara det snäppet enklare att arbeta med Google-dokument. Istället för att klistra in text eller ladda upp dokument manuellt så kan man bara skicka in Claude till dokumenten där de ligger hos Google. Men det är precis den här typen av tröskelsänkningar som behövs för att AI-teknik på riktigt ska bli en del av den stora massans (arbets)vardag.

Claude AI Introduces Powerful New Features: Google Docs Integration and Personalization

Google rullar ut AI-videofunktionen Veo

Så har det blivit dags för Google att ta fram en ny AI-funktion dedikerad för video: Veo. En som ska kunna skapa ”med hög kvalitet” i 1080p-upplösning. Och ungefär som vanligt så kan med den här typen av tjänster skapa videos baserat på textinstruktioner. Det finns ingen tydlig tidsgräns, men vi kan tänka att det även här är väldigt korta klipp som gäller.

Däremot är det inte en konsumenttjänst vi pratar om. Det som nu rullas ut är stöd för att företag kan börja bygga in den. Och det är – som ofta när AI-verktyg släpps nuförtiden – en ”förhandsversion” som det handlar om.

Och som AV EN HÄNDELSE börjar Google nu rulla ut Veo precis när det ryktas att Open AI ska släppa sin egen videomotsvarighet Sora som del av den julkalender som ChatGPT-ägaren sparkade igång igår. Där vi ska få en produktnyhet eller demonstration under 12 dagar.

Google’s Veo generative AI video model now available in preview

Chrome får AI-sammanfattning som visar hur pålitlig en handlare är

Intressant ny funktion på väg till Chrome: en sammanfattning kring hur pålitlig en handlare är.

Det ser ut som att Google mashar ihop de omdömen som finns från olika recensionssajter (som Trustpilot) och ger ett samlad överblick av vad kunder har sagt. Ännu ett Google-initiativ att försöka se till att färre människor blir blåsta, alltså. Inte minst i Blacknånting-tider.

Google bygger vidare på den funktion som har funnits rätt länge och varnat för saker som potentiellt bedrägliga sajter när man försöker gå in på en URL. Funktionen byter dock namn när den nu utökas. Från Protective protection till AI-powered protection. Because AI.

För det här hade förstås gått att göra helt utan AI, genom att helt enkelt bara hämta in och lista upp snittbetyg från olika omdömestjänster. Men det hade inte alls varit lika coolt. Eller åtminstone inte något man hade kunnat kalla “AInånting”.

Så i praktiken lär Google göra ungefär som Amazon gör med användares produktrecensioner: göra en sammanfattning av de bra och dåliga grejer som användare oftast nämner.

Google Chrome’s new AI feature helps you quickly check a website’s trustworthiness

The Browser Company presenterar en ny AI-webbläsare

AI-tjänster i all ära, men det som verkar vara mest inne just nu bland AI-bolagen – åtminstone som ett försök att bredda sig – är att ta fram en egen webbläsare.

Bara för ett par veckor sedan kom uppgifter om att ChatGPT-ägaren Open AI håller på att titta på precis det här – och nu är det dags för ännu ett sökbolag att ta det klivet: The Browser Company. Ja, eller att AI:fiera sin befintliga webbläsare ännu mer.

Företaget är mest kända för sin AI-sökmotor Arc Search, men har även tagit fram sin Arc Browser för den som vill gå lite mer all in på Arcs tjänster. Och nu är det dags för nästa generation webbläsare: Dia.

Dia verkar dessutom vara en kombination av “vanlig” AI-söktjänst och AI-agent. Den kan alltså söka på nätet och ge svar baserat på vad den hittar där, men kan också ta en lista med Amazon-produkter som du får på mejlen och lägga samtliga dessa i din Amazon-varukorg.

Hur bra den är på det här i praktiken? Det återstår att se. Och vi behöver kanske inte vänta särskilt länge för att kunna testa. Planen är att Dia ska lanseras “tidigt nästa år”.

The Browser Company teases Dia, its new AI-powered web browser

World Labs skapar interaktiva 3D-miljöer från stillbilder

Nästa stora grej för den som fortfarande jagar domäner med förhoppningen att kunna tjäna pengar på att sälja dem? Dammsug upp alla kombinationer av ”world” och ”.ai”. Senaste exemplet: World Labs. En gen AI-modell som skapar interaktiva 3D-miljöer från bara en stillbild.

Det handlar med andra ord om den del inom AI-världen som heter, tja, ”värld”. World, alltså. Ai-tjänster som kan gå bortom vanligt 2D-skapande – och till och med begränsat 3D-skapande av objekt – till att kunna skapa hela världar. Eller åtminstone hela scener och miljöer som går att interagera med. Som spelvärldar som går att vandra runt i. ”Outpainting” fast i 3D-världsversion.

Okej, det kan förstås vara mycket 2D även när det blir typ 3D. Som att de flesta som spelar spel fortfarande gör det med 2D-skärmar, även om man kan gå runt i en världar som har upplevt djup. Men nu ska vi inte haka upp oss på detaljer.

De skapade miljöerna går sedan att justera. Som att begränsa ”skärpedjupet” i världen, byta färg på föremål eller eller ljusets vinklar. De miljöer som skapas via World Labs lösning ska sedan vara konsekventa vid varje efterföljande användning.

Det är med andra ord Roblox the next generation. En tjänst för att snabbare kunna skapa färdiga världar, som dessutom får fysikens lagar med på köpet.

Precis som är fallet med de mer resursintensiva formaten (som video och musik) så blir det en begränsad ”värld” som skapas. Man kan alltså inte traska runt särskilt länge förrän man bokstavligen talat springer in i en vägg.

Men så är World Labs lösning fortfarande bara en ”tidig förhandsvisning”. Precis som den här AI-disciplinen överlag. Men det är ännu ett område där vi lär se både en rasande utveckling och många intressanta användningar.

World Labs’ AI can generate interactive 3D scenes from a single photo

Google släpper AI för att skapa spelbara världar från en enda bild

Alltså, ibland synkar techbolagen sina produktnyheter lite för mycket för att det ska kännas som rena slumpar. I början av veckan presenterade World Labs en lösning som kan skapa interaktiva scener, som för spel, från en enda bild. Vi vill också vara med och leka, tänkte Google. Och släpper nu en egen motsvarighet.

Mer formellt så är det Googles AI-verksamhet DeepMind (eller om vi ska vara ännu mer formella: Googles moderbolag Alphabets AI-verksamhet) som nu ger oss Genie 2. Och även den kan alltså skapa virtuella bilder bara från en bild. Ja, plus en text om vad man vill ha för slags 3D-spelvärld.

Precis som World Labs så ska nya Genie kunna hantera fysiska regler för de spelvärldar som skapas och kunna lägga på ljus och annat rätt placerat. Genie ska dessutom kunna “hantera interaktioner” och till och med hur NPC:s – alltså datorkontrollerade statister som dyker upp i ett spel – ska bete sig. Och man ska kunna “spela” och därmed interagera med den skapade världen.

Och precis som World Labs (och för den delen även andra liknande initiativ) så kan du dock inte förvänta dig att få en fullständig spelvärld som kan ge 100+ speltimmar. Genie kan skapa spelvärldar och miljöer som totalt blir en minut långa. Så, ja, väldigt korta spel.

Men den här typen av AI-lösningar – så kallad world AI just eftersom de skapar fullständiga, virtuella världar – är oavsett vansinnigt coola.

DeepMind’s Genie 2 can generate interactive worlds that look like video games

Kategorier
AI - Artificiell intelligens Detaljhandel/e-handel Sociala medier Sök/SEO Spaningar

Digitala spaningar vecka 49 2024

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Sociala medier

Facebook, Instagram och WhatsApp

Threads gör det möjligt att följa användare från andra plattformar

Threads tar ännu ett litet steg mot en mer decentraliserad tillvaro. Nu blir det möjligt att följa användare i andra, externa tjänster inuti Threads.

Det är med andra ord kopplat till det stöd för decentraliserade sociala plattformar som Mastodon som har funnits i Threads sedan start. Stödet har däremot ännu inte fullt ut aktiverats – och det är det fortfarande inte. Men det är som sagt var ännu ett steg mot precis det.

Det finns däremot begränsningar i den begränsade nya funktionen: även om du följer någon från en annan tjänst så kommer deras inlägg inte att visas i Threads-flödet. De syns däremot om du går in på den personens profil – och man kan välja att få notiser när de lägger ut inlägg på andra plattformar som har stöd för samma decentraliserade teknik.

Men för att du överhuvudtaget ska kunna följa någon från en annan tjänst via Threads så krävs att personen på något sätt har interagerat med Threads-innehåll.

Threads takes an important baby step toward true fediverse integration

Threads now lets you follow Mastodon and other fediverse users

Instagram lägger till stöd för svar i sin Broadcast-funktion

Instagrams envägsmegafonfunktion Broadcast blir nu lite mindre enväg. Nu kan den som använder Broadcast välja att aktivera svar så att den som följer kanalen kan svara på inlägg – och varandra. Precis som vanliga Insta-inlägg, alltså.

Broadcast är funktionen där användare kan kabla ut inlägg till alla sina följare, som då dyker upp som en meddelandenotis och inte bara ett inlägg som kanske eller kanske inte visas i följarens flöde. Den tänkta målgruppen var användare med stora följarskaror – vilket också var anledningen till att det inte gick att svara på ett inlägg som lades ut den vägen.

Nu kan man som användare själv välja att aktivera funktionen, vilket förmodligen är en kombination av användarönskemål och att Instagram gärna ser att fler börjar broadcasta.

Instagram broadcast channels now let you reply to prompts

TikTok

Domstol ger grönt ljus till lagen som inom kort kan förbjuda TikTok i USA

Idag var en VÄLDIGT dålig dag för TikTok. En domstol avfärdade TikToks överklagande av den lag som om lite över en månad kan förbjuda TikTok i USA.

Recap: I våras klubbade USA en ny lag som förbjuder alla tjänster som kontrolleras av “fientligt inställda stater”. Som av en ren händelse är TikTok den enda tjänsten som namnnges i lagen. En lag som innebär att moderbolaget Bytedance måste säkerställa att TikTok klipper alla band med Kina och därmed allt kinesiskt inflytande.

För att åstadkomma detta måste Bytedance göra sig av med TikTok. Sälja den till någon annan. Vi kan anta att det i praktiken ska vara ett amerikanskt företag som tar över. Om så inte sker så väntar förbud.

Klockan började ticka når Joe Biden skrev under lagen. 9 månader till deadline. Den dagen infaller 19 januari.

Det är dagen innan Donald Trump svärs in som USA:s näste president.

Läget är mycket som 2020, när Donald Trump först försökte förbjuda TikTok, men stötte då på patrull i domstolar När Biden tog över så skrotades Trumps presidentorder som skulle tvinga fram försäljning om TikTok inte ville bli förbjudna i USA.

Det borde alltså vara dåliga nyheter för TikTok, med tanke på att Trump nu blir landets president igen. Men en sak som har ändrats sedan 2020 är att Trump nu inte alls vill förbjuda TikTok. Han har kommit på att han ogillar Meta mer än TikTok – eftersom Mark Zuckerberg hjälpte demokraterna att stjäla valet 2020 [sic!] Försvinner TikTok så får Schmuckenberg ännu större kontroll över amerikaners sociala medier-liv.

Att en av Trumps backare också har investerat i Bytedance är givetvis en ren slump.

Men Donald Trump är inte president 19 januari – det är Joe Biden. Det som kan rädda TikTok (vad det verkar just nu) är en av två saker – eller båda. Den ena är att det lär bli en fråga för USA:s högsta domstol och att förbudet därför skjuts upp till dess att domstolen kan titta på frågan. Den andra är att lagen ger tjänster som bedöms vara kontrollerade av de där fientliga makterna en möjlig förlängning på ytterligare tre månader för att hinna få en affär i hamn.

TikTok har alltså ytterligare tre månader efter januari att försöka upphäva lagen på något sätt. Mest sannolikt därför att högsta domstolen kommer fram till att lagen bryter mot USA:s författning, mer specifikt kring det första tillägget om yttrandefrihet.

Men de tre månaderna gör att frågan trillar över i Trumps knä. Så ironiskt nog så kan mannen som överhuvudtaget drev fram frågan om förbud mot TikTok nu kan kan bli tjänstens räddare.

Däremot är det oklart vad Trump faktiskt kan göra. Lagen är klubbad enligt konstens alla formella regler och därmed inget som Trump kan upphäva. Det blir dessutom jobbigt för de republikaner som röstade för lagen och som nu vill hålla sig väl med Trump.

Sista kapitlet i TikToks USA-turné är alltså inte skrivet. Men det är allt mindre sand kvar i timglaset.

Court ruling clears the way for US TikTok ban

LinkedIn

LinkedIn slutar visa profilbesökare i appen?

En ny feature i LinkedIn-appen: slut med visningar av profilbesökare i appen.

Ja, åtminstone hos mig. Men jag misstänker att förändringen, som kom i samband med en uppdatering, är en klassisk LinkedIn-bugg. Särskilt som jag fortfarande som tidigare kan se åtminstone några av profilbesökarna som gratisanvändare på webben.

Men hade jag varit konspiratoriskt lagd så hade jag kunnat börja spekulera i att LinkedIn hittar på profilbesökare bara för att lura in fler att börja betala för Premium. De där profilbilderna ser VÄLDIGT snarlika ut.Bluesky når 24 miljoner användare

Dags för veckans Bluesky-siffra. FKA Twitter-utmanaren har nu nått 24 miljoner användare.

Ni vet vad det innebär. Meta kommer därmed inom kort gå ut med hur många nya användare Threads har fått senaste veckan. Ja, eller snarare droppa ännu en siffra som visar att Threads fått fler nya användare på kort tid än vad Bluesky har totalt.

The Big Interview: Jay Graber on Bluesky 2024

Övrigt sociala medier

Regeringen kan överväga förbud mot sociala medier för barn

Japp. Där kom den. Som väntat. Tog nästan länge tid än jag trodde.

https://www.aftonbladet.se/nyheter/a/5EyGoK/sverige-kan-folja-australien-oppnar-for-sociala-medier-forbud

Sverige kan följa Australien – öppnar för sociala medier-förbud

Truth Social fick ingen Trump-boost efter valet

Nya siffror från Truth Social – Donald Trumps egen sociala plattform. Ja, eller ny uppskattning från extern källa åtminstone. Appaanalysföretaget Apptopia konstaterar att tjänsten nu har 355 000 dagliga användare. 3 % fler än för en månad sen.

Trumps vinst i det amerikanska valet har med andra ord inte gett något jätteuppsving – även om det kanske är för tidigt att dra några definitiva slutsatser redan nu.

Trump själv är – förstås – Truth Socials största stjärna. Men hans följarbas i den egna tjänsten är 400 gånger mindre än den är på X. Den plattform där han inte längre är aktiv (undantaget några inlägg då och då). Vi kan med andra ord anta att han VÄLDIGT gärna skulle vilja hänga mer på X, men kan inte för han då skulle underminera sin egen tjänst. En tjänst som lär stå och falla med Trumps närvaro.

En annan utveckling sedan valet är däremot att de båda Twitter-alternativen Threads och Bluesky har rusat i antal användare efter valet. Också lite för tidigt att säga om användningen av dem kommer att hålla i sig över tid, men vi kan anta att användarna till största del kommer från X.

Med andra ord: trots att Trump vann en rätt stor jordskredsseger i valet så ser de två tjänster som finns i centrum för Trumps hela hardcoresekt inte ut att ha gynnats.

Det är åtminstone ett litet ljus i tunneln. Även om det kan vara väldigt långt bort just nu.

Trump’s policy posts on Truth Social fail to improve traffic

 

Sök/SEO

Googles sök kommer att förändras i grunden 2025 – enligt Google

”Nästa år! Då jäklar händer det grejer i Googles sökfunktion! Som… jättestora grejer! Ni kan aldrig ana vad som händer sen!”

Sundar Pichai says Google Search will change profoundly in 2025

 

Detaljhandel/e-handel

Perplexitys shoppingfunktion visar sig vara svajig

En av de AI-kopplade funktioner som har fått mest uppmärksamhet senaste tiden är när AI-sökmotorn Perplexity rullade ut sin shoppingfunktion. Få shoppingrekommendationer och köp sedan produkterna direkt – utan att lämna Perplexity. Men det finns bevisligen barnsjukdomar. Och kanske större utmaningar för att få det att flyga.

Nu har Techcrunch testat funktionen och det visar sig att den i stort handlar om skrapande av webbplatser och sedan en botlösning som gör beställningen åt dig.

Det är kort sagt precis som AI-agenter är tänkta att fungera. Du kan ge dem i uppdrag att lösa uppgifter och så gör boten sedan jobbet åt dig. Som att att leta upp en produkt som du är ute efter och sedan köpa den.

Nu är det fortfarande bara tidigt för just den här typen av AI-lösningar, så förväntningarna bör därför läggas på rimliga nivåer. Det verkar inte minst gälla Perplexitys lösning.

När Techcrunch har testat så sker betalningen till Perplexity och inte till den handlare man köper från. Perplexity tar alltså pengarna från dig och knallar sedan vidare till butiken och lägger sedan ordern åt dig. Så långt inga konstigheter. Men det leder till frågor kring såväl säkerhet och integritet som vad som gäller exempelvis för frågor kring konsumentköpsskydd och garanti.

Men det visar sig dessutom att det tog upp till 8 timmar att få bekräftelse på ett gjort köp. Det verkar alltså som att köpet inte görs när man tror att det görs – utan en bra stund senare. Kanske inte heller ett jätteproblem – om hela upplägget med skrapning av sidor och fördröjning av köper leder till att en produkt hinner sälja slut. Vilket också drabbade Techcrunch när de testade, när de även då efter en lång fördröjning kom besked om att köpet inte kunde genomföras.

Det finns kort sagt en anledning att Perplexity vill få ombord handlare i deras nyligen sjösatta handlarprogram à la Googles Merchant-upplägg. Att säljare alltså kopplar produktkataloger och saldon till Perplexity via API. Perplexity lockar med att det också leder till högre synlighet bland rekommendationer som ges av tjänsten. Vilket i praktiken såväl gör att rekommendationerna blir mindre objektiva och att de de factor är annonser (även om handlarprogrammet i dagsläget är kostnadsfritt för att få ombord företag).

Det finns kort sagt en hel del frågor kvar att lösa. Och det är ännu ett bevis på hur företag som Google har en jättefördel jämfört med de mindre spelarna. Ja, de mindre kan vara vassare och mer innovativa, men Google har användarna och infrastrukturen. Det räcker långt. Särskilt som de kan kopiera sig till det som företagen längst fram hittar på.

The race is on to make AI agents do your online shopping for you

 

AI – artificiell intelligens

ChatGPT får dyrare Pro-abonnemang och språkmodellen o1 blir skarp

Igår öppnade Open AI den första luckan i sin Shipmaskalender (med det oortodoxa antalet 12 luckor). Bakom varje lucka kommer dölja sig en produktnyhet eller en demo av något. Först ut: ett nytt abonnemang och skarp språkmodell.

Tidigare i år började en enkät cirkulera där Open AI sonderade terrängen kring ett betydligt dyrare ChatGPT-abonnemang. Det verkar som att Open AI fick tillräckligt många positiva svar för att gå vidare med den idén – för nu kompletteras abonnemangsfamiljen med Pro. För 2000 dollar i månaden.

Vad får man då för sin månadskostnad på över 20 000? Obegränsat. Ja, obegränsad användning av språkmodellerna o1 och GPT-4o, samt av ChatGPT:s hyfsat nysläppta avancerade röstläge. Dessutom får man en mer kraftfull version av o1: o1 Pro Mode.

Och på tal om o1 så släppts den resonerande medlemmen i Open AI:s språkmodellsfamilj nu skarpt, efter att ha varit i ”preview” sedan den släpptes.

OpenAI’s O1 reasoning model and ChatGPT Pro tier are now available

ChatGPT används nu av 300 miljoner användare varje vecka

ChatGPT fortsätter att tuffa på. Så pass att tjänsten nu har passerat en ny milstolpe. Totalt 300 miljoner använder nu ChatGPT varje vecka. De 300 miljoner användarna skickar 1 miljard meddelanden varje dag.

Tillväxttakten ökar dessutom. Det tog ChatGPT ett år att gå från 100 miljoner till 200 miljoner. Men bara tre månader att ta klivet från 200 till 300.

Vi kan tänka att det inte kommer göra Elon Musk på särskilt gott humör .Eller få honom att lägga mindre tid och energi på att sätta stopp för Open AI:s planerade omställning till fullt ut vinstdrivande företag nästa år.

OpenAI Surpasses 300 Million Weekly Active Users

Open AI överväger annonser i ChatGPT

Dagens icke-nyhet: Open AI överväger annonser som ett nytt intäktsben.

Det beskedet lämnar Open AI:s CFO i en intervju med Financial Times. Och, ja, det har nog de flesta sett som något som mest är en tidsfråga. Google och Perplexity testar redan annonser i sina respektive AI-sökfunktioner.

Det vi ännu inte vet är hur annonser på ett bra sätt kommer att fungera här. Både sett från användarperspektiv och annonsörsperspektiv. Särskilt som det som många som föredrar exempelvis Perplexity före Google indirekt ofta lyfter fram som fördel är avsaknaden av just annonser. Att det alltså är svar som inte är “köpta” och ett gränssnitt som inte är belamrat med reklambudskap som man måste slaloma sig igenom.

Samma sak gäller även de som nu hyllar Twitter-ersättaren Bluesky: inga engagemangsfiskande algoritmer.

Det man glömmer i de här sammanhangen är att de flesta AI-tjänster i praktiken är betaltjänster. Om man så vill så betalar man för att slippa annonser (ja, eller så får man även annonser – som verkar vara fallet för Perplexity).

Bluesky har däremot vare sig annonser eller betalabonnemang än. Men å andra sidan lever den tjänsten helt på lånade pengar. Det finns med andra ord ingen affärsmodell som skissar upp hur Bluesky ska klara sig över tid, utan riskkapitalpengar.

Risken är med andra stor att de här tjänsterna kommer att bli mer och mer som Google, Meta och de andra annonsfinansierade tjänsterna om inte allt för lång tid. Och då få de mekanismer som finns för att driva just annonsvisningar.

OpenAI looks to add advertising to artificial intelligence products, CFO tells FT

Open AI släpper en julkalender bestående av nya funktioner

Ha! Julkalender från Open AI: Shipmas.

En julkalender som bryter mot traditionen genom att bara ha 12 luckor. Från och med i morgon 5 december så kommer ChatGPT-ägaren att bjuda på en produktnyhet om dagen.

Enligt det sedvanliga källorna med insyn så kommer det innebära att vi får se Open AI:s videoskaparverktyg Sora och “en ny resonerande modell”. Det sistnämnda skulle i sin enklaste form innebära att vi får en skarp version av o1. Och/eller kanske ett ännu vassare storasyskon till den som nu finns ute.

Oavsett. I morgon drar det igång. 12 AI-nyheter under lika många dagar, alltså.

OpenAI announces 12 days of Shipmas, teases Sora and O1 reasoning model

Kategorier
AI - Artificiell intelligens Allmänt digitalt IoT - internet of things Mobilt Spaningar

Digitala spaningar vecka 48 – del 3

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

ElevenLabs släpper en egen AI-podcastfunktion

Dags för AI-röstskapartjänsten ElevenLabs att göra en Google. De släpper nu en egen NotebookLM: GenFM.

Ja, eller de har nu sjösatt poddskaparfunktionen som fick alla att ooaa och aaaaha över Googles AI-anteckningsboktjänst.

Upplägget är i praktiken ganska exakt som i Googles tjänst. Ange en källa – som kan vara text, dokument eller en Youtube-länk – och låt sedan ElevenLabs skapa ett poddavsnitt med två ”personer” som diskuterar källan. Än så länge dock bara i företagets iOS-app. Android-versionen ska vara på gång.

GenFM slår NotebookLM:s poddfunktion i några grenar. ElevenLabs skakar fram två röster ur en pool av ett dussin, vilket gör att det inte alltid är samma två som hörs. Och medan NotebookLM kan förstå innehåll från en drös språk så kan ”poddvärdarna” bara prata amerikansk engelska. ElevenLabs har stöd för 32 språk.

Men efter mitt snabba test så kan vi konstatera att Google ligger rätt långt före ElevenLabs i en annan disciplin: hur mänskliga och naturliga rösterna och samtalet låter och känns. ElevenLabs röster känns betydligt mer livlösa och samtalet känns betydligt mer som uppläsning av texter isolerade från varandra än en levande diskussion.

Med det sagt så är resultatet från ElevenLabs absolut inte dåligt. Det är med andra ännu en tjänst och funktion som kan driva den här sortens funktionalitet framåt.

ElevenLabs’ new feature is a NotebookLM competitor for creating GenAI podcasts

Claude kan tränas på ditt eget sätt att skriva

ChatGPT-utmanaren Claude får fler möjligheter att välja hur du helst vill att den ska kommunicera med dig. Eller mer specifikt: hur den ska skriva.

Det blir nu möjligt att ställa in hur Claude ska svara i olika sammanhang, som kort och koncist, förklarande eller formellt. Men du kan även träna den på andra stilar. Som dig själv.

Om du laddar upp textprov på hur du skriver så kan det läggas till som en anpassad stil som Claude ska utgå från när den svarar. Så det kan alltså bli svårare för andra att avgöra när du har varit lat och låtit Claude göra jobbet.

Claude får alltså ungefär samma förmåga som finns hos konkurrenterna. Men det är också ett tecken på hur AI-botarna kommer att utvecklas framåt, när de bli ännu mer personaliserade. Så att de alltså kan välja rätt tonalitet vid rätt läge – även när du kommunicerar kring saker som att göra inställningar i ditt uppkopplade hem.

Anthropic says Claude AI can match your unique writing style

Elon Musks AI-bolag kan släppa fristående ChatGPT-utmanare

Hur går det för Elon Musks ChatGPT-utmanare Grok? Det känns som att det går.. sådär. För ett par veckor sedan började X testa en gratisversion av boten – och nu kommer uppgifter om att xAI kan släppa en fristående konsumentapp.

En som bara handlar om att kunna kommunicera med Grok, på samma sätt som AI-apparna från bland annat ChatGPT- och Gemini-apparna.

Grok är i dagsläget bara tillgänglig för den som betalar för X Premium. Dessutom bara för de som betalar för det dyraste abonnemanget. Gissningsvis har Grok varit betydligt sämre att locka nya betalanvändare än vad X hade hoppats på. Och låg användning gör dessutom att X får sämre möjligheter att träna Grok.

Nu kanske det blir så att Musk frikopplar Grok från X, vilket känns logiskt av tre skäl: FKA Twitters varumärke är i mångt och mycket kört i botten, Musks AI-bolag xAI är tvärtom en stigande stjärna och Musk behöver visa både befintliga och framtida investerare om att de över 10 miljarder dollar som har hällts in i xAI så här långt ger utlovad utväxling.

Vi får se hur det blir med en Grok-app. Och hur det går om den blir verklighet.

Känns som att det krävs rätt mycket mer än bara en app för att få folk att vilja hänga med Grok istället för med någon av konkurrenterna.

Elon Musk’s AI company may release a consumer app

Nvidia släpper en egen AI-musikskapare

Efter Suno och Udio (ja, plus några till) så är det nu dags för världens största börsbolag att kliva in i arenan: Nvidia har nu släppt en egen AI-musikskapartjänst: Fugatto.

Det är med andra ord en lösning som kan skapa musik från en textbeskrivning. Tjänsten kan även sy ihop befintligt material om man laddar upp text- och ljudfiler.

Däremot verkar Fugatto – vad jag kan se – ännu inte finnas tillgänglig för allmänt bruk. Det återstår kort sagt att se om, när och hur Fugatto kan lanseras som produkt för normala slutanvändare.

(Och ja: Fugatto är en förkortning för ett jättelångt techkrångligt namn. Men det är ännu ett fall när jag tror att förkortningen kom först.)

Now Hear This: World’s Most Flexible Sound Machine Debuts

1 miljon Bluesky-inlägg AI-skrapade – trots att Bluesky säger att de inte tränar på användarnas innehåll

Twitter-alternativet Bluesky har i mångt och mycket positionerat sig som inte bara ”inte-Twitter” utan också ”inte-andra-sociala-medier”. Kort sagt mindre jakt på engagemang.

De har också gått ut med att de inte kommer att träna AI-modeller på användarnas innehåll – till skillnad från de stora sociala plattformarna (utom här i EU – där lagstiftning sätter käppar i hjulen). Men trots det så har 1 miljon Bluesky-poster nu använts för detta ändamål.

Fast inte av Bluesky.

Här har vi kort sagt ännu en utmaning för Bluesky i ljuset av plattformens explosionsartade tillväxt just nu: hur ska företaget och tjänsten hantera när externa botar skrapar tjänsten efter innehåll att träna sina AI-modeller med?

One million public Bluesky posts scraped for AI training

 

IoT – internet of things

Apple får patent på kamerateknik som identifierar människor utan ansiktsigenkänning

För några år sedan – innan alla började prata AI precis hela tiden – så dök det upp AI-teknik inom ett område som mest hörde hemma i polisiära sammanhang. Men också saker som skulle vara lämpliga för diktaturer (inte oväntat var Kina långt framme här): teknik för övervakningskameror som kan identifiera människor utan ansiktsigenkänning.

Det kan handla om andra unika saker i vår fysiologi. Som hur vi går. Så att även någon som skyler sitt ansikte kan identifieras kameravägen.

Och, ja, det gav förstås upphov till ramaskri av integritetsanledningar. Inte minst som att det här skulle kunna göra det enklare att övervaka en befolkning samtidigt som risken för felmatchning skulle kunna vara stor.

Nu har det företag som ironiskt nog målat upp sig själva som den främsta integritetsförkämpen bland de största techbolagen fått patent på precis det här: teknik som kan identifiera individer utan ansiktsigenkänning.

Här kan vi ha en lång diskussion om vad det skulle kunna innebära på riskområdet. Men jag fokuserar på en helt annan detalj: vilken pryl som tekniken ska användas till enligt patentansökan: en övervakningskamera.

Och varför jag lyfter det är för att det är den tredje indikationen på lite mer än en vecka på att Apple håller på att rampa upp för ett antal prylar som specifikt är avsedda för att användas i våra uppkopplade hem. Stationära prylar som inte är datorer eller ännu en Homepod, alltså.

Ryktena som florerar pekar dessutom på att vi kan se de första skarpa produkterna redan i början av nästa år.

2025 kan alltså bli året när Apple vill göra våra hem till sitt nya, stora framtidsförhoppningsområde på hårdvarusidan.

Apple Wins Patent for Security Camera Technology That Identifies People Without Facial Recognition

 

Mobilt

Enklare att söka på webben med ChatGPT i iPhone

Ett litet men sannolikt bra och välkommet tillägg för den som vänder sig till ChatGPT istället för att Google för att, tja, inte-googla. Söka på webben via ChatGPT, alltså.

Nu har Open AI lagt till en SearchGPT som en genväg i iOS. Det går alltså att direkt öppna ChatGPT i sökläget.

En rätt liten detalj i det stora hela, men samtidigt också ännu ett steg mot att få in den senaste vågens AI-tjänster som en självklar och integrerad del i våra prylar och tjänster.

Ännu mer av den vara blir det i samband med iOS 18.2 – som ska släpas i december. Om inget oförutsett händer jämfört med den beta som nu är ute så kommer det bli möjligt att be Siri att använda ChatGPT för att svara på en fråga. Man måste alltså inte vänta och se om Siri känner för att svara på frågan själv eller om den vill tagteama in ChatGPT.

OpenAI Adds SearchGPT Option to Apple’s Shortcuts App

Huawei presenterar sitt alternativ till iOS och Android

I veckan var det dags för kinesiska Huawei att lansera sina senaste mobilmodeller (som i mitt tycke har hiskeligt fula kameraklumpar, men det är jag det). För mig som iOS-användare är det en rätt ointressant händelse. För de flesta andra här hos oss också sannolikt, eftersom modellerna lanseras i Kina (jag har dålig koll om kan kommer/kan släppas på andra ställen).

Men det finns ändå en sak här som är relevant i ett större sammanhang: lanseringen av de nya modellerna innebär också att Huawei sjösätter sitt eget mobiloperativ.

Ja, eller sin nya operativ, rättare sagt. När Huawei svartlistades av USA för några år sedan och därmed tappade tillgången till Google-Android, alltså den version av Android som Google utvecklar, komplett med Googles tjänster.

Det fick Huawei att i panik kasta ut ett hemmasnickrat operativ som byggde på ”vanliga” open source-Android. Men utan Googles appar och tjänster så var Huaweis mobiler döda utanför Kina. Och företagets mishmash-Android blev ingen större succé.

Det som nu lanseras är ett helt hemmabyggt operativ för Huaweis mobiler. Utan någon som helst Android-kod.

Det lär… inte få fler att köpa mobilerna utanför Kina – om de någonsin släpps här. Eftersom Googles tjänster fortfarande saknas. Plus att apparna för Huaweis mobiler måste byggas på annan teknik.

Men i Kina kan läget vara annorlunda.

Den kinesiska regimen har gått ut med rätt starka… rekommendationer att man ska köpa närodlat. Kinatillverkat, alltså. Och i takt med att landet har stängts ute allt mer från andra delar av den globala gemenskapen – inklusive det som följt av att Kina har valt att i praktiken stötta Ryssland i Ukraina-kriget – så har den inhemska nationalismen också stigit.

Huaweisk operativ skulle med andra ord kunna ha chans att lyckas med det som ingen annan så här långt har fått till: kunna utmana Google och Apple. Inte minst om Huawei skulle få andra kinesiska mobiltillverkare att hoppa på Huaweis operativ.

Visst. Det är en enda marknad vi pratar om. Men en marknad som inrymmer runt 16 % av Jordens befolkning.

Huawei launches its Android-free OS

 

Övrigt

Elon Musk siccar sina fanboys på tjänstemän i USA:s statsapparat

Elon Musk fortsätter sin egen kaninhålskapplöpning mot botten. Senast ut: han hänger ut namnen på tjänstemän i USA:s federala statsapparat som han vill sparka när han blir Trumps effektiviseringschef. Väl medveten om att han därmed siccar alla sina fanboys på de personerna – och minst en av tjänstemännen har redan fått dödshot som följd.

Vi pratar alltså om mannen som stängde ned Twitter-kontot som spårade hans privatjet med motiveringen att den var ett hot mot Musks personliga säkerhet och att den typen av doxxande är förbjuden på plattformen.

Igår klubbade Australien en lag som förbjuder barn under 13 år att ha sociala medier som Instagram, TikTok och Snapchat för att skydda deras mentala hälsa. Det känns betydligt mer relevant med andra slags förbud. Där människor som Elon Musk inte anses som vuxna nog att ha tillgång.

För både deras och andras (mentala) hälsas skull.

Elon Musk publicized the names of government employees he wants to cut. It’s terrifying federal workers

lon Musks AI-bolag ska börja göra spel

Kommer ni ihåg X? Tjänsten som en gång i tiden hette Twitter innan Musk tog över och gjorde den till ett högertosseträsk? Det verkar allt mer som att Musk själv verkar glömma bort den. Eller åtminstone tappar allt mer intresse för den – eftersom det tydligen var svårare än raketvetenskap. Bokstavligen.

Istället är det AI-bolaget xAI som Musk nu tycker är kuligast.

I veckan visade det sig att Musk har hittat ett nytt område att woke-rasa över: spelindustrin. Så nu ska xAI börja göra spel. ”Make games great again” som han helt random sammanfattar det.

Och eftersom vi pratar om Musk så kommer det förmodligen besked om att det släpps nästa år. För att sedan i verkligheten landa om fem år.

Elon Musk Says xAI Will Start an AI Game Studio ‘To Make Games Great Again’

Apples sneakeremoji blir riktiga sneakers

Ha! Design by emoji…

You can now wear Apple’s running shoe emoji

Kategorier
AI - Artificiell intelligens Allmänt digitalt AR/VR Ekonomi och finans IoT - internet of things Spaningar

Digitala spaningar vecka 47 2024 – del 3

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Teams gör det möjligt att prata på andra språk med din egen röst under möten

Dags för Teams att lägga till en ny översättningsfunktion. Ja, eller det är dags ”i början av 2025”. Då rullar Microsoft nämligen ut ”tal-till-tal-realtidsöversättning”.

Vad betyder då det här? Att Teams får lite HeyGen-iga funktioner. Det blir alltså möjligt att få det du säger realtidsöversatt till ett annat språk. Men du kan träna Teams med din egen röst, så att du låter som du även när du pratar ett annat språk.

Till att börja med är det inte oväntat bara några av de största språken som omfattas av översättningsfunktionen. Närmare bestämt engelska, franska, tyska, italienska, japanska, koreanska, portugisiska, mandarin och spanska.

Som nära nog alla AI-funktioner numer så måste man betala för att få tillgång. I det här fallet måste man ha en 365-prenumeration.

Med tanke på att EU tvingade Microsoft att bryta loss Teams från den vanliga 365-prenumerationen så blir det intressant att se hur den här tajta koppplingen lirar med det.

Microsoft will soon let you clone your voice for Teams meetings

ChatGPT:s avancerade röstläge kommer till webben

Kan du inte få nog av ChatGPT:s avancerade röstläge? Nu kan du använda det på ännu ett ställe: i webbläsaren. Läget funkar alltså inte längre bara i appen.

Funktionen är fortfarande vara för de betalande användarna, men funktionen ska komma även till gratisanvändarna ”de närmaste veckorna”. Röstläget har en begränsning per dag för de som betalar för Plus eller Education.

Det intressanta är dock att Open AI inte anger hur mycket tid det handlar om per dag. Bara att det finns ett dagligt tak, att tjänsten kommer att varna när man bara har 15 minuter kvar av sin dagliga kvot och att den dagliga kvoten ”kan komma att ändras”.

Oklart om det kan bli förändring uppåt eller nedåt, men det verkar oavsett som att Open AI vill ge sig själv lite svängrum. Med andra ord kanske det kommer handla om ”dynamisk tilldelning”. Att det kan ändras nästan dag till dag, exempelvis baserat på hur många som använder tjänsten en viss dag.

Gällande gratisanvändarna så kommer de få tillgång till en ”månadsförhandsvisning för att testa funktionen”. Med andra ord är det att ta i att säga att gratisanvändare kommer att få det avancerade röstläget. Det ser bara ut att handla om en kostnadsfri demoversion som lär ha rätt lågt tak.

OpenAI brings ChatGPT’s Advanced Voice Mode to the web

ChatGPT blir bättre på att skriva och hantera filer

Är ChatGPT din bästa skrivkompis (ja, eller låter du skriva allt åt dig så att du slipper)? I så fall kan du glädjas åt att ChatGPT nu har vässat sin förmåga att skapa just text.

ChatGPT (eller om vi ska vara petiga den GPT-4o-teknik som driver tjänsten) har fått ett lyft när det gäller förmågan till ”kreativt skrivande”.

Enligt Open AI så ska ChatGPT nu kunna skriva ”mer naturligt, engagerande och anpassat för att förbättra relevans och läsbarhet”.

Dessutom ska ChatGPT ha blivit bättre på att arbeta med filer och då ge ”djupare insikter och mer genomarbetade svar”.

Lyftet gäller alltså just GPT-4o. Så kör du någon av de andra modellerna som går att välja på, som GPT-4 Turbo eller o1, så lär du inte få de senaste förbättringarna på skrivområdet.

ChatGPT blir bättre på kreativt skrivande och att hantera filer

ChatGPT:s avancerade röstläge kan snart lära sig att se

Ännu ett intressant – om än inte oväntat – fynd i kodgrävande i ChatGPT-appen: Live camera.

Och, ja, det är det vi vet.

Okej, vi vet några saker till. Som att det också finns en text som säger ”Tryck på kameraikonen för att låta ChatGPT se och chatta om din omgivning” samt att funktionen inte ska användas för ”realtidsnavigering eller beslut som kan påverka din hälsa eller säkerhet”.

Och det kanske mest intressanta: kodraderna finns tydligen i den del av appen som hanterar ChatGPT:s avancerade röstläge. Med andra ord att ChatGPT snart kan lära sig att realtidsse medan du realtidspratar med den.

Det här kan kännas bekant för alla som såg Open AI:s produktnyhetsevent i våras. Då presenterades precis den här funktionen. Sedan dess har det dock varit rätt knäpptyst. Nu ser det ut som att den säkert inte är särskilt långt borta.

ChatGPT’s Advanced Voice Mode could get a new ’Live Camera’ feature

Open AI överväger att ta fram en egen webbläsare

Känner du att du inte är tillräckligt inbackad i ChatGPT-hörnet? Nu kan du bygga en ännu högre mur! Open AI överväger ett nytt produktben: en egen webbläsare.

Och… det är ungefär det vi vet. Baserat på uppgifter från de sedvanliga källorna med insikt, via The Information.

Det verkar dessutom ha gått så långt att företaget har visat upp prototyper och/eller designförslag. Men sannolikt rätt långt till dess att det finns en skarp produkt. Eller ens en testversion.

Men det märks att Open AI inser att de har en produkt som är rätt lätt att kopiera (ja, relativt sett) – något som redan har skett eftersom snart sagt vartenda stort techbolag har någon egen variant. Utmaningen för Open AI – jämfört med de absolut största jättarna – är att ChatGPT saknar ett större ekosystem att locka och låsa in användarna i.

Google, Apple, Meta, Amazon, Microsoft och andra har redan användartal som ligger långt över de som ChatGPT har. Och bekvämlighetsfaktorn är stark i oss människor. Så länge som saker är tillräckligt bra så kommer normalanvändaren till största del köra sånt som är inbyggt och förvalt.

Open AI och ChatGPT är just nu jättar inom den senaste AI-vågen. Men i det stora hela fortfarande rätt små och lätta att byta ut. Ingen slump att Open AI försöker bygga såväl infrastruktur som egen hårdvara. Och nu alltså kanske en egen webbläsare.

OpenAI considers taking on Google with browser, the Information reports

Open AI diskuterar integration i Samsung-mobiler

Open AI gör en… tja, Open AI.

Nu kommer uppgifter om att ChatGPT-ägaren diskuterar om AI-funktioner i Samsungs mobiler (ja, eller ”enheter”, så bredare än så). Och vad innebär det? Ja, det vet vi inte. Men det är inte omöjligt att det alltså handlar om det som Open AI har fått till hos Apple: den första, rätt djupt integrerade externa AI-chattboten i operativsystemet.

Det återstår att se hur det går här, men det låter helt rimligt.

Jag skrev tidigare i veckan om ett annat rykte: att Open AI överväger att ta fram en egen webbläsare. Lägg till att de i andra änden av spektrat också rampar upp sina ambitioner att bygga en infrastruktur långt bortom ChatGPT och företagets övriga tjänster mot slutkund.

Open AI försöker alltså bygga upp ett ekosystem på AI-området som ska göra företaget mindre utbytbart. Även om Open AI är en gigant inom den senaste AI-vågen så är de små spelare i det stora hela. Och har heller inte ett etablerat ekosystem utanför ChatGPT att luta sig mot.

Vi lär se Open AI ta fram produkter och tjänster som allt mer handlar om att bygga upp just den typen av nätverk av tjänster och kanske även hårdvara som ger företaget intäkter och användare – även om användandet går via någon annan.

OpenAI Talks to Samsung About AI Features, Strikes Search Deals With Apps

Perplexity lägger till transkribering från konferenssamtal vid kvartalsrapporter

Ännu en intressant funktion från AI-sökmotorn Perplexity: livetranskribering från konferenssamtal i samband med kvartalsrapporter.

När börsbolag redovisar sina kvartalsrapporter så följs de ofta av konferenssamtal där det finns möjlighet att ställa frågor till företagsledningen. Vissa sajter livebloggar under dessa samtal och texttranskriberingar från dem läggs för det mesta upp på det rapporterande företags sajt.

Men nu lägger Perplexity Finance (hade missat att Perplexity har varumärkesförpackat de finansiella sökresultaten) till livetranskriberingar av dessa samtal så att de blir finns i samband med övrig finansiell information om bolaget.

Ja, för världens största börsbolag Nvidia, åtminstone. De är först ut med den nya funktionen. Men planen är att funktionen ska omfatta ”stora aktier”, utan att vi i dagsläget vet riktigt vad det innebär.

En smart funktion i all sin enkelhet.

Perplexity launches live earnings transcripts for Nvidia

 

IoT – internet of things

Metas Ray-Ban-glasögon får AI-funktioner i EU

Ny uppdatering av Metas Ray-Ban-samarbete. Nu får glasögonen stöd för AI här i EU.

Det innebär att man kan röstaktivera Meta AI och sedan ställa börja prata med den. Språkmässigt kommer stöd för engelska, franska, spanska och italienska.

Vad vi däremot inte får är det multimodala stöd som finns på de marknader där tjänsten har varit utrullad sedan tidigare. Med andra ord att kunna ställa frågor om det man ser framför sig, som att be om information om ett landmärke.

Det kan hända att det inte är jättelångt innan vi får funktionen här i Sverige, eftersom Meta säger att ”de ser fram emot att bredda till fler europeiska länder snart”.

Meta brings certain AI features to Ray-Ban Meta glasses in Europe

Apple kan fundera på en egen tv-apparat

I förra veckan kom två hemma-rykten om Apple: att företaget dels är på gång med en ny ”hemmahubb” för att styra det uppkopplade hemmet och dels en egen övervakningskamera. Här kommer ännu ett rykte: Apple kan fundera på att ta fram en egen tv. En klassisk tv-apparat, alltså. Eller ”stor skärm” som man säger nuförtiden.

Hoppas verkligen att det blir verklighet. Det skulle innebära att man kan titta på Apple TV+ via Apple TV-appen i Apple TV på sin Apple TV.

Apple is reportedly thinking about making its own TV again

 

AR/VR

Microsoft gör det möjligt att använda Windows 11 i Meta Quest

ÄNTLIGEN!

Windows comes to the Meta Quest

 

Ekonomi och finans

Amazon investerar ytterligare 4 miljarder dollar i Anthropic

De största techbolagen håller inte bara på att för fullt skaka fram egna AI-lösningar som de kan dunka ut till sina användare, de plöjer ned jättebelopp i de AI-bolag som ligger längst fram just nu (åtminstone användarmässigt). Nu är det dags för ännu en sådan investering.

Det handlar om att Amazon stoppar in ytterligare 4 miljarder dollar i Anthropic, som står bakom AI-tjänsten Claude. Men Amazon hoppas inte bara därmed kunna dra nytta av Anthropics arbete, e-handelsjätten köper också till sig en ny tung kund till sin molnverksamhet AWS. Som del av villkoren för investeringen så kommer Anthropic göra AWS till sin primära plats för att träna sina AI-modeller.

De nya investeringen innebär att Amazon nu dubblerar sin satsning på Anthropic till 8 miljarder dollar. Det betyder dessutom att Amazon står för merparten av de 13,7 miljarder som företaget så här långt har plockat in.

Anthropic raises another $4B from Amazon, makes AWS its ‘primary’ training partner

 

Övrigt

Elon Musk fick oannonserat vara med i samtal mellan Donald Trump och Googles VD

Finns absolut inget som helst jävsförhållande här.

Musk joined call between Trump and Google CEO

Shazam har nu identifierat 100 miljarder låtar

Ännu en sån där galen siffra. Nu har Apple-uppköpet Shazam identifierat totalt 100 miljarder låtar. (Ja, det lär inte handla om 100 miljarder unika låtar, snarare att Shazams identifieringstjänst framgångsrikt så många gångar.)

Hur mycket är det jämfört med något annat you ask? Om en person skulle identifiera en sång i sekunden så skulle det ta 3168 år att komma upp i 100 miljarder.

Så nu vet ni det också.

Apple Announces Shazam Has Identified More Than 100 Billion Songs

Daisy – din AI-mormor som håller telefonbedragare upptagna

En AI-mormor som håller kvar telefonbedragare så att de får mindre tid att ringa mänskliga offer? Vi behöver många fler Daisy.

Meet ’Daisy’ an AI bot that wastes phone scammers’ time

Kategorier
AI - Artificiell intelligens Detaljhandel/e-handel Sök/SEO Spaningar

Digitala spaningar vecka 47 2024 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Sök/SEO

USA vill tvinga Google att sälja Chrome

Ryktet visade sig stämma. Nu måste Google sälja Chrome.

Ja, eller det är åtminstone så det blir om USA:s justitiedepartement DOJ får som de vill.

Den här begäran är en följd av den konkurrensrättegång mellan DOJ och Google som pågick fram till i början av hösten. Den där domslutet blev att Google har haft ett olagligt monopol kring sin sökverksamhet och att de har utnyttjat sin dominerande ställning för att slå undan benen på konkurrenterna.

Vi vet däremot fortfarande inte vad straffet blir för Google. Men vinnarsidan har nu alltså bestämt sig för vad de tycker är lämpligt: att Google måste kränga av sin webbläsare.

Google är, helt oväntat, inte helt nöjda över beslutet. I ett blogginlägg konstaterar de att det försämrar för konsumenter – eftersom ”beslutet skulle förstöra en rad Google-produkter även bortom sök”. Chrome som fristående produkt skulle bli mycket sämre än vad den är i Google-ägo och skulle även ”skada tjänster som Mozilla Firefox, som är beroende av Googles sök”.

Lite oklart exakt hur logiken ser ut kring det sistnämnda påståendet. Men hej.

Även om begäran att Google måste spinna loss Chrome är det mest långtgående i det som DOJ vill se som straff så finns det även ett antal andra åtgärder som myndigheten vill se. Som att Google ska förbjudas att ingå exklusiva sökavtal, som exempelvis att Google betalar för att vara förvald sökmotor i iOS.

(Som jag sagt förut, egentligen är det märkligt att Google straffas för att Apple – och andra, som Samsung, säljer den platsen. Men så blir det tydligen eftersom dessa inte var svarande i rättegången.)

Dessutom kräver DOJ att USA måste ”syndikera” sina sökresultat i USA till konkurrenter under det kommande årtiondet och att sajter ska ges alternativet att inte säga nej till att Google tränar sina AI-modeller på innehållet.

(Vilket förstås i princip går via robots.txt-filen, men eftersom det verkar som att AI-sökmotorn Perplexity har gett den interneturåldriga gentlemannaöverenskommelsen fingret så kan det här bli en fråga som kan aktualiseras på båda sidor om Atlanten framöver.)

Det är alltså en rätt dålig dag för Google. Men sista ordet är inte sagt. Ovanstående är DOJ:s önskelista. Som domaren i målet nu ska överväga. Och Google har redan gått ut med att de kommer att överklaga domen (beroende på vad straffet blir, kan tänkas. Det kan ju hända att Google kommer förhållandevis lindrigt undan).

DOJ: Google must sell Chrome to end monopoly

 

Detaljhandel/e-handel

Google gör det enklare att kolla priser i fysiska butiker med AI

Häromdagen rullade AI-sökmotorn en ny shoppingfunktion, som gör det möjligt att söka efter det man vill köpa och få upp rekommendationer på vad man skulle kunna köpa, var man kan köpa det och relevant information om produkten som rekommenderas (som för- och nackdelar). Nu är det Googles tur att uppgradera sitt shoppingerbjudande. För dem som handlar i fysisk butik, närmare bestämt.

Det handlar om att Google nu har byggt ut sin smarta kamera Lens.

Grundfunktionen i Lens är densamma som tidigare: peka mobilkameran mot något och låt Google söka upp svaret baserat på bilden. Som vem som har skapat ett konstverk eller var du kan köpa ett visst sorts plagg. Den nya funktionen bygger vidare på det sistnämnda.

Det nya är att du, när du har fotat en produkt, kan få upp förslag på liknande produkter i den fysiska butik som du tänker besöka eller befinner dig i. Du får också upp prisjämförelser för att se hur priset i den aktuella butiken står sig mot andra. Inklusive i onlinebutiker, som Amazon.

Sen finns det förstås en hög brasklappar kring funktionen.

Den finns, som så ofta när det kommer till nya AI-kopplade funktioner från techjättarna, än så länge bara tillgänglig i USA. Det fungerar bara för en handfull produktkategorier: skönhet, leksaker och elektronik. Och det det gäller inte för alla handlare – bara de som delar lokalt saldo med Google.

Google Lens can now check prices and inventory when shopping in the real world

Perplexity lägger till shoppingfunktioner

Perplexity går ännu en gång i Googles fotspår. Den här gången lägger AI-sökmotorn till shoppingfunktioner.

Mer konkret innebär det här att den som använder Perplexity kan be om att få shoppingrekommendationer och sedan kunna köpa en föreslagen produkt, direkt från sökresultatet. Utan att behöva passera e-handlarens sajt.

Rekommendationerna presenteras med basinformation om produkten och säljaren, en kort beskrivning och för- och nackdelar med produkten. Det ska även gå att trycka fram recensioner och ”detaljerade nyckelfunktioner”. Det går även att söka efter produkter med en bild.

Men inte bara det: det ska även gå att spara sina kortuppgifter direkt hos Perplexity för att sänka köptröskeln ytterligare. Rekommendationerna ska vara ”oberoende” (enligt Perplexity) och inte innehålla några sponsrade produkter.

Men Perplexity passar dessutom på att bygga upp lite infrastruktur kring den nya sökfunktionen genom lanseringen av ett program för säljare. De handlare som går med i programmet har en högre chans att förekomma bland de rekommenderade produkterna, kommer kunna visa mer fyllig information vid produkter som rekommenderas och det går även lägga till enklicksköp för dessa handlare.

Sist men inte minst ska handlare också få tillgång till ett API som gör att de kan använda Perplexitys sökmotor på sina egna sajter.

Det är ett oväntat drag från Perplexity – åtminstone att det kommer så snabbt. Det visar också att Perplexity hoppas att merchant-programmet ska bli ett nytt intäktsben. På gott och ont, efter som det ”oberoende” upplägget får sig en törn i kanten när det krasst talat handlar om att den som betalar får synligheten. Lite samma trovärdighetsproblem som kring Perplexitys uttalanden om att annonsörer inte kan påverka de frågor som de sponsrar.

Det finns med andra ord en del frågetecken. Men det är en intressant Google-kopiering från Perplexity.

För att överhuvudtaget få tillgång till funktionen så finns det just nu dessutom två grundkrav: dels att du bor i (eller VPN:ar dig till) USA och dels att du betalar för Perplexity Pro.

Så ja. Det är verkligen en personal shopper-tjänst.

Perplexity introduces a shopping feature for Pro users in the US

 

AI – artificiell intelligens

iOS 18.2 gör det möjligt att prata direkt med ChatGPT via Siri

Om några veckor är det dags för version 18.2 av iOS. Och då ser det ut som att det kommer en funktion som Apple inte har pratat särskilt mycket om (ja, eller inte alls?): möjlighet att prata direkt med ChatGPT via Siri.

När Apple presenterade det allmänna upplägget kring externa AI-chattbotar inom ramen för Apples egen AI-plattform så var dessa tänkta att användas om Siri inte kan svara själv på en fråga. Siri försöker först svara via den AI-modell som bor lokalt i enheten, räcker inte den så kan Apple ringa hem till en större AI-modell i Apples molntjänst och om inte heller det är nog kan frågan skeppas vidare till den externa AI-boten. Och i dagsläget är ”extern AI-chattbot” bara ChatGPT – även om fler lär följa.

Men om några veckor släpps iOS 18.2 och där visar det sig att man kan tvinga Siri att prata direkt med Open AI utan att försöka sig på att svara själv. Om man, när man har triggat igång Siri exempelvis via en knapp på sina Airpods, så kan man sedan säga ”Ask ChatGPT” för att frågan ska skickas direkt dit.

Och även de efterföljande frågorna skickas dit, utan att man måste säga ”Ask ChatGPT” varje gång.

Och betalar man för ChatGPT Plus så ska man den här vägen också kunna prata med ChatGPT:s avancerade röstläge den här vägen.

Så ja. Du måste fortfarande först trigga Siri och därmed gå omvägen via Apple först. Och det finns säkerligen de som redan har lagt in genvägar som gör det enklare att direkt dra igång ChatGPT. Men det ger en fingervisning om hur hur integrationen med externa AI-chattbotar kan fungera hos Apple. Och det sänker tröskeln för normalanvändare.

(Däremot är det fortfarande bara engelska som gäller till en bit in på nästa år. Och då kanske funktionen samtidigt också släpps här.)

iOS 18.2 makes AirPods more powerful than ever, here’s why

ElevenLabs lägger till stöd för att bygga röst-AI-agenter

Ännu ett företag släpper en AI-agent. Den här gången: text-till-röst-tjänsten ElevenLabs.

Ja, eller rättare sagt: ElevenLabs gör det nu möjligt för utvecklare att ta fram sina egna röst-AI-agenter. Kort sagt anpassade AI-lösningar som kan skräddarsys hyfsat mycket utifrån vilket behov man har.

Det innebär att man kan ställa in saker som agentens huvudsakliga språk, första meddelande och allmän systemprompt för att ”avgöra agentens personlighet”. Man kan också välja vilken språkmodell som agenten ska använda (Googles Gemini, ChatGPT eller Claude) och röstens tonalitet.

Det går också att ställa in ett antal andra saker, som vilken röst som ska användas, hur snabbt den ska svara och hur långt ett samtal max kan vara (för att därmed kunna påverka hur mycket API-pengar som konversationen ska bränna).

Men man måste inte bara förlita sig på de tre ovanstående modellerna, man kan även koppla in sin egen om man sitter på den. Botens ”kunskapskälla” kan också vara andra slags format, som filer, en URL eller en hög text.

Det ska även gå att ange vilken slags data som ska samlas in av boten. Som att den skulle kunna be om namn och mejl vid exempelvis kundtjänstanvändning.

Så med andra ord handlar tjänsten om möjlighet att hyfsat enkelt kunna koppla samman ett antal funktioner och tjänster under ett paraply och sedan låta Eleven Labs hantera själva röstinteraktionen.

ElevenLabs now offers ability to build conversational AI agents

Mistral släpper större språkmodell och nya AI-funktioner

Franska AI-bolaget Mistral har presenterat några – eller rättare sagt en mindre hög – nyheter.

Pixtral Large: En ny, stor språkmodell.

Webbsökning: Mistral (ja, eller mer korrekt chattboten Le Chat) lär sig söka på webben på samma sätt som de flesta konkurrenter.

Canvas: Le Chat får nu det som bland annat Claude och ChatGPT har: en yta bredvid själva textfältet där du kan se det som har skapats. Om du ändrar i din instruktion så kan du se förändringarna slå igenom direkt istället för att behöva scrolla ned för att se resultatet.

Bättre förståelse av dokument: Le Chat blir bättre på att förstå ”stora, komplexa PDF-dokument” och bilder, inklusive att förstå exempelvis diagram och tabeller.

Bildskapande: Le Chat lär sig skapa bilder genom att tagteama in funktionalitet från Black Forest Labs.

AI-agent: Klart att även Mistral måste ha med AI-agentnånting. I fransmännens fall handlar det om att det ska gå att spara ”arbetsflöden”, alltså kedjeuppgifter som man gör om och om igen (exempel som ges är ett automatiserat flöde för att skanna in utläggsrapporter och hantera fakturor.

Mistral has entered the chat

Google Gemini får minne

Gemini har lärt sig ännu en ChatGPT-förmåga: den minns. Och då inte bara det som finns i en specifik chattråd, utan mer allmängiltiga saker.

Precis som hos ChatGPT så kan man ge boten instruktioner att minnas saker som den alltid ska ha i bakhuvudet när den svarar. Exempel som ges är att boten ska komma ihåg att någon är vegetarian, och därmed inte tipsa om kötträtter, eller att någon bara programmerar i ett visst språk och att kodningsförslag alltid ska baseras på det.

Det verkar än så länge bara vara ”vissa” Gemini-användare som har fått tillgång till funktionen, men det ser ut som att den håller på att rullas ut. Däremot fungerar den intressant nog bara på engelska i dagsläget. Och finns bara i webbjänsten, inte i någon av apparna.

Ja, plus att du måste betala för den. Det är nämligen bara de som prenumererar på Googles One AI Premium-abonnemang som får tillgång. Åtminstone i dagsläget.

Google’s Gemini chatbot now has memory

Google låter Android-användare dela filer direkt med Gemini för AI-analyser

Ännu en intressant funktion från Google. Android-användare får nu ett snabbare sätt att låta Googles AI-bot Gemini analysera filer.

Det blir nu möjligt att ”dela” en fil direkt till Gemini från en app, istället för att först öppna Gemini och sedan manuellt ladda upp filen.

Med andra ord är det en rätt liten förbättring, men en viktig sedan. Den sänker tröskeln mellan Gemini och resten av Android och apparna där, vilket gör det enklare för fler att både upptäcka och använda Googles ChatGPT-utmanare.

Gemini Nano Access Expanded to All Android Apps; Google Reportedly Adds Direct Image Sharing Support

Gemini som AI-bot i iOS kan dröja till 2025

Hur går det med arbetet att lägga till fler AI-tjänster än ChatGPT i Apples AI-plattformspaket? Bra fråga! Som bara Apple vet svaret på. Men nu kommer uppgifter om att det åtminstone kan dröja innan vi får se Googles motsvarighet Gemini här.

När Apple i våras presenterade Apple Intelligence så presenterade Apple sin lösning där Siri kommer att bli första anhalt för AI-uppgifter och om Siri känner att det behövs hjälp på traven så kan ChatGPT tagteamas in.

Det lär finnas flera anledningar till att Apple har valt det här upplägget. Att Apple ligger efter i AI-racet lär hamna en bit ned i den listan. Betydligt högre upp lär finnas att minska risken för monopolanklagelser och att det, precis som platsen som förvald sökmotor i Apples operativ, kan bli en intäktsmöjlighet.

Att Apple-analytikern Mark Gurman nu har landat i slutsatsen att det kan dröja till 2025 är inte särskilt konstigt. Apple ser oavsett inte ut att ha fått alla Intelligence-funktioner (i en första version) på plats förrän en bit in på nästa år. Ingen idé att börja böka in fler externa tjänster innan man vet att grunden funkar.

Men en sak är interessant i Gurmans spekulation: att det kan finnas en annan anledning till att Gemini-integrationen dröjer. Att det beror på att Apple vill ge ChatGPT ett ”exklusivitetsfönster”.

Med andra ord att Open AI ska få äga den här marknadsföringsplatsen under en period innan den släpps på för andra. Och det… känns inte alls särskilt orimligt.

Inga pengar ska ha bytt händer i samband med Apple Intelligence-avtalet mellan Apple och Open AI. Istället är det en tänkt quid pro quo som kickar in: Apple får in den populäraste gen AI-tjänsten för att boosta sitt eget AI-initiativ och Open AI får alltså kostnadsfritt marknadsföra sig mot Apples miljardpublik. Men det är inte omöjligt att en exklusivitetsperiod kan ha varit ett krav från Open AI:s sida.

Uppgiften låter ännu rimligare i ljuset av att Open AI sägs kräva av sina investerare att de inte plöjer in pengar i konkurrenter.

Det återstår att se om vi får veta hur det egentligen ligger till här. Och när Gemini blir valbar som förvald, extern chattbot i Apples operativ. För det lär oavsett handla om ”när” och inte ”om”.

Google Gemini Integration With Apple Intelligence Reportedly Delayed to 2025

Kategorier
AI - Artificiell intelligens Ekonomi och finans IoT - internet of things Spaningar

Digitala spaningar vecka 46 2024 – del 3

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Googles Gemini-app på väg till iPhone

Ännu en AI-app på väg till iPhonen: Google Gemini.

Det är åtminstone en människa som enligt 9to5 Mac har lyckats installera Googles fristående AI-assistentapp i en iPhone via vanliga Appstore. Det kan med andra ord ha handlat om en oopsie eller ett sätt att börja småtesta bland en lite ut vald skara.

Oavsett så kan vi nog nu anta att Google rätt snart släpper appen för iOS så att den inte längre bara bor i Googles vanliga app för oss iPhone-användare. Och det kanske enskilt viktigaste med det: iPhone-ägare kan då använda Gemini Live – som är svaret på Open AI:s Advanced voice mode i ChatGPT. Ja, eller digitala (AI-)assistenter överlag, men ChatGPT:s vässade röstläge ligger närmast till hands som jämförelse.

Det ser också ut som att det betyder att det går att använda Gemini även om man hoppar ur appen. Att den alltså kan ”följa med” användaren – även om det förstås inte blir lite sömlöst som i Android.

Standalone ‘Google Gemini’ app spotted for iPhone with Gemini Live

Googles Gemini-app släppt för iOS

Ibland går det fort. I början av veckan skrev jag om att några användare lyckades installera Googles fristående Gemini-app för iOS. Och nu har den släppts skarpt.

Det betyder alltså att iOS-användare inte måste gå via Google-appen för att komma åt Gemini. Det innebär också att vi som kör iPhone kommer åt Gemini Live – motsvarigheten till ChatGPT:s avancerade röstläge, som ska ge ännu mer ”mänskliga” konversationer.

Ja, fast inte här hos oss ännu vad det verkar. Säkerligen en kombination av att svenska inte stöds än och att Gemini Live ännu inte finns i EU. Fast med tanke på att iOS-appen släpps även här så kan det vara ett tecken på att också vi kanske får funktionen rätt snart.

Googles Gemini Live kan få stöd för att förstå och hantera filer

Tidigare i veckan visade det sig att användare lyckades ladda ner en fristående Gemini-app i en iPhone innan appen drogs tillbaka (så sannolikt en oopsie, eller ett avgränsat test med dem som lyckades få ned appen). Det kan alltså vara så att Google inom kort planerar att släppa en Gemini-app för iOS (i dagsläget finns Googles ChatGPT-utmanare bara i vanliga Google-appen för Apples operativ).

Den största nyheten för iOS-användare skulle vara att de i så fall får tillgång till Gemini Live – Googles svar på ChatGPT:s avancerade röstläge. En röst-AI-assistent som ska gå att prata hyfsat obehindrat med. Och som går att föra en hyfsat normal konversation med.

Nu har kodgrävande hittat spår av en rätt stor uppdatering av just Live-funktionen som kan vara på gång: multimodalt stöd. Att Gemini Live alltså också kan hantera, läsa och förstå andra slags format. Som att ladda upp en fil och prata med Gemini om den.

Med andra ord det som bland annat Google själva har i sin NotebookLM-tjänst. Fast här med möjlighet att bokstavligen talat prata med Gemini om innehållet.

Till skillnad från Gemini-appen så är det inte alls säkert att den funktionen kommer till iOS samtidigt som till Android. Sannolikheten är nog väldigt hög att vi iPhone-användare får hålla oss till tåls lite längre – från när nu Google får för sig att överhuvudtaget lansera funktionen.

Google’s Gemini Live may let you talk to it about your uploaded files

X testar gratisversion av sin chattbot Grok

Hur går det för FKA Twitters AI-chattbot? Sådär kan vi gissa. Åtminstone med tanke på det senaste beskedet: X testar nu en gratisversion av sin Grok.

Grok har alltid bara funnits som del av X:s betalabonnemang. Dessutom bara det allra dyraste, Premium+ för 16 dollar i månaden om man betalar via webben. Men inte heller Grok verkar ha fått användarna att flockas till betalkontona, vilket i sin tur sannolikt också har gjort att användningen av Grok har varit begränsad. Och det lär i så fall ha gjort att Grok inte har fått träna så mycket som den behöver.

xAI, som är det Musk-bolag som formellt står bakom Grok, tog in runt 6 miljarder dollar i en finansieringsrunda tidigare i år och sägs redan vara på gång med en ny. Med tanke på att Open AI sägs gå 5 miljarder dollar back i år – en förlust som bedöms öka till uppemot 14 miljarder om två år – visar varför. Det kostar hiskeligt mycket pengar att träna och drifta AI-modeller. Och än så länge är intäkterna från dem långt ifrån i närheten av kostnaderna.

En anledning till att Grok nu sannolikt får en gratisversion (vars huvudsakliga syfte är att konvertera till betalversionerna, precis som för de flesta andra AI-tjänster som har gratiskonton) lär vara att pumpa upp användandet för att på så sätt göra det enklare att få in det kapital som behövs framåt.

X is testing a free version of AI chatbot Grok

Open AI vinner upphovsrättsmål mot två tidningar

En första och därmed sannolikt viktig dom. En domare har kastat ut en stämning från nyhetssajterna Raw Story och AlterNet, som båda anklagade Open AI för upphovsrättsbrott i och med att Open AI har tränat sina AI-modeller på sajternas innehåll. Open AI å sin sida hävdade ”fair use”.

Domaren valde med andra ord att gå på Open AI:s linje. Argumenten var att tidningarna inte kunde visa upp att de lidit skada och att det i de nuvarande versionerna av ChatGPT inte gick att återskapa situationer där Open AI:s tjänst ordagrant kopierade innehåll från de två nyhetsföretagen.

Nu återstår att se hur övriga rättegångar på ungefär samma tema slutar. Och om frågan kring upphovsrätt vs tränande av AI-modeller kommer att vandra hela vägen upp till USA:s högsta domstol (vilket jag tror). Plus att vi inte vet hur EU ställer sig än.

Men även om Open AI alltså nu har kammat hem en seger så är det inte säkert att det är fritt fram för AI-bolag att dammsuga sajter ändå. Problemet är just att allt fler innehållstunga sajter blockar AI-botar – och det börjar komma tjänster som ännu mer aktivt ska jaga AI-botar som försöker skrapa innehåll. Och utan innehåll så kan AI-bolagen inte träna sina modeller (språkmodeller i det här fallet).

Kort sagt: det ligger i AI-bolagens överlevnadsintresse att modeller kommer på plats som gör att innehållsskapare kan ersättas för sitt arbete.

Vi kan med andra ord nog anta att Open AI:s bästa plan är den som de nu har börjat rulla ut: betala publicister för att få träna sina botar på sajtinnehåll.

OpenAI scores key legal victory as judge throws out copyright case brought by news websites

Hur man kan använda AI för att validera att studenter inte har fuskat och samtidigt träna dem att använda AI

Ett område där känslorna svallar höga när det kommer till AI är utbildning. I synnerhet kopplat till inlämningsuppgifter, som uppsatser. Där de två lägren ungefär kan sammanfattas med ”skitbra för eleverna/studenterna” eller ”det blir bara fusk”. Här är en väldigt intressant mellanväg: elever måste validera sina svar, vilket samtidigt gör att de kan tränas i användningen av verktygen.

Vad det handlar om är att studenter måste ”källhänvisa” till sina AI-verktyg. Verktyg som dessutom måste vara ChatGPT, Googles Gemini samt AI-sökmotorerna Perplexity och You. com. Varför inte exempelvis Claude eller Copilot? Därför att dessa inte erbjuder möjlighet att dela sina AI-chattar med andra via en länk.

Poängen är nämligen att studenterna måste skicka in sina promptar tillsammans med själva uppgiften. Kan de inte göra det så får de inte poäng för uppgiften. Upplägget bygger alltså på det som alltid varit en hyfsat stor grundplåt i utbildning, särskilt på de högre nivåerna: att inte bara ge svaret utan redovisa hur man kom fram till det.

Det är med andra ord ett sätt för lärare att se att studenter inte helt har låtit ett AI-verktyg skriva ihop uppgiften åt dem. Men det blir också ett sätt att se om någon student har problem med att använda verktygen eller bara helt enkelt ge underlag till diskussioner kring hur man bäst kan använda AI-verktyg för olika uppgifter. Både hur man kan använda dem och vilka som fungerar bäst i olika lägen.

Visst finns det potentiella svagheter även här – och man kan ha åsikter också om detta tillvägagångssätt. Men jag gillar det här skarpt som metod att slå flera flugor i en smäll. Inte minst att visa upp AI som ett verktyg som kan stötta, men som inte ersätter den egna insatsen.

Använd AI för att både validera skolresultat och hjälpa studenter bli bättre på att använda AI

AI-utvecklingen slår i taket

Då var det slut på det roliga. AI-utvecklingen har nu stannat av. No more ännu större språkmodeller. GAME OVER MAN, GAME OVER!

Ja, eller kanske inte så drastiskt. Eller: inte alls så drastiskt.

Men senaste veckorna har det kommit uppgifter om att såväl Google som Open AI har nått besvikelseresultat med nästa generation av sina AI-modeller. Förbättringarna är helt enkelt inte lika stora längre.

I sak är det inte särskilt förvånande, men vi verkar ha kommit hit snabbare än vad jag trodde.

Problemet med de språkmodeller som används för det som vi i dag mer eller mindre likställer med ”AI”, alltså generativ AI, är att de kräver hiskeliga mängder data. Någon har sagt att de redan skulle kräva mer innehåll än vad som finns på hela internet, vilket kan bli… en utmaning.

Men sättet vi tränar modellerna på idag är också extremt resurskrävande. Det går åt en hel massa el.

Men båda de här sakerna är faktiskt bra. För AI och planeten i det långa loppet.

Jag har redan sett forskare som har tagit fram nya sätt att träna AI-modeller, som inte alls kräver lika stora datamängder. Andra forskare har kommit på lösningar som gör att träningen kan dra 90 % mindre el.

Kort sagt: de betongsuggor som nu har dykt upp som stora hinder på AI-vägen tvingar oss att ta andra vägar för att kunna komma framåt. Tvingar oss att tänka om och tänka nytt.

Och som så många gånger tidigare i historien kan det vara det bästa som kan hända en teknik.

OpenAI and rivals seek new path to smarter AI as current methods hit limitations

Dags för SM i prompting

Nu har vi väl ändå nått peak den senaste AI-vågen?

Nu kan du bli svensk mästare i prompting

 

IoT – internet of things

Apple kan släppa väggmonterad hemmahubb nästa år

När det kommer till det mobila så har Apple och Google bekvämt delat upp världen mellan sig. Men i hemmet är dessa två inte alls lika dominerande. Och har heller inte alls samma sammanhängande ekosystem. Nu kommer uppgifter om att Apple tänker börja ändra på det nästa år.

Enligt Apple-analytikern Mark Gurman så gör Apple sig redo för one more thing, kanske redan i mars. Och vad one more thing den här gången handlar om är en hemmahubbspryl tänkt att monteras på väggen.

Så, ja. Det Apple-användare har gjort med sina iPads sedan den först såg dagens ljus.

Men nu är alltså tanken – om uppgifterna stämmer – en enhet som är mer uttalat dedikerad att hantera ett uppkopplat hem. Och om vi ska vara krassa: säkerligen en tänkt basstation för AI-Siri.

Apple har tagit allt fler steg mot att ta fram ett ordentligt HomeOS, men har till största del lämnat över till andra att få det att hända. Apple är visserligen med och driver på att Matter ska bli en standard för att koppla ihop och styra uppkopplade hemmaprylar ungefär som wifi eller bluetooth, men än så länge är vi inte där. Och Apple skrotade ju för över fem år sedan två briljanta hemmaprylar: Airport Extreme och Airport Express.

Det återstår som sagt var att se hur väl ryktet stämmer med verkligheten, men det känns som väldigt trovärdiga uppgifter. Och det intressanta är inte prylen i sig – som som sagt var redan kan ersättas av en iPad. Utan att det kan vara startskottet för ett nytt område Apple-prylar.

Eller åtminstone smidigare integration med dem vi redan har och de som vi kommer skaffa.

Apple reportedly releasing a wall-mounted smart home tablet in 2025 – and yes, it does AI

Apple kan arbeta på egna säkerhetskameror för hemmabruk

Alltid kul med obekräftade rykten kring techbolagen. Ju mindre verklighetsförankring och konkreta bevis, desto roligare. Som det här: Apple kan lansera egna uppkopplade säkerhetskameror för hemmabruk 2026.

Det är Apple-analytikern Ming-Chi Kuo som har killgissat i spåkulan och landat i den här slutsatsen. Och… det är ungefär allt vi vet. Plus att Kuo konstaterar att kamerorna blir trådlösa och har ”djup integration” med Apple egen AI-plattform och med Siri. Vilket man nog kan säga om ungefär alla Apple-produkter framöver.

Men det känns samtidigt som ett rätt logiskt rykte, av två skäl. Dels att Apple har tagit stora kliv för att försöka driva fram ökad användning av Apple-produkter för att styra våra uppkopplade hem, som satsningen på Matter-standarden som ska göra det enklare för konsumenter att koppla ihop prylar från olika tillverkare. Men dels också därför att hemmet är ett givet område där ”AI-automatisering” säkerligen kommer att göra ett stort avtryck. Att Siri bokstavligen kan bo i väggarna.

Men vad Apple däremot inte har satsat särskilt mycket på – eller egentligen alls så här långt – är dedikerade prylar som är avsedda att vara stationärt uppkopplade i våra hem. Det har ryktats om att Apple är på gånge med en ny slags hubbgrej nästa år som skulle kunna agera ”styrenhet” (en iPad ännu mer optimerad för att kontrollera hemmet, typ).

Apple senaste nya produktkategoreri som har blivit stora framgångar är Watch och Airpods – som både vid det här laget har hyfsat många år på nacken. Vision Pro är än så länge mer ett koncept än något annat, men hemmahårdvara skulle kunna bli ett nytt område för Apple. Som givetvis kan driva mot Apples övriga enhetstyper och som förstås kan förses med allehanda prenumerationer för att driva på affären även där.

Det återstår att se hur mycket av det här ryktet som stämmer – och vad vi i så fall får för slags uppkopplade hemmaprylar från Apple.

Spekulationen är oavsett tillräckligt mycket för åter tända mitt hopp att Apple ska släppa en egen router igen. Eller flera. Den Apple-produkt som jag har saknat mest sedan 2018.

Kuo: Apple Planning Smart Home Camera and New AirPods With More Health Features

Waymos självkörande taxibilar rullar ut i Los Angeles

Ni vet Teslas självkörande taxibilar, som enligt Elon Musk är företagets stora framtidsprodukter tillsammans med den humanoida roboten Optimus? De som Elon, men förmodligen ingen annan, är övertygad om kommer att lanseras nästa år? Det finns de som redan är ingång. Som Google-ägda Waymo.

Efter att bokstavligen talat ha rullat ut sina bilar i Phoenix och San Francisco är det nu dags för Los Angeles. Precis som de tidigare städerna så omfattas dock inte hela Los Angeles till att börja med.

Men det är oavsett intressant att Waymos självkörande bilar, även om det fortfarande är småskaligt, nu börjar bli på riktigt.

Waymo’s robotaxis are now available to everyone in Los Angeles

En humanoid robotkonstnärs verk säljs på auktion för första gången

Ja, men det det var väl bara en tidsfråga. Det första AI-verket har nu sålts på auktion för miljonbelopp.

Eller det är inte det första AI-skapade verket som säljs på auktion, utan det första AI-konstverket skapat av en humanoid robot. Det är alltså en robot som har AI-skapat ett verk som nu har gått under klubban hos traditionstunga Sotheby’s.

Och det är ingen lite gärsgårdsauktion vi pratar om. Roboten Ai-Da (but of course) fick 1,08 miljoner dollar – eller över 11 miljoner kronor – för sitt verk. (Eller vem som nu får pengarna när en robot eller en AI har skapat något.)

Och motivet? Ett porträtt av Alan Turing, passande nog. Alltså mannen som gav världen Turing-testet, som tänkt test för att skilja på människor och maskiner (som gav Google inspiration och namn till sin Captcha-funktion). (Ja, plus att han bidrog till att få slut på andra världskriget. Han kan få någon pluspoäng för det också.)

Så vem bestämde att Ai-Da skulle ha Turing som motiv? Ai-Da själv, efter lite chattande med människorna bakom projektet. Det var en diskussion om ”AI för goda ändamål” som fick Ai-Da att föreslå Turing som en ”nyckelperson i AI:s historia”.

Så ja, det var alltså sannolikt mer typ en googling som gav Ai-Da det uppslaget. Men ändå lite kul.

Ai-Da robot just sold an artwork for $1 million. Yes, it made history.

 

Ekonomi och finans

Spotifys kvartalsrapport Q3 2024: starkaste kvartalet någonsin för bolaget

Det fortsätter gå bra för Spotify. Väldigt bra. Så pass att Q3 2024 var det starkaste kvartalet så här långt för företaget.

Såväl omsättning som vinst kom in över förväntan, men Spotify lämnade också ljusare besked än väntat för Q4. Som att Spotify ”är på väg mot lönsamhet på helåret”.

Spotify har numer totalt 640 miljoner användare, vilket är 11 % bättre än för ett år sedan. Dessa är fördelade på 226 miljoner betalande användare och 361 miljoner annonslyssnare. Det innebär 12 % respektive 11 % fler än för ett år sedan. Antalet betalande ökade alltså snabbare än ”gratislyssnarna”. Det kan vara första gången som det har hänt.

Det sistnämnda kan vara både bra och dåligt. Det är de betalande användarna som Spotify tjänar mest pengar på, men annonslyssnarna är ofta vägen in. Om takten nya användare in i Spotifys lilla ekosystem börjar mattas av så kommer det bli ännu viktigare för företaget att tjäna pengar på de befintliga kunderna. Det kan leda till ännu fler prishöjningar.

Spotify forecasts profit above estimates on cost cuts, steady user growth