Spaningar inom tech och sociala medier från veckan som har gått.
Övriga delar i veckans sammanställning
- Del 1: Sociala medier, Sök/SEO, Detaljhandel/e-handel, Strömmade medier
- Del 3: AI – artificiell intelligens, IoT – internet of things, Mobilt, Ekonomi och finans, Övrigt
AI – artificiell intelligens
Anthropic går med på att betala 1,5 miljarder dollar i förlikning i upphovsrättsmål
Nytt rekord från Claude-utvecklaren Anthropic. Fast ett inte så kul rekord för AI-bolaget. Anthropic har gått med på att betala 1,5 dollar i förlikningen i ett upphovsrättsmål. Vilket ska vara det högsta beloppet någonsin i ett amerikanskt upphovsrättsmål.
Ja, eller MINST så mycket. Under nästa vecka kommer domstolen att avgöra om förlikningen får tummen upp och i så fall hur mycket som ska betalas. Beloppet kan med andra ord komma att höjas.
Vad det handlar om är en rättegång där tre författare anklagade Anthropic för att ha tränat sina modeller på författarnas böcker utan tillstånd eller ersättning. I somras gav en domare Anthropic en delseger då det konstaterades att det kunde anses vara ”fair use” att träna AI-modeller på köpta böcker.
Men samtidigt konstaterade domaren att Anthropic skulle kunna åka på bassning i frågan om huruvida materialet verkligen var lagligt inköpt eller om Anthropic hade använt dataset med piratmaterial.
Det ledde till en gruppstämning från författare som hävdade att Anthropic hade använt piratmaterial för att träna sin AI-modell och i ett försök att undvika ännu högre böter – eller ännu värre straff – så erbjöd Anthropic alltså en förlikning.
Och nu vet vi hur mycket de erbjöd. Nu återstår att se om domstolen anser att det är tillräcligt.
Anthropic to pay $1.5 billion to authors in landmark AI settlement
A settlement between Anthropic and authors over books used to train its AI would pay out ”at least” $1.5 billion to resolve a class-action copyright lawsuit.
Metas AI-funktion skapar botar med kändisar utan tillåtelse
Metas AI-huvudvärk fortsätter. Efter uppgifter förra veckan att företagets nya super-AI-avdelning har börjat falla i bitar efter bara ett par månader så har det nu snurrat igång en kändisbotcirkus kring företaget.
Det visar sig att Metas AI har skapat AI-botar föreställer kändisar, som har tagits fram utan kändisarnas samtycke. Och ja. Självklart handlar det till stor del av… ”vuxenbotar”.
Men det stannar inte där. Det visar sig att minst tre av botarna har skapats av en av Metas egna anställda och användare lyckades även skapa botar med minderåriga kändisar.
Två av botarna som den Meta-anställda tog fram kopierade dessutom Taylor Swift. Har folk inte lärt sig att inte mucka med Taylor eller hennes fans?
Mark Zuckerberg har i år valt att gå rätt all in på Elon Musks syn på världen – i ett försök att hålla sig väl med Donald Trump och hans sektkompisar. Vilket bland annat har inneburit att företaget gjorde ordentliga nedskärningar i modererandet. Men också att man har valt ungefär lika höga (eller låga, beroende på vem man frågar) skyddsvallar i vad Metas AI kan skapa.
Ett beslut som, precis som hos FKA Twitter, nu ser ut att komma tillbaka och bita företaget i rumpan.
Meta Stock Drops On News It Used Taylor Swift As Chatbot Without Permission
Some adult-oriented bots even produced photorealistic pictures of the celebrities in lingerie or a bathtub.
ChatGPT får projektminne
ChatGPT får nytt minne. Ett projektspecifikt.
Det är vad det låter som. Istället för att komma ihåg ungefär allt man har chattat om (eller åtminstone väldigt mycket – om man har den funktionen aktiverad) så kan man begränsa det som modellen kommer ihåg bara till saker man har lagt upp eller chattat om i ett visst projekt.
Det ser däremot inte ut att finnas en allmän inställning för det här, utan man kan aktivera begränsningen när man skapar ett projekt. Har du ett skitstort projekt redan som du skulle vilja applicera det här på är det däremot trist att vara du. Den nya funktionen gäller bara för nyskapade projekt.
”ChatGPT: New feature for project-only memory” | OpenAI for Business posted on the topic | LinkedIn
✨ Now available in ChatGPT: Project-only memory Now you can scope memory in ChatGPT to a single project, creating a focused context container for ongoing work. With project-only memory, everything in your project is designed to stay separate from everything else – ChatGPT won’t bring in details from chats outside the project, and it won’t carry information from that project into other chats outside it.
ChatGPT får anpassningsbar tänkarmössa
Ännu ett test i ChatGPT. Den här gången: en anpassningsbar tänkarmössa.
Enligt det som skärmdumpar visar ser det ut som att det blir möjligt att anpassa hur hårt ChatGPT ska tänka när man använder just tänkarläget.
Väljer man Thinking så kan man dessutom välja bland fyra steg, från ”light” till ”max” (där den sistnämnda tydligen bara är tillgänglig för den som betalar för det skitdyra Pro-abonnemanget.
Och det här är ungefär så mycket som vi vet. Återstår att se vilka steg som kan bli aktuella och hur stor skillnaden blir i tid, kostnad och kvalitet. Ja, och om funktionen överhuvudtaget släpps skarpt.
Det som är lite ironiskt är att Open AI i och med senaste modellen GPT-5 har försökt rensa lite i modelldjungeln som tidigare fanns, där det krävdes utbildning för att veta vilken modell som var bäst på vad. ChatGPT ska numer också vara bättre på att välja det läge som passar bäst för det man vill att ChatGPT ska göra (vanliga GPT eller Thinking-läget).
Men nu ser det alltså ut som att Open AI också kan vara på gång med mer finkornighet för den som vill pixelpusha resultatet direkt i ChatGPT.
OpenAI is testing ”Thinking effort” for ChatGPT
OpenAI is working on a new feature called the Thinking effort picker for ChatGPT.
ChatGPT:s kodningsfunktion vässas
Kodning har blivit lite guldstandarden som modeller nu jämförs med. Hur bra de är på att ge utvecklare så bra stöd som bara går. Det känns som att det är det som AI-bolagen nu jagar när de uppgraderar sina modeller och tjänster.
Nu får ChatGPT:s Codex-funktion ett lyft. Det ska nu att funka att köra Codex där man vill och det ska fungera sömlöst att hoppa mellan en lokal kodbas och ett bygge som ligger i Codexs moln. Det ska nu bland annat bli enklare att använda Codex tillsammans med alla vibekodares favoritverktyg Cursor. (Ja, eller alla utvecklares favorit-vibekodningsverktyg, kanske. Lovable verkar föredras av de glada amatörer som vill vibevibea fram sin app.)
Som ni märker är jag rätt vag i beskrivningen, vilket beror att jag har dålig koll på vad de här sakerna faktiskt innebär. Bättre att du dyker in i artikeln och läser där. Eller hoppar rätt till ChatGPT.
OpenAI releases big upgrade for ChatGPT Codex for agentic coding
OpenAI has announced a big update for Codex, which is the company’s agentic coding tool.
ChatGPT:s gratisanvändare får tillgång till Projekt-funktionen
Ny funktion för de som inte betalar för ChatGPT: nu får även gratiskontona tillgång till Projekt-funktionen.
Det innebär att det inte längre bara är betalande användare som kan sortera sina chattar i mappar. Så att man exempelvis kan samla alla sina chattar inom ett visst ämne på ett ställe för att göra det enklare att hitta dem. Men funktionen innebär också mer, som att man kan begränsa ChatGPT:s minnesfunktion till bara ett visst projekt.
Som vanligt är dock taket betydligt lägre för den som inte betalar: man kan bara ladda upp fem filer per projekt att jämföra med 25 för Plus-användare och 40 för Pro. (Open AI passar alltså på att samtidigt höja gränserna för de två sistnämnda abonnemangen.)
OpenAI rolls out ChatGPT Projects to free users
ChatGPT’s Projects feature for organizing AI chats will now be available to free users as part of a recent update.
ChatGPT får stöd för förgrenade chattar
Dags för ChatGPT att skjuta ut rötter. Bildligt åtminstone. Tjänsten får nu den nya funktionen ”branch”. Eller ”Förgrena till ny chatt på svenska”.
Det blir om man så vill möjligt att skapa ”chattrådar” i en befintlig chatt. Man kan utgå från ett svar från ChatGPT i en befintlig chatt och sedan starta en ny ”underchatt” i en tråd. Tanken är att man på detta sätt ska kunna få en konversation som handlar om ett nytt ämne – eller ta ett sidosteg i den konversation man har.
Jag ska inte säga att jag direkt ser fördelen, men det har tydligen varit en högt önskad funktion bland andra användare så det är nog mest jag.
Tanken är oavsett att du får en underchatt som inte ska störa den pågående huvudchatten. Som när man startar en diskussionstråd under ett inlägg i en vanlig chattråd. Skillnaden här är att det inte blir lika tydligt visuellt som i dedikerade chattjänster.
Men det kan som sagt vara jag. Och det kan bli en funktion som kommer att få ett mer tydligt grafiskt gränssnitt längre fram.
Funktionen finns i dagsläget oavsett bara på webben, så inte i någon av de operativspecifika apparna.
ChatGPT’s new branching feature is a good reminder that AI chatbots aren’t people
Users can explore multiple paths without losing their original chat thread.
Open AI arbetar på en LinkedIn-utmanare
Open AI fortsätter att bygga upp sitt eget lilla Office-paket. Ja, eller ekosystem. Som nästa år får sällskap av en AI-rekryteringstjänst.
Ja, åtminstone enligt uppgifter från Bloomberg.
Vad det uppges handla om är en AI-rekryteringstjänst på mer än ett sätt. Det är tänkt att bli en matchningstjänst för företag som söker AI-kompetens och vi kan anta att matchningen kommer att ske med AI. Dessutom planerar Open AI ett certifieringsprogram för den här typen av roller.
Om uppgifterna stämmer och allt går som det ska får vi se vad det blir 2026.
OpenAI announces AI-powered hiring platform to take on LinkedIn | TechCrunch
The OpenAI Jobs Platform is set to launch in mid-2026 and will use AI to match candidates with businesses.
Open AI kan börja tillverka egna AI-chip nästa år
Tidigare i år började det dyka upp rykten om att ChatGPT-ägaren Open AI skulle tillverka sina egna AI-chip. Sedan dessa har det varit rätt tyst om det, men nu kan ryktescirkusen ta ny fart.
Enligt Financial Times så kommer Open AI påbörja produktionen av ett eget chip under nästa år. Och man har slagit sig ihop med chiptillverkaren Broadcom för tillverkningen.
Det ser med andra ord ut som att Open AI siktar på samma upplägg som Apple: Open AI designar chipen och låter sedan Broadcom tillverka dem.
Enligt uppgifterna så är chipen inte tänkte att hamna i prylar för företag eller konsumenter, utan är avsedda för internt bruk. Men vi kan nog anta att planen även inkluderar Open AI-chipbestyckade konsumentprodukter på sikt. Open AI har ju rätt långt gångna ambitioner att bokstavligen ta klivet ut i den fysiska världen.
OpenAI is reportedly producing its own AI chips starting next year
The company reportedly designed the custom AI chip with US semiconductor maker Broadcom.
NotebookLM:s AI-podcastfunktion får tre nya lägen
Google lägger till ännu fler funktioner i sin AI-anteckningsbok NotebookLM. Den här gången är det podcastfunktionen Ljudöversikt (Audio overview) som byggs ut.
Nyheten är att funktionen får fler anpassningsmöjligheter. Förutom att anpassa (ungefär) hur lång en sammanfattningpodd ska vara så går de nu även att ange vilken slags diskussion det ska vara utifrån fyra fasta alternativ.
- Deep dive: Ursprungsläget när två virtuella poddvärdar diskuterar källmaterialet.
- Brief: En ”bite-sized” podd som ”hjälper dig att få grepp på huvudidéerna” källdokumenten.
- Critique: ”Expertutvärdering” av källmaterialet, komplett med ”konstruktiv feedback för att hjälpa dig att förbättra det”. Är väl primärt tänkt för att man ska kunna få återkoppling på det man själva har producerat, men vi kan anta att det mesta testandet (åtminstone i början) kommer att vara på färdigt och publicerat material.
- Debate: En ”eftertänksam debatt mellan två värdar” som ”synliggör olika perspektiv på dina källor”. Så. Ni vet. Inte ”Debatt”. Eller partiledardebatt. Eller ungefär vilken slags politisk debatt som helst.
Ska rullas ut i slutet av veckan till alla 80 språk som har stöd för ljudfunktionen. Vilket borde innebära att den också kommer till svenska då.
NotebookLM Will Now Let You Choose From Four Audio Overviews Formats
Google’s NotebookLM is getting another new artificial intelligence (AI) update that will allow users to generate Audio Overviews of their sources in different formats.
Veo 3 flyttar in i Google Photos
Tycker du att Googles egen bildarkivapp Photos erbjuder alldeles för få roliga AI-funktion som du kan leka med? Google hör bön. Nu flyttar den senaste versionen av Googles AI-bildsmodell Veo – nummer tre i ordningen – in.
Det innebär att du nu kan förvandla dina bilder till väldigt korta videoklipp direkt i Photos, utan att betala för Veo.
Däremot får du hålla dig till tåls ett tag till innan du kan lägga vantarna på funktionen här hos oss. Än så länge finns funktionen (som bor i en ny Create-flik i Photos) bara i USA.
Veo 3 comes to Google Photos. Try it in the new Create tab.
Learn more about all the editing tools inside Google Photos’ Create tab, like Photo to video, animations and more.
Snapchat släpper AI-lins för att skapa bilder
Kan aldrig bli för mycket AI. Tydligen. Nu mer hos Snapchat.
Den här gången släpper Snapchat en lins som gör det möjligt att skapa bilder genom att beskriva vad man vill ha och eller redigera befintliga bilder på samma sätt. Klassisk generativ AI-användning, alltså. Betalande användare får nu tillgång till detta.
Det är numer rätt basal användning av generativ AI som vi pratar om och jag måste säga att jag faktiskt utgick från att det här redan fanns. Men det här är tydligen första gången som Snapchat släpper en lins med helt öppna promptmöjligheter.
Snapchat’s new Lens lets you create AI images using text prompts | TechCrunch
While Snapchat already has numerous generative AI Lenses, the company notes that Imagine Lens is its first open prompt image-generation Lens.
Mistral lägger till minne och MCP-stöd även för gratisanvändare
Franska Mistral må vara Europas mesta AI-bolag just nu, men sett till användning här i Europa så ligger de långt efter sina amerikanska konkurrenter. Nu släppet bolaget några nya funktioner som de säkert hoppas ska locka fler till sina tjänster.
Det handlar om saker som redan finns hos konkurrenterna. Det är dels ett minne som gör att Mistral kan komma ihåg vad som har skrivits i olika chattar och använda det och dels MCP-stöd.
Det sistnämnda handlar om att även Mistral nu lägger till stöd för Anthropics försök att få till standard för hur AI-tjänster ska kunna kopplas samman med lokala dokument och lokal data. Från start finns det färdiga kopplingar till ett tjugotal plattformar som Snowflake, Github, Atlassian och Stripe.
Det som skiljer Mistral från övriga däremot är att båda dessa nya funktioner också blir tillgängliga för gratisanvändarna. Jag misstänker dock att även Mistral har betydligt lägre tak i användningen för de som inte betalar jämfört med de som betalar. Men kostnadsfritt är fortfarande kostnadsfritt.
Mistral lär hoppas att folk ska vilja testa på de här grejerna utan att slänga upp kreditkortet och att de vill fortsätta med Mistral när de vill ha mer funktionalitet än gratiskontot erbjuder.
Le Chat. Custom MCP connectors. Memories. | Mistral AI
Le Chat now integrates with 20+ enterprise platforms-powered by MCP-and remembers what matters with Memories.
Neutrala Grok håller med Elon Musk i många politiska frågor
En studie i maj och juli av hur Grok förhåller sig till 41 politiska frågor har visat att Grok har vandrat åt höger i hälften av dem. Och i många fall håller med Elon Musk.
Nu blir vi sådär förvånade igen.
Grok AI drifts conservative following Elon Musk’s recent ”corrections”
Over the past few months, xAI’s AI chatbot Grok has been repeatedly revised. An analysis now shows how its answers have changed.
Grok känns allt mer som den sista sansade utposten på X
Vi i Sverige har tyvärr vant oss vid skjutningar som veckoregelbunden händelse hos oss. Ännu mindre krusningar på vattnet ger skjutningar i USA. Där är masskjutningar nära nog något som inträffar varje vecka. Som skjutningen vid en kyrka i Minneapolis häromveckan.
När skyttens identitet blev känd visade det sig vara en transperson. Det gjorde förstås att tossehögern och Trumps sektkompisar hade julafton. Inte minst på FKA Twitter, där videos från skjutningen – och förstås allehanda konspirationsteorier via vanliga inlägg – spreds som en miljon löpeldar. Till och med från Elon Musk själv – fast på Musk-manér en FKA tweet som kan tolkas som man vill.
Ja, nästan. Vi kan nog med väldigt hög sannolikhet anta att Musks inlägg om att ”det finns ett tydligt mönster här” inte handlar om att masskjutningar i USA går hand i hand med landets liberala vapenlagar.
Men bland alla eländesexempel i artikeln nedan på hur tossehögerprofiler eldade på transondskevinkeln (som förstås också hängde ihop med feminism och annat wokeitgt) så finns ett litet ljustecken: Grok. Elon Musks egen AI-bot.
I veckan kom uppgifter om att Grok i början av sommaren gjorde en högergir i ett rätt stort antal politiska frågor. Någon som dessutom, som av en händelse, gjorde att Grok tycker väldigt mycket som Elon Musk i flera av frågorna.
Men här är ännu ett exempel när Grok trots allt håller sig till den faktamässiga sanningen, inte alternativfaktasanningen. På fråga om transpersoner är överrepresenterade bland masskyttar så blir svaret: nej. Tvärtom. De är försvinnande få.
Så trots att Musk uttalat sagt att han (läs: de som jobbar på xAI) ska ”fixa” den här typen av fel i Grok. När Grok alltså säger som det är och inte som Musk, hans fanboys och tossehögern har bestämt sig för att det är. Grok verkar alltså väldigt envist vara mer markbunden än den absoluta majoriteten på X.
Ett, numer litet men välkommet ljus i X-mörkret. Att se hur länge Grok fortsätter att svara ”fel”. Alltså när Elon Musk en gång för alla har lyckats “fixa” Grok.
How Disinformation About the Minnesota Shooting Spread Like Wildfire on X
Under Elon Musk’s leadership, X has become the perfect platform to supercharge the spread of dangerous disinformation during breaking news events.