Kategorier
AI - Artificiell intelligens IoT - internet of things Mobilt Spaningar

Digitala spaningar vecka 6 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Google släpper nya Gemini-AI-modeller

Jag ska väl erkänna att jag börjar få rätt svårt att hålla koll på vilka modeller som har släppts och var man kan få tag i dem. Som tur är ser Google till att hålla min förvirring på en konstant hög nivå.

Det är kort sagt dags för nya modeller i Google Gemini-familj och/eller rullar ut modeller bredare.

  • 2.0 Flash: En lite uppdaterad version av modellen blir nu tillgänglig i Gemini-appen eller via Gemini API:et. Bildgenerering och text-till-tal-funktionalitet ”kommer snart”.
  • 2.0 Pro Experimental: Ny värstingmodell som ska vara extra bra på kodning och ”komplexa promptar”.
  • 2.0 Flash-Lite: Som hörs på namnet, en mer lättviktig modell. Bokstavligen talat. Uppföljaren till 1.5 finns nu tillgänglig som förhandsversion via Google AI Studio eller Vertex AI.
  • 2.0 Flash Thinking: Geminis ”resonerande” modell (typ svaret på Open AI:s o1) blir nu tillgänglig datorn och via webbtjänsten. Den ska också vara startskottet för den ”agentiska era” som Google proklamerade vid lanseringen. Ingen hybris alls där. Oavsett så ska modellen kunna interagera med andra Google-appar som Youtube, Googles sök och Google Maps.

Google’s Gemini app adds access to ’thinking’ AI models

Google adds its experimental Gemini 2.0 Flash Thinking ”reasoning” model that’s capable of explaining how it answers complex questions to the Gemini app.

Google ger tumme upp att använda företagets AI till kärnvapen och övervakning

Google sjösatte sina AI-principer 2018. Och 2025 kom den så här långt kanske största förändringen. Företaget har plockat bort formuleringarna där de lovar att inte använda sin AI-teknik för att ”designa eller driftsätta” AI-verktyg avsedda för vapen eller övervakning.

Det är en bra bit från tidigare utfästelser att inte ta fram AI som hade som syfte att användas i ”vapen eller andra teknologier vars främsta syfte eller användningsområde är att orsaka eller medföra skador på människor”.

Nästan så att man skulle kunna tro att Google får – eller vill ha – allt fler lukrativa militära kontrakt.

Google now thinks it’s OK to use AI for weapons and surveillance

Google has edited its AI Principles to remove commitments the company made to not use the technology in weapons or surveillance.

Bytedance visar upp ny AI-modell som kan skapa väldigt realistiska deepfakevideos från stillbild och ljudexempel

När Bytedance inte kämpar för TikToks överlevnad i USA så har företaget tid att göra annat. Som att ta fram ännu en avancerad AI-deepfake-modell.

OmniHuman1 är namnet på den nya tjänsten som ska kunna skapa videos bara utifrån en bild och ett ljudexempel. Dessutom videos av ”godtycklig” längd – utan att veta säkert vad det innebär.

Och resultatet blir… rätt bra.

OmniHuman1 är inte första tjänsten som har de här förmågorna, men oavsett det så är det svårt att inte fascineras och/eller skrämmas över hur bra tekniken börjar bli på det här området.

Visst finns det fortfarande tillkortakommanden. Artikeln konstaterar att fysikens lagar inte helt verkar lira med vinglaset i ett av klippen. Men jag reagerade också på att Taylor Swift och Einstein ser rätt stela ut. Ja, att de alltså inte rör sig jättemycket.

MEN det beror förmodligen mest på att jag visste att det var AI-genererat. Om jag inte hade vetat om det och bara snabbt tittat på klippen? Well…

Nu pratar vi däremot inte om en kommersiell tjänst som går att testa. Just nu är det fortfarande en presentation av vad OmniHuman1 kan åstadkomma. Fortfarande på forskningsstadiet. Videoexemplen är utvalda av Bytedance och om vi ska utgå från skillnaden mellan demo och skarpt resultat i den släppta tjänsten (exempelvis Open AI:s videotjänst Sora) så är guldet inte riktigt så guldigt som Bytedance vill ge sken av och skogarna har tappat rätt mycket av löven.

Men oavsett. Om den färdiga produkten är i samma replokal som demon så är det imponerande.

Ja, och/eller skrämmande.

Deepfake videos are getting shockingly good | TechCrunch

A new AI system from ByteDance, OmniHuman-1, generates shockingly convincing deepfake videos.

Nytt lagförslag vill förbjuda Deepseek i USA

Det här är så sjukt jätteoväntat. Nytt lagförslag i USA:s kongress vill förbjuda Deepseek.

Ja, eller det handlar ju förstås inte om att specifikt förbjuda Deepseek. Det är ju inte så att USA tar fram lagar skräddarsydda för att förbjuda en enda app (där bara en enda app nämns vid namn i lagtexten). Det handlar om en lag som skulle ”förbjuda amerikanska medborgare från att hjälpa till att utveckla Kinas AI-förmågor”.

Ja, eller egentligen talar texten om ”United States persons”, vilket sannolikt snarare syftar till personer i mer abstrakt mening. Som juridiska personer.

Det är bara en ren tillfällighet att lagförslaget bara någon vecka efter det att en kinesisk AI-app toppat applistorna över större delen av världen och fått aktiemarknadens förtroende för amerikanska AI-bolagen att kollapsa.

Och det är inte smisk på fingrarna vi pratar om som straff. Istället kan överträdelser leda till upp till 1 miljon dollar i böter. Och 20 år i fängelse.

Överreaktion much?

Och som artikeln konstaterar: den väldigt luddiga formuleringen kring den brottsliga handlingen beror säkerligen på att Deepseek har gjort sin modell open source (eller åtminstone nästan). Lagen vill alltså inte bara stoppa Deepseeks egen ”ChatGPT” kopplad till modellen, utan också förbjuda tillgången till själva modellen.

Som Perplexity rätt omgående gjorde tillgänglig via sin egen tjänst. Liksom Microsoft. Och Amazon. Och Snowflake. Och Dell. Och Nvidia.

Om jag inte visste bättre så skulle jag nästan tro att det är ett försök att skydda amerikanska AI-bolags bekvämt uppbyggda murar snarare än genuin omtanke om den nationella säkerheten. Samtidigt som Elon Musk och 25-åringar som inte har säkerhetsklassats ges tillgång till säkerhetsklassad och känslig data i hjärtat av USA:s statsapparat.

Men… naaaah.

Congress Might Ban DeepSeek

Republican Senator Josh Hawley has proposed a bill that would effectively ban DeepSeek, complete with harsh punishments for anyone who continues to use the app.

Deepseek visar spår av koppling till kinesiskt företag som är svartlistat i USA

Häromdagen landade ett lagförslag i USA:s kongress som vill förbjuda AI-stjärnskottet Deepseek i landet. Som vanligt på grund av hot mot den nationella säkerheten. De här uppgifterna stärker inte direkt Deepseeks möjligheter att undvika det.

Säkerhetsforskare har nämligen upptäckt kopplingar mellan Deepseek och China Mobile, en statligt ägt, kinesiskt teleoperatör.

Kodgrävande har nämligen visat att funktioner för att skapa konto till och logga in i Deepseek-tjänsten har ”kraftigt maskerad” (heavily obfuscated) kod som leder till infrastruktur ägd av China Mobile.

Och just att det handlar om de två funktionerna gör förstås att det finns ännu större anledning att fundera på varför.

Det gäller som vanligt dock bara Deepseeks ChatGPT-motsvarighet. Själva modellen, R1, som har släppts som open source (ja, eller åtminstone open weight), kan köras lokalt för den som vill. Eller via något av de amerikanska företag som numer erbjuder R1 som en valbar modell för den som vill köra AI-uppgifter.

Men ja. Det leder oavsett till fler frågetecken kring Deepseek. Och inte bara om Deepseek verkligen byggde R1 så billigt som de själva säger.

Researchers link DeepSeek’s blockbuster chatbot to Chinese telecom banned from doing business in US

Security researchers say the website of the Chinese artificial intelligence company DeepSeek has computer code that could send some user login information to a Chinese state-owned telecommunications company that’s been barred from operating in the United States.

Meta använde stora mängder piratkopierade böcker för att träna sina AI-modeller

Meta har anklagats för att ha använt piratkopierade böcker för att träna sina AI-modeller. Och att de var medvetna om att dataseten innehöll piratkopierad information. Nu kommer fler uppgifter som ser ut att bekräfta det här.

Mejl har visat att Meta har laddat ned över 100 TB data från två källor som vid ett flertal tillfälle har anklagats för att innehålla just piratat innehåll. Och redan i april 2023 så lyfte en Meta-medarbetare oro över Meta hantering av denna information.

I september eskalerade medarbetaren sedan ärendet till Metas juridiska avdelning. Hur gick Meta vidare med denna varning? Man ”vidtog åtgärder för att begränsa spårbarheten, använde externa servrar och ändrade seeding-inställningarna till ”stealth mode””.

Det sistnämnda handlar om att datan som tankades ned ser ut att ha varit i form av torrents, som bygger på att man också delar med sig av den data man laddar ned till andra – så att de i sin tur kan ladda ned. Ett decentraliserad ”filserver”, alltså.

När man delar med sig av data torrent-vägen så kallas det ”seeding”. Och det skulle kunna tyda på att Meta inte bara laddade ned filer med piratkopierat innehåll, utan också spred det vidare.

Meta verkar överlag väldigt medvetet ha gett upphovsrätten fingret. Frågan är förstås hur högt upp i beslutshierarkin som beslutet hamnade. Med tanke på att Metas jurister drogs in så sannolikt… väldigt högt.

Frågan är just nu uppe i domstol – vilket är anledningen till att den här informationen nu dyker upp. Vi får kort sagt se hur det går.

Men Meta är ju, som vi vet, inte ensamma om att ha gjort på det här sättet. Att ha tagit upphosvrättsskyddat innehåll utan samtycke eller ersättning, tränat sina modeller på datan – och sedan tagit betalt för datan via sina produkter (återigen, utan att de som skapade innehållet till största del har fått någon ersättning).

Det är också en anledning till att AI-bolag tycker så illa om EU:s AI Act (och motsvarande initiativ som börjar bubbla i USA, som stämningen i Meta-fallet): det handlar om att tvinga AI-bolag visa upp träningskorten. Framförallt om man har tränat på upphovsrättsskyddat material.

Än så länge är det juridiska läget kring ”fair use” och upphovsrätt fortfarande en gråzon – både här och i USA. Men vi kommer allt närmare de första domarna som på riktigt börjar ge vägledning här.

Meta’s use of pirated books for AI training exposed

The unredacted emails, released on Feb. 6, reveal that Meta downloaded at least 81.7 terabytes of data.

Mistral släpper app för sin AI-assistent

Ännu en alternativ för den som samlar på AI-appar i sin mobil. Nu släpper franska Mistral sin egen AI-bot Le Chat som app för iOS och Android.

Och ja. Le Chat är fortfarande det bästa namnet på en AI-bot.

OpenAI launches data residency in Europe | TechCrunch

OpenAI has launched data residency in Europe, allowing European orgs to meet local data sovereignty requirements while using the company’s AI products.

Forskare tar fram en motsvarighet till Open AI:s o1-modell för 50 dollar

Ni vet hur kinesiska Deepseek chockade AI-världen genom att ta fram en modell i klass med de senaste från de stora AI-bolagen, fast för bara 5,6 miljoner dollar istället för de miljarder som konkurrenterna lägger? Pfft.

Nu har forskare tagit fram en ”resonerande” modell som ska vara i nivå med Open AI:s o1-modell. Och kostnaden för att få fram den modellen var… 50 dollar.

Ja, nu handlar det dock inte om att forskarna har gjort jobbet riktigt från scratch. Eller… egentligen inte alls.

De har istället ”destillerat” Googles o1-motsvarighet Gemini 2.0 Flash Thinking. Och… jag ska inte säga att jag exakt förstår vad det innebär. Men i stora drag förstår jag det som att man helt enkelt kan ta fram en ny modell genom att ”kopiera” mycket från en befintlig modell och därmed få ut ”essensen” av den. Sedan kan man bygga därifrån.

Och det är precis vad forskarna vid Stanford och University of Washington har gjort. De har sedan kompletterat med ”resonemangsdelar” för att ge modellen den typen av förmåga att jobba sig fram till ett svar i flera steg istället för att bara ta första bästa svar på frågan och skicka ut det.

Kostnaden blev alltså 50 dollar i molntjänstkrediter.

Så precis som i Deepseek-fallet så bygger den låga kostnaden på att man rätt mycket har snott vad någon annan har gjort och sedan byggt på stöldgodset. Föga förvånande så är Open AI inte särskilt glada på Deepseek – som använde just Open AI-modeller för att ta fram sin egen. Och i Googles användarvillkor står att det inte är tillåtet att plocka isär deras modeller och försöka kopiera dem. Så Google lär inte vara jättepigga på det som forskarna nu har gjort.

Men det ironiska i sammanhanget är att destilleringen är ungefär exakt vad AI-bolagen själva byggde sina verksamheter på, när de tränade sina modeller på innehåll från internet utan att be om lov och utan att betala ersättning till de som hade skapat innehållet.

What goes around, alltså.

Men oavsett: det som forskarna nu har gjort kan vara en viktig pusselbit när det kommer till att göra tränandet av AI-modeller snabbare, billigare och därmed betydligt mer klimatvänliga (i och med att det inte krävs lika mycket el).

Vilket är extremt viktigt för hållbarheten i tekniken. Och, tja, för Jordens hållbarhet.

Researchers created an open rival to OpenAI’s o1 ’reasoning’ model for under $50 | TechCrunch

AI researchers at Stanford and the University of Washington were able to train an AI ”reasoning” model for under $50 in cloud compute credits, according

Hugging Face tar fram en open source motsvarighet till Deep research på 24 timmar

Senaste dagarnas förmodligen största AI-nyhet var att Open AI lanserade sin nya ChatGPT-funktion Deep research. En funktion som är vad den heter: ett sätt att låta ChatGPT göra ett mer grundligt jobb innan den svarar på en sökfråga.

Dessutom är tanken också att den rätt självgående ska välja vilken information den baserar svaret på och hur det sammanställs. Delvis det som brukar kallas för AI-agent, alltså.

Men modellen är alltså Open AI:s. Vilket betyder att den är stängd, eftersom Open AI sedan länge skrotat sin ambition att vara just öppna med sin forskning.

Bristen på öppenhet var något som AI-gemenskapen Hugging Face ville göra något åt. Så de gick med en utmaning att ta fram en motsvarighet till Deep research – fast som open source.

Och att ta fram en sådan tog… 24 timmar.

Open deep research är namnet på den nya skapelsen, som även den självständigt kan söka på nätet och ställa samman forskningsrapporter.

Hugging Face lyckades inte bara återskapa Open AI:s funktion. Efter ett dygn så var Open deep researchs uppe i 55,15 % korrekthet enligt en benchmark som rankar AI-modellers förmågor att samla ihop och presentera data från flera källor. Open AI:s funktion ligger runt 70 % i samma test.

Nu byggdes Open deep research inte från noll. Den baseras på Open AI:s GPT-4o, så det forskarna gjorde var att skruva i hur modellen – utifrån det den tränats på – skulle kunna applicera detta på informationsinsamlandet.

Men det är oavsett ännu ett exempel på hur det som var Open AI:s mission från början – att arbeta med öppen forskning för att driva på världens AI-utveckling – nu tar allt större utrymme. Ironiskt nog när Open AI själva har stängt av tillgången till sin egen forskning.

(Och ironi på ironin är att Open AI nu ser ut att omvärdera sitt öppenhetsbeslut igen. Nu när det visar sig att open source-utveckling med en stor utvecklargemenskap kan vara bra för den egna businessen.)

Hugging Face clones OpenAI’s Deep Research in 24 hours

Open source ”Deep Research” project proves that agent frameworks boost AI model capability.

AI-bolaget Anthropic kräver att de som söker jobb hos dem inte använder AI för sin ansökan

Ni vet AI-bolaget Anthropic? Som ligger bakom ChatGPT-utmanaren Claude? De har ett lite… intressant krav på dem som söker jobb hos dem.

Kandidater måste nämligen… intyga att de inte använder AI i ansökningsprocessen.

Jag säger det igen. Det går inte att vara satiriker längre.

Anthropic Wants You to Use AI-Just Not to Apply for Its Jobs

The company asks candidates to certify that they will not use AI during the application process.

Open AI uppdaterar sin visuella identitet – för att företaget ska kännas “mer mänskligt”

Nu ni! Nu snackar vi stora AI-nyheter! Open AI uppdaterar för första gången sin grafiska identitet och sitt varumärkesuttryck!

Anledningen? Det nya uttrycket ska få företaget att kännas “mer organiskt, mer mänskligt”.

Oh. The irony.

OpenAI introduces a new brand look

OpenAI has rebranded its look with tweaks to its signature blossom logo and a new typeface called OpenAI Sans, hoping to have a more approachable and human image.

 

IoT – internet of things

Nvidia ger humanoida robotar mer mänskliga rörelsemönster

Det här är rätt coolt. Chipbolaget Nvidia har tillsammans med forskare tagit fram en teknik som ger humanoida robotar mer mänskliga rörelser.

Ramverket för att få till det här har fått namnet ASAP som mycket ser ut att bygga på den green screen-teknik som exempelvis används för spel eller film. När man låter skådespelare ha på sig en massa sensorer när de rör sig och sedan ersätta skådespelarna med digitalt skapade lager ovanpå som kan se ut som en helt annan varelse.

Här verkar det handla om att man först använder en modell för att ”spela in” rörelser, dvs. en AI-modell som får tränas på rörelser, och sedan använder man en annan modell för att finjustera rörelserna i själva robotarna.

Och baserat på exemplen så ser resultatet helt klart mer mänskligt ut än vad den här typen av robotar oftast bjuder på. Jämnare och mer ”flödande” rörelser.

Nu är det tre väldigt konkreta exempel som visas upp: några signaturrörelser från Cristiano Ronaldo, Kobe Bryant och LeBron James. Dessutom väldigt korta rörelser. Och det lär ha tagit en herrans massa tid och datorkraft för att få till dem.

Men det är förhoppningsvis ännu en viktig liten pusselbit i arbetet med att gör den här typen av humanoida robotar till verklighet.

Khizer Abbas on LinkedIn: WOW!!! Robots are learning human movement from human data. Researchers… | 48 comments

WOW!!! Robots are learning human movement from human data. Researchers, in collaboration with NVIDIA, introduced ASAP, a two-stage framework for humanoid… | 48 comments on LinkedIn

 

Mobilt

Apple släpper inbjudningsapp

När ryktena för några dagar sedan började cirkulera om att Apple var på gång med en helt ny app så blev jag väldigt förvånad över vad det tydligen skulle bli. Och det visade sig att ryktet stämde helt och fullt.

Apple har nu kompletterat sin egen appalett med Invites. En app för att… skapa inbjudningar. Till evenemang.

Som artikeln konstaterar så har Apple gjort en Meta. Inspirerats (läs: snott rakt av) av en befintlig tjänst. Så jag antar att de har detaljstuderat all statistik från de blivande konkurrenterna (eller: sånt gör förstås inte Apple, det är ju förbjudet enligt Digital markets act. Det är absolut inte så att förbudet mot att använda mindre konkurrenters statistik till att ta fram konkurrerande tjänster ha kommit till på förekommen anledning).

Och i appen så drar Apple ihop ett antal befintliga tjänster i en ny app. Så man kan koppla på information och innehåll från väderappen, Apple Maps och Apple Music. Ett sätt att boosta användningen av de tjänsterna.

Och så kommer vi till det här:

In addition, users can create unique event invitations using Apple’s Image Playground to produce original images for invites. Plus, users can leverage Apple Intelligence’s Writing Tools to compose invitations.

Ah. There it is. Apple har tagit fram en app som ska få folk att använda (och träna) Apples AI-funktioner.

Och krasst talat är det nog precis den här sortens tjänster som kan göra AI till något för alla på riktigt. Och självklart nämner Apple inte uttalat ”AI” i sin egen presentation av appen. Därför att tekniken i sig är ointressant.

Apple launches Invites, a new app for creating custom invitations | TechCrunch

Apple on Tuesday launched a new app called ”Invites” that allows users to create custom invitations for any occasion. With Invites, users can create and

WikiTok ger dig Wikipedia som TikTok-flöde

Ha. Love it.

Nya tidsdödartjänsten WikiTok. Skapad av amerikanske apputvecklaren Isaac Gemal. Är precis vad den låter som.

WikiTok ger dig kort sagt Wikipedia som ett TikTok-flöde. Så istället för att scrolla kattvideos så kan du scrolla, tja, kunskap.

Developer creates endless Wikipedia feed to fight algorithm addiction

WikiTok cures boredom in spare moments with wholesome swipe-up Wikipedia article discovery.

 

Ekonomi och finans

Googles kvartalsrapport Q4 2024: Youtube slår nytt kvartalsrekord

Kvartalsrapportsdags igen för Google (eller ägarbolaget Alphabet om vi ska vara formella). Och hur gick det den här gången?

Sämre än vad marknaden hade hoppats på. Aktien rasade. Och varför? Lite sämre än väntat för molnverksamheten.

Men i övrigt? Inte så pjåkigt.

  • Omsättning: 96,5 miljarder dollar (+12 %)
  • Vinst: 26,5 miljarder dollar (+28 %)

Bryter vi ned omsättningen på de olika rapportsegmenten såg Q4 ut såhär:

  • Annonseringen: 72,5 miljarder dollar (+10,7 %)
  • Prenumerationer, plattformar och hårdvara: 11,6 miljarder (+7,4 %)
  • Molnverksamheten: 12 miljarder (+29,3 %)
  • Other bets: 400 miljoner (-39 %)

Tittar vi sedan specifikt på de olika annonsformaten så slutade kvartalet så här:

  • Sökannonseringen: 54 miljarder dollar (+12,5 %)
  • Youtube: 10,5 miljarder (+14,1 %)
  • Annonsnätverket: 8 miljarder (-3,6 %)

Trots att Google Cloud alltså var kvartalets överlägset största stjärna med en omsättningsökning på 30 % så räckte det inte. Because aktiemarknadslogik.

Men minst lika viktigt: Youtube fortsätter växa i bra takt. Faktum är att Youtube slog nytt all-time high-rekord.

Alphabet Inc (GOOG) Q4 2024 Earnings Call Highlights: Strong Revenue Growth and AI Advancements …

Alphabet Inc (GOOG) reports a 12% increase in Q4 revenue, with significant contributions from Google Cloud and YouTube, amidst challenges in network advertising and capacity constraints.