Kategorier
AI - Artificiell intelligens IoT - internet of things Mobilt Spaningar

Digitala spaningar vecka 6 2025 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Google släpper nya Gemini-AI-modeller

Jag ska väl erkänna att jag börjar få rätt svårt att hålla koll på vilka modeller som har släppts och var man kan få tag i dem. Som tur är ser Google till att hålla min förvirring på en konstant hög nivå.

Det är kort sagt dags för nya modeller i Google Gemini-familj och/eller rullar ut modeller bredare.

  • 2.0 Flash: En lite uppdaterad version av modellen blir nu tillgänglig i Gemini-appen eller via Gemini API:et. Bildgenerering och text-till-tal-funktionalitet ”kommer snart”.
  • 2.0 Pro Experimental: Ny värstingmodell som ska vara extra bra på kodning och ”komplexa promptar”.
  • 2.0 Flash-Lite: Som hörs på namnet, en mer lättviktig modell. Bokstavligen talat. Uppföljaren till 1.5 finns nu tillgänglig som förhandsversion via Google AI Studio eller Vertex AI.
  • 2.0 Flash Thinking: Geminis ”resonerande” modell (typ svaret på Open AI:s o1) blir nu tillgänglig datorn och via webbtjänsten. Den ska också vara startskottet för den ”agentiska era” som Google proklamerade vid lanseringen. Ingen hybris alls där. Oavsett så ska modellen kunna interagera med andra Google-appar som Youtube, Googles sök och Google Maps.

Google’s Gemini app adds access to ’thinking’ AI models

Google adds its experimental Gemini 2.0 Flash Thinking ”reasoning” model that’s capable of explaining how it answers complex questions to the Gemini app.

Google ger tumme upp att använda företagets AI till kärnvapen och övervakning

Google sjösatte sina AI-principer 2018. Och 2025 kom den så här långt kanske största förändringen. Företaget har plockat bort formuleringarna där de lovar att inte använda sin AI-teknik för att ”designa eller driftsätta” AI-verktyg avsedda för vapen eller övervakning.

Det är en bra bit från tidigare utfästelser att inte ta fram AI som hade som syfte att användas i ”vapen eller andra teknologier vars främsta syfte eller användningsområde är att orsaka eller medföra skador på människor”.

Nästan så att man skulle kunna tro att Google får – eller vill ha – allt fler lukrativa militära kontrakt.

Google now thinks it’s OK to use AI for weapons and surveillance

Google has edited its AI Principles to remove commitments the company made to not use the technology in weapons or surveillance.

Bytedance visar upp ny AI-modell som kan skapa väldigt realistiska deepfakevideos från stillbild och ljudexempel

När Bytedance inte kämpar för TikToks överlevnad i USA så har företaget tid att göra annat. Som att ta fram ännu en avancerad AI-deepfake-modell.

OmniHuman1 är namnet på den nya tjänsten som ska kunna skapa videos bara utifrån en bild och ett ljudexempel. Dessutom videos av ”godtycklig” längd – utan att veta säkert vad det innebär.

Och resultatet blir… rätt bra.

OmniHuman1 är inte första tjänsten som har de här förmågorna, men oavsett det så är det svårt att inte fascineras och/eller skrämmas över hur bra tekniken börjar bli på det här området.

Visst finns det fortfarande tillkortakommanden. Artikeln konstaterar att fysikens lagar inte helt verkar lira med vinglaset i ett av klippen. Men jag reagerade också på att Taylor Swift och Einstein ser rätt stela ut. Ja, att de alltså inte rör sig jättemycket.

MEN det beror förmodligen mest på att jag visste att det var AI-genererat. Om jag inte hade vetat om det och bara snabbt tittat på klippen? Well…

Nu pratar vi däremot inte om en kommersiell tjänst som går att testa. Just nu är det fortfarande en presentation av vad OmniHuman1 kan åstadkomma. Fortfarande på forskningsstadiet. Videoexemplen är utvalda av Bytedance och om vi ska utgå från skillnaden mellan demo och skarpt resultat i den släppta tjänsten (exempelvis Open AI:s videotjänst Sora) så är guldet inte riktigt så guldigt som Bytedance vill ge sken av och skogarna har tappat rätt mycket av löven.

Men oavsett. Om den färdiga produkten är i samma replokal som demon så är det imponerande.

Ja, och/eller skrämmande.

Deepfake videos are getting shockingly good | TechCrunch

A new AI system from ByteDance, OmniHuman-1, generates shockingly convincing deepfake videos.

Nytt lagförslag vill förbjuda Deepseek i USA

Det här är så sjukt jätteoväntat. Nytt lagförslag i USA:s kongress vill förbjuda Deepseek.

Ja, eller det handlar ju förstås inte om att specifikt förbjuda Deepseek. Det är ju inte så att USA tar fram lagar skräddarsydda för att förbjuda en enda app (där bara en enda app nämns vid namn i lagtexten). Det handlar om en lag som skulle ”förbjuda amerikanska medborgare från att hjälpa till att utveckla Kinas AI-förmågor”.

Ja, eller egentligen talar texten om ”United States persons”, vilket sannolikt snarare syftar till personer i mer abstrakt mening. Som juridiska personer.

Det är bara en ren tillfällighet att lagförslaget bara någon vecka efter det att en kinesisk AI-app toppat applistorna över större delen av världen och fått aktiemarknadens förtroende för amerikanska AI-bolagen att kollapsa.

Och det är inte smisk på fingrarna vi pratar om som straff. Istället kan överträdelser leda till upp till 1 miljon dollar i böter. Och 20 år i fängelse.

Överreaktion much?

Och som artikeln konstaterar: den väldigt luddiga formuleringen kring den brottsliga handlingen beror säkerligen på att Deepseek har gjort sin modell open source (eller åtminstone nästan). Lagen vill alltså inte bara stoppa Deepseeks egen ”ChatGPT” kopplad till modellen, utan också förbjuda tillgången till själva modellen.

Som Perplexity rätt omgående gjorde tillgänglig via sin egen tjänst. Liksom Microsoft. Och Amazon. Och Snowflake. Och Dell. Och Nvidia.

Om jag inte visste bättre så skulle jag nästan tro att det är ett försök att skydda amerikanska AI-bolags bekvämt uppbyggda murar snarare än genuin omtanke om den nationella säkerheten. Samtidigt som Elon Musk och 25-åringar som inte har säkerhetsklassats ges tillgång till säkerhetsklassad och känslig data i hjärtat av USA:s statsapparat.

Men… naaaah.

Congress Might Ban DeepSeek

Republican Senator Josh Hawley has proposed a bill that would effectively ban DeepSeek, complete with harsh punishments for anyone who continues to use the app.

Deepseek visar spår av koppling till kinesiskt företag som är svartlistat i USA

Häromdagen landade ett lagförslag i USA:s kongress som vill förbjuda AI-stjärnskottet Deepseek i landet. Som vanligt på grund av hot mot den nationella säkerheten. De här uppgifterna stärker inte direkt Deepseeks möjligheter att undvika det.

Säkerhetsforskare har nämligen upptäckt kopplingar mellan Deepseek och China Mobile, en statligt ägt, kinesiskt teleoperatör.

Kodgrävande har nämligen visat att funktioner för att skapa konto till och logga in i Deepseek-tjänsten har ”kraftigt maskerad” (heavily obfuscated) kod som leder till infrastruktur ägd av China Mobile.

Och just att det handlar om de två funktionerna gör förstås att det finns ännu större anledning att fundera på varför.

Det gäller som vanligt dock bara Deepseeks ChatGPT-motsvarighet. Själva modellen, R1, som har släppts som open source (ja, eller åtminstone open weight), kan köras lokalt för den som vill. Eller via något av de amerikanska företag som numer erbjuder R1 som en valbar modell för den som vill köra AI-uppgifter.

Men ja. Det leder oavsett till fler frågetecken kring Deepseek. Och inte bara om Deepseek verkligen byggde R1 så billigt som de själva säger.

Researchers link DeepSeek’s blockbuster chatbot to Chinese telecom banned from doing business in US

Security researchers say the website of the Chinese artificial intelligence company DeepSeek has computer code that could send some user login information to a Chinese state-owned telecommunications company that’s been barred from operating in the United States.

Meta använde stora mängder piratkopierade böcker för att träna sina AI-modeller

Meta har anklagats för att ha använt piratkopierade böcker för att träna sina AI-modeller. Och att de var medvetna om att dataseten innehöll piratkopierad information. Nu kommer fler uppgifter som ser ut att bekräfta det här.

Mejl har visat att Meta har laddat ned över 100 TB data från två källor som vid ett flertal tillfälle har anklagats för att innehålla just piratat innehåll. Och redan i april 2023 så lyfte en Meta-medarbetare oro över Meta hantering av denna information.

I september eskalerade medarbetaren sedan ärendet till Metas juridiska avdelning. Hur gick Meta vidare med denna varning? Man ”vidtog åtgärder för att begränsa spårbarheten, använde externa servrar och ändrade seeding-inställningarna till ”stealth mode””.

Det sistnämnda handlar om att datan som tankades ned ser ut att ha varit i form av torrents, som bygger på att man också delar med sig av den data man laddar ned till andra – så att de i sin tur kan ladda ned. Ett decentraliserad ”filserver”, alltså.

När man delar med sig av data torrent-vägen så kallas det ”seeding”. Och det skulle kunna tyda på att Meta inte bara laddade ned filer med piratkopierat innehåll, utan också spred det vidare.

Meta verkar överlag väldigt medvetet ha gett upphovsrätten fingret. Frågan är förstås hur högt upp i beslutshierarkin som beslutet hamnade. Med tanke på att Metas jurister drogs in så sannolikt… väldigt högt.

Frågan är just nu uppe i domstol – vilket är anledningen till att den här informationen nu dyker upp. Vi får kort sagt se hur det går.

Men Meta är ju, som vi vet, inte ensamma om att ha gjort på det här sättet. Att ha tagit upphosvrättsskyddat innehåll utan samtycke eller ersättning, tränat sina modeller på datan – och sedan tagit betalt för datan via sina produkter (återigen, utan att de som skapade innehållet till största del har fått någon ersättning).

Det är också en anledning till att AI-bolag tycker så illa om EU:s AI Act (och motsvarande initiativ som börjar bubbla i USA, som stämningen i Meta-fallet): det handlar om att tvinga AI-bolag visa upp träningskorten. Framförallt om man har tränat på upphovsrättsskyddat material.

Än så länge är det juridiska läget kring ”fair use” och upphovsrätt fortfarande en gråzon – både här och i USA. Men vi kommer allt närmare de första domarna som på riktigt börjar ge vägledning här.

Meta’s use of pirated books for AI training exposed

The unredacted emails, released on Feb. 6, reveal that Meta downloaded at least 81.7 terabytes of data.

Mistral släpper app för sin AI-assistent

Ännu en alternativ för den som samlar på AI-appar i sin mobil. Nu släpper franska Mistral sin egen AI-bot Le Chat som app för iOS och Android.

Och ja. Le Chat är fortfarande det bästa namnet på en AI-bot.

OpenAI launches data residency in Europe | TechCrunch

OpenAI has launched data residency in Europe, allowing European orgs to meet local data sovereignty requirements while using the company’s AI products.

Forskare tar fram en motsvarighet till Open AI:s o1-modell för 50 dollar

Ni vet hur kinesiska Deepseek chockade AI-världen genom att ta fram en modell i klass med de senaste från de stora AI-bolagen, fast för bara 5,6 miljoner dollar istället för de miljarder som konkurrenterna lägger? Pfft.

Nu har forskare tagit fram en ”resonerande” modell som ska vara i nivå med Open AI:s o1-modell. Och kostnaden för att få fram den modellen var… 50 dollar.

Ja, nu handlar det dock inte om att forskarna har gjort jobbet riktigt från scratch. Eller… egentligen inte alls.

De har istället ”destillerat” Googles o1-motsvarighet Gemini 2.0 Flash Thinking. Och… jag ska inte säga att jag exakt förstår vad det innebär. Men i stora drag förstår jag det som att man helt enkelt kan ta fram en ny modell genom att ”kopiera” mycket från en befintlig modell och därmed få ut ”essensen” av den. Sedan kan man bygga därifrån.

Och det är precis vad forskarna vid Stanford och University of Washington har gjort. De har sedan kompletterat med ”resonemangsdelar” för att ge modellen den typen av förmåga att jobba sig fram till ett svar i flera steg istället för att bara ta första bästa svar på frågan och skicka ut det.

Kostnaden blev alltså 50 dollar i molntjänstkrediter.

Så precis som i Deepseek-fallet så bygger den låga kostnaden på att man rätt mycket har snott vad någon annan har gjort och sedan byggt på stöldgodset. Föga förvånande så är Open AI inte särskilt glada på Deepseek – som använde just Open AI-modeller för att ta fram sin egen. Och i Googles användarvillkor står att det inte är tillåtet att plocka isär deras modeller och försöka kopiera dem. Så Google lär inte vara jättepigga på det som forskarna nu har gjort.

Men det ironiska i sammanhanget är att destilleringen är ungefär exakt vad AI-bolagen själva byggde sina verksamheter på, när de tränade sina modeller på innehåll från internet utan att be om lov och utan att betala ersättning till de som hade skapat innehållet.

What goes around, alltså.

Men oavsett: det som forskarna nu har gjort kan vara en viktig pusselbit när det kommer till att göra tränandet av AI-modeller snabbare, billigare och därmed betydligt mer klimatvänliga (i och med att det inte krävs lika mycket el).

Vilket är extremt viktigt för hållbarheten i tekniken. Och, tja, för Jordens hållbarhet.

Researchers created an open rival to OpenAI’s o1 ’reasoning’ model for under $50 | TechCrunch

AI researchers at Stanford and the University of Washington were able to train an AI ”reasoning” model for under $50 in cloud compute credits, according

Hugging Face tar fram en open source motsvarighet till Deep research på 24 timmar

Senaste dagarnas förmodligen största AI-nyhet var att Open AI lanserade sin nya ChatGPT-funktion Deep research. En funktion som är vad den heter: ett sätt att låta ChatGPT göra ett mer grundligt jobb innan den svarar på en sökfråga.

Dessutom är tanken också att den rätt självgående ska välja vilken information den baserar svaret på och hur det sammanställs. Delvis det som brukar kallas för AI-agent, alltså.

Men modellen är alltså Open AI:s. Vilket betyder att den är stängd, eftersom Open AI sedan länge skrotat sin ambition att vara just öppna med sin forskning.

Bristen på öppenhet var något som AI-gemenskapen Hugging Face ville göra något åt. Så de gick med en utmaning att ta fram en motsvarighet till Deep research – fast som open source.

Och att ta fram en sådan tog… 24 timmar.

Open deep research är namnet på den nya skapelsen, som även den självständigt kan söka på nätet och ställa samman forskningsrapporter.

Hugging Face lyckades inte bara återskapa Open AI:s funktion. Efter ett dygn så var Open deep researchs uppe i 55,15 % korrekthet enligt en benchmark som rankar AI-modellers förmågor att samla ihop och presentera data från flera källor. Open AI:s funktion ligger runt 70 % i samma test.

Nu byggdes Open deep research inte från noll. Den baseras på Open AI:s GPT-4o, så det forskarna gjorde var att skruva i hur modellen – utifrån det den tränats på – skulle kunna applicera detta på informationsinsamlandet.

Men det är oavsett ännu ett exempel på hur det som var Open AI:s mission från början – att arbeta med öppen forskning för att driva på världens AI-utveckling – nu tar allt större utrymme. Ironiskt nog när Open AI själva har stängt av tillgången till sin egen forskning.

(Och ironi på ironin är att Open AI nu ser ut att omvärdera sitt öppenhetsbeslut igen. Nu när det visar sig att open source-utveckling med en stor utvecklargemenskap kan vara bra för den egna businessen.)

Hugging Face clones OpenAI’s Deep Research in 24 hours

Open source ”Deep Research” project proves that agent frameworks boost AI model capability.

AI-bolaget Anthropic kräver att de som söker jobb hos dem inte använder AI för sin ansökan

Ni vet AI-bolaget Anthropic? Som ligger bakom ChatGPT-utmanaren Claude? De har ett lite… intressant krav på dem som söker jobb hos dem.

Kandidater måste nämligen… intyga att de inte använder AI i ansökningsprocessen.

Jag säger det igen. Det går inte att vara satiriker längre.

Anthropic Wants You to Use AI-Just Not to Apply for Its Jobs

The company asks candidates to certify that they will not use AI during the application process.

Open AI uppdaterar sin visuella identitet – för att företaget ska kännas “mer mänskligt”

Nu ni! Nu snackar vi stora AI-nyheter! Open AI uppdaterar för första gången sin grafiska identitet och sitt varumärkesuttryck!

Anledningen? Det nya uttrycket ska få företaget att kännas “mer organiskt, mer mänskligt”.

Oh. The irony.

OpenAI introduces a new brand look

OpenAI has rebranded its look with tweaks to its signature blossom logo and a new typeface called OpenAI Sans, hoping to have a more approachable and human image.

 

IoT – internet of things

Nvidia ger humanoida robotar mer mänskliga rörelsemönster

Det här är rätt coolt. Chipbolaget Nvidia har tillsammans med forskare tagit fram en teknik som ger humanoida robotar mer mänskliga rörelser.

Ramverket för att få till det här har fått namnet ASAP som mycket ser ut att bygga på den green screen-teknik som exempelvis används för spel eller film. När man låter skådespelare ha på sig en massa sensorer när de rör sig och sedan ersätta skådespelarna med digitalt skapade lager ovanpå som kan se ut som en helt annan varelse.

Här verkar det handla om att man först använder en modell för att ”spela in” rörelser, dvs. en AI-modell som får tränas på rörelser, och sedan använder man en annan modell för att finjustera rörelserna i själva robotarna.

Och baserat på exemplen så ser resultatet helt klart mer mänskligt ut än vad den här typen av robotar oftast bjuder på. Jämnare och mer ”flödande” rörelser.

Nu är det tre väldigt konkreta exempel som visas upp: några signaturrörelser från Cristiano Ronaldo, Kobe Bryant och LeBron James. Dessutom väldigt korta rörelser. Och det lär ha tagit en herrans massa tid och datorkraft för att få till dem.

Men det är förhoppningsvis ännu en viktig liten pusselbit i arbetet med att gör den här typen av humanoida robotar till verklighet.

Khizer Abbas on LinkedIn: WOW!!! Robots are learning human movement from human data. Researchers… | 48 comments

WOW!!! Robots are learning human movement from human data. Researchers, in collaboration with NVIDIA, introduced ASAP, a two-stage framework for humanoid… | 48 comments on LinkedIn

 

Mobilt

Apple släpper inbjudningsapp

När ryktena för några dagar sedan började cirkulera om att Apple var på gång med en helt ny app så blev jag väldigt förvånad över vad det tydligen skulle bli. Och det visade sig att ryktet stämde helt och fullt.

Apple har nu kompletterat sin egen appalett med Invites. En app för att… skapa inbjudningar. Till evenemang.

Som artikeln konstaterar så har Apple gjort en Meta. Inspirerats (läs: snott rakt av) av en befintlig tjänst. Så jag antar att de har detaljstuderat all statistik från de blivande konkurrenterna (eller: sånt gör förstås inte Apple, det är ju förbjudet enligt Digital markets act. Det är absolut inte så att förbudet mot att använda mindre konkurrenters statistik till att ta fram konkurrerande tjänster ha kommit till på förekommen anledning).

Och i appen så drar Apple ihop ett antal befintliga tjänster i en ny app. Så man kan koppla på information och innehåll från väderappen, Apple Maps och Apple Music. Ett sätt att boosta användningen av de tjänsterna.

Och så kommer vi till det här:

In addition, users can create unique event invitations using Apple’s Image Playground to produce original images for invites. Plus, users can leverage Apple Intelligence’s Writing Tools to compose invitations.

Ah. There it is. Apple har tagit fram en app som ska få folk att använda (och träna) Apples AI-funktioner.

Och krasst talat är det nog precis den här sortens tjänster som kan göra AI till något för alla på riktigt. Och självklart nämner Apple inte uttalat ”AI” i sin egen presentation av appen. Därför att tekniken i sig är ointressant.

Apple launches Invites, a new app for creating custom invitations | TechCrunch

Apple on Tuesday launched a new app called ”Invites” that allows users to create custom invitations for any occasion. With Invites, users can create and

WikiTok ger dig Wikipedia som TikTok-flöde

Ha. Love it.

Nya tidsdödartjänsten WikiTok. Skapad av amerikanske apputvecklaren Isaac Gemal. Är precis vad den låter som.

WikiTok ger dig kort sagt Wikipedia som ett TikTok-flöde. Så istället för att scrolla kattvideos så kan du scrolla, tja, kunskap.

Developer creates endless Wikipedia feed to fight algorithm addiction

WikiTok cures boredom in spare moments with wholesome swipe-up Wikipedia article discovery.

 

Ekonomi och finans

Googles kvartalsrapport Q4 2024: Youtube slår nytt kvartalsrekord

Kvartalsrapportsdags igen för Google (eller ägarbolaget Alphabet om vi ska vara formella). Och hur gick det den här gången?

Sämre än vad marknaden hade hoppats på. Aktien rasade. Och varför? Lite sämre än väntat för molnverksamheten.

Men i övrigt? Inte så pjåkigt.

  • Omsättning: 96,5 miljarder dollar (+12 %)
  • Vinst: 26,5 miljarder dollar (+28 %)

Bryter vi ned omsättningen på de olika rapportsegmenten såg Q4 ut såhär:

  • Annonseringen: 72,5 miljarder dollar (+10,7 %)
  • Prenumerationer, plattformar och hårdvara: 11,6 miljarder (+7,4 %)
  • Molnverksamheten: 12 miljarder (+29,3 %)
  • Other bets: 400 miljoner (-39 %)

Tittar vi sedan specifikt på de olika annonsformaten så slutade kvartalet så här:

  • Sökannonseringen: 54 miljarder dollar (+12,5 %)
  • Youtube: 10,5 miljarder (+14,1 %)
  • Annonsnätverket: 8 miljarder (-3,6 %)

Trots att Google Cloud alltså var kvartalets överlägset största stjärna med en omsättningsökning på 30 % så räckte det inte. Because aktiemarknadslogik.

Men minst lika viktigt: Youtube fortsätter växa i bra takt. Faktum är att Youtube slog nytt all-time high-rekord.

Alphabet Inc (GOOG) Q4 2024 Earnings Call Highlights: Strong Revenue Growth and AI Advancements …

Alphabet Inc (GOOG) reports a 12% increase in Q4 revenue, with significant contributions from Google Cloud and YouTube, amidst challenges in network advertising and capacity constraints.

Kategorier
AI - Artificiell intelligens Detaljhandel/e-handel Sök/SEO Spaningar

Digitala spaningar vecka 47 2024 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Sök/SEO

USA vill tvinga Google att sälja Chrome

Ryktet visade sig stämma. Nu måste Google sälja Chrome.

Ja, eller det är åtminstone så det blir om USA:s justitiedepartement DOJ får som de vill.

Den här begäran är en följd av den konkurrensrättegång mellan DOJ och Google som pågick fram till i början av hösten. Den där domslutet blev att Google har haft ett olagligt monopol kring sin sökverksamhet och att de har utnyttjat sin dominerande ställning för att slå undan benen på konkurrenterna.

Vi vet däremot fortfarande inte vad straffet blir för Google. Men vinnarsidan har nu alltså bestämt sig för vad de tycker är lämpligt: att Google måste kränga av sin webbläsare.

Google är, helt oväntat, inte helt nöjda över beslutet. I ett blogginlägg konstaterar de att det försämrar för konsumenter – eftersom ”beslutet skulle förstöra en rad Google-produkter även bortom sök”. Chrome som fristående produkt skulle bli mycket sämre än vad den är i Google-ägo och skulle även ”skada tjänster som Mozilla Firefox, som är beroende av Googles sök”.

Lite oklart exakt hur logiken ser ut kring det sistnämnda påståendet. Men hej.

Även om begäran att Google måste spinna loss Chrome är det mest långtgående i det som DOJ vill se som straff så finns det även ett antal andra åtgärder som myndigheten vill se. Som att Google ska förbjudas att ingå exklusiva sökavtal, som exempelvis att Google betalar för att vara förvald sökmotor i iOS.

(Som jag sagt förut, egentligen är det märkligt att Google straffas för att Apple – och andra, som Samsung, säljer den platsen. Men så blir det tydligen eftersom dessa inte var svarande i rättegången.)

Dessutom kräver DOJ att USA måste ”syndikera” sina sökresultat i USA till konkurrenter under det kommande årtiondet och att sajter ska ges alternativet att inte säga nej till att Google tränar sina AI-modeller på innehållet.

(Vilket förstås i princip går via robots.txt-filen, men eftersom det verkar som att AI-sökmotorn Perplexity har gett den interneturåldriga gentlemannaöverenskommelsen fingret så kan det här bli en fråga som kan aktualiseras på båda sidor om Atlanten framöver.)

Det är alltså en rätt dålig dag för Google. Men sista ordet är inte sagt. Ovanstående är DOJ:s önskelista. Som domaren i målet nu ska överväga. Och Google har redan gått ut med att de kommer att överklaga domen (beroende på vad straffet blir, kan tänkas. Det kan ju hända att Google kommer förhållandevis lindrigt undan).

DOJ: Google must sell Chrome to end monopoly

 

Detaljhandel/e-handel

Google gör det enklare att kolla priser i fysiska butiker med AI

Häromdagen rullade AI-sökmotorn en ny shoppingfunktion, som gör det möjligt att söka efter det man vill köpa och få upp rekommendationer på vad man skulle kunna köpa, var man kan köpa det och relevant information om produkten som rekommenderas (som för- och nackdelar). Nu är det Googles tur att uppgradera sitt shoppingerbjudande. För dem som handlar i fysisk butik, närmare bestämt.

Det handlar om att Google nu har byggt ut sin smarta kamera Lens.

Grundfunktionen i Lens är densamma som tidigare: peka mobilkameran mot något och låt Google söka upp svaret baserat på bilden. Som vem som har skapat ett konstverk eller var du kan köpa ett visst sorts plagg. Den nya funktionen bygger vidare på det sistnämnda.

Det nya är att du, när du har fotat en produkt, kan få upp förslag på liknande produkter i den fysiska butik som du tänker besöka eller befinner dig i. Du får också upp prisjämförelser för att se hur priset i den aktuella butiken står sig mot andra. Inklusive i onlinebutiker, som Amazon.

Sen finns det förstås en hög brasklappar kring funktionen.

Den finns, som så ofta när det kommer till nya AI-kopplade funktioner från techjättarna, än så länge bara tillgänglig i USA. Det fungerar bara för en handfull produktkategorier: skönhet, leksaker och elektronik. Och det det gäller inte för alla handlare – bara de som delar lokalt saldo med Google.

Google Lens can now check prices and inventory when shopping in the real world

Perplexity lägger till shoppingfunktioner

Perplexity går ännu en gång i Googles fotspår. Den här gången lägger AI-sökmotorn till shoppingfunktioner.

Mer konkret innebär det här att den som använder Perplexity kan be om att få shoppingrekommendationer och sedan kunna köpa en föreslagen produkt, direkt från sökresultatet. Utan att behöva passera e-handlarens sajt.

Rekommendationerna presenteras med basinformation om produkten och säljaren, en kort beskrivning och för- och nackdelar med produkten. Det ska även gå att trycka fram recensioner och ”detaljerade nyckelfunktioner”. Det går även att söka efter produkter med en bild.

Men inte bara det: det ska även gå att spara sina kortuppgifter direkt hos Perplexity för att sänka köptröskeln ytterligare. Rekommendationerna ska vara ”oberoende” (enligt Perplexity) och inte innehålla några sponsrade produkter.

Men Perplexity passar dessutom på att bygga upp lite infrastruktur kring den nya sökfunktionen genom lanseringen av ett program för säljare. De handlare som går med i programmet har en högre chans att förekomma bland de rekommenderade produkterna, kommer kunna visa mer fyllig information vid produkter som rekommenderas och det går även lägga till enklicksköp för dessa handlare.

Sist men inte minst ska handlare också få tillgång till ett API som gör att de kan använda Perplexitys sökmotor på sina egna sajter.

Det är ett oväntat drag från Perplexity – åtminstone att det kommer så snabbt. Det visar också att Perplexity hoppas att merchant-programmet ska bli ett nytt intäktsben. På gott och ont, efter som det ”oberoende” upplägget får sig en törn i kanten när det krasst talat handlar om att den som betalar får synligheten. Lite samma trovärdighetsproblem som kring Perplexitys uttalanden om att annonsörer inte kan påverka de frågor som de sponsrar.

Det finns med andra ord en del frågetecken. Men det är en intressant Google-kopiering från Perplexity.

För att överhuvudtaget få tillgång till funktionen så finns det just nu dessutom två grundkrav: dels att du bor i (eller VPN:ar dig till) USA och dels att du betalar för Perplexity Pro.

Så ja. Det är verkligen en personal shopper-tjänst.

Perplexity introduces a shopping feature for Pro users in the US

 

AI – artificiell intelligens

iOS 18.2 gör det möjligt att prata direkt med ChatGPT via Siri

Om några veckor är det dags för version 18.2 av iOS. Och då ser det ut som att det kommer en funktion som Apple inte har pratat särskilt mycket om (ja, eller inte alls?): möjlighet att prata direkt med ChatGPT via Siri.

När Apple presenterade det allmänna upplägget kring externa AI-chattbotar inom ramen för Apples egen AI-plattform så var dessa tänkta att användas om Siri inte kan svara själv på en fråga. Siri försöker först svara via den AI-modell som bor lokalt i enheten, räcker inte den så kan Apple ringa hem till en större AI-modell i Apples molntjänst och om inte heller det är nog kan frågan skeppas vidare till den externa AI-boten. Och i dagsläget är ”extern AI-chattbot” bara ChatGPT – även om fler lär följa.

Men om några veckor släpps iOS 18.2 och där visar det sig att man kan tvinga Siri att prata direkt med Open AI utan att försöka sig på att svara själv. Om man, när man har triggat igång Siri exempelvis via en knapp på sina Airpods, så kan man sedan säga ”Ask ChatGPT” för att frågan ska skickas direkt dit.

Och även de efterföljande frågorna skickas dit, utan att man måste säga ”Ask ChatGPT” varje gång.

Och betalar man för ChatGPT Plus så ska man den här vägen också kunna prata med ChatGPT:s avancerade röstläge den här vägen.

Så ja. Du måste fortfarande först trigga Siri och därmed gå omvägen via Apple först. Och det finns säkerligen de som redan har lagt in genvägar som gör det enklare att direkt dra igång ChatGPT. Men det ger en fingervisning om hur hur integrationen med externa AI-chattbotar kan fungera hos Apple. Och det sänker tröskeln för normalanvändare.

(Däremot är det fortfarande bara engelska som gäller till en bit in på nästa år. Och då kanske funktionen samtidigt också släpps här.)

iOS 18.2 makes AirPods more powerful than ever, here’s why

ElevenLabs lägger till stöd för att bygga röst-AI-agenter

Ännu ett företag släpper en AI-agent. Den här gången: text-till-röst-tjänsten ElevenLabs.

Ja, eller rättare sagt: ElevenLabs gör det nu möjligt för utvecklare att ta fram sina egna röst-AI-agenter. Kort sagt anpassade AI-lösningar som kan skräddarsys hyfsat mycket utifrån vilket behov man har.

Det innebär att man kan ställa in saker som agentens huvudsakliga språk, första meddelande och allmän systemprompt för att ”avgöra agentens personlighet”. Man kan också välja vilken språkmodell som agenten ska använda (Googles Gemini, ChatGPT eller Claude) och röstens tonalitet.

Det går också att ställa in ett antal andra saker, som vilken röst som ska användas, hur snabbt den ska svara och hur långt ett samtal max kan vara (för att därmed kunna påverka hur mycket API-pengar som konversationen ska bränna).

Men man måste inte bara förlita sig på de tre ovanstående modellerna, man kan även koppla in sin egen om man sitter på den. Botens ”kunskapskälla” kan också vara andra slags format, som filer, en URL eller en hög text.

Det ska även gå att ange vilken slags data som ska samlas in av boten. Som att den skulle kunna be om namn och mejl vid exempelvis kundtjänstanvändning.

Så med andra ord handlar tjänsten om möjlighet att hyfsat enkelt kunna koppla samman ett antal funktioner och tjänster under ett paraply och sedan låta Eleven Labs hantera själva röstinteraktionen.

ElevenLabs now offers ability to build conversational AI agents

Mistral släpper större språkmodell och nya AI-funktioner

Franska AI-bolaget Mistral har presenterat några – eller rättare sagt en mindre hög – nyheter.

Pixtral Large: En ny, stor språkmodell.

Webbsökning: Mistral (ja, eller mer korrekt chattboten Le Chat) lär sig söka på webben på samma sätt som de flesta konkurrenter.

Canvas: Le Chat får nu det som bland annat Claude och ChatGPT har: en yta bredvid själva textfältet där du kan se det som har skapats. Om du ändrar i din instruktion så kan du se förändringarna slå igenom direkt istället för att behöva scrolla ned för att se resultatet.

Bättre förståelse av dokument: Le Chat blir bättre på att förstå ”stora, komplexa PDF-dokument” och bilder, inklusive att förstå exempelvis diagram och tabeller.

Bildskapande: Le Chat lär sig skapa bilder genom att tagteama in funktionalitet från Black Forest Labs.

AI-agent: Klart att även Mistral måste ha med AI-agentnånting. I fransmännens fall handlar det om att det ska gå att spara ”arbetsflöden”, alltså kedjeuppgifter som man gör om och om igen (exempel som ges är ett automatiserat flöde för att skanna in utläggsrapporter och hantera fakturor.

Mistral has entered the chat

Google Gemini får minne

Gemini har lärt sig ännu en ChatGPT-förmåga: den minns. Och då inte bara det som finns i en specifik chattråd, utan mer allmängiltiga saker.

Precis som hos ChatGPT så kan man ge boten instruktioner att minnas saker som den alltid ska ha i bakhuvudet när den svarar. Exempel som ges är att boten ska komma ihåg att någon är vegetarian, och därmed inte tipsa om kötträtter, eller att någon bara programmerar i ett visst språk och att kodningsförslag alltid ska baseras på det.

Det verkar än så länge bara vara ”vissa” Gemini-användare som har fått tillgång till funktionen, men det ser ut som att den håller på att rullas ut. Däremot fungerar den intressant nog bara på engelska i dagsläget. Och finns bara i webbjänsten, inte i någon av apparna.

Ja, plus att du måste betala för den. Det är nämligen bara de som prenumererar på Googles One AI Premium-abonnemang som får tillgång. Åtminstone i dagsläget.

Google’s Gemini chatbot now has memory

Google låter Android-användare dela filer direkt med Gemini för AI-analyser

Ännu en intressant funktion från Google. Android-användare får nu ett snabbare sätt att låta Googles AI-bot Gemini analysera filer.

Det blir nu möjligt att ”dela” en fil direkt till Gemini från en app, istället för att först öppna Gemini och sedan manuellt ladda upp filen.

Med andra ord är det en rätt liten förbättring, men en viktig sedan. Den sänker tröskeln mellan Gemini och resten av Android och apparna där, vilket gör det enklare för fler att både upptäcka och använda Googles ChatGPT-utmanare.

Gemini Nano Access Expanded to All Android Apps; Google Reportedly Adds Direct Image Sharing Support

Gemini som AI-bot i iOS kan dröja till 2025

Hur går det med arbetet att lägga till fler AI-tjänster än ChatGPT i Apples AI-plattformspaket? Bra fråga! Som bara Apple vet svaret på. Men nu kommer uppgifter om att det åtminstone kan dröja innan vi får se Googles motsvarighet Gemini här.

När Apple i våras presenterade Apple Intelligence så presenterade Apple sin lösning där Siri kommer att bli första anhalt för AI-uppgifter och om Siri känner att det behövs hjälp på traven så kan ChatGPT tagteamas in.

Det lär finnas flera anledningar till att Apple har valt det här upplägget. Att Apple ligger efter i AI-racet lär hamna en bit ned i den listan. Betydligt högre upp lär finnas att minska risken för monopolanklagelser och att det, precis som platsen som förvald sökmotor i Apples operativ, kan bli en intäktsmöjlighet.

Att Apple-analytikern Mark Gurman nu har landat i slutsatsen att det kan dröja till 2025 är inte särskilt konstigt. Apple ser oavsett inte ut att ha fått alla Intelligence-funktioner (i en första version) på plats förrän en bit in på nästa år. Ingen idé att börja böka in fler externa tjänster innan man vet att grunden funkar.

Men en sak är interessant i Gurmans spekulation: att det kan finnas en annan anledning till att Gemini-integrationen dröjer. Att det beror på att Apple vill ge ChatGPT ett ”exklusivitetsfönster”.

Med andra ord att Open AI ska få äga den här marknadsföringsplatsen under en period innan den släpps på för andra. Och det… känns inte alls särskilt orimligt.

Inga pengar ska ha bytt händer i samband med Apple Intelligence-avtalet mellan Apple och Open AI. Istället är det en tänkt quid pro quo som kickar in: Apple får in den populäraste gen AI-tjänsten för att boosta sitt eget AI-initiativ och Open AI får alltså kostnadsfritt marknadsföra sig mot Apples miljardpublik. Men det är inte omöjligt att en exklusivitetsperiod kan ha varit ett krav från Open AI:s sida.

Uppgiften låter ännu rimligare i ljuset av att Open AI sägs kräva av sina investerare att de inte plöjer in pengar i konkurrenter.

Det återstår att se om vi får veta hur det egentligen ligger till här. Och när Gemini blir valbar som förvald, extern chattbot i Apples operativ. För det lär oavsett handla om ”när” och inte ”om”.

Google Gemini Integration With Apple Intelligence Reportedly Delayed to 2025

Kategorier
AI - Artificiell intelligens IoT - internet of things Spaningar

Digitala spaningar vecka 9 2024 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Franska Mistral släpper sin första ChatGPT-utmanare

Ooooo. Nu har ChatGPT fått en riktigt vass utmanare. Känner att den här har potential att bli min stora AI-go to-tjänst.

I skuggan av de stora amerikanska AI-botarna och techbolagen så har franska Mistral seglat upp som en av de mest intressanta utmanarna. Mycket förstås för att de är EU-baserade och därmed ansluter sig till en liten men växande skara bolag som vill utmana techjättarna.

Men också för att Mistral valt open source-spåret snarare än de ”låsta” lösningar som Open AI, Microsoft och Google till största del bygger sina AI-tjänster på. Och för att Mistral… inte ens är ett år gamla, men redan har fått högvis med pengar kastade på sig.

Så, ni vet. 2000-talets internetboom all over again (och lär även här sluta med IT-bubbla för många satsningar och företag som har ”AInånting” som affärsidé.)

Nu har Mistral släppt en ny värstingspråkmodell som ska vara i nivå med GPT-4, alltså den senaste huvudversionen som driver ChatGPT. En som ironiskt nog… INTE är open source. Så Mistral går i Open AI:s fotspår även här. (Den som vill ha alla AI-porrspecs kring tokens och annat kan kolla in artikeln här nedan.)

Men det jag är mest exalterad över är att Mistral nu släpper sin första AI-chattbot. Sin egen ChatGPT, Google Gemini eller Microsoft Copilot, alltså. En som jag tror har enorm potential att sopa banan med konkurrenterna.

Varför? Därför att den är snabbare? Bättre? Billigare?

Nej, nej, nej. På grund av namnet. Mistrals chattbot heter… Le Chat.

Alla på en gång nu! Aaaaaaa LE CHAT!

Mistral AI releases new model to rival GPT-4 and its own chat assistant | TechCrunch

Mistral AI is launching a new flagship large language model called Mistral Large. It is designed to rival other top-tier models like GPT-4.

Microsoft investerar i Open AI-konkurrenten Mistral

Vad gör man om man konkurrensutreds av EU för sin investering i ett AI-bolag? Man investerar i ännu ett AI-bolag. Förstås.

Microsoft tycker inte att det räcker med att de facto-kontrollera det hetaste AI-företaget just nu – Open AI (eller åtminstone den kommersiella delen). Nu har Microsoft ingått ett flerårigt partnerskap med en av de hetaste AI-spelarna i EU, Mistral. (Som ironiskt nog grundades av avhoppare från Meta och Google.)

Men det går även här bortom bara ett samarbetsavtal. Microsoft investerar sig till en minoritetsägarandel även i Mistral. Office-paketet trycker in 15 miljoner euro för det.

https://www.bloomberg.com/news/articles/2024-02-27/microsoft-s-mistral-ai-investment-to-be-examined-by-eu-watchdog

Partnerskapet består av olika delar. Det handlar dels om att Mistrals språkmodeller kommer att bli tillgängliga via Microsofts molntjänst Azure, något som gör att Mistral blir andra AI-bolag ut att erbjuda kommersiella AI-språkmodeller via Azure. Och dels kommer de båda företagen att samarbeta med ”utvecklingen och utrullning av nästa generations stora språkmodeller”.

Det är med andra ord inte bara utvecklingen av tjänster inom generativ AI som rusar just nu. Även koncentrationen av vilka aktörer som har chans att vara med spela går i ett halsbrytande tempo.

Microsoft partners with Mistral in second AI deal beyond OpenAI

Microsoft is partnering with French AI startup Mistral to bring more AI models to its Azure platform. It’s the second major AI investment for Microsoft.

Klarna låter AI-chattbotar från Open AI hantera stora delar av kundtjänsten – men frågan är om det behövs AI för det

Dagens stora svenska AI-nyhet var att Klarna gick ut med att deras Open AI-drivna chattbot har kunnat göra 700 mänskliga kundtjänstarbetares arbete den första månaden. En nyhet som PR-mässigt blev en rejäl framgång för betalföretaget, eftersom de flesta som har skrivit om nyheten rätt mycket har upprepat pressreleasen rätt mycket rakt upp och ned.

Och det är absolut en inspiration kring hur man kan arbeta med AI kopplat till kundtjänstfrågor. Men samtidigt så kan det vara intressant att fundera lite mer kring vad Klarna faktiskt har fått ut av sin chattbot.

Boten har enligt Klarna haft 2,3 miljoner konversationer, som ska motsvara två tredjedelar av alla chattar som företagets kundtjänst hanterar. Nu har jag ingen aning exakt om hur frågorna ser ut och fördelas hos Klarna, men jag gissar att det ser ut som hos de flesta kundtjänster: att en stor del av alla ärenden är ”papegojfrågor” – där en kundtjänstmedarbetare svarar på samma enkla frågor om och om igen – med en liten del av dem är de ärenden är mer komplexa och som därmed tar relativt sett mest tid.

Och den frågor kan man många gånger hantera med lite vettig FAQ på en sajt. Eller funktioner som har funnits rätt länge, som att man får förslag på svar när man skriver i en meddelanderuta. Ja, eller att en chattbot gör samma sak.

Det är dessutom lite talande att den enda punkten som INTE är fetad i Klarnas pressmeddelande om allt som boten har åstadkommit är att ”kundnöjdheten är i nivå med mänskliga kundservicemedarbetere”. Säkert mycket för att inte leda till ännu mer debatterande om att ”AI tar alla jobb”, men det – och att Klarna går ut med det – lär säkert också delvis bero på artiklarna hyfsat nyligen om hur Klarnas kundtjänst fungerar.

Ja, eller kanske inte fungerar, mycket beroende på att instruktionerna i många fall har varit att förhala ärenden och hänvisa tillbaka till säljarföretagen. I det sammanhanget ligger säkert nöjdhetsribban hyfsat lågt.

Och en stor anledning till kundtjänster överhuvudtaget behövs är därför att ett företag har brustit i det som de ska leverera. Annars slipper vi helst lägga till på att göra det.

Som sagt: bra inspiration kring hur man som företag kan arbeta med AI som del av verksamheten. Men en stor del av det som Open AI-botarna nu har gjort kan hanteras på andra sätt som inte kräver investering i AI-tjänster. Att det alltså kan vara onödigt att börja gå över ån efter vatten.

Klarnas AI-assistent hanterar två tredjedelar av kundservicechattarna redan under sin första månad | Klarna International

Klarnas AI-assistent hanterar två tredjedelar av kundservicechattarna redan under sin första månad February 27, 2024

Googles meddelandeapp får AI-stöd med Gemini

Den senaste veckan har det rasat in nyheter från Google om Gemini. Alltså om Googles motsvarighet till ChatGPT och tekniken som driver den. Här kommer ännu en: Gemini flyttar in.i Googles/Androids meddelandeapp.

Det betyder att de som använder den appen nu kan få hjälp att skriva meddelanden, men också ”få hjälp att planera event eller bara att prata med om du är uttråkad”. Och precis som på andra ställen kan man ifrågasätta hur relevanta de här funktionerna är för den stora massan Android-användare. Inte minst att få sin egen AI-chattbot att prata med när ingen annan är sugen på att chatta.

Men hej. Klart att Google ska trycka in generativ AI även i sin meddelandeapp. Because AI.

Google brings Gemini to Messages and adds AI text summaries for Android Auto

Google announced a slew of Android updates at MWC 2024, including the addition of Gemini to the Messages app and AI summaries for texts received while using Android Auto. There are also new accessibility features and casting controls for Spotify.

FlowGPT vill vara appbutiken för alla AI-appar

I slutet av förra året tog ChatGPT-ägaren Open AI ett rätt stort kliv i att bygga upp ett ekosystem kring chattbotar: en egen appbutik. Ja, eller en ”GPT-butik”, där användare kan dela sina egna anpassade versioner av ChatGPT och ladda ner andras. Planen är att det ska gå att tjäna pengar på sina GPT:er, på samma sätt som för en mobilapp.

Men ChatGPT-appbutiken är just för ChatGPT. För inte så länge sedan presenterade Microsoft motsvarande stöd för att skapa ”appar” för Copilot, företagets svar på ChatGPT. Även här så gäller dessa appar specifikt för Microsofts chattbot.

Nu vill FlowGPT ändra på den saken. De vill bli the AI app store to rule them all. Ja, eller åtminstone samlingsplatsen för appar som bygger på generativ AI, alltså den AI-teknik som gör att AI-algoritmer kan skapa innehåll på kommando.

Och plattformen ska alltså inte vara kopplad till en specifik språkmodell, alltså en specifik chattbots ”programmeringsspråk”. Det ska gå att hitta appar för flera på ett och samma ställe, vilket innebär att FlowGPT bland andra samlar Googles, Open AI:s, Anthropics och Metas lösningar under samma tak.

Nu har det funnits lite liknande upplägg nära nog så länge som generativ AI har funnits (ja, alltså när världen lärde sig det begreppet i och med lanseringen av ChatGPT). Fast då har det mer handlat om att man kan komma åt olika chattbotar via ett samlat gränssnitt. Här ska användare kunna dela de anpassade varianter av olika chattbotar som de har byggt.

Vilket för oss till det som därför är det mest intressanta med FlowGPT: det ska redan kunna gå att tjäna pengar på sina AI-appar här. Det ska nämligen gå att ”ge dricks” till appskapare, på samma sätt som när man köper en app eller visar uppskattning för en innehållsskapare i sociala medier.

https://techcrunch.com/2024/02/26/flowgpt-is-the-wild-west-of-genai-apps/?1

Tumbler och WordPress kan sälja användares data till AI-tränande

I förra veckan blev det klart att Reddit har skrivit under ett avtal som ger Google rätt att träna sina AI-botar på Reddits innehåll. Prislapp uppskattad till 60 miljoner dollar. Kort därefter började några användare se tecken på att frågesajten Quora håller på att förbereda sig för något liknande. Och nu kommer uppgifter om att två andra företag är på gång att göra samma sak: Tumblr och WordPress.

Ja, i det senare fallet så handlar det om Automattic, företaget som äger WordPress. com. Så det innebär alltså innehåll som ligger på sajter på Automattics egen bloggplattform, inte alla sajter som är byggda på fristående installationer av publiceringsverktyget.

I de två sistnämnda fallen så ser det inte ut som att det är Google som är sugna på att köpa sig till träningsläger, utan ChatGPT-utvecklaren Open AI och bild-AI:n Midjourney.

Det återstår att se om det här blir verklighet, men med tanke på Reddit-affären så känns det rimligt. Till och med troligt. Med tanke på att 60 millar är en rätt stor hög pengar satt i relation till Reddits totala omsättning så vi kan tänka oss att fler kan vara sugna på att få intäkter den här vägen.

Och det här sätter fingret på en av de stora utmaningarna för de stora AI-företagen: få tag i träningsdata. Eller rättare sagt: få tag i upphovsrättsskyddad träningsdata. Vilket är… väldigt mycket av innehållet på nätet.

Så här långt har de flesta tränat lite hej vilt på allt innehåll på nätet, med lite lex Google som mentalt argument, men efter som data som bekant har ett väldigt stort värde överlag i dagens uppkopplade värld så börjar de sajter som har stått för träningsinnehållet vara sugna på att få ersättning. Får de inte ersättning så kan de, som flera stora tidningar redan har gjort, börja blocka AI-botarna. Vilket gör att botarna får sämre underlag att träna på.

Vilket för oss till en annan intressant diskussion: vem är det egentligen som äger innehållet hos Reddit, Quora, Tumblr och WordPress? Det är åtminstone inte företagen som nu sluter avtalen som har skapat innehållet, det är tjänsternas användare. Och det man nu gör är det som Facebook hade som mantra när Cambridge Analytica stormade som värst: vi säljer inte användares data.

Lägg till att EU nu håller på att styra upp hur AI får och kan användas så lär det här bli frågor som kommer att ge upphov till en hel del diskussioner framöver.

Tumblr and WordPress to Sell Users’ Data to Train AI Tools

Internal documents obtained by 404 Media show that Tumblr staff compiled users’ data as part of a deal with Midjourney and OpenAI.

Google betalar tidningar för att skapa AI-innehåll

Intressanta uppgifter. Google har ingått ett AI-avtal med publicister – om att skapa AI-innehåll.

Den senaste veckan har Reddit slutit ett avtal med Google som ger sökjätten rätt att träna sina AI-botar på Reddits innehåll, något som har följts av uppgifter om att Quora, Tumblr och WordPress kan vara på gång att göra samma sak. Parallellt med det rapporterats att ChatGPT-utvecklaren Open AI jagar avtal med publicister för att få till liknande träningsläger.

De senaste Google-uppgifterna är dock lite annorlunda. De handlar om att Google betalar publicister för att skapa innehåll med ett AI-verktyg som inte finns tillgängligt brett än. Det handlar om ”en handfull” oberoende publicister som får betatesta verktyget under 12 månader. I utbyte vill Google få tillgång till analysdata och ”återkoppling”. Få hjälp att vässa plattformen, alltså.

Tanken med initiativet är att låta ”underbemannade” publicister ”skapa aggregerat innehåll mer effektivt genom att indexera nyligen publicerade rapporter skapade av andra nyhetsorganisationer, som myndigheter och närliggande nyhetstjänster, och sedan summera och publicera resultatet som en ny artikel”.

Men det stannar inte där. Google sägs också betala publicisterna en femsiffrig dollarsumma på årsbais som tack för hjälpen. Med pengarna följer dock ett krav att tidningarna som ingår i samarbetet publicerar tre artiklar skapade av verktyget varje dag. Ja, och som har innehållsgranskats av en människa före publicering.

Som artikeln konstaterar så finns det förstås de som inte tycker att det här är något som är i linje med Google News Initiative – som är paraplysatsningen där Google har som mål att hjälpa mindre tidningar (för att minska kritiken om att Google snor alla annonspengar). Att omskrivningarna handlar om att sno material från andra och skriva om dem (vilket å andra sidan en människa annars kanske hade gjort). Plus att ”AI-materialet” kan dra trafik från originalkällan.

Och det senare är ett intressant argument. För om det är Google som tillhandahåller verktyget och som sedan rankar innehållet som ska synas i sökmotorn – vad är det då som säger att Google inte kan boosta synligheten för att på så sätt marknadsföra sitt nya verktyg?

Känns som att EU och konkurrensmyndigheter i andra länder har ett helt nytt område att fundera på här.

Google Is Paying Publishers Five-Figure Sums to Test an Unreleased Gen AI Platform

Google is paying a handful of news publishers to test gen AI products.

Adobe presenterar AI som kan skapa musik från text

Generativ AI är… lite hett just nu. Vilket gör att ungefär allt och alla vill trycka ut olika tjänster och funktioner som använder den här tekniken för att skapa innehåll. Innehåll som text, bild och video. Ja, det är åtminstone de som har fått mest uppmärksamhet. Ljud, inte lika mycket. Definitivt inte musik. Nu presenterar Photoshop-företaget Adobe precis en sån tjänst.

Project Music GenAI Control – som är det konsumentupplysningsmässigt korrekta men väldigt osexiga namnet på produkten – funkar precis som de flesta generativa Ai-funktioner som har dykt upp det senaste året: beskriv med text vad du vill ha. Det ska också gå att börja med en ”referensmelodi”, så jag antar att man kan ladda upp en låt som illustration på vad man är ute efter.

I det här fallet så handlar det om att beskriva vad för slags musik du vill ha. Som stämning plus genre (sorgsen jazz som är ett exempel som ges).

Du kan sedan jobba vidare med det som AI:n skapar, även här som de flesta liknande tjänster fungerar. Alltså bygga vidare genom att förlänga, ändra tempo, justera intensitet och en massa annat.

Det känns som att verktyget inte bara kommer att jobba med textgränssnitt, utan även mer vanliga funktioner från mer traditionella musikskaparverktyg.

Nu är Adobe förestås inte först ut med att erbjuda en tjänst som kan skapa musik från textxbeskrivningar, men det de flesta har gemensamt är att företagen bakom inte alls verkar lägga ligga mycket krut på ljudskapar-AI-tjänster. Vi får se hur bra Adobes nya tjänst är när den väl släpps ut.

Adobe reveals a GenAI tool for music | TechCrunch

Adobe is experimenting with a platform that allows users to generate — and edit — music and audio using AI.

Tim Cook utlovar att Apple ska ”bryta ny mark” inom generativ AI 2024

Nu jäklar! Glöm Open AI, Microsoft, Google och alla andra företag som springer benen av sig för att trycka ut generativ AI på alla sätt som bara går. Nu är det dags för Apple. Och de kommer att ”bryta ny mark” inom generativ AI i år!

Bara att börja storshoppa Apple-aktier!

För det är ju absolut inte så att Apple i allmänhet och Tim Cook i synnerhet har en tendens att ta till… väldigt många och stora superlativ när de beskriver ungefär minsta lilla Apple-nyhet.

”Bryta ny mark” inom ett område kan alltså krasst talat betyda ”det är första gången som Apple gör det”. Och förmodligen ännu mer korrekt ”det är första gången som Apple kopierar vad alla andra redan har betatestat åt oss och fått människor att börja använda så nu snor vi det och gör det bara mer lättanvänt och snyggare”.

Anyho.

Apple har – sin vana trogen – bott in sig på läktarplats. Än så länge har Apple gjort ungefär inget alls på det här området. Ja, eller Apple har i allra högsta grad redan gjort några små funktioner – som möjligheten att ta bort bakgrunden i bilder. Men eftersom de funktionerna släpptes före ChatGPT så var det inte generativ AI, eftersom ingen hade hört talas om generativ AI då och det inte gjorde något för aktiekursen att nämna det.

Men i vår så kommer Apple att presentera iOS 18. Och då kan vi anta att det kommer finnas en hel del generativ AI inbyggt i det mesta. En del av det kommer till och med att ha riktigt praktisk nytta för den större andelen användare. Faktum är att det har spekulerats i att nästa stora uppdatering av iOS kan bli den största på bra länge.

Sist när vi fick en sån uppdatering så handlade de två efterföljande om att rätta till alla buggar och få systemet att fungera som det var tänkt. Så there’s that.

Men oavsett så kommer det att bli intressant att se hur Apple kommer att ta sig an AI:andet. Även om vi nog ska ha markbundna förväntningar på de banbrytande ambitionerna.

Tim Cook Says Apple Will ’Break New Ground’ in Generative AI

Apple today held its annual shareholders meeting, and during the event, Apple CEO Tim Cook once again commented on Apple’s AI plans. Cook said…

Alibaba presenterar känslomässigt AI-videoskapande

Ännu en dag, ännu en generativ AI-funktion från ett av de stora techbolagen. Den här gången är det kinesiska e-handelsjätten Alibaba som presenterar en lösning som kan animera en bild.

Med det handlar inte bara om att det går att snurra en bild 360 grader eller att man kan få ett bildmotiv att röra sig lite i största allmänhet. Motivet i bilden ska kunna visa ”känslomässiga ansiktsuttryck och huvudrörelser som nära matchar ett tillhandahållet ljudspår”.

Så kort sagt: det ska gå att göra TikTok-videos. Alltså få bilder att mima till en låt. Ja, eller förstås annat ljud om man känner för det.

Alibabas lösning visar att AI-världen börjar kunna hitta lite mer konsumentvänliga namn på sina produkter. Funktionen heter ”Emote Portrait Alive”. Eller EMO. Det… kan eventuellt vara så att de kom på förkortningen först.

Alibaba’s AI video generator just dunked on Sora by making the Sora lady sing

A new facial animation framework from Alibaba called EMO combines audio and image inputs to create impressive AI-generated videos.

Elon Musk stämmer Open AI för kontraktsbrott

Sedan Elon Musk köpte Twitter har han gjort stämningar och/eller hot om stämningar till sina nya paradgrenar. Nu är det dags igen. Den här gången är ChatGPT-utvecklaren Open AI som är i siktet.

Elon Musk var en av grundarna till Open AI och ska vara den som sköt till mest pengar när organisationen sjösattes. Det Musk då var med och finansierade var en icke-vinstdrivande organisation som hade som mål att driva AI-utvecklingen framåt ”för mänsklighetens bästa”. I linje med det här så delade Open AI sin forskning med andra.

2018 klev så Musk av Open AI:s styrelse med argumentet att det skulle innebära en intressekonflikt då Tesla satsade allt mer på AI för sin satsning på självkörande fordon. Enligt Open AI-VD:n Sam Altman så kände Musk att Open AI hade halkat efter andra på AI-området och ska då ha föreslagit att han helt enkelt skulle ta över organisationen, men fick inte gehör för det förslaget.

Året efter, 2019, så ställde så Open AI om från icke-vinstdrivande till vinstdrivande – åtminstone del av verksamheten. Och det är det som nu har fått Musk att lämna in sin stämning.

Musk anser helt enkelt att Open AI:s kommersialisering är ett ”kontraktsbrott” jämfört med det som han ursprungligen gick med på att stoppa in pengar.

Och, ja, hela det juridiska kring det lämnar jag helt därhän. Har ingen insikt i avtalet eller hur bindande det är gentemot Musk.

Men vi kan konstatera att Open AI alltså ställde om från icke-vinstdrivande redan 2019. Musk stämning kommer nu – fem år senare.

Vad har då hänt sedan dess? Ja, förstås att Open AI nu är ett av planetens hetaste företag och har fått en jättehög pengar från Microsoft. Samtidigt som Elon Musk har rullat igång sitt egna AI-företag X AI. Och lanserat en ChatGPT-utmanare i FKA Twitter. Och har enorma utmaningar med ekonomin – både för X och på ett personligt plan.

Om jag inte visste bättre så skulle jag tro att Musk stämmer Open AI för att kunna betala räkningarna.

Elon Musk sues OpenAI for abandoning original mission for profit

Billionaire entrepreneur Elon Musk has sued ChatGPT-maker OpenAI and its CEO, Sam Altman, saying they abandoned the startup’s original mission to develop artificial intelligence for the benefit of humanity and not for profit.

 

IoT – internet of things

Apple skrotar sin satsning på självkörande bilar

Så har Apples mesta på/av-projekt till slut kört i diket. Permanent. Apple skrotar sin satsning på en självkörande bil.

Ja, det är inte officiellt utan baserat på interna källor, som rapporterar att beskedet ska ha kommit under ett internt möte. Vilket är helt i linje med hela projektet som sådant. Eftersom det aldrig varit helt officiellt att Apple faktiskt har försökt bygga en egen bil.

Så Apple har kanske/sannolikt skrotat sitt projekt att kanske/sannolikt bygga en iCar.

Passande (eller ironiskt, beroende på vem du frågar) nog så firar Apple alltså tioårsjubileet av sitt iclke-projekt med att lägga ned det. Med exakt noll resultat att visa upp.

Okej, förhoppningsvis har Apple lärt sig en helt del som de förhoppningsvis kan ha användning av till annat. Det är väl inte alls omöjligt att exempelvis lidar-lösningar skulle kunna – eller redan har – letat sig in i Vision Pro.

Men oavsett kan vi konstatera att Apple har lärt sig samma läxa som Elon Musk, Google och andra: det är svårt att bygga helt självkörande bilar. Åtminstone om de inte ska köra ihjäl människor. Därför kom bara för något år sedan uppgifter om att Apples icke-projekt styrts om till att bli en enklare iBil. Typ en rätt vanlig elbil med äppellogotyp. Men nu verkar tålamodet ha tagit slut hos Tim och de övriga i Apple-toppen.

Det sägs att uppemot 2000 personer nu får gå. Ja, eller några har redan omplacerats och några har 90 dagar på sig att Squid Games-hitta ett annat jobb på firman. Lite beroende på hur det går så kan det till sist göra att Apple går samma väg som övriga techgiganter och tvingas göra en massuppsägning.

Ett område dit bilresurser verkar allokeras om till? Generativ Ai. Because generativ AI.

Apple cancels its autonomous electric car project and is laying off some workers | TechCrunch

The decision brings an end to a decade-long attempt to enter the automotive space, which involved numerous pivots and thousands of workers.

Apple la över 100 miljarder kronor på sitt havererade bilprojekt

10 miljarder dollar. Eller över 100 miljarder kronor. Så mycket har New York Times kommit fram till att Apple plöjde ned i sitt bilprojekt – som de nu definitivt stängde ned nu i veckan. Efter 10 år.

Ja, eller förmodligen stängde ned. Baserat på interna källor. Så ingen officiell nedstängning, alltså. Vilket känns helt rimligt – eftersom Apple aldrig officiellt har haft något bilprojekt. Även om de exempelvis har fått tillstånd från Kalifornien att testa just självkörande bilar.

10 miljarder utslaget på tio år är, knasigt nog, inga större pengar för Apple. Men det är fortfarande hysteriskt mycket pengar. Så det kan nog pengamässigt vara Apples största misslyckande någonsin.

Det kanske enskilt mest intressanta här var något som jag inte tror att jag hade koll på innan. I så fall har jag glömt det: innan de började försöka bygga bil helt själva så förde Apple samtal med Elon Musk om att köpa Tesla. Den biltillverkare som ironiskt nog hårdnackat vägrat Apple Carplay i sina bilar.

Apple Spent More Than $10 Billion on Apple Car Before Canceling Project

Apple spent more than $10 billion working on the Apple Car over the last decade, according to a report from The New York Times that details the…