Kategorier
AI - Artificiell intelligens Sociala medier Spaningar

Digitala spaningar vecka 7 2024 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

Sociala medier

Apples iMessage behöver inte öppna för externa chattjänster

Hör ni? Det där skriket? Det är ljudet av Mark Zuckerberg som kör ett extra hårt wannabe-MMA-burfajtsträningspass. Kombinerat med primalskriksterapi.

Den 6 mars, alltså om bara ett par veckor, börjar Digital markets act gälla. Den ena av EU:s två stora techregleringslagar som siktar in sig på de allra största plattformarna. De som EU kallar nätets ”grindvakter”. Alltså de tjänster som alla i praktiken måste gå via för att överhuvudtaget kunna använda internet. Nu har EU lite i elfte timmen landat i ett beslut gällande ett av de stora frågetecken som har funnits kvar.

Apples meddelandetjänst iMessage… omfattas inte av Digital markets act.

Vilket är… oväntat.

Ja, eller det var oväntat redan när iMessage för flera månader sen saknades i listan över de tjänster som kommer att drabbas extra hårt av lagen. Helt enkelt därför att iMessage (precis som Microsoft Edge och Bing) formellt uppfyller alla villkor för att klassas som en Very Large Online Platform enligt EU:s definition. Ja, eller en VLOP. (Ja, det låter som en korsning mellan ett flygande skepp i Star Wars och en skurkorganisation i en Bond-film.

iMessage har nämligen över 45 miljoner månadsanvändare och över 10 000 ”aktiva företag” i EU. Apples omsättning och marknadsvärdering ligger också långt över kraven.

Men Apple hävdade (förstås) att iMessage är ”småskaligt jämfört med andra meddelandetjänster”. Med ”småskaligt” i en väldigt relativ betydelse.

Och det köpte alltså EU. iMessage är inte en så pass dominerande plattform att de ska omfattas av Digital markets act. (Jag läste någon spekulation om att det beror på att det är för få företag som använder tjänsten, vilket då tydligen räcker.) Vilket i sin tur innebär att iMessage slipper öppna sin tjänst för konkurrenter. Något som Meta däremot kommer att tvingas till. För såväl WhatsApp som Messenger.

Vilket för oss över till Marks frustrationsworkout.

 Nu har Apple dock öppnat för att de tänker stödja RCS-standarden – som är efterföljaren till sms – senare i år. Vilket åtminstone gör Google glada. Vi kan tänka att den manövern nog är ett försök från Apple att inte behöva öppna iMessage ytterligare.

Så milt sagt oväntat att EU lät iMessage slippa undan. Men vi kan nog lugnt anta att sista ordet inte är sagt här. Det är förmodligen så att beslutet kommer att anmälas dagen efter det att lagen börjar gälla. Senast.

Apple won’t have to make iMessage work with other messaging services, EU says

The EU has determined that Apple’s iMessage and Microsoft’s Bing and Edge aren’t dominant enough in their markets to be subject to stricter regulation. As such, iMessage won’t need to comply with the Digital Markets Act, and Apple won’t need to make it interoperable with other messaging services.

Bluesky och Mastodon grälar över protokollfrågor

Ha. Jätteroligt. Bluesky och Mastodon – de två hetaste Twitter-alternativen innan Meta dödade den frågan – har nu börjat gräla. Eller användare på plattformarna åtminstone. Och det handlar om att de… inte vill öppna sig för varandra. Alltså precis det som var den stora poängen när de lanserades – att de inte skulle vara stängda tjänster som Meta, Snapchat och TikTok

Poängen var att man skulle kunna kommunicera med användare mellan olika tjänster – som att WhatsApp och Snapchat skulle kunna skicka meddelanden mellan varandra. Användare skulle alltså inte behöva ha samma tjänst för att kunna kommunicera eller dela inlägg med varandra. Det ska också bli lättare att hoppa mellan olika tjänster, genom man kan ta med sig sin följarskara så att säga.

Det här skulle bli möjligt genom att tjänsterna bygger på samma grundteknik (det går förstås att kommunicera mellan plattformar även utan detta, men om alla är byggda enligt samma grundmall så är det enklare). Men Bluesky och Mastodon har olika bottenplattor. Bluesky, med rötterna i gamla Twitter, bygger på ett protokoll som heter AT medan Mastodons heter ActivityPub.

Det innebär att de två tjänsterna inte direkt kan kommunicera med varandra. Det fick en utvecklare att ta fram en ”brygga” mellan dem. En lösning som helt enkelt gjorde det möjligt att koppla ihop de två protokollen.

För att göra en lång historia kort så verkar grälet ha handlat om möjligheten att slippa att inlägg ska dyka upp på ställen där man inte ville. Kort sagt de vi har sett hos de stora sociala plattformarna: behov och önskemål om ”close circle” eller liknande, där man kan begränsa det man lägger ut till en mindre skara människor.

Men oavsett så kan det ändå bli lite vägvalsfråga. Om vi ska ha mer öppna protokoll, vilket eller vilka ska det då bli? Det kan vara så att – ironiskt nog – Meta redan har avgjort vilket protokoll som ska användas för de öppna sociala medierna. Helt enkelt därför att Threads ska fungera just med ActivityPub.

Bluesky and Mastodon users are having a fight that could shape the next generation of social media | TechCrunch

As decentralized social networks become more popular, the way different protocols interact could set the stage for the future of the web.

 

AI – artificiell intelligens

ChatGPT börjar minnas

Ännu en ny funktion i ChatGPT. Nu har AI-boten lärt sig att… minnas. Den kommer kort sagt ihåg att den ska komma ihåg.

Vad innebär det här? Det är en utbyggnad av ”förpromptar”. Att man alltså kan ange vissa förutsättningar som ChatGPT alltid ska ha i åtanke när den svarar och interagerar med dig.

Det här är en blandning av sånt som ChatGPT själv lär sig genom interaktionerna med dig och sånt som du aktivt kan tala om för den att den ska komma ihåg.

Exempel som ges på vad det här kan innebära är att du skriver (ja, eller säger) att du föredrar att få mötesanteckningar formaterade på ett visst sätt, att du talar om för ChatGPT att du äger ett kafé, att du anger att du har ett barn som älskar maneter (because okej?) eller att du är lärare som föredrar att få förslag på lektioner som har en viss längd för en viss ålder och att de ska kompletteras med efterföljande aktiviteter.

I inställningarna kan du se vad ChatGPT kommer ihåg om dig – oavsett i vilken enhet som du använder ditt konto – och här kan du få den att glömma sånt den kommer ihåg.

Nu är det ett test, så det återstår att se när, hur och i vilken form den kan bli tillgängligt i skarp version. Men det är oavsett två saker som är extra intressanta i Open AI:s presentation av den nya funktionen.

Den ena år att man aktivt kan få ChatGPT att komma ihåg saker genom att helt enkelt skriva eller säga ”kom ihåg det här”. Det andra är att minnesexemplen som ges är av betydligt mer privat karaktär än hur de flesta använder ChatGPT. Det är om man så vill betydligt mer Snapchats My AI än The Office (ja, inte tv-serien då).

Och jämfört med förpromptar så är det betydligt mer, tja, mänskligt att helt enkelt be boten att komma ihåg saker. Precis som när man interagerar med människor.

Open AI vill helt enkelt att du ännu mer ska se på ChatGPT som din kollega. Ja, eller till och med din vän.

Dessutom göra tjänsten ännu mer tillgänglig för fler. Även de som springer skrikande från konstiga ord som ”prompt”.

Memory and new controls for ChatGPT

We’re testing the ability for ChatGPT to remember things you discuss to make future chats more helpful. You’re in control of ChatGPT’s memory.

Open AI introducerar text-till-video-AI-modellen Sora

Dags för ännu en tjänst från ChatGPT-skaparen Open AI. Och efter text och bild så är det nu dags för nästa naturliga steg: video.

Fast det känns inte riktigt som en seriös tjänst för att komma från Open AI. Därför att videofunktionen heter… Sora. Ett alldeles, helt vanligt namn utan en ingenjörsöverdos konsonanter.

Sora kan oavsett bristen på obegripligt namn skapa ”mycket detaljrika scener, använda komplexa kamerarörelser och hantera flera karaktärer med levande känslor”. Det handlar kort sagt om realistiska klipp som, precis som Open AI:s övriga tjänster, kan skapas bara genom att i text skriva vad man vill ha.

Det finns däremot en längdbegränsning på 1 minut för de klipp som skapas av Sora. Och den som är sugen på att testa Sora ska nog inte börja hålla andan riktigt än. Sora är fortfarande i ett väldigt tidigt och kommer nu att dels börja stresstestas internt samtidigt som ”ett antal” designers, filmmakare och annat utvalt videofolk bjuds in för att ge sin återkoppling kring hur modellen ska finjusteras.

Det återstår också att se hur bra Sora står sig jämfört med exempelvis Runway, men de exempel som Open AI delar ser onekligen imponerande ut.

OpenAI on LinkedIn: Generated by OpenAI's text-to-video AI model Sora | 1,943 comments

Introducing Sora, our text-to-video model. Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple… | 1,943 comments on LinkedIn

Googles senaste AI-modell kan hantera långt mycket mer data än konkurrenternas

I veckan var det dags för Google att lyfta sin AI-språkmodell Gemini till version 1.5. Släpps för utvecklare och enterprise-kunder nu och en utrullning mot konsument kommer att ske ”snart”.

Och, ja, som vanligt är den vassare och snabbare än ettpunktnollan. Men det som Google är extra nöjda med är att den senaste uppdateringen gör att Gemini kan hantera 1 miljon tokens. Jämfört med 1280 000 för GPT-4 (den modell som driver ChatGPT).

Det betyder kort sagt att Gemini kan hantera större datamängder in. Med andra ord att man kan skriva betydligt längre kommandon till den. Väldigt mycket längre. Enligt Google så motsvarar det ungefär 10 eller 11 timmar video eller ”tiotusentals” rader kod. Och Google fipplar runt med stöd för 10 miljoner tokens.

Med andra ord är det en… hel massa A4-sidor text som man kan mata in.

Och det här är… förstås redan långt bortom vad de flesta normalanvändare behöver. Särskilt som det som de flesta skriver in i ChatGPT är några meningar långt.

Men så är målgruppen här primärt inte gemene man, utan snarare företagsändamål. Som att kunna cruncha en herrans massa mängd företagsdata och låta AI:n tugga sig igenom den och komma med insikter.

Överlag så är det väldigt mycket megahertz- eller megapixelrace när AI-bolagen presenterar sina uppdateringar. För många så är skillnaden i praktiken inte jättestor i slutändan. Modellerna blir hela tiden lite snabbare och lite bättre på att utföra uppgifter för varje generation. Ungefär som våra mobiler.

Gemini 1.5 is Google’s next-gen AI model – and it’s already almost ready

After launching Gemini Pro, Nano, and Ultra 1.0, the company is now getting ready to launch its successor, which comes with performance increases and a huge context window.

En fyraåring har tagit till sig 50 gånger mer information än de största AI-språkmodellerna

Ni vet alla brakmegastora språkmodeller som rullar under de AI-tjänster vi använder idag, inte minst generativa AI-lösningar som ChatGPT? Hur de har tuggat sig igenom bisarrt stora mängder data som del av sin träning och hur de olika AI-bolagen kämpar med varandra om att kunna visa upp den största modellen? Här kommer ett intressant inlägg i debatten från Metas AI-chef Yann LeCun. Eller rättare sagt: han sätter saker och ting i intressant kontext.

Enligt LeCun så har en fyraåring tagit till sig 50 gånger mer information än de största språkmodeller som finns idag.

Nu kommer jag inte ifrågasätta siffrorna och nivåerna, helt enkelt därför att jag har för dålig koll. Men det känns knasigt nog helt rimligt.

För ju mer vi lär oss om hur maskiner som tränas på att ”vara mänskliga”, desto mer imponeras jag av oss som människor. Och det som naturen har skapat åt oss.

[Video] Eric Vyacheslav on LinkedIn: "A 4-year-old child has seen 50x more information than the biggest LLMs… | 80 comments

”A 4-year-old child has seen 50x more information than the biggest LLMs that we have.” – Yann LeCun 20mb per second through the optical nerve for 16k wake… | 80 comments on LinkedIn

Apple presenterar ny AI-språkmodell för animering av bilder

Apple har inte… riktigt gått ut med lika många generativa AI-funktioner som Microsoft och Google. Eller, ja, egentligen inga alls.

Eller rättare sagt: de har gjort precis det tidigare – som funktionen som kan ta bort bakgrunden i bilder – men eftersom de funktionerna släpptes före ChatGPT och eftersom Apple inte kallade dem för ”generativ AI” (because inte en fras som 99,9 % av alla människor på planeten kände till före ChatGPT) så räknas de inte.

Men det ryktas om att Apple kommer att knö in en drös AI-grejer i nästa uppdatering av sina operativsystem i höst. Och fram till dess så presenterar de allt fler AI-språkmodeller. (”Kolla på oss! Vi kan också A! Vi kan massor!”)

Här kommer den senaste. En genomgång av en funktion som kan animera bilder. Apples svar på exempelvis Runway, alltså. Även om det på exemplen i Apples underlag inte ser riktigt lika avancerat ut som de andra tjänster som finns därute. Det ser krasst talat mer ut som de där gif-födelsedagskorten som var kul att skicka för 15 år sen.

Det är oavsett inte en funktion som finns tillgänglig för allmänheten. Det är egentligen bara en forskningsrapport där Apple går igenom hur de tar sig an det här innehållsformatet.

Men det som däremot är intressant är det vi inte vet. Hur långt Apple faktiskt har kommit på AI-området (ja, det generativa AI-området). Eftersom Apple helt enkelt inte har presenterat några riktigt skarpa applikationer.

Apples har rätt länge hånats för att Siri fortfarande inte har kommit längre smartnessmässigt, trots att röstassistenten har många år på nacken. Stalltipset är att Apples lösningar inte kommer att vara lika avancerade som det Open AI, Microsoft och Google har tagit fram. Men bara att Apple börjar lägga till den här typen av funktionalitet lär sannolikt även denna gång innebära att Apple lyfter ett helt område. Och på riktigt gör det mainstream. Eftersom Apple är Apple.

I juni får vi sannolikt de första konkreta exemplen på det Apple har lyckats få till så här långt.

Apple’s Latest AI Tool Can Animate an Image Based on Your Description

Apple has made another addition to its growing AI repertoire with the creation of a tool that leverages large language models (LLMs) to animate…

Slack får ny AI-assistent

Så har det blivit dags för Slack att (förstås) få mer AI-smartness. Det handlar om produkten med det konsumentupplysningskorrekta namnet Slack AI som började testas i slutet av förra året. Nu rullas den ut.

Ja, för de som kör enterprise-varianten av Slack. Och ja, man måste betala extra för AI-tillägget.

Oavsett, Slacks nya AI-kompis ska kunna göra ungefär det som motsvarande botar i andra kontorsverktygssviter gör.

Det innebär att man kan få sammanfattningar av konversationer, inklusive vem som har sagt vad, och att man kan få en sammanfattning av olästa meddelanden. Eller sammanfattningar av meddelanden för en viss tidsperiod.

Det blir också möjligt att fråga AI:n exempelvis saker i ett projekt, där svaret baseras på informationen som finns i Slack om det. Som meddelanden inom projektet. Det går även att få sammanfattningar av dokument lagrade i Slacks Notion-funktion.

Slack AI is here, letting you catch up on lengthy threads and unread messages

Slack is rolling out a bunch of new AI features, which are supposed to help you summarize threads, get recaps on discussions within channels, and search through previous messages.

Google använder AI för att hjälpa klimatet

”AI” är som bekant numer synonymt med ”ChatGPT”. Ja, eller åtminstone ”generativ AI”. Kort sagt när AI-algoritmer kan spotta ur sig innehåll på kommando. Men AI har ju funnits… ett tag. Och kan användas betydligt mer. Som Googles senaste initiativ här: rymd-AI för att hjälpa klimatet.

Vad det mer konkret handlar om är att Google och Environmental Defense Fund (EDF) har gjort gemensam sak för att spåra metangasläckor.

Metangas är en av de största bovarna när det kommer till klimatförändringarna och nästan hälften ska komma från mänskliga aktiviteter i ”energisektorn”. Så nu har Google och EDF tillsammans alltså satt upp spårning av metangasläckor. Typ.

EDF har tagit fram en satellit för ändamålet och den är tänkt att skjutas upp i mars. Google bidrar med AI-analys av de bilder som EDF:s satellit ska kunna ta fram när den roterar runt Jorden 15 gånger om dagen.

MethaneSAT, som satelliten heter, ska på detta sätt kunna skapa ”den mest heltäckande bilden så här långt av metanutsläpp på planeten”. ”Insikter” från satsningen kommer att presenteras på satellitens egen sida och via Google Earth senare i år. Återstår exakt att se vad dessa insikter blir, men vi kan tänka oss att det helt enkelt kommer att bli möjligt att få en ”heatmap” över var vi människor släpper ut mest metangas.

Så, ja, en ”methanemap”.

Google will use AI and satellite imagery to monitor methane leaks

Google and the Environmental Defense Fund have teamed up to track methane emissions using satellite images and AI. The EDF’s MethaneSAT is expected to help provide the most comprehensive picture yet of global methane leaks.

Föräldrar återskapar sina döda barns röster och låter dem ringa politiker med krav på hårdare vapenlagar

Ännu ett milt sagt intressant exempel på AI-användning. Föräldrar som har återskapat sina döda barns röster med AI och låter dem ringa politiker för att kräva hårdare vapenlagstiftning i USA.

Initiativet bakom det här upplägget kallas The Shotline. Sex barn och unga vuxna har alltså fått sina röster AI-återskapade. Via en sajt kan den som vill lobba för hårdare vapenlagar skriva in sitt postnummer. The Shotline letar sedan upp de lokala politikerna i området och ringer sedan automatiskt upp dessa. Tydligen har 8000 samtal gjort på det här sättet sedan tjänsten sjösattes igår.

Det är alltså, snudd på bokstavligen, röster från andra sidan som ringer.

Nu är AI-rösterna tydliga med att de är just AI-röster. Att det är återskapade röster från människor som inte längre är med oss. Men det är oavsett ännu ett exempel på AI-användning som ligger i en etisk gråzon, även om föräldrarna i det här fallet har gett sitt medgivande till att rösterna används.

Och vi är förstås bara i början av det här. Det blir med andra ord väldigt intressant att se vilken effekt exempelvis EU:s AI Act får.

Their children were shot, so they used AI to recreate their voices and call lawmakers

The parents of a teenager who was killed in Florida’s Parkland school shooting in 2018 have started a bold new project called The Shotline to lobby for stricter gun laws in the country. The Shotline uses AI to recreate the voices of children killed by gun violence and send recordings through automated calls to lawmakers.

Googles och Microsofts AI-chattbotar hittade på Superbowl-resultat

En sak som det pratas alldeles för lite om. Generativa AI-modellers förmågor att se in i framtiden. Och resa i tid.

Google’s and Microsoft’s chatbots are making up Super Bowl stats | TechCrunch

Microsoft’s and Google’s chatbots are making up Super Bowl 2024 stats. It illustrates the limitations of today’s GenAI tools.

Open AI-VD:n tycker att ”ChatGPT” är ett bedrövligt namn

Ha. Humor. Sam Altman, VD:n för ChatGPT-skaparen Open AI, tycker att Apples ansiktsdator Vision Pro ”är den näst mest imponerande tekniken sedan iPhonen” (och som artikeln är inne på så menar Altman förmodligen att den är den mest imponerande tekniken sedan iPhonen).

Eftersom Altman gick ut med sin åsikt på FKA Twitter så fick han förstås FKA Twitter-åsikter om det. Som en som konstaterade att Vision Pro ”förmodligen är det sämsta namnet” på en produkt. Varpå Altman svarade ”ChatGPT är mycket sämre”.

Alltid skönt med självdistans.

https://venturebeat.com/ai/openai-ceo-sam-altman-says-apple-vision-pro-is-2nd-most-impressive-tech-since-the-iphone/