Kategorier
AI - Artificiell intelligens IoT - internet of things Spaningar

Digitala spaningar vecka 25 2024 – del 2

Apples nya AI-verktyg kommer inte till EU under 2024. Runway släpper version 3 av sin AI-videoskapartjänst. Anthropic släpper Claude 3.5 Sonnet. Apple pausar utvecklingen av nästa Vision Pro-modell.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

Apples nya AI-verktyg kommer inte till EU under 2024

Sedan Apple presenterade sina nya, kommande AI-verktyg häromveckan så har det florerat rykten om att de kanske inte släpps i år. Nu är det bekräftat: de släpps inte i år. Åtminstone inte för oss i EU.

Medan alla vi andra (okej, vi svenskar) firade midsommar så gick Apple ut med att tre av sakerna som presenterades under årets upplaga av utvecklarkonferensen WWDC: iPhone-spegling, SharePlay-skärmdelning och AI-plattformen Apple Intelligence släpps inte i EU i höst.

Anledningen? Digital markets act.

Digital markets act är en av EU:s två stora 2024-techregleringslagar och den som drabbar de största av de största. De plattformar och tjänster som såväl privatpersoner som företag i praktiken måste gå via för att överhuvudtaget måste kunna använda internet. Här hittar vi några av Apple tjänster. Som iOS och Appstore.

Det intressanta i sammanhanget är dock vad specifikt i lagen som gör att Apple inte tror att de kan släppa funktionerna i EU: ”vi är oroliga för att interoperabilitetskraven i Digital markets act kan tvinga oss att kompromissa med integriteten i våra produkter på sätt som utgör en risk för användares integritet och datasäkerhet”.

Vilket känns… lite märkligt.

Kravet på interoperabilitet för de största plattformarna innebär att de måste öppna sig mer för mindre konkurrenter. Som att Messenger och WhatsApp måste ha stöd för att lägga till andra chattjänster, så att användare kan komma åt exempelvis Signal inifrån WhatsApp. Plus att det ska vara enkelt att ta med sig sin data mellan olika tjänster.

iPhone-delning gör att du kan spegla upp din iPhone på din Mac och styra iPhonen från datorn. Jag har svårt att tro att EU skulle tvinga Apple att spegla upp Android-mobiler i datorn, eftersom det här är en så relativt liten funktion. Samma gäller SharePlay-funktionen som gör att man (ÄNTLIGEN!) kan se och styra någon annans iPhone på distans (a.k.a. föräldrasupporten). Knappast en funktion som användare står och faller med.

Jag har också svårt att se att Digital markets act skulle tvinga Apple att öppna upp sin interna AI-plattform för extern åtkomst djupt ned i operativet. Visst, det är mer avancerat (och förhoppningsvis betydligt bättre) men fortfarande i stort Siri. Lägg till att Apple – säkerligen just delvis på grund av Digital markets act – har outsourcat AI-chattbotsfunktionaliteten till andra.

Det känns helt enkelt som en rätt dålig ursäkt.

Vad det däremot känns som är osäkerhet kring GDPR. Kring hur användares data säkras. Men det är förstås inte något som Apple vill att folk ska börja tänka på. Apple är ju som bekant användarintegritetens fanbärare. Vilket i sin tur gör att det kan finnas osäkerhet om att Apples superintegritetssäkra lösning framförallt kring Apple Intelligence kanske inte är så superintegritetssäker som Apple själva säger utåt.

Utöver det så ser det oavsett fortfarande ut som att alla AI-funktioner inte kommer att rullas ut förrän 2025 – även utanför EU.

Apple Intelligence Features Not Coming to European Union at Launch Due to DMA

Apple today said that European customers will not get access to the Apple Intelligence, iPhone Mirroring, and SharePlay Screen Sharing features that…

​​Open AI kan kopplas loss från den icke-kommersiella verksamheten

När det kommer till Open AI-cirkusen i slutet av förra året så har det varit en spekulationsbonanza kring vad som egentligen gjorde att Open AI:s styrelsen bestämde sig för att peta VD:n Sam Altman. Och det har florerat en hel del rykten ända sedan dess kring vart Open AI egentligen är på väg. Nu kommer ännu ett rykte som känns helt rimligt i sammanhanget. Den kommersiella delen av Open AI kan helt kopplas loss från sitt icke-kommersiella översynsparaply.

Det är The Information som har kommit över uppgifter om att Altman har sagt till ”några aktieägare” att företaget ”överväger” att ändra om hur bolaget styrs. Och låta den kommersiella verksamheten fullt ut bli en kommersiell verksamhet. Som den övergripande styrelsen inte har något att säga till om.

Open AI föddes som en icke-kommersiell organisation med uttalat syfte att driva AI-forskningen framåt och att forskningen skulle komma alla till gagn. Det innebar att vara helt transparenta i sin forskning och dela sina resultat. Därav ”Open”.

Men för några år sedan skapade Open AI en kommersiell ”underavdelning”. Det är här vi hittar ChatGPT och företagets övriga AI-produkter. Det är också den här delen som Microsoft köpte sig till 49 % av ägandet i.

Däremot så har den kommersiella delen fortfarande varit underställd den ideella organisationen. Och därav den styrelsen. Det var också den styrelsen som bestämde sig för att sparka Altman, på grund av bristande förtroende (på det som har framkommit i efterhand har framkommit så känns som att han gjorde grejer som hade fått honom sparkad på vilket börsbolag som helst – undantag Tesla).

Ända sedan Altman kom tillbaka som VD som har han stärkt kontrollen över Open AI. Nu ser det ut som att han har kommit till den punkten när han helt ska kunna köra det som numer i praktiken är Open AI helt som han vill.

Det är dock som sagt var bara uppgifter från de sedvanliga källorna med insyn. Och den nya, eventuella konstruktionen ska bli en ”for profit benefit corporation” (vinstdrivande samhällsnyttigt företag?), något som konkurrenterna xAI och Anthropic också har valt. Det är dock en betydligt mindre stark koppling till organisationens öppna rötter.

Och med tanke på förflyttningen som Open AI har gjort de senaste åren – inte minst det senaste året – så känns det inte som ett orimligt steg. Inte minst som sagt därför att det alltså verkar vara ännu ett försök att kunna köra Open AI som helt egen frifräsare.

OpenAI CEO says company could become for-profit corporation, The Information reports

OpenAI CEO Sam Altman told some shareholders that the company is considering changing its governance structure to a for-profit business that the firm’s nonprofit board doesn’t control, The Information reported on Friday.

Runway släpper version 3 av sin AI-videoskapartjänst

Innan ungefär varenda AI-bolag la till video som en förmåga i sina respektive AI-botar så var Runway den som gav mest buzz. Nu släpper bolaget version tre av sin tjänst. En tidig version av den, åtminstone.

Den ska vara den första där Runway använder en ny infrastruktur för sitt AI-tränande, som ska kunna skalas upp ännu mer än tidigare modeller. Där målet är ”General world models”, som jag fattar är ambitionen att kunna skapa hela AI-världar med synnerligen realistiskt videoinnehåll.

Där är vi däremot inte riktigt än. Resultatet som visas upp är imponerande verklighetstroget, men det handlar om klipp som kan vara upp till 10 sekunder långa. Så än så länge är det inte långfilmer vi pratar om.

(Ja, även om jag ger mig på att någon kommer att skapa en 1,5 timme lång film genom att sy ihop ett väldigt lång pärlband med tio sekunder långa klipp. The Avalanches möter stop-motion, AI-stylee.)

Runway unveils new hyper realistic AI video model Gen-3 Alpha, capable of 10-second-long clips

Gen-3 Alpha allows users to generate high-quality, detailed, highly realistic video clips of 10 seconds in length.

Anthropic släpper Claude 3.5 Sonnet

Ännu en dag, ännu en uppdatering av en stor AI-språkmodell. Den här gången är det Anthropic som har uppdaterat mellansyskonet i sin modellfamilj: modellnumret som gäller för Sonnet är nu 3.5. (Anthropic har förmodligen det mest sympatiska namnsystemet för sina olika modeller: Haiku är minstingen och Opus deras värsting.)

Och nya Claude-versionen ska dessutom slå toppmodellen Opus. Och senaste ChatGPT-motorn GPT-4o. Åtminstone enligt Anthropics egna jämförelser. Och åtminstone inom vissa områden.

Vi kan med andra ord konstatera att det är megahertzrace eller megapixelrace all over again. När varje ny datorgeneration satte mycket fokus på hur många megahertz datorn hade, som ett tecken på hur snabb den var. Eller hur bra upplösning en ny digitalkamera hade jämfört med konkurrenterna och föregångarna.

Men för normalanvändaren kommer man sedan till en punkt när det inte längre är relevant. Eftersom det är tillräckligt bra, även de enklaste nya datorerna och kamerorna.

Så det lär kanske inte bli jätteskillnad för den som använder Claude som folk gör mest. Men mellan-Claude har nu oavsett blivit lite vassare och mer kapabel.

Mer intressant är då att Anthropic också lanserar Artifacts. Ett sätt att kunna jobba med resultatet som du får. Istället för att du får ta en text och klistra in den i ett textredigeringsprogram för att jobba vidare med den så kan du göra det direkt i verktyget.

Inte så att Anthropic är första AI-bolag att ha ungefär det här, men en liten, smart förbättring för vardagsanvändarna. Som förmodligen är mer relevant för betydligt fler än hur mycket bättre nya Claude presterar jämfört med konkurrenter.

Anthropic has a fast new AI model – and a clever new way to interact with chatbots

Anthropic says its new faster, smarter AI model, named Claude 3.5 Sonnet, is useful for things like code translation, text transcription, and writing better emails.

Meta tar fram teknik för vattenmärkning av AI-skapade röster

En av de stora utmaningarna med den generativa AI-tekniken är att hantera möjligheterna att missbruka den. Ännu mer realistiska deep fakes, som kan fungera både med bild, ljud och video. Några av de stora AI-bolagen har redan försökt vattenmärka resultatet, så att det alltså ska gå att identifiera när något är AI-skapat, utan större framgångar.

Nu säger Meta att de har tagit fram en lösning som ska göra det möjligt att vattenmärka AI-skapade ljudklipp.

Audio Seal, som verktyget heter, ska inte bara kunna identifiera att ett innehåll är AI-skapat, utan också vilka delar. Som att hitta AI-skapade passager i en timslång podcast.

Däremot kommer inte ens Meta själva börja använda tekniken. Åtminstone inte än. Anledningen sägs vara bristen på standard i branschen och intresset att implementera den här typen av märkningar har heller inte varit jättestort tydligen.

Men AudioSeal går oavsett att ladda ner via GitHub gratis för den som vill använda den för att vattenmärka innehåll som skapas i en AI-tjänst.

Meta has created a way to watermark AI-generated speech

The tool, called AudioSEAL, could eventually help to tackle the growing problem of voice cloning tools being used for scams and misinformation.

Open AI-medgrundaren Ilya Sutskever startar nytt AI-bolag

För några veckor sedan slutade två högt uppsatta chefer på ChatGPT-ägaren Open AI abrupt. En av dem var medgrundaren Ilya Sutskever. Nu vet vi vad han ska göra istället.

Du kan aldrig ana vad som hände sedan.

Eller… det kan du nog.

Sutskever… startar ett nytt AI-bolag. Sjukt oväntat.

När Sutskever slutade på Open AI så var han företagets högst rankade forskare. Men de flesta minns nog honom mest som en av dem som satt med i den styrelse som gav VD:n Sam Altman sparken i slutet av förra året – och startade därmed en cirkus som fortfarande pågår.

Sutskever ändrade sig sedan, men det känns som att det mest var lite kappvändande. För styrelsens beslut att sparka Altman ska haft sin upprinnelse när delar av Open AI-medarbetarna hade åsikter om att VD:n tog lite väl snabba genvägar i sin strävan att dunka ut shiny new things, på bekostnad av säkerhet.

Det som mer specifikt var Sutskevers ansvarsområde på Open AI när han slutade var att chefa över den avdelning som skulle säkerställa att företaget inte skulle ta fram en AI som förgör mänskligheten.

Det verkar vara exakt det som står på agendan även för Sutskevers nya satsning: Safe Superintelligence.

Vilket… spontant låter lite som en superond och superhemlig skurorganisation i en Bondrulle.

Vill man vara lite mer positivt inställd kan man konstatera att det är ett konsumentupplysningsmässigt väldigt bra namn. För det är precis det som Sutskever vill ta fram. Med en affärsmodell som ska ”isolera den från kortsiktiga kommersiella intressen”. Och prioritera säkerheten medan de gör det. Men ändå var mer snabbfotade än stora konkurrenter. Som… Open AI.

Så jodå. Finns absolut inget gammalt groll kvar där.

OpenAI’s former chief scientist is starting a new AI company

OpenAI co-founder and former chief scientist Ilya Sutskever is starting a new AI company, called Safe Superintelligence Inc.

Adobe pudlar om sitt AI-tränande på användares skapelser

För ett par veckor sedan tog det lite småhus i helvetet när Adobe uppdaterade sina användarvillkor så att alla som vill fortsätta använda tjänsterna måste gå med på att Adobe tränar sina AI-botar och AI-modeller på användarnas skapelser.

Reaktionen från användarna var inte särskilt oväntad.

I korta drag kan ilskan sammanfattas med: vi har redan betalat för era tjänster och verktyg – ska ni dessutom era AI-fjänster på vårt innehåll, dessutom utan att ge samtycke? Även material som omfattas av avtalsmässiga sekretessklausuler?

Ja, det var åtminstone så som Adobe-användarna tolkade de uppdaterade villkoren. Inte heller särskilt förvånande eftersom villkoren även den här gången var formulerade på klassiskt amerikanskt manér. De öppnade för väldigt mycket tolkningar. Vilket mycket väl skulle kunna ge grönt ljus till Adobe att AI-träna på användarmaterialet.

Nu hade förmodligen EU haft åsikter om att det inte går att säga nej till tränandet – något som redan har fått EU att dänga till såväl Open AI som Meta – men frågan hann inte komma så långt.

I ett försök att gjuta olja på vågorna så har Adobe nu förtydligat sina villkor. Nu står det uttryckligen att företaget inte kommer att träna på material som lagras lokalt i en användares enhet eller i Adobes moln.

Det finns dock ett undantag: om bilder laddas upp till Adobe Stock Marketplace så kan företaget träna sin AI-tjänst Adobe Firefly på materialet.

Vilket, nu när jag tänker ett varv till, gör att EU kanske ändå kommer ha anledning att titta på Adobes möjligheter att låta användare säga nej till AI-tränande. Ja, eller kanske rentav: bristen på just det när det kommer till Adobes bildbutik.

Adobe’s new terms of service say it won’t use your work to train AI

Adobe has updated its terms of service to explicitly say the company won’t train its Firefly AI on user-created content – unless it’s uploaded to Adobe Stock.

Apple jagar AI-partners i Kina

En intressant nyhet: Apple jagar AI-partners i Kina.

Ja, det i sig är kanske inte jätteintressant, men däremot så sätter det fingret på en grej som jag inte har tänkt på: hur ska Apple lösa ChatGPT-integrationen i Kina?

Som så många västerländska tjänster så finns inte ChatGPT i Kina. Istället så har landets techjättar tagit fram lokala motsvarigheter. Så rimligt att Apple vänder sig till någon av dessa. Särskilt som ChatGPT inte är integrerad djupt i Apples operativsystem. Det är åtminstone planen.

Det innebär att Kina kan hålla sin censur intakt. AI-chattbotarna har tränats på de ”sanningar” som finns i landet. Som att massakern på Himmelska fridens torg aldrig ägde rum

Och det här kan nog vara ytterligare en anledning till att Apple inte valde att stoppa in en egen AI-chattbot. Utöver att det finns pengar att tjäna på att sälja den platsen till andra och att det hade blivit svårt med EU om Apple hade skapat sig ett AI-chattbotsmonopol i sina operativ så kan Kina ha varit en inte obetydlig faktor i ekvationen.

Genom att göra det möjligt att koppla loss AI-chattboten från operativet så blir det enkelt att byta ut lösningen för den kinesiska marknaden (och eventuella andra som kan ha krav på lokalanpassning). Apple själva fokuserar på AI-lösningar som mestadels handlar om smartare automatiseringar av det som användarna gör när de använder företagets produkter.

Betydligt mindre risk att det kan orsaka ramaskri hos myndigheter och politiker än en AI som börjar hallucinera fram saker. Som att massakern på Himmelska fridens torg faktiskt hände.

Apple Will Reportedly Seek Local AI Partners in China to Launch AI Features

Apple Intelligence might not get regulatory approval in China and the company could have to find local artificial intelligence (AI) partners to power AI features to its devices, as per a report. Apple unveiled a multitude of new artificial intelligence (AI) features for its iPhone, iPad, and Mac devices at the recently held Worldwide Developers Conference (WWDC) 2024.

 

IoT – internet of things

Apple pausar utvecklingen av nästa Vision Pro-modell

Hur går det för Apples vardagsrumscyklop Vision Pro? Jo, tack bara… eller?

Häromdagen kom uppgifter om att Apple har halverat sina beställningar på AVP-komponenter från en stor leverantör av dessa och nu kommer information från de sedvanliga källorna med insyn om att Apple har pausat utvecklingen av nästa modell helt.

Istället sägs det att Apple gör en Homepod. Siktar på att släppa en mindre, enklare och billigare modell istället.

Det hette redan när Apple presenterade AVP att en ”familj” var på gång. Framförallt en billigare konsumentversion. Nu verkar det alltså som att nästa Apple Vision Pro blir en Apple Vision Pro utan Pro. Samma högupplösta skärm, men färre kameror, mindre högtalare och med enklare huvudband. De ska dessutom vara lättare. Med tanke på att det sistnämnda var den vanligaste kritiken mot enheten så är just det inte särskilt dåligt.

Uppgifterna talar också om att Apple så här långt har låtit tillverka 500 000 exemplar av AVP och har inga planer på att ta fram fler. Åtminstone inte i år.

Nu är det här alltså obekräftade uppgifter, men jag springer med dem för skojs skull.

Att AVP inte skulle sälja tokmycket var väntat. Det både på grund av prislappen och att enheten än så länge bara säljs i USA. Men tydligen hade Apple ändå hoppats att företags reality distortion-filter skulle få fler att öppna plånboken.

Det kan också förklara varför Vision Pros operativsystem fick en så förhållandevis liten uppdatering under WWDC förra veckan.

Det är trots det ändå lite oväntat att Apple ger upp på just AVP så snabbt. Det var ju en uttalad Pro-pryl, trots allt. Så det kan hända att en större anledning bakom beslutet är att utvecklargemenskapen inte har varit med på tåget. Apple har lärt sig efter de haltande starterna för iPhonen, iPaden och Watch hur viktigt det är att tredjepartsutvecklare driver på utvecklingen åt Apple.

Apple kanske med andra ord vill vänta till dess att utvecklarvärlden börjar vakna. Förhoppningsvis. För Apples skull.

Apple Reportedly Suspends Work on Vision Pro 2

Apple has suspended work on the second-generation Vision Pro headset to singularly focus on a cheaper model, The Information reports. Apple was…

Apple Carplay integreras mer med bilens eget operativ

När Apple i rasande tempo gick igenom alla nyheter som kommer till företagets olika operativsystem så så var Carplay ett av dem som fick minst uppmärksamhet. Inte så oväntat, med tanke på att det är betydligt mindre än övriga. Och krasst talat inget operativsystem, utan bara ett sätt att spegla upp iPhonen i bilens eget infotainmentsystem och styra iPhonen den vägen.

Men en intressant sak som passerade lite i bakgrunden var de första bilderna på nästa generation av Carplay, som Apple började prata om för något år sedan. En generation där Carplay integreras betydligt djupare med bilens eget operativsystem, snarare än att bara vara ett lager allra överst.

På bilderna kan man se de nya apparna Vehicle, Climate och Media, som gör att det inte bara går att få mer info om dessa delar, utan det går också att styra delar som tidigare enbart låg i fordonets eget gränssnitt.

Det verkar dessutom som att Apple whitelablar Carplay, åtminstone delvis. Kort sagt att biltillverkare får större möjlighet att styra hur Carplay-delarna ser ut och på så sätt få dem att matcha bilens övriga digitala uttryck.

Tidplanen just nu är att de första fordonen med nya Carplay ska rulla ut under 2024, vilket innebär kommande halvåret eller så. Det återstår att se hur den tidplanen håller. Och vilka som hoppar på. Så här långt har vi sett lite hintande från BMW och Aston Martin.

iOS 18 Adds These 5 New Features to CarPlay

Apple did not mention CarPlay during its WWDC keynote this week, but iOS 18 includes a handful of new features for the in-car software. Overall,…

Watch OS 11 får stöd för Shazam

ÄNTLIGEN! På riktigt. Apple Watch får stöd för Shazam i nästa version av operativsystemet. Det innebär att man alltså kan identifiera låtar med sin klocka och inte bara iPhonen när man hör något man gillar (ja, eller när man bara vill veta vad det är man lyssnar på).

Det enda som är trist är att det med andra ord inte gäller min gamla modell 3, eftersom det krävs nyare Watch för att köra Watch OS 11. Så ytterligare en anledning att uppgradera, alltså. Förhoppningsvis blir dock klockan inte så stor som det ryktas om…

watchOS 11 Gains Integrated Shazam Widget for Identifying Songs

The watchOS 11 update that Apple plans to release this fall offers several new widgets, including a built-in Shazam widget. Shazam has been able to…


Prenumerera på mitt nyhetsbrev

Jag gillar Olas digitala spaningar!

Gillar du det jag gör? Visa gärna din uppskattning genom att donera lite pengar. Det hjälper till att betala för webbhotell och andra kostnader.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *