Kategorier
AI - Artificiell intelligens Spaningar

Digitala spaningar vecka 22 2024 – del 2

Spaningar inom tech och sociala medier från veckan som har gått.

Övriga delar i veckans sammanställning

 

AI – artificiell intelligens

ChatGPT rullar ut GPT-4o, anpassade GPT:er och mer funktionalitet till gratisanvändare

Så har Open AI börjat rulla ut den senaste versionen av GPT, alltså tekniken som driver ChatGPT, till gratisanvändare av just ChatGPT. Det innebär att dessa nu kan välja att använda den vassare GPT-4o-versionen istället för 3.5 som har gått fram till nu.

Ja, eller det är alltså en utrullning så alla har kanske inte fått tillgång än. Men det ska alltså snart vara på gång i så fall.

Det innebär också att gratisanvändare får tillgång till ett antal nya funktioner, som möjlighet att söka på webben, göra dataanalyser, skapa diagram, ladda upp bilder och andra slags dokument och ”Minnes”-funktionen (som jag som betalande ännu inte har fått – men jag är inte bitter).

Sist men inte minst så får gratisanvändarna nu också tillgång till ChatGPT:s ”appbutik”. Det blir alltså möjligt att ladda ner anpassade och avgränsade versioner av ChatGPT (så kallade GPT:er) som andra har byggt. Det kan exempelvis handla om en GPT som har optimerats för att vara bra på ett visst arbetsmoment.

Vill man skapa egna GPT:er så måste man däremot fortfarande betala.

Men den större försämringen jämfört med gratisversionen av 4o är betydligt lägre gränser för hur mycket man får använda tjänster per dag. När en gratisanvändare väl slår i taket så trillar ChatGPT tillbaka till den äldre 3.5-versionen.

Custom GPTs open for free ChatGPT users

OpenAI rolled out new features to free ChatGPT users, including custom GPTs, data analytics, and vision – capabilities previously locked to paying subscribers.

Open AI släpper ChatGPT för universitet

Vad kommer efter O? E, förstås. Åtminstone i Open AI:s värld.

Efter att ChatGPT-ägaren för några veckor sedan släppte GPT-4o, den senaste versionen av tekniken som driver just ChatGPT, så är det nu dags för GPT Edu. Till och me en version av tjänsten ChatGPT som vänder sig mot universitet. Så ChatGPT Edu.

Edu-versionen är till ”designad för skolor som vill erbjuda AI mer brett till studenter och sina campusgemenskaper” (känns som att det sistnämnda handlar om kårer och liknande).

Edu baseras på GPT-4o, så den är i stort alltså samma sak som vanliga ChatGPT baserad på motsvarande generation av GPT. Men Edu ska ha ”betydligt högre” gränser än vanliga ChatGPT när det kommer till hur många gånger man kan använda ChatGPT innan man slår i taket.

Dessutom gör Edu det möjligt för universitet att bygga sina egna GPT:er, anpassade versioner av ChatGPT, baserade på skolornas egen data och att de därefter kan dela dem bland dem som ingår i skolans workspace. Så Edu är därmed mycket en universitetsanpassat version av Team-abonnemanget på ChatGPT.

OpenAI has a has a new version of ChatGPT just for universities

Although the introduction of ChatGPT in late 2022 initially raised concerns about academic integrity and potential misuse in educational environments, universities have increasingly been experimenting with generative AI.

Open AI har börjat träna GPT-5 – som kan dröja till 2025

Sugen på att leka med GPT-5 under semestern? Eller senare i år? Sucks to be you i så fall. Förmodligen.

Idag har Open AI, företaget bakom ChatGPT, gått ut med beskedet att de tillsätter en ny ”Safety and Security Committee”. En ny funktion som ska jobba med säkerheten kring AI-utvecklingen. Och då inte minst den bit av ”säkerhet” som handlar om ”förhindra att AI förgör mänskligheten”.

Det är kort sagt den typ av funktion som Open AI skrotade för bara någon vecka sedan, när två höga chefer (inklusive medgrundaren Ilya Sutskever), slutade på Open AI. Något som ledde till att den avdelning som de samchefade över lades ned.

Nu kommer alltså en ny kommitté som ska hantera detta. En där VD:n Sam Altman kommer att ingå. VD:n som höll på att manövreras ut i slutet av förra året, med ungefär argumentet att Altman tog lite väl många genvägar i jakten på den perfekta AI:n. Och bara häromdagen kom några av dem som var med och försökte kuppa ut Altman och kom med förnyad kritik mot sin före detta chef, där de åter ifrågasatte Altmans lämplighet att leda bolaget. Och dess AI-utveckling.

Vad som egentligen hände i hela den cirkusen förra året vet vi förmodligen först när någon skriver en bok eller gör en dokumentär om alltihop. Om ens då.

Det vi däremot också fick veta i nyheten om den nya säkerhetsfunktionen var att Open AI ”nyligen” började träna nästa generation av sin språkmodell, som driver just ChatGPT. Och enligt uppgifter jag har sett från New York Times så kommer det ta uppemot nio månader att få till det.

Så det kan med andra ord hända att GPT-5 inte kommer att se dagens ljus förrän 2025.

OpenAI Says It Has Begun Training a New Flagship A.I. Model

The advanced A.I. system would succeed GPT-4, which powers ChatGPT. The company has also created a new safety committee to address A.I.’s risks.

Open AI:s Jan Leike går till konkurrenten Anthropic

Vad gör man om man jobbar på världens förmodligen hetaste AI-bolag just nu och slutar därför att man tycker att företaget kapar lite väl många säkerhetshörn i jakten på att få ut shiny new things i ett rasande tempo? Man går till en nästan lika het konkurrent, förstås.

För någon vecka sedan skakades ChatGPT-ägaren Open AI av två uppmärksammade avhopp. Open AI-medgrundaren Ilya Sutskever och Jan Leike slutade samtidigt på bolaget. Och det var mer eller mindre uttalat just att de inte gillade Open AI:s inställning till säkerhet kopplat till Open AI:s AI-utveckling.

Det blev förstås inte mindre pikant av att Sutskever var en av dem som var med och petade VD:n Sam Altman under uppmärksammade former i slutet av förra året. Eller att Sutskever och Leike samchefade över den avdelning på Open AI som hade som ansvar att lista ut hur Open AI skulle säkerställa att de inte av misstag spottade ur sig den där AI:n som kommer att förgöra mänskligheten.

Tidigare idag gick Open AI ut med beskedet att man har tagit fram en ny säkerhetskommitté som kommer att ta över ungefär de uppgifter som Sutskevers och Leikes avdelning hade. En kommitté som inkluderar Altman. Vilket… ja, förmodligen inte kommer att vara lugnande för dem som anser att Open AI springer alldeles för fort just nu.

Bara några timmar efter Open AI:s besked så har Jan Leike nu gått ut med att han kan ta bort den gröna ringen från sin LinkedIn-profilbild. Han börjar nu på Anthropic. Ett AI-bolag som bland andra backas av Google och Amazon. Och som nyligen släppte sin ChatGPT-konkurrent Claude i EU.

Nu återstår bara att se vad Sutskevers ”personligt meningsfulla projekt” kommer att bli.

Ex-OpenAI Safety Leader Leike to Join Rival Anthropic

(Bloomberg) — Jan Leike, the former co-head of an OpenAI safety team focused on long-term risks, is joining its artificial intelligence rival Anthropic, Leike said in a post on X Tuesday. Most Read from BloombergWall Street Billionaires Are Rushing to Back Trump, Verdict Be DamnedModi Set for Landslide Election Win in India, Exit Polls ShowTrump Is Guilty on All Counts in Hush-Money Case.

Open AI:s styrelse hörde talas om ChatGPT via Twitter

Exakt vad som hände när Open AI:s styrelse förra året kickade VD:n Sam Altman och sedan (i nygammalt skick) plockade tillbaka honom kort därefter får vi kanske aldrig veta. Men den senaste veckan har några av de som var pådrivande bakom petningen av Altman delat sin sida av saken. Som Helen Toner, en av de dåvarande styrelsemedlemmarna.

Efter att först i en artikel i The Economist ha skrivit om beslutet att sparka Sam Altman så utvecklade hon sina tankar i en intervju igår. Och det vi fått från Toner är mer utförlig information om vad styrelsens motivering att Altman hade ”brustit i sin kommunikation med styrelsen” faktiskt innebar.

Enligt Toner så ”ljög Altman styrelsen rätt i ansiktet”, bland annat genom att mörka att han ägde Open AI:s startupfond och hävda att hade en oberoende roll i förhållande till den. Att han inte hade något direkt finansiellt, personligt intresse i företaget som styrelsen inte kände till, alltså.

Altman ska också ha gett ”oriktig” information kring företagets säkerhetsrutiner. Och kanske mest anmärkningsvärt: styrelsen hörde talas om ChatGPT via Twitter. Ni vet. Leadership by Musk.

När Open AI får frågor om Toners utspel så kanaliserar en talesperson för företaget sin inre Anna Kinberg Batra och konstaterar att ”vi är besvikna över att Toner fortsätter att älta de här frågorna”. Och räknar upp en lång rad saker som styrelsen inte baserade sitt beslutet att sparka Altman på. Som att det inte berodde på ”oro kring produktsäkerhet, utvecklingstakt, Open AI:s finanser, eller företagets information till investerare, kunder och företagspartners”.

Det vi därmed noterar är att talespersonen inte säger är att Toners uttalanden är rena falsarier. Visst, det kan ju finnas något slags Tidöavtal, så att de båda sidorna har skrivit under att de inte får prata skit om varandra [sic!]. Men det känns mer och mer som att Altman har haft som uttalad strategi att hålla styrelsen helt eller åtminstone väldigt mycket utanför. Vilket i sig är milt sagt anmärkningsvärt. Och något som förmodligen hade fått vilken organisationsstyrelse som helst att slå bakut.

Som sagt, det här är inte den objektiva sanningen kring allt turerna bakom Altmans petning. Men det sätter oavsett ännu fler frågetecken kring om Altman är mest lämpad att ha det jobb han nu har. Särskilt som att han sannolikt har haft väldigt stort inflytande över vilka som sitter i Open AI:s nuvarande styrelse.

OpenAI’s board allegedly learned about ChatGPT launch on Twitter

”[The] board was not informed in advance of that,” Toner said on Tuesday on a podcast called The Ted AI Show. ”We learned about ChatGPT on Twitter.”

Open AI:s nya säkerhetsteam leds av VD:n och styrelsemedlemmar

Mer Sam Altman-bashing. Det är så trendigt just nu. På förekommen anledning. En anledning som mycket stavas just Sam Altman.

I förra veckan slutade Open AI-medgrundaren Ilya Sutskever och höga chefen Jan Leike abrupt. Förutom att framförallt Sutskever var en av dem som drev på petningen av Altman (även om han ändrade sig sedan) så delade Sutskever och Leike på chefandet över företagets säkerhetsavdelning. Den som hade som ansvar att säkerställa att våra AI Overlords inte blir våra AI Overlords.

När chefsduon slutade så lades även säkerhetsavdelningen nedan. Forskningen som avdelningen arbetade med skulle ”fördelas ut” på övriga delar av organisationen, men det sades inget mer än så. Igår kom så beskedet att Open AI tillsätter en ny säkerhetsfunktion, som av en händelse bara dagar efter ny kritik mot Altman från Helen Toner, en av de styrelsemedlemmar som var med och sparkade Altman i slutet av förra året.

Och vad består då Open AI:s nya säkerhetsfunktion, Safety and security committe, av? Den kommer att ledas av tre styrelseledamöter. Inklusive VD:n Sam Altman.

Kort sagt: en tydlig signal av hur viktigt Open AI tycker att den här funktionen. Eller… ett sätt att säkerställa att kommittén, som hände med föregångaren, inte får för sig att gå ut med någon slags kritik mot Open AI:s arbete i allmänhet och Altmans sätt att leda företaget och produktutvecklingen i synnerhet.

OpenAI’s new safety team is led by board members, including CEO Sam Altman

OpenAI has created a new Safety and Security Committee less than two weeks after the company dissolved the team tasked with protecting humanity from AI’s existential threats. This latest iteration will include two board members and CEO Sam Altman.

Microsoft trycker på för att få Open AI att släppa fler kommersiella produkter

AI-mässigt har den senaste veckan eller så har handlat mycket om att riva upp gamla (well…) sår hos ChatGPT-ägaren Open AI. Idag är det dags för ett nytt kapitel.

Den senaste säsongen av Open AI-såpan, som låg högt i tittarlistorna i slutet av förra året, inleddes med att medgrundaren Ilya Sutskever och den höga chefen Jan Leike samma dag abrupt slutade. Något som Leike kommenterade med att förtroendet för ledningen hade havererat i och med att de senare var mer intresserade av ”shiny new things” än att ta säkerhetsfrågan kring AI-utvecklingen på allvar.

Och när de båda slutade så skrotade Open AI den avdelning som de två männen var chef för: Open AI:s säkerhetsavdelning, som hade ansvar för att säkerställa att Open AI inte tar fram en AI som förgör mänskligheten.

Därefter kom en artikel från två före detta anställda om det som hände när styrelsen oväntat sparkade VD:n Sam Altman i slutet av förra året. En av dem, Helen Toner, satt även med i styrelsen som fattade det beslutet. Efter artikeln var Toner med i en intervju och utvecklade sina tankar. Hon konstaterade bland annat att Altman hade blåljugit för styrelsen kring några centrala frågor – och att styrelsen hörde talas om ChatGPT via Twitter när den lanserades.

Kort därefter presenterade Open AI en ny säkerhetsfunktion, som leds av tre styrelsemedlemmar. Bland andra Sam Altman. Något som inte så lite känns som ett försök att säkerställa att det, som hände kort innan Altman fick sparken, inte läcker ut säkerhetskritik mot Open AI:s verksamhet.

Och idag är det dags för ännu fler röster från insidan. Den här gången om relationen till Microsoft.

Under förra året köpte Microsoft till sig 49 % av den kommersiella grenen av Open AI. Något som har gett Office-paketet… hyfsat mycket att säga till om. Inte minst som att det strategiska samarbetet mellan dem också omfattar mer.

Och efter det att Altman kom tillbaka som VD så ser det ut som att Microsoft har ökat pressen på Open AI att ta fram ”shiny new things” snarare än att lyfta blicken och fundera på om man kanske springer lite för fort.

Det verkar med andra ord som att det ännu en gång blir politikers jobb att reglera. För branschen kommer inte klara av det själv.

Internal divisions linger at OpenAI after November’s attempted coup

Arguments over safety and Sam Altman’s leadership spill back into public domain as artificial intelligence start-up hit by resignations

Microsoft är missnöjda med Open AI:s avtal med Apple

Ha. Extremt oväntat.

Om ett par veckor är det dags för Apple att till sist komma med sina första konkreta exempel på hur de kommer att integrera (generativ) AI i de nästkommande versionerna av företagets olika operativsystem. En av sakerna som Apple förväntas presentera är ett avtal med ChatGPT-ägaren Open AI. Som i sin tur redan har ett tajt samarbete med Microsoft.

Nu kommer uppgifter om att Microsoft har… åsikter om Open AI:s avtal med Apple.

OpenAI appears to have closed its deal with Apple.

Apple held talks with both Google and OpenAI about integrating their chatbots into iOS 18, according to Bloomberg, but it looks like OpenAI won out. The pair plan to announce the news at Apple’s developer conference, WWDC.

Open AI betalar Vox Media och The Atlantic för AI-träningsdata

Open AI fyller på sin allt snabbare växande lista över träningsläger. Alltså avtal med andra företag som ger Open AI rätt att träna sina AI-botar på upphovsrättsskyddat material. Den här gången är det två mediaavtal till: med Vox Media och The Atlantic.

Och The Atlantic sammanfattar förmodligen känslorna kring det här hos inte minst publicister väldigt träffsäkert: A devil’s bargain with Open AI.

Ju mer innehåll exempelvis en tidning släpper ifrån sig, desto lättare blir det för AI-botar att ge ett svar så att man inte behöver gå vidare till källan. Men om man själv inte blir en träningskälla så kommer någon annan sajt istället bidra med svaret – vilket innebär att man garanterat inte får någon trafik.

Ja, utan att vi vet hur mycket trafik som AI-genererade söksvar kommer att ge till sajter. Sannolikt… väldigt lite.

Men det sätter också fingret på något annat. Innehållskapare, som publicister, har helt plötsligt fått en potentiell ny intäktskälla. Nog så viktigt med tanke på de utmaningar som det alltid har funnits med att ta betalt för innehåll på nätet. Framförallt nyheter. Men vad händer med originalinnehållet?

Kommer vi framöver bara – eller till stor del – bara läsa innehåll som sammanfattats av någon annan, som inte är en människa?

Även här så lär det knappast bli ett antingen eller. Men den stora frågan kommer helt klart bli hur AI-ekonomin kommer att utvecklas. Och om det, också här, bara är några få stora som kommer att kunna tjäna pengar.

A Devil’s Bargain With OpenAI

Publishers including The Atlantic are signing deals with the AI giant. Where does this lead?

Anthropic gör det möjligt att bygga AI-agenter

Så har det blivit dags för AI-bolaget Anthropic att göra som sina konkurrenter: ta fram en plattform för att skapa anpassade AI-botar. Eller AI-agenter om man så vill.

Det är alltså Anthropics motsvarighet till ChatGPT:s GPT:er. Som i Anthropics version heter ”tool use”.

Däremot verkar det vara snäppet mer avancerat än just ChatGPT:s lösning. Anthropics modell Claude kan, via den nya funktionen, kopplas mot ett API som erbjuder den funktionalitet som önskas.

Så det krävs alltså kodning för att få hela paketet att fungera, till skillnad mot Open AI, förhållandevis enklare, lösning som gör att det går att bygga anpassade ChatGPT-versioner utan att kunna koda.

Anthropic’s AI now lets you create bots to work for you

Anthropic is releasing a tool that allows customers to build their own AI assistants.

Mistral lanserar sin första AI-modell för kodning

Ännu en dag, ännu en AI-modell. Den här gången från franska Mistral: Codestral.

Som hörs på namnet så har den nya modellen ett specifikt användningsområdet. Kodning.

Mistral releases Codestral, its first generative AI model for code | TechCrunch

French AI startup Mistral, which has backing from Microsoft, has released its first generative AI model for code, called Codestral.

Forskare tar fram språkmodell för teckenspråk

En sån där självklar grej när jag ser den: en AI-språkmodell för teckenspråk. SignLLM.

Den funkar i stort som vi har lärt oss att den här typen av tjänster brukar vara upplagda. Du kan alltså skriva vad du vill ha och sedan skapa en video som läser upp din text.

Ja, eller teckna din text. Som du ju blir en översättning från det skrivna språket till det tecknade.

Vi pratar däremot inte om en kommersiellt färdig produkt. Eller ens halvfärdig produkt vad det verkar. Men ambitionen är värd en hel massa applåder.

SignLLM: Sign Languages Production Large Language Models

SignLLM: Sign Languages Production Large Language Models Overview: (left) We present examples and descriptions of various parts of our Prompt2Sign dataset; (right) Our SignLLM bilingual sign language production methods, operating mechanisms and demonstration, and different ways.

Truecaller lanserar funktion som varnar för AI-klonade röster

När Google häromveckan presenterade AI-relaterade nyheter så var en av funktionerna som visades en ny spamfunktion. En som mer specifikt varnar för bedrägerisamtal medan man pratar. Nu kommer svenska Truecaller med något liknande.

I Googles fall handlar det om att en AI-bot lyssnar med på alla samtal och börjar varna om den upptäcker signaler på att det är en bluffare man har i örat. Boten lyssnar helt enkelt efter fraser eller upplägg av samtalet som är typiska för bedrägerisamtal.

Truecaller kärnverksamhet är nummerupplysning, med Indien som största marknad. Utifrån den basen så har företaget byggt på med allt mer funktionalitet kopplat till att hantera vardagssysslor. Nu lägger Truecaller till en spamvarnare som, precis som Googles, ska kunna varna under pågående samtal.

Den stora skillnaden är att Truecallers lösning varnar för AI-klonade röster. Likheten är att båda lösningarna alltså har samma syfte i grund och botten: se till att människor inte blir lurade.

Truecallers lösning är däremot inte lika automatisk som Googles. Den bygger – åtminstone i dagsläget – på att användaren själv trycker på en knapp när man misstänker att man pratar med en robotröst. Sedan ”slås samtalet ihop” med en ”säker linje” kopplad till ”en avancerad AI-modell” hos Truecaller som återkommer med ett svar på om rösten är en robot eller inte.

Precis som hos Google så är det bara Android-appen som gäller. Det kan förstås bero på att Android är huvudplattformen för båda företagen när det kommer till plattform och målgrupp, men jag misstänker att det också finns utmaningar kring Apples syn på integritet när det kommer till att rulla ut samma funktion för iPhone.

Intressant nog så kommer funktionen först till USA och inte till Truecallers största marknad Indien. Det kan säkerligen bero på att Truecaller vill testköra på en mindre marknad som inte har en miljard språk att jonglera. Men jag misstänker att det också kan finnas juridiska utmaningar i Indien när det kommer till en sån här tjänst.

Truecaller launches the world’s first AI cloned voice detection

Truecaller, the world’s leading global communications platform, is proud to announce the latest feature in its arsenal of spam and scam fighting abilities: the AI Call Scanner. The AI Call Scanner is designed to use AI to fight AI and can warn users in real time, on the phone call – if it detects that the voice you are hearing is AI-generated.

Apple arbetar på hemlig svart låda för sin AI-satsning

Om lite mer än en vecka är det dags för Apple att till sist presentera hur de kommer att stoppa in AI-som-Apple-inte-kommer-att-kalla-AI i sina operativsystem och hårdvaror framöver. (Spoiler-alert: reaktionerna kommer att bli ”meh” och aktien kommer att backa några snäpp under keynoten). Och förutom frågetecken kring hur vad Apple faktiskt kommer att presentera så är en osäkerhet hur Apple tänker sig leva upp till sina egna högt uppställda integritetsmål.

Nu kommer uppgifter om att lösningen är en ”virtual black box”.

Apple var först ut med att satsa stort på att lösa ”AI-grejer” lokalt i mobilen snarare än genom att skyffla data till servrar i molnet. Det har varit en av de största utmaningarna för Siri jämfört med konkurrenterna: stackars Siri fick aldrig samma möjligheter att faktiskt använda hela internet för att hjälpa till.

Även nu så lär Apples plan vara att AI-processer ska hanteras lokalt i enheten – så långt det går. Men det ryktas om avtal med Open AI och kanske till och med Google, som innebär att Apple får integrera deras AI-tjänster i iPhonen och iOS. Apple har tagit fram en egen språkmodell optimerad för lokal användning, men det kommer nog inte räcka.

Vilket för oss till den hemliga lådan.

Enligt The Informations källor så ska det handla om någon form av helt stängd miljö, där data är ”låst” även när den processas. Och det ska ”vara omöjligt för anställda att komma åt den”.

Och, ja, vad är det värsta som skulle kunna hända här?

Jag har alldeles för dålig koll på det tekniska för att ha åsikter om lösningen och upplägget – som Apple tydligen ska ha jobbat på i tre år (så alltså innan ”AI” fanns). Men jag har tidigare sett kodgrävanden som har avslöjat krypterade kopplingar till iCloud och som har talat just om AI. Så det skulle kunna vara kopplat till det. Att Apple alltså har något ställe att ”tvätta” data även när saker skickas över internet, för att på så sätt inte släppa ut någon personlig data om användaren.

Den 10 juni vet vi hur Apple tänker ta sig an den här utmaningen. Kanske.

Det vi däremot med säkerhet vet är att Tim Cook kommer vara super excited över allt som presenteras.

Apple says it will put its AI processing data in a ”cloud black box” to keep it private

Apple looking at processing AI in the cloud