Spaningar inom tech och sociala medier från veckan som har gått.
Övriga delar i veckans sammanställning
- Del 1: Sociala medier, Sök/SEO
- Del 3: AI – artificiell intelligens, Strömmade medier, IoT – internet of things, AR/VR, Övrigt
AI – artificiell intelligens
Open AI presenterar ny version av GPT-4 som kan hantera video och tal
Igår var det dags för Open Ai, företaget bakom ChatGPT, att presentera nyheter. Eftersom alla tycks ha missat det, och eftersom ingen har skrivit om nyheterna, så får jag ta mitt ansvar.
VD:n Sam Altman gick i förväg ut och dödade de hetaste ryktena inför eventet, som att Open AI skulle presentera en egen webbsökmotor eller GPT-5 – nästa version av tekniken som driver ChatGPT. Det sista spekulationsryktet var att Open AI skulle lansera en egen röstassistent. Och, ja, det fick vi. Typ.
Den största nyheten under presentationen var GPT-4o. Det bidde alltså ingen sifferuppdatering av GPT, men väl en ny medlem i GPT-4-familjen. O som i ”omni”, vilket också rätt väl sammanfattar den nya språkmodellen.
Omnit står i det här fallet för att den nya versionen, till skillnad från GPT-4, hanterar även video utöver bild och text. Dessutom kan omni-fyran också hantera tal. Ja, ännu bättre än tidigare, eftersom den inte längre verkar behöva gå omvägen via en texttranskribering.
Utöver det så ska den nya versionen också kunna fånga nyanser i rösten hos den om pratar med och till den och ska även kunna svara med ett bredare känsloregister i rösten. Det ska tydligen också bli möjligt att ”avbryta” AI-boten, på samma sätt som man kan avbryta en människa när man har en konversation. Röstdelen kommer dock inte att rullas ut till alla från start. Det blir bara ”en liten grupp pålitliga partners” som får tillgång till att börja med.
GPT-4o ska också ha fått nya glasögon. Den ska kort sagt vara bättre på att svara på kontextuella följdfrågor om innehållet i en bild. En ”bild” kan också exempelvis vara en skärmdump med kod.
Utöver det ska GPT-4o ha fått uppgraderade förmågor i runt 50 språk och API:et ska vara dubbelt så snabbt som GPT-4 Turbo, kosta hälften så mycket och ha högre gränsvärden.
Det kanske enskilt mest förvånande nyheten är att GPT-4o rullas ut för både betalande användare och gratisanvändare. Den stora skillnaden är att gratisversionen kommer ha stöd för fem gånger färre meddelanden än betalversionerna och trilla tillbaka i GPT3-5 när gratisanvändare slår i taket.
Dessutom passade Open AI på att presentera några mindre nyheter. ChatGPT får en uppfräschat gränssnitt på webben och kommer som en fullständig MacOS-app. Windows-användarna får vänta på en datorapp till nån gång senare i år.
Sist men inte minst så får gratisanvändare tillgång till funktionalitet som tidigare har krävt betalversion av ChatGPT: möjlighet att ladda upp filer och bilder, söka på webben och att använda minnesfunktionen i ChatGPT.
OpenAI debuts GPT-4o ’omni’ model now powering ChatGPT | TechCrunch
During its ”Spring Update” event, OpenAI debuted a number of upgrades and enhancements to its generative AI product portfolio.
ChatGPT:s appbutik öppnas för gratisanvändare
En sak som jag inte alls hade väntat mig bland de nyheter som Open AI presenterade igår var att de nu tar bort betalväggen från sin ”appbutik”. Alltså den GPT Store där man kan ladda upp anpassade versioner av ChatGPT som man har skapat, så kallade GPT:er, och där andra sedan kan ladda ner och använda dem.
Sedan funktionen lanserades i början av året så har det alltså krävs betalversion av ChatGPT för att kunna använda butiken, men nu öppnar butiken också för gratisanvändare.
Däremot ligger betalväggen kvar när det kommer till att skapa egna GPT:er.
OpenAI’s custom GPT Store is now open to all for free
OpenAI has made its custom chatbot GPT Store freely accessible for all users, allowing anyone to try others’ chatbots.
ChatGPT lägger till integrationer till Google Drive och Microsoft Onedrive
I början av veckan tryckte ChatGPT-ägaren Open AI ur sig en drös nyheter. Men alla nyheterna fick bevisligen inte rum i den presentation som företaget arrangerade. Några saker dök upp i andra kanaler efter dragningen. Som den här: ChatGPT lägger till nya integrationer till Google Drive och Microsoft Onedrive.
Det gör att det blir ännu enklare att ladda upp dokument från dessa tjänster till ChatGPT. Utan att först behöva ladda ner dokument från molnet eller ladda upp från datorn.
Däremot ingår inte den nya integrationen i gratisversionen av GPT-4o, den senaste uppdateringen av tekniken som driver ChatGPT. För att koppla ett Drive- eller Onedrive-konto till ChatGPT så krävs någon av tjänstens betalabonnemang.
ChatGPT Offers Google Drive, Microsoft OneDrive Integration to Paid Users
ChatGPT is getting a new Connect Apps feature that will allow users to integrate their Google Drives and Microsoft OneDrive with the artificial intelligence (AI) platform. This feature will enable users to eliminate the hassle of downloading documents to their devices and then manually uploading them to the AI platform.
Open AI får träna på Reddit-innehåll tack vare nytt avtal
Jamen det var väl nästan väntat. ChatGPT-ägaren Open AI gör en Google. Sluter ett träningslägersavtal med Reddit, alltså.
Ja, eller det de båda företagen nu har kommit överens om, enligt corporatespeak, är att Open AI ”will bring enhanced Reddit content to ChatGPT and new products, helping users discover and engage with Reddit communities”. Vilket kan vara den ordigaste omskrivningen för ”Reddit säljer sina användares innehåll till oss så att vi får träna våra AI-modeller på det”.
Visst, samarbetet innehåller också andra delar, som att Reddit kommer få tillgång till Open AI-lösningar. Men, tja, det hade de till största del kunnat köpa sig till. Så hela anledningen till att samarbetet nu blir verklighet tror jag bygger på två huvudsakliga ben.
- Det nyligen börsnoterade bolaget Reddit behöver en jättehög pengar för att göra aktiemarknaden glad
- Open AI kan inte längre gratisträna på upphovsrättsskyddat material och är beredda att betala jättehögar pengar för att komma åt det
I stort alltså det avtal som Reddit och Google enades om för ett par månader sen. Och som gav Reddit 60 miljoner dollar.
Men det enskilt mest intressanta i den här överenskommelsen är två skrivningar.
- Nyheten om avtalet skriver att specifikt att Open AI kommer få ”förädlat” Reddit-innehåll till ChatGPT ”and new products”. Säkerligen till största del en generisk framtidssäkring, men det gör ju oavsett inte att det blir färre spekulationer om en egen sökmotor Google-stylee från Open Ai.
- Sist men inte minst så kommer Open AI att bli ”a Reddit advertising partner”. Det här är den enskilt märkligaste skrivningen. Mest eftersom Open AI inte har någon slags egen annonsverksamhet idag. Ja, vad jag vet. Vilket onekligen gör att man kan fråga sig vilka annonsplaner som Open AI har i pipan.
https://openai.com/index/openai-and-reddit-partnership/
Två höga chefer lämnar Open AI, inklusive en medgrundare
I måndags presenterade ChatGPT-ägaren Open AI ett antal produktnyheter och bara något dygn senare meddelar företagets medgrundare och chefsforskare Ilya Sutskever att han lämnar företaget.
Han är nu ”excited” för det han ska satsa på istället: ”ett projekt som är väldigt meningsfullt” för honom på ”ett personligt plan”. Vilket säkert kan stämma.
Men det är förstås omöjligt att inte vrida tillbaka klockan något halvår, till den tidpunkt när de flesta sannolikt hörde talas om Sutskever för första gången: i samband med att Open AI:s styrelse gav förrförre och nuvarande VD:n Sam Altman sparken. Sutskever var då en av de pådrivande, även om han kort efter det ändrade sig.
Det är fortfarande höljt i mycket dunkel vad som faktiskt hände då – och vad som var upprinnelsen. Men klart är oavsett att Altman sedan dess direkt och indirekt har stärkt sin kontroll över Open AI. Det är därmed svårt att inte tänka att Altman och/eller Open AI nu tycker att det har gått tillräckligt lång tid sedan hela den cirkusen så att det inte helt och hållet ska kännas som ett hämndavsked.
Det blir inte bättre av att Open AI nu också tappar en annan hög chef: Jan Leike. Leike har sedan förra sommaren lett Open AI:s Superalignment-avdelning, som hade i uppgift att komma fram till hur man kan ”styra och kontrollera” de allra mest avancerade AI-lösningarna. Ni vet. Säkerställa att AI-teknik inte förgör mänskligheten.
Precis det som sägs ha varit en stor anledning till att styrelsen petade Altman: att han ville mova lite för fort och brejka lite för många grejer på områden där andra i organisationen tyckte att det behövdes mer eftertanke och fler skyddsvallar.
Leike delade dessutom chefandet över avdelningen med… Sutskever. Och den som nu tar över Leikes arbetsuppgifter är en annan av Open AI:s medgrundare: John Schulman. En av dem som ställde sig på Altmans sida i samband med det misslyckade kuppförsöket.
Så, ja, there’s that.
OpenAI chief scientist Ilya Sutskever is officially leaving
Ilya Sutskever, the OpenAI co-founder and chief scientist who reportedly led the infamous failed coup against Sam Altman, is unsurprisingly leaving the company.
Open AI uppges ha lagt ned sin AI-säkerhetsavdelning
And there it is. Uppgifter om att Open AI lägger ned sin AI-säkerhetsavdelning.
I början av veckan kom beskedet att en av Open AI-grundarna, Ilya Sutskever, har lämnat företaget. Inte bara han, även en annan av Open AI:s höga chefer kliver av: Jan Leike.
Att folk slutar på företag är ju inte direkt ovanligt. Men när det är grundare som kastar loss från stora och framgångsrika företag så blir det lite mer fokus på jobbytet.
Än mer strålkastarljus hamnar på Sutskevers avhopp, med tanke på det som hände i slutet av förra året.
Sutskever lämnade med det LinkedIn-obligatoriska slutmeddelandet om hur fantastiskt det har varit att jobba på [infoga valfritt företag] men att det nu är dags att gå vidare till ”en ny utmaning”, Open AI-VD:n Sam Altman gick ut med det lika obligatoriska hyllningsmeddelandet, som är vanligt när… allt kanske inte slutade med att alla kramades och sjöng kumbaya.
Fram till i slutet av förra året var det förmodligen få i det stora hela som hade hört talas om Ilya Sutskever. Men när han var en av dem som petade Sam Altman i vad som kom att bli en väldigt märklig cirkus.
En cirkus som började med att det fanns delar av Open AI:s styrelse som tyckte att Altman började ta lite väl stora genvägar när det kom till att dunka ut nya produkter inom en teknik som redan har planerat hur den ska utrota alla människor. Alltihop slutade med att Sutskever ändrade sig – och inte längre ville sparka Altman. Och att Altman fick tillbaka jobbet.
När Sutskever nu lämnar så känns det inte så lite som att Open AI och/eller Altman känner att det har gått tillräckligt långt tid så att det inte ska kännas som att Sutkever hämndsparkas.
Det blir ännu bättre av att Sutskever och Leike delade på chefandet för Open AI:s ”Superalignment”-avdelning. Den som skulle ta fram lösningar som skulle säkerställa att våra AI Overlords aldrig blir våra AI Overlords.
Och nu kommer alltså uppgifter om att hela avdelningen läggs ned efter Sutskevers och Leikes avhopp/avsked. Den forskningen ska framöver petas in i övriga avdelningars jobb.
ChatGPT: Hur säger man ”I for one welcome our new AI overlords” på Python?
OpenAI Reportedly Dissolves Its Existential AI Risk Team
A former lead scientist at OpenAI says he’s struggled to secure resources to research existential AI risk, as the startup reportedly dissolves his team.
Google presenterar ny AI-videotjänst och uppdaterad bild-AI
Självklart vill även Google vara med och leka bild och video när det kommer till AI. Så under gårdagens utvecklarkonferens I/O presenterade företaget nyheter inom båda dessa områden.
Imagen 3: Google lyfter sin AI-bildskapartjänst Imagen ytterligare ett pinnhåll. Version 3 är nu siffran som gäller. Och den kan skapa ”otroliga detaljnivåer” i ”fotorealistiska, levande bilder”. Vilket de förstås måste säga. Återstår att se hur den står sig mot konkurrenterna när den släpps.
Veo: Google lanserade också en helt ny tjänst inom dessa två områden. Veo är videoversionen av Imagen. Den kan skapa ”högkvalitativ” video i 1080p-upplösning. Klippen kan vara längre än en minut och kan förstå ”cinematiska och visuella tekniker”. Läs: den ska kunna användas av proffs.
I båda fallen bygger lösningarna, som vanligt nuförtiden, att du helt enkelt i text beskriver vad du vill ha.
Google unveils Veo and Imagen 3, its latest AI media creation models
Today, Google announced its new AI media creation engines: Veo, which can produce ”high-quality” 1080p videos; and Imagen 3.
Google bygger in AI-boten Gemini i Android och gör den kontextsmart
Bland nyheterna som Google presenterade under kvällens AI-tunga utvecklarkonferens så fick vi veta att AI-boten Gemini nu byggs in i nästa version av Android, Android 15.
Med andra ord så se det ut som att Google kommer att låta Gemini ta över stafettpinnen från Google Assistant. Oavsett så innebär den nya integrationen i operativsystemet att Gemini kan leva i ett eget lager mellan användaren och appar i mobilen.
Det innebär att man alltså kan interagera med innehåll som finns i en app via Gemini. Som att ställa frågor om en Youtube-video som visas. Det sistnämnda blir dessutom möjligt via den nya funktionen Ask the video som gör det möjligt att göra just det.
Däremot verkar det inte gälla alla videos, eftersom Google var noga med att poängtera att det fungerar i ”miljarder videos”. Så den täcker alltså… hyfsat många.
Det intressant med ”mellanlagerfunktionen” är, som artikeln konstaterar, att det kan bli möjligt att bygga AI-agenter som kan styra hela mobilen och därmed också innehållet i den. Helt enkelt därför att Gemini kan använda appar som en människa. Ungefär som det som 01 Light presenterade för datorer för ett par månader sen.
Google builds Gemini right into Android, adding contextual awareness within apps
Google just announced some changes to Gemini on Android at I/O 2024. The chatbot can now contextually analyze specific apps and provide relevant suggested actions.
Google släpper nya AI-modellen Gemini Flash
En lite intressant trend som utkristalliserade sig efter det att först Open AI och sedan Google dagarna efter varandra presenterade sina senaste AI-nyheter. Same same, but different och snabbare.
Open AI gick i måndags ut med GPT-4o, den senaste versionen av tekniken som driver ChatGPT. En som är i nivå med fyran men som har lite mer funktionalitet och framförallt är mycket kvickare. Dagen efter gick Google ut med att Gemini Pro – mellanmodellen i Googles modellfamilj – kan hantera inmatning av dubbelt så mycket data – och att familjen fick tillökning: Google Flash.
Precis som hos Open AI så ska Flash vara i nivå med de övriga Gemini-modellerna i 1.5-generationen, men ska vara snabbare. Tanken är att utvecklare ska välja Flash när det behövs snabba svar och någon av de andra när det inte är riktigt lika bråttom.
Flash lanseras nu bara i en preview-version, så vi får väl vänta ett tag med att se exakt hur den kommer att stå sig. Men eftersom alla borde vara intresserade av att få så snabba svar som möjligt så gissar jag att Flash kommer att bli dyrare att använda.
Google makes its AI way faster with Gemini Flash
Google announced Gemini 1.5 Flash, an AI model that can offer real-time responses. Gemini 1.5 Pro will also be updated and available on Google Workspace.
Project Astra är Googles framtida digitala assistent
I går presenterade Google, som brukligt, en störtflod nyheter under sin årliga utvecklarkonferens I/O. I år var det… viss övervikt åt AI-hållet. Ja, eller det handlade mer eller mindre bara om AI.
En av nyheterna här var Project Astra. Googles vision om nästa generation av Google Assistant. En AI-assistent som ska vara betydligt smartare än Assistant, komplett med inslag från Googles smarta kamera Lens.
Astra ska alltså, precis som Lens, kunna användas för att berätta vad det som mobilkameran ser är. Men sedan ska man, bokstavligen, kunna prata vidare med assistenten om det som visas. Att alltså ha en konversation ungefär som i ChatGPT.
Nu handlade det om en tidig version av tjänsten, enligt Google själva. Inget som kommer att dyka upp i en mobil nära dig nästa vecka eller så. Men det är ett väldigt intressant exempel på hur Google tänker ta sig an sin digitala assistent framöver.
(Själv går jag mest igång på att den kan hitta bortappade saker i lägenheten – och verkar komma ihåg var den senast såg något även om prylen inte syns i bild längre.)
https://www.engadget.com/googles-project-astra-uses-your-phones-camera-and-ai-to-find-noise-makers-misplaced-items-and-more-172642329.html?src=rss
I år fyller den äldsta digitala assistenten bland de stora idag 13 år. Det var så länge sedan som Siri lanserades. Men de digitala assistenterna har inte kommit jättelångt sedan dess. En kombination av att de inte varit tillräckligt smarta och att våra användarbeteenden inte har kommit ikapp tekniken.
Nu tänker Google AI-uppgradera Assistant och Apple förväntas presentera något liknande för Siri (ja, eller om det blir något helt nytt) i början av juni. Den senare kan vara driven av Open AI-teknik, eftersom de båda företagen uppges vara nära ett avtal kring det. Det faktum att Open AI visade upp ett vassare röstgränssnitt för ChatGPT i måndags gör inte att förhoppningarna sjunker.
Nu betyder förstås inte de nya tekniska möjligheterna att vi kommer att andra våra vanor över en natt, hur mycket påhejarna än talar om att det här kommer att förändra hur vi interagerar med internet nununu. Men smartare digitala assistenter i fickan kommer definitivt att ge spännande nya förutsättningar som säkerligen kommer påverka oss rejält det kommande årtiondet.
Project Astra is the future of AI at Google
With the help of Gemini Pro and other language models, Google believes it can finally build truly universal digital assistants that succeed where Alexa and Siri never could.
Google gör det möjligt att bygga anpassade Gemini AI-botar
Kan Open AI och Microsoft så kan Google. Så verkar de sistnämnda ha resonerat när de i samband med sin AI-nyhetsbonanza i veckan presentera Gems.
Vad är då Gems? Motsvarigheten till Open AI:s GPT:er. Alltså ”appar” som man kan bygga baserat på Googles AI-bot Gemini. Anpassade versioner av den alltså, som kan ”programmeras” med ett antal förutsättningar. Inklusive tonalitet i svaren.
Precis som hos Open AI så måste man dock betala för nöjet att skapa sina egna AI-botar. Funktionen kommer ”snart” för alla Gemini Advance-prenumeranter.
Google will let you create personalized AI chatbots
Google’s new Gemini ”Gems” lets Gemini Advanced customers make custom chatbots with personalized personalities and abilities, like a running coach.
Google Photos får AI-funktionen Ask Photos
Google uppgraderar sin bildtjänst Google Photos med AI-skills. Ja, eller vässade AI-skills.
Google har rätt länge använt AI-algoritmer för att kunna tagga upp bilder i biblioteket och sedan söka bland dem på ett smart sätt. Nu tar de nästa steg och kastar in generativ AI fullt ut i tjänsten.
Från och med i sommar så lägger Google till funktionen Ask Photos. Det är ganska exakt vad den heter. Ett sätt att ställa frågor om bilderna som finns där. Exempel som ges är att man kan be AI:n sammanställa alla bilder som visar simutvecklingen hos ett barn under ett år.
Den nya funktionen bygger, som det mesta i Googles AI-satsning, på företagets GPT-utmanare Gemini.
Google Photos is getting its own ”Ask Photos” assistant this summer
A new Ask Photos feature coming to Google Photos this summer will use the company’s Gemini AI model to offer even more advanced search capabilities.
Google arbetar på lösning som varnar för bedrägerisamtal
Bland alla de nyheter som Google presenterade under årets I/O-konferens fanns både väntade och oväntade nyheter. En av de oväntade var att Google arbetar på en funktion som ska varna för bedrägerisamtal.
Det handlar alltså på ytan om ungefär det som bland andra svenska Truecaller erbjuder framförallt i Indien: varnar när det sannolikt handlar om ett samtal från ett fishy telefonnummer.
Men Google vore förstås inte Google om de inte enuppar den här sortens lösning. Och, well, att bara titta på telefonnummer är ju inte AI. Och AI är ju som bekant det som gäller 2024.
Vad Google tänker sig är realtidsövervakning av alla dina samtal. Att Google helt enkelt ska lyssna på dina samtal och realtidsvarna dig, under samtalet, om funktionen identifierar ”bedrägligt språk och andra samtalsmönster som är vanliga i bedrägeriförsök”.
AI:n som ska användas är minstingen i Googles språkmodellfamilj: Google Nano. Den som ska bo i mobilen och inte skicka data över internet när den jobbar. Så med andra ord tänker sig Google att låna Apples slogan ”vad som händer iPhone stannar i iPhone”. Det är alltså bara du och din mobila AI-kompis som hör vad som sägs. (Ja, och den i andra änden av samtalet.)
Så helt safe, alltså. Och det bygger på att man som användare aktiverar funktionen. Men visst. Vi pratar fortfarande om Google, så man kan väl säga att de kommer att starta i lite förtroendeuppförsbacke här.
Funktionen testas nu och det finns ännu ingen information om när den kan tänkas rullas ut till användare än. Och ja. Den funkar bara för Android.
Samtidigt som det pratas om att Google och Apple har kommit långt i samtal om att Apple ska få använda Googles AI-tjänster i kommande versioner av iOS och övriga Apple-operativsystem. Så vem vet?
Android is getting an AI-powered scam call detection feature
Google is testing a new call monitoring feature that warns users if the person they’re talking to is likely attempting to scam them and encourages them to end such calls.
Google låter Gemini se vad som är fel i en video och komma med lösning
Väldigt intressant förmåga hos Googles ChatGPT-utmanare Gemini: möjlighet att hitta fel i en video och komma med förslag på lösning.
Det handlar mer specifikt om att man ska kunna ladda upp en video som visar det man har problem med – i Googles exempel en video som visar hur någon har problem med nålen på en vinylspelare. Gemini ska kunna titta igenom video – bildruta för bildruta – och sedan komma med förslag på lösning.
Magi! Ja, eller kanske inte.
Vad det handlar om är att Gemini ska kunna identifiera ett problem och sedan föreslå en lösning baserat på vad forum har skrivit. Så det är alltså ännu ett exempel på hur AI är beroende av människor för att träna. Och för att komma på lösningar.
Men det är oavsett en intressant förmåga, som sagt. En uppgradering av såväl diskussionsforum som, tja, Youtube. Nu har Google redan haft ungefär det här ett tag när det kommer till bilder, där Google Lens kan identifiera saker i en bild och sedan föreslå hur man kan hantera problemet som bilden visar. Men är oavsett en smart grej.
Ja, utan att vi vet hur bra lösningen är. Men tumme upp rent konceptuellt.
Google’s Gemini will search your videos to help you solve problems
As part of its push toward adding generative AI to search, Google has introduced a new twist: video.
Ett Chrome-tillägg som blockar AI Overviews dök upp redan efter två dagar
Ha. När jag i tisdags skrev om att Google nu börjar rulla ut sin AI-sök, som på googliska heter AI Overviews, till alla amerikanska användare så spådde jag att ”Hur inaktiverar jag AI overviews” och liknande sökningar skulle rusa upp i topp hos Google.
Det tog inte ens ett dygn innan folk började ställa just den frågan. Och inte ens två innan någon hade tagit fram ett Chrome-tillägg som blockar Googles AI-svar.
Lily Ray on LinkedIn: Hide Google AI Overviews | 37 comments
Oh look. A Chrome extension to block AI Overviews in search. Took the world a whopping TWO DAYS to put this thing together after SGE went… | 37 comments on LinkedIn
Anthropics AI-bot Claude släpps i Europa
Man kan ha otur med timingen. Och så kan man ha otur med timingen.
Sen igår kväll gick AI-bolaget Anthropic släpper sin ChatGPT-utmanare Claude i Europa. En nyhet som i dessa AI-hysteriska tider hade spunnit igång rejält. Om det inte hade varit så att den kom i skuggan av ett gäng rätt stora nyheter från Open AI, som presenterades några timmar tidigare.
Det känns inte som slump att det här skedde igår. Senare idag är det dags för Google att köra sin årliga utvecklarkonferens I/O, som i år sannolikt kommer att ha… visst AI-fokus. Och Anthropic backas bland annat av just Google.
Det känns mer andra ord som att Europalanseringen av Claude kommer att hänga samman med något som Google kommer presentera idag.
Men så var Open AI så ofina att de alltså bestämde sig för att glida in med ett event precis före, för att sno Googles strålkastarljus. Och då även Anthropics.
Men anyho. Nu släpps alltså Claude formellt och fullt ut här hos oss. Via webb och iOS-app.
Anthropic is expanding to Europe and raising more money | TechCrunch
On the heels of OpenAI announcing the latest iteration of its GPT large language model, its biggest rival in generative AI in the U.S. announced an