Een Recordbrekende Spectaculaire Week in AI

February 21, 2024

Waarschijnlijk de belangrijkste week in AI met drie grote ontwikkelingen die je als bedrijfseigenaar moet weten.

Samenvatting:

  • Drie nieuwe ontwikkelingen op het gebied van AI: snelheid, geheugen, en multimodaliteit.
  • Deze ontwikkelingen hebben significante gevolgen voor businesscases: bredere inzetbaarheid, betere resultaten, en meer toepassingen.
  • Demonstreren dat AI zich sneller ontwikkelt dan eerder verwacht.
  • Deze ontwikkelingen zullen gedurende 2024 inzetbaar worden voor jouw organisatie.

Hier volgt een korte introductie: het gebruik van AI als hulpmiddel voor bedrijven kent verschillende beperkingen. Ten eerste is er de snelheid waarmee AI antwoorden produceert. Deze factor is cruciaal, aangezien een snellere respons de efficiëntie en gebruikerservaring verbetert. Ten tweede speelt de hoeveelheid informatie die AI kan verwerken, oftewel het geheugen, een belangrijke rol. Een groter geheugen stelt AI in staat complexere vragen te beantwoorden en meer gegevens tegelijk te overwegen. Ten derde, en enigszins ondergeschikt aan de eerste twee, zijn de multifunctionele mogelijkheden van AI, ook bekend als multi-modaliteit. Met multi-modaliteit bedoel ik de capaciteit van AI om naast het schrijven van tekst ook andere taken uit te voeren, zoals het genereren van afbeeldingen. Hoewel multi-modaliteit waardevol kan zijn, beschouw ik het als minder cruciaal dan snelheid en geheugen. Dit komt omdat niet elk bedrijf optimaal gebruik kan maken van deze multifunctionele mogelijkheden, terwijl snelheid en geheugen universeel belangrijke factoren zijn die een fundamentele impact hebben op de breedte van de mogelijke toepassingen van AI in het bedrijfsleven.

Een beetje meer informatie over het belang van snelheid. Iedereen houdt van snelheid; als dingen sneller gebeuren zonder kwaliteitsverlies, is dat een winst, dat begrijpen we allemaal. De snelheid waarover we het hebben in AI, heeft te maken met de snelheid waarmee een AI-tool op jouw input reageert. Als je ChatGPT 3.5 gebruikt en vervolgens overstapt op ChatGPT 4, zul je een aanzienlijk snelheidsverschil merken. Vooral als je het vraagt om een langere tekst te genereren, kan het tot 10 seconden duren voor GPT 3.5 en 30 seconden voor GPT 4. Dat betekent dat GPT 3.5 300% sneller is dan GPT 4. De reden hiervoor is dat GPT 4 een "zwaarder" model is en meer computerkracht vereist om een resultaat te genereren.

De doorbraak in de wereld van AI wat betreft snelheid die we de afgelopen 7 dagen hebben gezien is Groc. Zonder te diep in te gaan op de technische details, Groc is een volledig nieuwe hardware-infrastructuur die speciaal is ontworpen voor het werken met Large Language Models (de basis van elk AI-hulpmiddel). Deze infrastructuur wordt LPU (Language Processing Unit) genoemd en maakt AI-tools tientallen, zo niet honderden keren sneller. Deze infrastructuur bevindt zich momenteel in een gesloten bèta – we hebben toegang aangevraagd. We schatten dat deze technologie tegen eind 2024 breder beschikbaar zal zijn.

Waarom dit belangrijk is voor bedrijven, is omdat het sommige AI-tools significant gaat beïnvloeden. Met name alles wat met tekstgeneratie te maken heeft. Virtuele assistenten (chatbots), e-mailgeneratoren, Q&A-tools, etc. zullen allemaal veel, veel sneller zijn. Als je een tekst-naar-spraakplatform op basis hiervan bouwt, zullen gesprekken met AI-tools heel dicht in de buurt komen van de snelheid waarmee mensen reageren. Dit zal diepgaande implicaties hebben voor bijvoorbeeld klantenservice.

Ik raad ten zeerste aan om deze korte clip te bekijken waarin de CEO van Groc de capaciteiten van de LPU demonstreert aan CNN: https://www.youtube.com/watch?v=pRUddK6sxDg

De tweede grote ontwikkeling die we hebben gezien, is in de hoeveelheid informatie die een AI-tool kan gebruiken als context. Wat bedoel ik met context? Een AI-contextvenster verwijst naar de hoeveelheid informatie of data die een kunstmatige intelligentie model, zoals een taalmodel, op één moment kan overwegen bij het genereren van reacties of het nemen van beslissingen. Het is in wezen het "geheugen" van de AI, dat bepaalt hoeveel context uit een gesprek of document het kan gebruiken om relevante outputs te genereren.

Bijvoorbeeld, het is niet mogelijk om de inhoud van een heel boek in ChatGPT te plakken en te vragen om een samenvatting te schrijven. Daarnaast is het algemeen bekend dat hoe meer informatie je in het contextvenster plaatst, hoe waarschijnlijker het is dat een AI-tool bepaalde delen ervan zal 'vergeten'. Hier komt Google's Gemini 1.5 van pas. Met Gemini 1.5, een type Large Language Model (LLM), kun je een contextvenster hebben van tot wel 10 miljoen tokens (ongeveer 700 duizend woorden). Dit maakt het mogelijk om de inhoud van een heel boek te in het contextvenser plakken en te vragen om een uitgebreide samenvatting ervan te schrijven. Niet alleen dat, maar volgens Google zal Gemini 99% van alle inhoud die je in dit contextvenster plaatst, nauwkeurig onthouden.

Waarom zou je hier als bedrijf om moeten geven? De potentiële toepassingen zijn eigenlijk behoorlijk indrukwekkend. Je zou alle offertes die je bedrijf heeft gemaakt, een stapel juridische documenten, een map gevuld met gebouwbeschrijvingen en energielabels, of een complete e-mailinbox in één keer kunnen uploaden en de AI vragen stellen over deze content. Dit is op zichzelf al opmerkelijk, maar de ware impact van deze ontwikkeling ligt in het feit dat het AI-tools aanzienlijk nauwkeuriger zal maken en in staat zal stellen om veel meer data te verwerken. De reden waarom dit zo belangrijk is, komt doordat deze trend zich met verbazingwekkende snelheid zal blijven ontwikkelen, waardoor meer gebruiksscenario's worden geopend dan ooit tevoren.

Als laatste, en misschien wel het minst belangrijk (afhankelijk van je perspectief en bedrijf), hebben we Sora. Sora is in wezen een AI-tool die videofragmenten van 60 seconden kan genereren. In de geest van "een beeld zegt meer dan duizend woorden", denk ik dat Sora het beste wordt gedemonstreerd in de volgende video, geüpload door OpenAI (de makers van Sora en ChatGPT): https://www.youtube.com/watch?v=HK6y8DAPN_0. Dit is om twee kernredenen significant. Ten eerste toont het heel duidelijk aan dat AI-tools niet alleen beperkt zijn tot het maken van tekst en afbeeldingen, maar ook video kunnen produceren en dit zeer goed kunnen. Dus als je in het bedrijf zit dat iets doet met bewegende beelden, zal deze ontwikkeling je wereld op zijn kop zetten.

Ook, als we overwegen dat nog geen jaar geleden dit als state-of-the-art werd beschouwd: https://www.youtube.com/watch?v=XQr4Xklqzw8, krijg je een echt begrip van de snelheid waarmee AI zich ontwikkelt. Het is zonder twijfel de snelst ontwikkelende technologie ooit.

Waarom is Sora belangrijk voor jouw bedrijf? Het verandert het spel volledig voor marketing. Elk bedrijf met een beetje verbeelding is nu in staat om video's van hoge kwaliteit te maken ter ondersteuning van al hun marketinginspanningen.