Accelerator / Versneller: Een klasse van microprocessoren die is ontworpen om AI-toepassingen te versnellen.
Agents / Agenten: Software die bepaalde taken zelfstandig en proactief kan uitvoeren zonder menselijke tussenkomst, vaak met behulp van een reeks tools zoals rekenmachines of webbrowsers.
AGI (Artificial General Intelligence): Hoewel er geen brede consensus over bestaat, hebben onderzoekers van Microsoft AGI gedefinieerd als kunstmatige intelligentie die net zo capabel is als een mens bij elke intellectuele taak.
Alignment / Afstemming: De taak om ervoor te zorgen dat de doelen van een AI-systeem in overeenstemming zijn met menselijke waarden.ASI (Artificial Super Intelligence): Hoewel er discussie over bestaat, wordt ASI doorgaans gedefinieerd als kunstmatige intelligentie die de capaciteiten van de menselijke geest overtreft.
Attention / Aandacht: In de context van neurale netwerken helpen aandachtsmechanismen het model zich te concentreren op relevante delen van de input bij het produceren van een output.
Back Propagation / Achterwaartse Propagatie: Een algoritme dat vaak wordt gebruikt bij het trainen van neurale netwerken en verwijst naar de methode om de gradiënt van de verliesfunctie ten opzichte van de gewichten in het netwerk te berekenen.
Bias / Vooroordeel: Aannames die een AI-model maakt over de data. Een "bias-variance tradeoff" is de balans die moet worden bereikt tussen aannames die een model maakt over de data en de mate waarin de voorspellingen van een model veranderen bij verschillende trainingsdata. Inductieve bias is de verzameling aannames die een machine learning-algoritme maakt over de onderliggende verdeling van de data.
Chain of Thought / Denkpatroon: In AI wordt deze term vaak gebruikt om de opeenvolging van redeneerstappen te beschrijven die een AI-model gebruikt om tot een beslissing te komen.
Chatbot: Een computerprogramma dat menselijke gesprekken simuleert via tekst- of spraakinteracties. Chatbots maken vaak gebruik van technieken voor natuurlijke taalverwerking om gebruikersinvoer te begrijpen en relevante antwoorden te geven.
ChatGPT: Een grootschalig AI-taalmodel ontwikkeld door OpenAI dat mensachtige tekst genereert.
CLIP (Contrastive Language-Image Pretraining) / CTBP (Contrastieve Taal-Beeld Pretraining): Een AI-model ontwikkeld door OpenAI dat afbeeldingen en tekst met elkaar verbindt, waardoor het afbeeldingen kan begrijpen en beschrijven.
Compute / Berekening: De rekenkracht (zoals CPU- of GPU-tijd) die wordt gebruikt bij het trainen of uitvoeren van AI-modellen.
Convolutional Neural Network (CNN) / Convolutioneel Neuraal Netwerk (CNN): Een type diep leermode dat gegevens met een rasterachtige topologie (bijv. een afbeelding) verwerkt door een reeks filters toe te passen. Dergelijke modellen worden vaak gebruikt voor beeldherkenningstaken.
Data Augmentation / Gegevensuitbreiding: Het proces van het vergroten van de hoeveelheid en diversiteit van gegevens die worden gebruikt voor het trainen van een model door licht gewijzigde kopieën van bestaande gegevens toe te voegen.
Data-driven learning / Data-gedreven leren: Verwijst naar een benadering waarbij het trainen en verbeteren van een AI-model wordt gestuurd door het gebruik van grote hoeveelheden gegevens, waardoor het model in staat is om patronen te herkennen en prestaties te verbeteren op basis van de beschikbare data
Deep Learning: Een subveld van machine learning dat zich richt op het trainen van neurale netwerken met veel lagen, waardoor het leren van complexe patronen mogelijk is.
Diffusion / Diffusie: In AI en machine learning is diffusie een techniek die wordt gebruikt om nieuwe gegevens te genereren door te beginnen met een stuk echte gegevens en willekeurig lawaai toe te voegen. Een diffusiemodel is een type generatief model waarbij een neurale netwerk wordt getraind om het omgekeerde proces te voorspellen wanneer willekeurig lawaai aan de gegevens wordt toegevoegd. Diffusiemodellen worden gebruikt om nieuwe monsters van gegevens te genereren die vergelijkbaar zijn met de trainingsgegevens.
Double Descent / Dubbele Afname: Een fenomeen in machine learning waarbij de prestaties van een model verbeteren met toenemende complexiteit, dan verslechteren en vervolgens weer verbeteren.
Embedding / Insbedding: De representatie van gegevens in een nieuwe vorm, vaak een vectorruimte. Vergelijkbare gegevenspunten hebben meer vergelijkbare insbeddingen.
Emergence/Emergent Behavior ("sharp left turns," intelligence explosions): In AI verwijst emergentie naar complex gedrag dat voortkomt uit eenvoudige regels of interacties. "Scherpe bochten" en "intelligentie-explosies" zijn speculatieve scenario's waarin de ontwikkeling van AI plotselinge en drastische veranderingen ondergaat, vaak geassocieerd met de komst van AGI.
End-to-End Learning: Een type machine learning-model dat geen handmatig geconstrueerde functies vereist. Het model krijgt eenvoudigweg ruwe gegevens als invoer en wordt verwacht te leren van deze invoer.
Expert Systems / Expertsystemen: Een toepassing van kunstmatige intelligentietechnologieën die oplossingen biedt voor complexe problemen binnen een specifiek domein.
Explainable AI (XAI): Een subveld van AI dat zich richt op het creëren van transparante modellen die duidelijke en begrijpelijke verklaringen geven voor hun beslissingen.
Fine-tuning: Het proces waarbij een voorgeleerd machine learning-model dat al is getraind op een grote dataset, wordt aangepast voor een iets andere taak of specifiek domein. Tijdens het fijnafstemmen worden de parameters van het model verder aangepast met behulp van een kleinere, taakspecifieke dataset, waardoor het patronen specifiek voor de taak kan leren en de prestaties op de nieuwe taak kan verbeteren.
Forward Propagation / Voorwaartse Propagatie: In een neuraal netwerk is voorwaartse propagatie het proces waarbij invoerdata in het netwerk wordt gevoerd en door elke laag gaat (van de invoerlaag naar de verborgen lagen en uiteindelijk naar de uitvoerlaag) om de uitvoer te produceren. Het netwerk past gewichten en biassen toe op de invoer en gebruikt activatiefuncties om de uiteindelijke uitvoer te genereren.
Foundation Model / Grondslagmodel: Grote AI-modellen die zijn getraind op brede gegevens en bedoeld zijn om te worden aangepast voor specifieke taken.
Full AI: Het gebruik maken van zowel Soft AI als Hard AI tools en applicaties om tot diepere inzichten te komen. Er wordt gebruik gemaakt van het gehele AI spectrum.
General Adversarial Network (GAN) / Algemeen Antagonistisch Netwerk (AAN): Een type machine learning-model dat wordt gebruikt om nieuwe gegevens te genereren die lijken op bepaalde bestaande gegevens. Het plaatst twee neurale netwerken tegenover elkaar: een "generator" die nieuwe gegevens creëert en een "discriminator" die probeert dat gegeven van echt gegeven te onderscheiden.
Generative AI / Generatieve AI: Een tak van AI die zich richt op het creëren van modellen die nieuwe en originele inhoud kunnen genereren, zoals afbeeldingen, muziek of tekst, op basis van patronen en voorbeelden uit bestaande gegevens.
GPT (Generative Pretrained Transformer) / GVT (Generatieve Voorgeleerde Transformer): Een grootschalig AI-taalmodel ontwikkeld door OpenAI dat mensachtige tekst genereert.
GPU (Graphics Processing Unit): Een gespecialiseerd type microprocessor dat voornamelijk is ontworpen om snel afbeeldingen weer te geven voor uitvoer naar een beeldscherm. GPU's zijn ook zeer efficiënt in het uitvoeren van de berekeningen die nodig zijn om neurale netwerken te trainen en uit te voeren.
Gradient Descent / Gradiëntafname: In machine learning is gradiëntafname een optimalisatiemethode die geleidelijk de parameters van een model aanpast op basis van de richting van de grootste verbetering in de verliesfunctie. Bij lineaire regressie helpt gradiëntafname bijvoorbeeld bij het vinden van de best passende lijn door de helling en de snijpunt van de lijn herhaaldelijk te verfijnen om de voorspellingsfouten te minimaliseren.
Hallucinate/Hallucination / Hallucineren/Hallucinatie: In de context van AI verwijst hallucinatie naar het fenomeen waarbij een model inhoud genereert die niet is gebaseerd op echte gegevens of aanzienlijk verschilt van de werkelijkheid.Hidden Layer / Verborgen Laag: Lagen van kunstmatige neuronen in een neuraal netwerk die niet rechtstreeks zijn verbonden met de invoer of uitvoer.
Hard AI: AI tools of applicaties die getrained zijn op data waar alleen jij, een bedrijf of organisatie toegang tot heeft. Deze tools of applicaties zijn doorgaans alleen toegankelijk voor de eigenaar van de data tenzij ervoor gekozen is om deze anders in te richten.
Hyperparameter Tuning / Hyperparameterafstemming: Het proces van het selecteren van de juiste waarden voor de hyperparameters van een machine learning-model, zoals leersnelheid, aantal verborgen lagen, aantal neuronen per laag, enz., om de prestaties van het model te optimaliseren.
Inductive Bias / Inductieve Bias: De voorkeuren of aannames die een machine learning-algoritme maakt bij het leren van een model. De inductieve bias helpt het algoritme bij het nemen van beslissingen in situaties met onvolledige gegevens en generalisatie naar nieuwe voorbeelden.
Knowledge Representation / Kennisrepresentatie: Het proces van het vastleggen en structureren van kennis in een formaat dat begrijpelijk is voor een computer, zodat deze kennis kan worden gebruikt voor redeneren, inferentie en besluitvorming.
Label: Een categorie, tag of waarde die wordt toegewezen aan een gegevenspunt om het te identificeren of te classificeren.
Latent Space / Latente Ruimte: Een abstracte representatie van gegevens die is afgeleid van de originele gegevens en vaak een lage dimensie heeft. Latente ruimtes worden vaak gebruikt in generatieve modellen om nieuwe gegevenspunten te genereren die overeenkomen met de kenmerken van de oorspronkelijke gegevens.
Machine Learning: Een tak van kunstmatige intelligentie die zich bezighoudt met het ontwikkelen van algoritmen en modellen die automatisch kunnen leren en verbeteren van ervaring zonder expliciete instructies.
Memory-Augmented Neural Network / Geheugen-augmented Neuraal Netwerk: Een type neurale netwerkarchitectuur dat is ontworpen om externe geheugenbronnen te gebruiken voor opslag en ophalen van informatie tijdens de verwerking.
Meta-Learning / Meta-Leren: Een tak van machine learning die zich richt op het ontwikkelen van algoritmen en modellen die kunnen leren hoe ze snel nieuwe taken kunnen leren op basis van ervaring met eerdere taken.
Model Compression / Modelcompressie: Het proces van het verkleinen van de omvang van een machine learning-model zonder significante verlies van prestaties. Dit kan worden bereikt door technieken zoals kwantisatie, pruning of knowledge distillation.
Natural Language Processing (NLP) / Natuurlijke Taalverwerking (NTV): Een subveld van AI dat zich richt op het begrijpen, analyseren en genereren van menselijke taal, zowel geschreven als gesproken.
Neural Architecture Search / Neurale Architectuurzoekopdracht: Een techniek waarbij machine learning-algoritmen worden gebruikt om automatisch de optimale architectuur van een neuraal netwerk te ontdekken voor een bepaalde taak, vaak met behulp van evolutionaire algoritmen of reinforcement learning.
Ontology / Ontologie: Een formele representatie van kennis in een bepaald domein, inclusief de concepten, eigenschappen en relaties tussen entiteiten.
OpenAI / OpenAI: Een onderzoeks- en ontwikkelingsbedrijf dat zich richt op kunstmatige intelligentie en machine learning, bekend om het ontwikkelen van geavanceerde AI-modellen zoals GPT.
Overfitting / Overpassing: Een fenomeen in machine learning waarbij een model te sterk wordt aangepast aan de trainingsgegevens en daardoor slecht presteert op nieuwe, onbekende gegevens. Het model heeft de specifieke voorbeelden en ruis in de trainingsgegevens "uit het hoofd geleerd" in plaats van de algemene patronen te begrijpen.
Recurrent Neural Network (RNN) / Recurrent Neuraal Netwerk (RNN): Een type neuraal netwerk dat is ontworpen om sequentiële gegevens te verwerken door informatie van eerdere stappen te behouden en door te geven aan toekomstige stappen, waardoor het model contextuele informatie kan begrijpen en voorspellen.
Reinforcement Learning / Versterkend Leren: Een tak van machine learning waarbij een agent acties leert ondernemen in een omgeving om een bepaald doel te bereiken. De agent wordt beloond of bestraft op basis van de resultaten van zijn acties, waardoor hij leert welke acties de beste beloningen opleveren.
Self-Supervised Learning / Zelf-begeleid Leren: Een benadering van machine learning waarbij een model wordt getraind op basis van de eigenschappen van de invoergegevens zelf, zonder expliciete menselijke labels. Het model maakt gebruik van technieken zoals voorspellings- of reconstructietaken om onbewaakte gegevens te gebruiken voor training.
Semi-Supervised Learning / Semi-begeleid Leren: Een machine learning-aanpak waarbij een model wordt getraind op zowel gelabelde gegevens als ongelabelde gegevens. Het model maakt gebruik van de gelabelde gegevens om een voorspellingsmodel te leren en profiteert van de ongelabelde gegevens om de algemene patronen in de gegevens beter te begrijpen.
Soft AI: AI Tools of applicaties die beschikbaar zijn voor iedereen in gelijke mate en getrained zijn op publiekelijk beschikbare data.
Supervised Learning / Begeleid Leren: Een machine learning-paradigma waarbij een model wordt getraind op basis van gelabelde gegevens, waarbij elk gegevenspunt een invoer en een bijbehorend label heeft. Het model leert om de relatie tussen de invoer en het label te begrijpen en kan vervolgens voorspellingen doen voor nieuwe, ongelabelde gegevens.
Transfer Learning / Overdrachtsleren: Een techniek waarbij een vooraf getraind model wordt gebruikt als basis om een nieuw model te trainen voor een andere, gerelateerde taak. Het vooraf getrainde model leert algemene kenmerken en patronen in de gegevens, die kunnen worden benut bij het leren van het nieuwe model en het verbeteren van de prestaties ervan.
Unsupervised Learning / Ongestructureerd Leren: Een machine learning-aanpak waarbij een model wordt getraind op basis van ongelabelde gegevens, waarbij geen menselijke labels beschikbaar zijn. Het model leert patronen en structuur in de gegevens te ontdekken zonder specifieke richtlijnen, en kan worden gebruikt voor clustering, dimensionaliteit-reductie of generatie van nieuwe gegevens.