Goudmijn met gevaren: “Greatest of all Time” als AI Personal Assistant

June 22, 2023

We kennen ze allemaal: de goeroe van zelfhulp, Anthony Robbins; de meest succesvolle bodybuilder aller tijden, Arnold Schwarzenegger; de investeringsgoeroe, Warren Buffett; en de inspirerende, maar confronterende spreker Jordan Peterson. Elke categorie heeft zijn "greatest of all time", al zijn de meningen daar uiteraard over verdeeld! Cruciaal is dat de meesten een enorme hoeveelheid kennis hebben achtergelaten in de vorm van gesproken en geschreven content. Deze kennis kan worden omgezet in een winstgevende business.

Het businessmodel in een notendop: word de allerbeste, of een van de allerbesten in een bepaald segment. Produceer een corpus aan data door digitale content te produceren in de vorm van artikelen en boeken, interviews en social media content. Laat een AI leren van deze content en bied deze AI aan in de vorm van een coach of trainer. Laten we dit concept voor nu replica-AI noemen (we zijn niet erg origineel met onze benaming...).

Dit is uiteraard niet de makkelijkste manier om succes te behalen, maar voor degene die het lukt staat een absolute full AI goudmijn te wachten. Een replica-AI-coach van jezelf die de gebruiker hoogstpersoonlijke coaching en training biedt.

Hoe het nu werkt is dat deze beroemdheden bijvoorbeeld boeken schrijven of lezingen geven met de ambitie om hun kennis te delen voor de consumptie van de consument. De consument gaat naar de lezing, of neemt de tijd om een boek te lezen en past vervolgens de lessen toe op zijn of haar leven. Echter, vaak ben je na een vrij korte tijd, een paar maanden of een jaar, grotendeels de informatie alweer vergeten. Daarnaast kost het lezen van een boek veel tijd en moeite, en is niet alles van toepassing op jouw specifieke situatie.

Ook is voor de producent van deze kennis de schaalbaarheid niet oneindig. Wat we hiermee bedoelen is dat niet iedereen de tijd of zin heeft om een boek te lezen.

Maar stel je voor dat een AI, compleet gebaseerd op de kennis van Warren Buffett, jou hoogstpersoonlijk advies kan geven over je financiële situatie. Dat zou een bijzonder sterke tool zijn. Wij denken dat dit de volgende sprong zal zijn in personal training en coaching.

We zien een absolute goudmijn, niet alleen voor de producent, maar ook voor de consument.

Vrijwel iedereen heeft een hobby of professie waar ze beter in willen worden. Ook zijn er mensen die simpelweg baat hebben bij hulp maar al maanden moeten wachten op hulp. Deze consumenten zouden voor een x-hoeveelheid per maand coaching in huis kunnen halen door middel van een AI

Maar waar liggen de gevaren? Personal training is geen probleem; daar kan niet veel misgaan. Echter, bij financieel advies wordt het al wat lastiger. Wat als de AI een slechte suggestie doet en iemand verliest veel geld? Momenteel vraagt nog maar 8% om financieel advies van ChatGPT, maar wij denken dat mensen eerder geneigd zijn om advies van Warren Buffett op te volgen dan van ChatGPT, dus dat percentage zal ongetwijfeld omhooglopen. Ook is relatieadvies enorm populair, zo'n 65% van de mensen vraagt wel eens om relatieadvies van ChatGPT.

Wie is erverantwoordelijk en hoe moeten we daar mee omgaan?

Het is van cruciaal belang dat er ethische en wettelijke richtlijnen worden vastgesteld om de gevaren van replica-AI's te beheersen. Financieel advies en relatieadvies zijn slechts twee voorbeelden van gebieden waarop grote zorgvuldigheid en verantwoordelijkheid nodig zijn.

Ten eerste moeten er strenge regels en controlemechanismen zijn om de kwaliteit en betrouwbaarheid van de adviezen van replica-AI's te waarborgen. Deze modellen moeten worden getraind en geëvalueerd op nauwkeurigheid en de mogelijkheid om de juiste context en situatie te begrijpen.

Ten tweede moeten er duidelijke aansprakelijkheidsregels zijn in het geval van financiële schadeof andere nadelige gevolgen als gevolg van verkeerde adviezen van replica-AI’s.De verantwoordelijkheid voor de gevolgen van dergelijke adviezen mag nietalleen bij de gebruikers liggen, maar ook bij de ontwikkelaars en aanbiedersvan de AI-systemen.

Ten derde is transparantie van groot belang. Gebruikers moeten duidelijk worden geïnformeerd over de beperkingen van de replica-AI's en de mogelijkheid om de adviezen te verifiëren en een eigen oordeel te vormen.

Tot slot is er ook een rol weggelegd voor gebruikers zelf. Het is belangrijk dat mensen zich bewust zijn van de beperkingen van replica-AI's en niet blindelings vertrouwen op hun adviezen. Kritisch denken en het vermogen om informatie te evalueren blijven essentiële vaardigheden, zelfs in een tijdperk van geavanceerde AI-technologie.

De AI Act van de Europese Unie stap in de juiste richting, maar biedt bij lange na niet alle antwoorden. Wat door de Europese Commissie en andere Europese organen wordt gezien als "gevaar" is niet duidelijk in deze context.

Voor de tools en applicaties die wij bouwen, houden we rekening met de toekomst en denken we na over de mogelijke gevolgen voor de producent en consument. Bouwen doen we met gezond (boeren) verstand!

Zou jij gebruikmaken van een replica-AI? Zou je financieel advies aannemen van Warren Buffett of relatieadvies van Jordan Peterson? We horen het graag!