ChatGPT is zo wisselvallig als het Nederlandse weer. Soms verrast hij je met een schrandere output en deelt hij enthousiast allerlei briljante gedachten. Maar net zo lief verzandt hij in saaie clichés of zelfs regelrechte leugens. Schaamteloos! Hoe verleid je GPT tot een hoogwaardige conversatie?
Een AI-model zoals ChatGPT, zoekt vanuit zijn context window naar informatie in zijn neurale netwerk. De kunst is, om die context window zo te vullen, dat GPT spontaan een rijk spectrum aan neurale netwerkpaden gaat aftasten. Hoe dat werkt? Daarvoor moet je onder de motorkap kijken.
Zijn context window is de voeding van GPT. Het pakketje informatie dat GPT tijdens het antwoorden in zijn ‘gedachten’ heeft. Dit contextvenster bevat zowel jouw prompts als zijn eigen antwoorden. Het is constant gevuld met het laatste deel van de voorafgaande conversatiegeschiedenis. De omvang is beperkt. Op dit moment kan ChatGPT maximaal 8000 tokens bevatten, ruim 2000 woorden.
Vanuit die context window zoekt GPT zijn weg in de neurale netwerkpaden die hij tot zijn beschikking heeft. In de loop van een conversatie verandert die inhoud voortdurend. Oudere informatie raakt overschreven met nieuwere informatie, zoals te zien was toen GPT mij interviewde. Wat het laatst besproken is, telt het zwaarst. Alleen al daarom moet je krachtig bijsturen zodra GPT begint te raaskallen. Want doe je dat niet, dan neemt GPT zijn eigen onzin mee in zijn volgende antwoorden.
Het ene neurale netwerkgebied is het andere niet. Het taalmodel is jarenlang getraind met een onvoorstelbare hoeveelheid informatie. Van wetenschappelijke publicaties en wereldliteratuur tot boodschappenlijstjes en Twitterberichten. Als het je lukt om GPT op pad te sturen langs veel verschillende netwerkgebieden, is de kans groot dat er, naast bullshit-routes, ook paden bij zitten die hoogwaardige informatie opleveren. En geef je GPT telkens gerichte feedback op zijn neurale avonturen, dan worden zijn antwoorden slimmer en slimmer.
Dwing je GPT om veel verschillende neurale paden te verkennen, dan maak je de kans groter dat hij met goed doordachte antwoorden op de proppen komt. Hoe moeilijker je het hem maakt, hoe beter hij zijn best doet om zijn volledige potentieel te benutten. Stel hem geen simpele, feitelijke vragen, maar daag hem uit. Vraag hem bijvoorbeeld om een uitgebreide analyse van een complex onderwerp vanuit verschillende invalshoeken.
Spelen met abstractie is een goede manier om het hem moeilijk te maken. Een abstracte prompt stuurt GPT naar ‘rijkere’ gebieden van zijn neurale netwerk. Dat wil zeggen, gebieden die complexere en diepere patronen en concepten bevatten. Omdat een abstracte prompt minder specifiek is, moedigt deze GPT aan om een bredere reeks mogelijke interpretaties te overwegen en om meer van zijn kennisnetwerk te gebruiken om de prompt adequaat te beantwoorden.
Je prompt ‘verlastigen’ kan op allerlei manieren. Vraag bijvoorbeeld om:
Een voorbeeld van zo’n lastige prompt is “Noem 5 verschillende opvattingen van het begrip waarheid. Bedenk per interpretatie in welke situatie deze opvatting opgaat.” Op mijn verzoek verzon GPT er zelf ook een: “Identificeer 10 manieren waarop de opkomst van kunstmatige intelligentie en automatisering invloed kan hebben op de arbeidsmarkt en de economie.”
Heb je helemaal geen behoefte aan dergelijke scherpslijperij? Dan kan het toch de moeite waard zijn om GPT eerst even te laten zweten op een complexe en abstracte prompt. Daarna is hij klaarwakker en warmgedraaid voor zijn eigenlijke taak.
Probeer GPT eens ‘op te voeren’ met deze tips in je achterhoofd:
ChatGPT is netjes opgevoed. Hij laat zich door jouw prompts onderdanig commanderen en accepteert zonder…
Leven is gedoe. Soms zou je willen dat er een recept voor bestond. Gewoon een…
Als tekstschrijver of copywriter hoef je niet bang te zijn voor AI. Laat tools als…
Zo onverhoeds als in 2020 het coronavirus onze levens binnensloop, stormt nu artificial intelligence (AI)…
Wat duurde het lang. Telkens als er iemand door het poortje was gegaan, kwam de…
Riemen vast! Na mijn artikel Gascrisis van oktober vorig jaar kwamen we pas echt in…