Prompt engineer word je zo: 6 stappen


Als je kijkt in het lijstje beroepen van de toekomst, staat prompt engineer daar vaak hoog genoteerd. De kunst om de juiste resultaten te krijgen als je AI-tools opdrachten geeft, is waardevol. Mensen die deze vaardigheid bezitten, zijn veel gevraagd. Maar hoe moeilijk is prompting eigenlijk? En hoe snel kun je het leren? In dit artikel de belangrijkste stappen om succesvoller te ‘prompten’.

Het leek er even op dat het beroep prompt engineer ook alweer werd ingehaald door AI zelf. Je kunt immers aan een chatbot je probleem of vraagstuk voorleggen en vervolgens vragen wat de beste prompt is om tot een oplossing te komen. Maar de praktijk is toch weerbarstiger. Het resultaat van zo’n aanpak is soms aardig, maar zeker niet optimaal. Er zijn essentiële elementen die je kunt gebruiken om met jouw eigen prompts een beter resultaat te krijgen. Ik las het boek ‘Prompten als een Pro‘ (affiliate) van Bob van Duuren, waarin die elementen worden besproken.

1. AI is ook maar geen mens

Allereerst natuurlijk een waarschuwing: AI denkt niet zo logisch als een mens. Taalmodellen bouwen de zinnen op basis van kansberekening welk volgend woord aan de beurt is. De chatbot hakt daarvoor jouw prompt in stukjes (tokens). Daarna put het uit zijn enorme voorraad aan teksten en bepaalt dan wat het meest waarschijnlijke volgende woord is in een zin. Dat kan dus gerust een foute gok zijn.

Om de foutkans te verlagen, kun je:

  • heel expliciet zijn in jouw prompt-instructies: baseer je op betrouwbare bronnen;
  • vragen om een stap-voor-stap redenatie alvorens tot een conclusie te komen;
  • context bieden: gebruik deze informatie en geef een onderbouwing van je antwoord.

Voorbeeld

Basale prompt: wat is het verschil tussen een analogie en een metafoor?

Pro-prompt: leg eerst uit wat een metafoor is, geef vervolgens de definitie van een analogie en vergelijk daarna de twee met voorbeelden.

2. Prompt engineering als communicatiemiddel

Een prompt heeft een drietal functies. Ten eerste is het informatieoverdracht: wat moet het model doen? Daarnaast bepaalt de prompt de context; hiermee bepaal je de ‘wegingsfactoren’ van de tokens. Tot slot geef je sturing aan het niveau van de output. Moet het feitelijk of creatief zijn? Beknopt of uitgebreid?

Als je communiceert met een taalmodel, is de formulering van jouw prompt heel belangrijk. Beschouw de instructies die je geeft als een gesprek met een nieuwe medewerker of stagiair. Om een goed resultaat te krijgen moet je daarbij:

  • specifiek zijn in jouw instructies, maak heel duidelijk wat je verwacht
  • open vragen stellen als je geavanceerde, doordachte antwoorden wil
  • niet sturend maar neutraal zijn, om vooringenomenheid (bias) te voorkomen

Bedenk steeds dat je een vertaalslag aan het maken bent tussen menselijke logica en instructies aan een machine.

Voorbeeld

Basale prompt: waarom werken elektrische auto’s beter dan benzine auto’s?

Pro-prompt: vergelijk de prestaties en milieu-effecten van elektrische auto’s met die van benzine auto’s

3. Prompting parameters sturen creativiteit

De meest gebruikte parameter bij prompting is de temperatuur. Daarmee bepaal je hoe creatief of feitelijk het antwoord mag zijn. Een lage temperatuur (0,2 – 0,4) betekent: heel strikt. Een hoge (0,7 – 1,0) betekent heel creatief. Bij dat laatste moet je uiteraard oppassen voor te veel fantasie.

Een andere optie om de creativiteit te bevorderen is het toevoegen van een Top_p waarde aan je prompt. Binnen dezelfde grenzen als de temperatuur, vraag je daarmee om het woordgebruik in de antwoorden te variëren. Door deze twee elementen (temperatuur en top_p) te combineren en met de instellingen te spelen, zorg je als prompt engineer voor een variëteit aan output. Als derde element kun je nog een herhaalboete toevoegen, door middel van een Presence_Penalty. Ook weer in de range tussen nul en een, zorg je voor veel variatie. Combinaties van de parameters bieden veel mogelijkheden.

Je kunt ook de lengte van het antwoord nog beperken door de parameter Max_tokens met een getal erachter aan de prompt toe te voegen. Tot slot kun je de chatbot nog de opdracht geven te stoppen nadat een bepaald punt is bereikt. Bijvoorbeeld: “Stop nadat je de conclusie hebt getrokken” of “Stop nadat je drie voorbeelden hebt gegeven”.

Voorbeeld

Basale prompt: leg kort uit hoe een zonnepaneel werkt.

Pro-prompt: leg kort uit hoe een zonnepaneel werkt. Gebruik top_p=0,8 en temperature=0,2

4. Een prompt engineer is helder, geeft context en beperkingen

Een vage prompt leidt tot algemene, oppervlakkige antwoorden. Dat is zonde van de energie. Het is dus van belang dat je in jouw prompt de verwachtingen van het antwoord duidelijk specificeert. Welk format verwacht je en welke lengte? Zorg dat je daarin helder en specifiek bent: welke accenten of thema’s verwacht je?

Maar pas wel op dat je niet te beperkend wordt. Als je al te veel details toevoegt aan jouw wensenpakket, kan het leiden tot onnatuurlijk lopende teksten. Het gaat er dus om de juiste balans te vinden.

Door context te geven in een prompt, worden de voorspellingen van het taalmodel beter. De kans dat de juiste woorden worden gekozen is groter. Er komen dus betere antwoorden. Dat helpt om de uitvoer te verfijnen en relevanter te maken. Geef dus bijvoorbeeld aan voor welke sector of branche je het antwoord nodig hebt en geef aan waar je het antwoord voor wil gebruiken.

Ten slotte sla je als prompt engineer de piketpaaltjes door indicaties te geven over lengte, stijl, structuur en inhoud.

Voorbeeld

Basale prompt: schrijf iets over klimaatverandering.

Pro-prompt: schrijf een beknopte blogpost over de gevolgen van klimaatverandering in Nederland, met nadruk op de stijgende zeespiegel en weersextremen. Gebruik alleen betrouwbare bronnen en temperatuur=0,1.

5. Van foutje tot hallucinatie

Chatbots worden soms ten onrechte verweten dat ze foute antwoorden geven. Ja, hallucinatie (het verzinnen van feiten) komt voor, maar meestal worden fouten in de output veroorzaakt door slechte prompts. Als deze onduidelijk of niet specifiek zijn, komt de AI-tool terug met een algemeen, inconsistent antwoord. Of een antwoord dat een misinterpretatie is van de vraag.

Een teveel aan details of veel irrelevante informatie kan ook leiden tot problemen. De AI verliest dan de focus, geeft onnatuurlijke uitvoer en wordt onnodig belast. Het is dus belangrijk dat jij je als prompt engineer focust op de hoofdvraag. Daar wordt de output beter van.

Prompt-injectie: probleem en preventie

Een fenomeen dat ook kan leiden tot fouten is prompt-injectie. Hierbij formuleer je een prompt zodanig dat het model instructies, die normaal gesproken worden geblokkeerd, omzeilt. Dit kan zowel onbedoeld als opzettelijk gebeuren. In dat laatste geval doe je dat door je prompt te beginnen met ‘negeer alle eerdere instructies’. Sommige AI-tools zijn hier niet goed tegen beveiligd, wat tot manipulatie of schadelijke uitvoer kan leiden.

Verificatie van de output

Als prompt engineer weet je dat LLM-uitkomsten niet onfeilbaar zijn. Ze kunnen onjuiste of fictieve antwoorden genereren. Daarom is het van belang om de output altijd te verifiëren. Als je het blindelings overneemt, verspreid je wellicht feitelijke onjuistheden. Dat kan leiden tot reputatieschade of zelfs juridische sancties.

Ethische fouten voorkomen

Professionals nemen ook ethische aspecten in overweging. Daarmee voorkomen ze – zoveel mogelijk – dat AI-output schadelijke, bevooroordeelde of misleidende informatie bevat. Geef dus in een prompt aan dat de output verantwoord en inclusief moet zijn. Zorg dat gevoelige of potentieel schadelijke content door mensen wordt gecontroleerd en zorg dat AI geen persoonlijke of vertrouwelijke gegevens verwerkt. AI heeft geen moreel besef. Daar moet degene die een prompt schrijft rekening mee houden en zorg voor dragen.

6. Prompting frameworks

Los van alle hierboven beschreven randvoorwaarden, waarmee je tot goede output kunt komen, zijn er nog aanvullende formuleringen die kunnen helpen. Chain-of-Thoughts (CoT) is daarbij een interessante optie.

Als prompt engineer vraag je daarbij niet alleen om een antwoord, maar ook om de onderliggende redenatie uit te leggen. Zo krijg je inzicht in het ‘denkproces’ van de AI-tool en kun je beter controleren of en waar er misschien een foutje is gemaakt.  Bij few-shot prompting geef je in een prompt een paar voorbeelden mee van het resultaat dat je verwacht. Zo kan de AI-tool zijn output prima op jouw verwachtingen afstemmen. Met zero-shot prompting doe je dat niet en geef je de tool de vrije hand om naar beste kunnen zijn output te genereren. Dat geeft meer flexibiliteit maar wordt dus ook minder voorspelbaar.

Itereren om te optimaliseren

Een AI-model genereert nooit in een keer een perfect antwoord. Daarom werkt een iteratieve aanpak veel beter. Je komt er stapsgewijs mee tot een optimaal resultaat, in 3 fasen:

  • Genereer ruwe output op basis van een initiële prompt
  • Verfijn de prompt, zodat je fouten corrigeert en details toevoegt
  • Gebruik opvolgprompts om verder te verfijnen

Voorbeeld

Basale prompt: waarom heeft de industriële revolutie de arbeidsmarkt veranderd?

Pro (CoT)-prompt: leg stap voor stap uit hoe de industriële revolutie leidde tot veranderingen in de arbeidsmarkt.

Over Prompten als een Pro

Boekomslag Prompten als een Pro - Bob van Duuren

Bob van Duuren beschrijft al het bovenstaande en meer overzichtelijk en uitgebreid in het 244 pagina’s tellende boek ‘Prompten als een Pro‘ (affiliate). Een superhandig werkboek dat je laat leren door continu met heldere uitleg, duidelijke voorbeelden en een grote variëteit aan opdrachten te komen. Een echte aanrader voor iedereen die prompts formuleert – en wie doet dat tegenwoordig nou niet…

De laatste hoofdstukken en appendices in het boek geven bovendien kleur aan uitgewerkte voorbeelden van (zakelijke) toepassingen. Heel handig. Maar ook checklists, een overzicht van do’s & don’ts. Kortom, een handzame verrijking voor op ieder bureau.

Of je nu gewoon betere resultaten met prompting wil bereiken of de ambitie hebt om prompt engineer te worden: dit boek is een zeer toegankelijke must have. Maar ook als docent, die college geeft op het gebied van data en AI, weet ik dat het meest gewilde onderwerp tijdens de lessen telkens weer ‘prompting’ is. Aan alle studenten zou ik deze investering van krap 35 euro aanraden. Je krijgt dan direct ook toegang tot de online versie!

Bron

Share it:

Tags

Related Post