Wat zijn de beperkingen van ChatGPT?

ChatGPT is een populaire chatbot die eind 2022 werd uitgebracht door OpenAI. Chatbots, of computerprogramma’s die menselijke interacties simuleren via kunstmatige intelligentie (KI/AI) en natuurlijke taalverwerking (NLP), kunnen helpen bij het beantwoorden van veel academische vragen.

Hoewel het gebruik van ChatGPT tijdens je studie handig kan zijn, met name voor hulp bij examenvoorbereiding, huiswerkopdrachten of academisch schrijven, heeft de tool momenteel nog beperkingen. De huidige beperkingen zijn onder meer:

Let op
Universiteiten en andere instellingen moeten nog steeds standpunten formuleren over hoe ChatGPT en soortgelijke tools mogen worden gebruikt. Volg altijd de richtlijnen van je instelling in plaats als deze afwijken van online suggesties. Bekijk ook ons overzicht van AI-richtlijnen per onderwijsinstelling.

ChatGPT-beperking 1: Incorrecte antwoorden

Aangezien ChatGPT een voortdurend evoluerend taalmodel is, is het onvermijdelijk dat de tool fouten maakt. Het is cruciaal om je werk dubbel te controleren als je de tool gebruikt, want ChatGPT maakt momenteel nog grammaticale, wiskundige, feitelijke en redeneerfouten (zoals drogredenen).

ChatGPT is niet altijd betrouwbaar bij de beantwoording van ingewikkelde vragen over gespecialiseerde onderwerpen zoals grammatica of wiskunde, dus kun je dit soort vragen het beste zo eenvoudig mogelijk houden. Dubbelcheck de antwoorden op meer gespecialiseerde vragen door betrouwbare bronnen te raadplegen.

Een belangrijk probleem is dat ChatGPT soms moeite heeft om te erkennen iets niet te weten. In plaats daarvan verzint de tool een aannemelijk klinkend, maar verkeerd, antwoord. Op die manier geeft ChatGPT voorrang aan een “vollediger” antwoord boven feitelijke juistheid.

Zo heeft ChatGPT op verschillende momenten verwezen naar niet-bestaande wettelijke bepalingen die de tool zelf creëerde om niet te hoeven zeggen dat hij een antwoord niet wist. Dit gebeurt vooral als de chatbot geen expertise heeft of als iets gespecialiseerde kennis vereist, bijvoorbeeld bij onderwerpen gerelateerd aan geneeskunde of rechten.

ChatGPT-beperking 2: Bevooroordeelde antwoorden

ChatGPT loopt, net als alle taalmodellen, het risico van inherente vooroordelen (bias), en er zijn terechte zorgen dat een toenemend gebruik van AI-tools culturele, raciale en genderstigma’s kan verergeren. Dit komt door een aantal factoren:

  • Het ontwerp van de trainingsdatasets;
  • De ontwerper van de trainingsdatasets;
  • De kwaliteit van het leerproces.

Als de trainingsdatasets bevooroordeelde input bevatten en de chatbot hiernaar verwijst, is de kans groot dat de output ook vooroordelen bevat. Dit is een uitdaging waarmee bijna elke AI-tool kampt. Daarom wordt vaak een waarschuwing over bevooroordeeld of kwetsend taalgebruik toegevoegd.

ChatGPT-beperking 3: Gebrek aan menselijk inzicht

Hoewel ChatGPT goed in staat is om samenhangende antwoorden te formuleren op specifieke prompts of vragen, is de chatbot niet menselijk. Daarom kan de tool alleen menselijk gedrag nadoen, maar heeft de chatbot geen menselijke ervaringen. Dit heeft verschillende implicaties:

  • De tool begrijpt niet altijd de volledige context van een onderwerp, wat kan leiden tot onzinnige of te letterlijke antwoorden.
  • Een chatbot heeft geen emotionele intelligentie en herkent of reageert niet op emotionele signalen, zoals sarcasme, ironie of humor.
  • ChatGPT herkent niet altijd idiomen, regionale uitdrukkingen of jargon. In plaats daarvan kan de tool een uitdrukking als “het regent pijpenstelen” letterlijk opvatten.
  • De tool heeft geen zintuigen en kan niet zien, horen of communiceren met de wereld zoals mensen. Daardoor kan een chatbot de wereld niet begrijpen op basis van directe ervaring, maar alleen op basis van tekstuele bronnen.
  • ChatGPT beantwoordt vragen heel robotisch, waardoor het goed te zien is dat de output machinaal wordt gegenereerd en vaak gebaseerd is op een template.
  • De chatbot begrijpt geen subtekst, dus de tool kan niet “tussen de regels door lezen” of partij kiezen. Hoewel neutraliteit vaak een goede zaak is, moet je bij sommige vragen wel een kant kiezen.
  • De tool beschikt niet over praktijkervaringen of gezond verstand en kan situaties die dit soort kennis vereisen niet begrijpen. Ook kan de tool er niet gepast op reageren.
  • ChatGPT kan een onderwerp samenvatten en uitleggen, maar kan geen uniek inzicht bieden. Mensen hebben kennis nodig om een nieuw perspectief te bieden, maar ervaringen en meningen zijn ook cruciaal voor dit proces.

ChatGPT-beperking 4: Lange of langdradige antwoorden

De trainingsdatasets van ChatGPT moedigen de tool aan om een onderwerp vanuit meerdere invalshoeken te behandelen en vragen op alle mogelijke manieren te beantwoorden.

Hoewel dit in sommige opzichten positief is voor ingewikkelde onderwerpen, zijn er ook onderwerpen waarbij een direct, bondig antwoord beter is. In sommige gevallen is een ja/nee-antwoord zelfs het beste. De neiging om veel uit te leggen kan de antwoorden van ChatGPT onnodig formeel, omslachtig en langdradig maken.

Andere interessante artikelen

Op zoek naar meer informatie over ChatGPT, AI tools, retoriek en onderzoeksbias? Bekijk onze artikelen met uitleg en voorbeelden!

Veelgestelde vragen over ChatGPT

Is ChatGPT een betrouwbare bron?

Nee, ChatGPT is geen betrouwbare bron voor feitelijke informatie en je kunt beter niet verwijzen naar de tool bij wetenschappelijk onderzoek. Hoewel de chatbot probeert nauwkeurige en correcte antwoorden te geven, zit de tool er vaak naast omdat de antwoorden gebaseerd zijn op patronen in plaats van feiten en data.

De CRAAP-test om de betrouwbaarheid van bronnen te evalueren maakt gebruik van vijf criteria: recentelijkheid, relevantie, autoriteit, accuraatheid en doel. ChatGPT voldoet aan minstens drie daarvan niet:

  • Recentelijkheid: De dataset waarop ChatGPT is getraind stopt bij 2021, waardoor de data enigszins verouderd zijn.
  • Autoriteit: Het is slechts een taalmodel en daarmee geen betrouwbare bron van feitelijke informatie.
  • Accuraatheid: De tool baseert de antwoorden eerder op patronen dan op bewijs en kan geen bronnen citeren ter ondersteuning.

Je kunt ChatGPT dus beter niet aanhalen als betrouwbare bron voor een feitelijke bewering. Je kunt wel naar ChatGPT verwijzen om andere redenen, bijvoorbeeld als je een prompt hebt gebruikt voor je onderzoek.

Is ChatGPT in het Nederlands beschikbaar?

Ja, ChatGPT is in het Nederlands beschikbaar. Om ChatGPT in het Nederlands te gebruiken, kun je gewoon een Nederlandstalige prompt (i.e., tekstuele input) invoeren, waarop ChatGPT ook in het Nederlands zal antwoorden. Je kunt de AI-tool ook rechtstreeks vragen (eventueel ook in een andere taal) om je te antwoorden in het Nederlands.

ChatGPT is ook in andere talen beschikbaar, zoals Frans, Duits, Spaans, Russisch, Japans, Hebreeuws en Grieks. Je kunt ChatGPT dus ook gebruiken om een nieuwe taal te leren.

Let op: Houd altijd rekening met de beperkingen van ChatGPT. Hoewel de chatbot deze talen kan spreken, verschilt ChatGPT in hoe vloeiend de tool bepaalde talen spreekt. Het is mogelijk dat ChatGPT taalfouten maakt.

 

Kan ik ChatGPT gebruiken om bronvermeldingen te genereren?

Nee, het is niet verstandig om bronvermeldingen te generen met ChatGPT. De chatbot is niet ontworpen voor dit doeleinde en heeft de neiging om bronnen te verzinnen die niet bestaan. Ook worden bronnen vaak gepresenteerd in het verkeerde format.

In plaats daarvan kun je beter een tool gebruiken die ervoor ontworpen is, zoals Scribbrs Bronnengenerator.

Je kunt ChatGPT wel op andere manieren gebruiken, bijvoorbeeld ter inspiratie, voor feedback of voor schrijfadvies.

Waar haalt ChatGPT informatie vandaan?

ChatGPT is een AI-taalmodel dat werd getraind op een grote hoeveelheid tekst uit verschillende bronnen (bv. Wikipedia, boeken, nieuwsartikelen, wetenschappelijke tijdschriften). De dataset had informatie over gebeurtenissen tot 2021, wat betekent dat informatie over recentere gebeurtenissen ontbreekt.

Het is belangrijk om te begrijpen dat ChatGPT geen toegang heeft tot een database met feiten om je vragen te beantwoorden. In plaats daarvan zijn de antwoorden gebaseerd op patronen die de tool ontdekte in de trainingsgegevens.

ChatGPT is dus niet altijd betrouwbaar. De chatbot kan algemene kennisvragen meestal accuraat beantwoorden, maar kan ook gemakkelijk misleidende antwoorden geven op meer gespecialiseerde onderwerpen.

Een ander gevolg van deze manier van antwoorden genereren is dat ChatGPT gebruikte bronnen meestal niet nauwkeurig kan citeren. De tool weet niet echt op welke bron een specifieke bewering gebaseerd is. Het is het beste om alle informatie die de tool geeft te controleren met betrouwbare bronnen.

Citeer dit Scribbr-artikel

Als je naar deze bron wilt verwijzen, kun je de bronvermelding kopiëren of op “Citeer dit Scribbr-artikel” klikken om de bronvermelding automatisch toe te voegen aan onze gratis Bronnengenerator.

Merkus, J. (2023, 09 mei). Wat zijn de beperkingen van ChatGPT?. Scribbr. Geraadpleegd op 14 mei 2024, van https://www.scribbr.nl/ai-tools-gebruiken/chatgpt-beperkingen/

Wat vind jij van dit artikel?
Julia Merkus

Julia heeft onder andere een bachelor in Nederlandse Taal en Cultuur en twee masters in Linguistics en Taal- en Spraakpathologie. Na enkele jaren als editor, onderzoeker en docent schrijft ze nu artikelen over scripties, taalkunde, methodologie en statistiek om studenten te helpen.