Wie in onze samenleving de landstaal niet beheerst, zal voortdurend met problemen te maken krijgen. Men kan dan niet communiceren met de overheid, zich via de lokale pers informeren over regionale ontwikkelingen, noch ten volle profiteren van ons onderwijssysteem. Taalbarrières leiden al snel tot negatieve ervaringen en bemoeilijken de maatschappelijke participatie aanzienlijk.
In het dagelijks leven komen we vaak teksten tegen die moeilijk te begrijpen zijn, zoals contracten, richtlijnen en brieven van overheidsinstanties. Veel mensen, vooral degenen voor wie de taal van de tekst niet hun moedertaal is, of mensen met leermoeilijkheden, hebben moeite om deze teksten te begrijpen. Dit kan ertoe leiden dat ze zich buitengesloten voelen en zich terugtrekken uit het maatschappelijk leven. Door teksten begrijpelijker te maken – door het gebruik van eenvoudigere woorden, duidelijke weergaven van complexe informatie en het gebruik van visuele hulpmiddelen – kunnen we de achterstand van deze groepen verminderen en marginalisering voorkomen. Daarom kan het als een taak van de hele samenleving worden gezien om informatie voor deze groepen toegankelijk te maken en zo drempels voor participatie weg te nemen.
In dit verband hebben onder andere de concepten ‘eenvoudige taal’ en ‘toegankelijke taal’ ingang gevonden. Er is een steeds groter wordend aanbod aan vereenvoudigde teksten en in sommige gevallen zelfs een wettelijk recht op begrijpelijke informatie. Toch beperkt de hoge productiekost de beschikbare hoeveelheid. Hier kunnen generatieve AI-systemen ondersteuning bieden. In dit artikel willen we de positieve en negatieve aspecten van het gebruik van AI op dit gebied belichten en openstaande vragen aan de orde stellen.
De huidige stand van zaken op het gebied van AI en de risico's ervan
Generatieve kunstmatige intelligentie (AI) kan zelfstandig inhoud genereren, zoals teksten of afbeeldingen. Sinds de lancering van ChatGPT zijn dergelijke algoritmen niet meer weg te denken uit ons dagelijks leven. Het is inmiddels heel vanzelfsprekend geworden om AI te gebruiken voor vertalingen, samenvattingen of zelfs als open chatbot, die schijnbaar voor elk probleem een oplossing biedt. Deze ontwikkeling brengt echter ook nieuwe problemen en vraagstukken met zich mee die voortvloeien uit de toepassing van AI:
- Welke invloed heeft AI op de wetenschappelijke praktijk?
- Welke invloed heeft AI op onderwijs en opleiding?
- Welke invloed heeft kwaadwillig gebruik van AI, bijvoorbeeld bij het verspreiden van nepnieuws, op onze samenleving?
- …
Dergelijke risico's kunnen ook gelden voor AI-systemen voor taalvereenvoudiging. Daarbij moet echter rekening worden gehouden met de specifieke methodologische en sociale aspecten die bij taalvereenvoudiging een rol spelen.
Wie is de doelgroep?
Laten we eerst eens kijken naar de doelgroep voor taalvereenvoudigingen. Deze groep is zeer heterogeen en varieert van anderstaligen of leken tot kinderen of mensen met een leerstoornis. Delen van deze doelgroep kunnen in het bijzonder “kwetsbaar” zijn. Hiermee bedoelen we dat deze personen het risico lopen om door tekstuele informatie te worden misleid of uitgebuit.
Met deze term willen we de doelgroep niet stereotiep afschilderen als “gemakkelijk te misleiden”, maar erop wijzen dat sommige personen extra bescherming verdienen. Bovendien kunnen ook groepen die doorgaans als “niet-kwetsbaar” worden beschouwd, worden misleid. Een voorbeeld hiervan zijn leken die een doelbewust misleidende vaktekst lezen.
Naast de zeer heterogene doelgroep willen we bij de risicobeoordeling ook onderscheid maken tussen verschillende vormen van AI-gebruik.
Vereenvoudiging op basis van AI
Om te beginnen kan AI worden ingezet om bestaande informatie te vereenvoudigen. Hierbij kunnen we ervan uitgaan dat de kwaliteit van de oorspronkelijke informatie al is gewaarborgd. Dit heeft verschillende positieve gevolgen voor de doelgroep: zo zorgen de grotere beschikbaarheid en toegankelijkheid van informatie bijvoorbeeld voor meer autonomie en participatie. Voor mensen die in het dagelijks leven begeleiding en ondersteuning krijgen, neemt de inspanning af die nodig is om samen teksten te lezen en te begrijpen. De vrijgekomen capaciteit kan op een andere manier worden ingezet in de zorg.
Deskundigen die teksten vereenvoudigen, zorgen er daarentegen voor dat hun formuleringen niet verkeerd begrepen kunnen worden. Dit voorkomt dat mensen die afhankelijk zijn van vereenvoudigde teksten, verkeerde conclusies trekken uit die teksten. Het vereenvoudigen van complexe teksten vereist vaak aanpassingen, zoals inkortingen, het gebruik van voorbeelden enz., om de inhoud begrijpelijker te maken. Zonder een nieuwe menselijke controle zouden deze wijzigingen ertoe kunnen leiden dat de inhoud verkeerd wordt begrepen, zelfs als de oorspronkelijke tekst zorgvuldig is gecontroleerd. Deze aanpassingen zijn noodzakelijk om de teksten echt eenvoudiger en begrijpelijker te maken.
Generatieve AI voor het creëren van nieuwe content
Laten we nu eens kijken naar het genereren van nieuwe inhoud met behulp van AI. De snelle verspreiding van ChatGPT laat zien dat veel mensen graag gebruikmaken van generatieve AI en daar blijkbaar baat bij hebben. Ook mensen die aangewezen zijn op vereenvoudigde teksten hebben het recht om te kunnen profiteren van de positieve kanten van deze technologie. Dit zou echter negatieve gevolgen kunnen hebben voor kwetsbare doelgroepen.
Bij het gebruik van LLM’s, met name in open chatsystemen zoals ChatGPT, zijn er problemen bekend met schijnbaar verzonnen feiten (hallucinaties), onjuiste voorstellingen of beveiligingsmechanismen die gemakkelijk te omzeilen zijn. Deze problemen kunnen dan ook worden toegepast op de oplossingen die hier worden besproken.
Voor het trainen van AI-modellen wordt gebruikgemaakt van online gegevens. Deze kunnen soms opzettelijke verdraaiingen of eenzijdige voorstellingen bevatten. Deze kunnen door het trainingsproces onbewust in de modellen terechtkomen. Welke invloed kan dit hebben op AI die gericht communiceert met een kwetsbare doelgroep? In welk kader kunnen de negatieve gevolgen door veiligheidsmaatregelen worden beperkt? Er moet worden voorkomen dat een AI-model een kwetsbare doelgroep met dergelijke informatie confronteert.
Onze aanbeveling
Hieruit leiden we de volgende aanbevelingen voor toekomstige ontwikkelingen af. We beperken ons daarbij tot de aspecten die specifiek betrekking hebben op taalvereenvoudiging. Enerzijds hebben we een mechanisme nodig om de aard van de vereenvoudiging – dat wil zeggen de mate waarin de taal wordt vereenvoudigd en de inhoud wordt ingekort – aan te passen aan de gebruiker. We moeten voorkomen dat gebruikers systematisch door een AI worden betutteld door een te sterke vermindering van de complexiteit. We hebben een nieuwe methodiek nodig waarmee de begrijpelijkheid in dit specifieke kader kan worden geëvalueerd.
In bijzonder gevoelige sectoren, zoals zorg en begeleiding, moeten AI-modellen vanwege de bestaande risico’s uitsluitend ter ondersteuning worden ingezet. Ze mogen de menselijke interactie niet vervangen.
Als generatieve AI zonder menselijke controle in vereenvoudigde vorm moet communiceren, dan moeten we het inhoudelijke spectrum waarop we de AI toepassen zodanig beperken dat het technisch mogelijk is om de antwoorden te verifiëren. We gaan er momenteel niet vanuit dat in open systemen rekening kan worden gehouden met de beschreven risico’s. Daarom bevelen we aan de reikwijdte te beperken, zodat veiligheidsmechanismen kunnen worden geïntegreerd.
Tot slot willen we wijzen op de nog openstaande vraag hoe de toegang tot dergelijke systemen moet worden geregeld. Gezien de beschreven risico’s zou men de systemen gesloten kunnen houden. Dat betekent dat alleen geverifieerde gebruikers toegang tot het systeem krijgen. Openbaar toegankelijke systemen maken daarentegen eenvoudig en anoniem gebruik mogelijk en bieden meer mogelijkheden om de participatie in de praktijk te vergroten.
Auteurs
Lars Klöser, M.Sc.