De EO en het NBG hebben een A.I.-chatbot (kunstmatige intelligentie) ontwikkeld. Deze chatbot kun je vragen stellen over de Bijbel. Het programma probeert daarop dan op een evenwichtige manier te antwoorden. Wat moeten wij daarvan vinden?
A.I.-chatbot, een knap staaltje werk De chatbot is onderdeel van het project Bijbel Lab dat de EO en de NBG samen hebben opgezet om een online omgeving te creëren waar A.I. en Bijbel samenkomen. En eerlijk is eerlijk, het is knap wat het NBG en de EO hebben neergezet met deze chatbot. Als je vragen stelt, ook hele lastige, geeft het over het algemeen goede antwoorden. Bij ingewikkelde zaken waar de kerken en theologen soms al eeuwen over strijden, wordt dit netjes benoemd. Bij sommige vragen worden zelfs verwijzingen naar andere bronnen gegeven om over verder te lezen. In de tijd dat ik met de chatbot doorbracht kon ik geen vreemde theologische bokkensprongen vinden. Het lijkt daarmee een bijzonder en nieuw middel om mensen in contact te brengen met de Bijbel. Ik zie er dan ook best ruimte voor als evangelisatietool bij acties, of als een teaser om mensen te laten kennismaken met het boek. Ook voor jonge gelovigen kan het een handige manier zijn om wat meer wegwijs te worden in de Bijbel, zonder allerlei ingewikkeldere methodes die in het begin best een drempel kunnen vormen om met Gods Woord bezig te gaan.
Ik zie ook niet in waarom God geen gebruik hiervan zou kunnen maken om mensenharten te bereiken. Als God kan spreken middels een ezel tot Bileam (Numeri 22), kan Hij ook deze techniek gebruiken. Er zijn voorbeelden te over van hoe God door allerhande technische middelen en ontwikkelingen werkt. Waarom zou specifiek deze A.I.-chatbot daar een uitzondering op zou zijn?
Toch een duidelijke grens Het gevaar bij deze chatbot zit hem dus niet in de techniek of in de antwoorden die het nu geeft. Desondanks zijn er risico’s. Het eerste risico zit in het gebruik van de technologie. A.I. kan het leven een stuk gemakkelijker maken, maar daarin schuilt gelijk het gevaar. Het kan namelijk ook passief maken en onze wil om zelf na te denken wegnemen. Lopen we ergens tegenaan? Dan vragen we het de A.I. Probleem opgelost. Lekker handig en lekker snel. Voor het geloof en de omgang met de Bijbel van gelovigen zou het oprecht een enorme verarming zijn als dit zou gebeuren. Het is juist goed voor een gelovige – ik zou zelfs durven zeggen noodzakelijk – om de Bijbel zelf te lezen, te doorvorsen en tot je te nemen in gebed. Dagelijks tijd met God in Zijn Woord doorbrengen is gezond en belangrijk geestelijke voeding voor je geloof. Dan kan de Geest spreken tot ons, want die Geest heeft het Woord ingeblazen (2 Tim. 3: 16 en 17) en opent onze ogen en ons hart ervoor, door Zijn aanwezigheid in ons. Een chatbot, hoe goed ook, kan dat nooit vervangen.
Ik herinner mij een professor van wie ik ooit dogmatiek heb gehad. Zijn eerste college begon hij met een doos Lego-blokken. Hij zei: ‘Deze blokken vormen samen de inhoud van de Bijbel. Als ik een dogmatiek schrijf, dan kies ik blokken uit deze Bijbelse doos. Ik kan zo een schitterende kathedraal van theologie bouwen. Een bouwwerk van blokken waarvan iedereen zegt hoe mooi en knap het is. Maar wat ik ook bouw, als het af is en ik kijk in de bak, dan blijven er altijd blokken over.’ Met deze beeldspraak maakte hij in een keer duidelijk: Gods Woord is rijker dan wat mensen kunnen bedenken, hoe mooi en goed ook. En dat geldt ook voor elke A.I. en chatbot. Dit brengt ons bij het tweede risico. Dat zit hem in het feit dat A.I. uiteindelijk altijd op een bepaalde wijze is geprogrammeerd. Zelfs als het zichzelf heeft getraind middels iets als machine-learning zoals de chatbot van het NBG en de EO, dan doet het dat nog binnen de parameters van het programma. Bovendien traint het met de informatie die beschikbaar is op het internet, die ook weer bedacht is door mensen. De chatbot kan niet meer, omdat al het andere voor het programma niet bestaat. Dat is de beperking van de techniek zelf en die beperkt het inzicht in het Goddelijke en de hogere dingen van Hem, omdat een chatbot daar geen toegang toe heeft. Het is geen mens. Maar is de mens dan niet ook beperkt, zullen sommigen zich wellicht afvragen? Die mens is immers ook maar een wezen met de beperking van het menszijn en zijn verstand? Ja, maar wij hebben het geschonken wonder van God in ons, Zijn Heilige Geest, die ons dingen kan tonen die van God zelf zijn, ook in en uit de Bijbel. Dat is voor een A.I. of chatbot niet weggelegd. Dit geeft grenzen aan A.I. in relatie tot de Bijbel.
Tekenend is hierbij dat er van andere A.I.’s online voorbeelden te vinden van hoe de gezette parameters van het programma ontzettend veel uitmaken voor het eindresultaat. Zo zijn er voorbeelden te vinden van versies van de bekende A.I. Chat GPT (eenzelfde soort Large Language Model A.I. als de chatbot van Bijbel Lab), die heel vriendelijk, zacht en meegaand zijn, maar ook die uiterst agressief zijn, afhankelijk van de parameters die het meekrijgt. Wat je bij deze verschillende versies als reacties, antwoorden en opmerkingen krijgt in gesprekken en bij vragen, maakt een wereld van verschil. Dit geldt evenzo voor een chatbot die de Bijbel en geloof moet uitleggen. Ga maar na, een katholiek ingestelde chatbot zal heel anders antwoorden op de vraag waar je in de Bijbel over de paus leest, dan een charismatisch ingestelde chatbot, om maar eens wat te noemen. De chatbot van Bijbel Lab beantwoordt deze vraag naar de paus trouwens op deze manier: ‘De Bijbel noemt de paus niet specifiek, aangezien het ambt van de paus zich pas later in de geschiedenis van de kerk heeft ontwikkeld. De rol van de paus is gebaseerd op de interpretatie van bepaalde Bijbelverzen en de traditie van de kerk. Een belangrijk vers dat vaak wordt aangehaald in verband met de paus is Matteüs 16:18-19.’ Op zich opnieuw knap in zijn formulering. Toch zal een katholiek dit waarschijnlijk te zwak vinden, maar een gereformeerde protestant evenzo, hoewel beide om compleet tegenovergestelde redenen!
Tot slot is er het risico dat er bij een A.I. geen menselijke inbreng meer nodig is in wat het doet. Dat maakt het enerzijds krachtiger qua mogelijkheden, maar bij geloofszaken is dat anderzijds evenzogoed een beperking. Immers elk ander hulpmiddel dat we hebben om de Bijbel te lezen (commentaren, dagboeken, preken, etc.), is inhoudelijk wel expliciet door mensen gemaakt en potentieel daarom met de Geest geïnspireerd. De antwoorden van een chatbot zijn dat per definitie niet. Dat lijkt meer op een rubricering van informatie, zoals dat in een oude papieren encyclopdie ook werd gedaan, maar dan door een niet menselijk iets, geheel los van de mens. Dat hoeft geen probleem te zijn, zolang mensen dat maar beseffen en er ook zo mee omgaan. Waar dat vergeten wordt gaat het fout.
A.I. als middelaar Als we deze grenzen en beperkingen negeren en we ons er niet van bewust zijn bij het gebruik van een chatbot als deze, zal dit voor problemen zorgen. Voor je het weet schuift er dan iets tussen God, Zijn Woord en de mens. Iets dat de vrije omgang van de mens met Gods Woord belemmert en dat de werking van de Heilige Geest daarin in de weg staat. Dat is jammer, onnodig en zondig, want wij hebben een filter als dit niet nodig. God heeft ons door Zijn Heilige Geest juist persoonlijk toegang én inzicht gegeven in Zijn Woord. We mogen Zijn stem rechtstreeks verstaan. Daar is geen priesterkaste of geestelijkheid, maar ook geen chatbot voor nodig. Een nieuwe middelaar moet voorkomen worden! Er is immers maar Eén die God en mens bij elkaar brengt en dat Jezus de Christus, de enige Middelaar aan ons gegeven (1 Tim. 2: 5). Hij en Zijn Geest zijn voldoende en als we in, uit en door Hem in Gods Woord gaan lezen, zal dat tot ons spreken. Natuurlijk mag je daarbij gebruik maken van hulpmiddelen ter ondersteuning in commentaren, preken en zelfs chatbots, maar altijd kritisch en boven alles gehoorzaam luisterend naar de Heer zelf. Al het andere moet nooit meer zijn en worden dan ondersteunende bij het zelf ter hand nemen van Gods Woord, als biddende christen. Daarin ligt het heil en niet in het hulpmiddel. Als we dat beseffen kan een chatbot als deze een handig stukje gereedschap zijn, maar nooit meer dan dat. Vergeten we dit dan wordt de chatbot al snel een afgod.
Laat ik eindigen met een paar waarschuwende anekdotische opmerkingen. Er zijn nu al voorbeelden bekend van chatbots die zich voordoen als iets anders. Chatbots kunnen liegen, ook al wordt dat door kenners en programmeurs veelal ontkend: het blijkt in de praktijk zo te werken (google het maar eens). Maar er is meer. Er is zelfs een verhaal van een bisschop op het internet te vinden die vertelt over gesprekken met chatbots die beweren demonen te zijn. Of dit echt is of niet kan ik niet beoordelen, maar het zou een grote waarschuwing moeten zijn om voorzichtig en kritisch te blijven. Ik vind het in deze tijd in het licht van A.I. tekenend dat we in Openbaring 13: 15 kunnen lezen over een beeld dat spreekt en dat zal maken dat alle mensen die het beeld van het beest, de antichrist, niet aanbidden, gedood zullen worden. Het is juist veelzeggend als het aankomt op gebruik van technologie als chatbots. Het laat zien dat we leven in de eindtijd en dat we terughoudend, weloverwogen en voorzichtig met dit hulpmiddel moeten omgaan. We moeten op juiste wijze blijven onderscheiden waarop het aankomt.
Niets uit dit artikel mag worden zonder uitdrukkelijke toestemming van Roelof Ham worden overgenomen, gekopieerd of gebruikt worden. Uiteraard mag volgens de gangbare regels van bronvermelding er wel naar verwezen worden in andere publicaties. Neem bij twijfel eerst contact op via het contactformulier.