Wat houdt ons bezig

Nieuwe inzichten, nieuws, en tips an onze top tech en zakelijke vernieuwers.

'Old school' versus 'new school' artificial intelligence

Annelore van der Lint | december 13, 2017

Al in 1950 beschreef de Britse wetenschapper Alan Turing in zijn paper “Computing Machinery and Intelligence” (Mind 49: 433-460) een experiment waarin hij probeerde aan te tonen dat een machine menselijke intelligentie kan vertonen. In deze zogenaamde “Turingtest” tracht een computer een persoon te laten geloven dat het een mens is. Dat dit lukt, vormde voor Turing het bewijs dat de computer intelligent kan zijn.

AI: De eerste Stappen

teacherIn de decennia daarop maakte AI via ups-and-downs allerlei ontwikkelingen door. Wetenschappers probeerden met algemene zoekmethoden een oplossing te vinden voor allerhande informatieproblemen zonder daarbij over domein-specifieke kennis te hoeven beschikken. Naast de eerste experimenten met Neurale Netwerken (zie ook Deep Learning for Natural Language Processing and Information Retrieval), werden allerlei andere zogenaamde symbolische AI-technieken gebruikt, waarmee menselijk gedrag zo goed mogelijk werd uit geprogrammeerd in een logische sequentie van computeroperaties. Een mooi voorbeeld is de eerste computerpsycholoog, Eliza (een emulatie van het oorspronkelijke programma is hier te vinden).

 

Old School Artificial Intelligence

Dit leidt in de jaren zeventig tot het ontstaan van het zogenaamde expert- of kennis-gebaseerd-systeem: een computersysteem dat op basis van door menselijke experts ingevoerde kennis binnen een bepaald afgebakend gebied, een oplossing biedt. Een bekend voorbeeld is een medische zelfdiagnose vraagbank.

Een kennisgebaseerd systeem werkt met een kennisopslag en een “inference engine” die logische regels op deze kennis loslaat om tot nieuwe informatie en inzichten te komen. De twee delen werken los van elkaar. Hierdoor kan de kennis worden veranderd om een vergelijkbaar probleem op te lossen en de betreffende kennis kan in een ander systeem worden gebruikt.

Nadeel van deze systemen was dat alle kennis door zogenaamde knowledge engineers ingevoerd moest worden in de vorm van regels of programmacode. Naast al het werk dat dit vereiste, was er geen garantie dat grote sets van regels uiteindelijk uitsluitend consistente regels zouden afleiden (zie ook de onvolledigheidsstellingen van Gödel).

 

Zelflerende systemen

Een van de belangrijke eisen aan een kennisgebaseerd systeem is dat het kan 'leren'. Door het systeem te voeden met testresultaten en fouten te corrigeren, kan het systeem uiteindelijk zelf de algoritmen bijstellen en worden de resultaten steeds nauwkeuriger. Op dit moment zijn zelflerende algoritmen vooral goed in het herkennen en classificeren van spraak, foto’s en taal.

 

Voorspellen aan de hand van data

Bij zelflerende computers gaat het vooral om de extractie van kennis door te leren van data met behulp van text-mining, voorspellende analytics, zogenaamde “predictive coding” of “machine learning”. Text-mining is de combinatie van diverse geavanceerde wiskundige-, statistische- taalkundige en patroonherkenning technieken waarmee ongestructureerde informatie automatisch wordt geanalyseerd om relevante gegevens te extraheren en de tekst in zijn geheel beter doorzoekbaar te maken.

Met text-mining kunnen we op een hoger taalkundig niveau zoeken dan op alleen trefwoorden. Zo kunnen we zoeken zonder dat we van tevoren precies weten waarnaar.

Machine learning houdt in dat je een machine leert om patronen en verbanden te ontdekken in grote datasets. Een classificatiesysteem wordt getraind aan de hand van zogenaamde trainingsdata.  Nieuwe data wordt vervolgens geclassificeerd op basis van (latente) patronen die ontdekt zijn in de trainingsdata. Zo kun je een computer trainen om documenten te organiseren en analyseren. Op deze manier is het na genoeg training mogelijk om het gedrag van nieuwe data te voorspellen.

Zelflerende computers gaan al veel verder dan alleen herkennen en segmenteren. Google, FaceBook, Bol.com en Netflix bevelen op basis van de informatie die wij ze voeren, ook andere producten aan.

 

'New School AI' voor de rechtspraak

Ook in de rechtspraak worden zelflerende computers al op grote schaal ingezet voor het razendsnel doorzoeken en analyseren van grote hoeveelheden tekstuele gegevens. Door zaakdossiers of jurisprudentie te “lezen”, analyseren en ordenen, kan de computer de kerngegevens extraheren en hiermee gaan redeneren. Op basis van deze redeneringen is een computer prima in staat om de uitspraak in bepaalde rechtszaken te voorspellen, de beste advocaat te selecteren en volgens prof, van den Herik, binnenkort in staat om zelfs een rechter te vervangen.

 

Zelflerende computers (maar dan echt)

En de ontwikkelingen op het gebied van AI gaan door. Vorig jaar versloeg AlphaGo de wereldkampioen in Go, een oud Chinees spel waarvan tot dan toe werd aangenomen dat het niet te leren was aan een computer. AlphaGo leerde het spel door duizenden spelletjes te analyseren en werd daarbij geholpen door menselijke experts.

De nieuwe versie AlphaGo Zero is echter volledig zelflerend. “Learning from Scratch” vermelden de makers DeepMind (onderdeel van Google) op hun site. Puur door zelf te experimenteren en leren, versloeg AlphaGo Zero haar voorganger met 100 – 0. En de AI van Deepmind blijkt ook te kunnen schaken. Binnen een paar uur was het algoritme al beter dan dat van de meest geavanceerde schaakcomputers ter wereld.

 

De problemen in de wereld bestaan uit meer dan alleen spelletjes

De recente successen van AI zijn vooral te vinden op het gebied van games. Het grote voordeel van spelletjes is dat het volstrekt duidelijk is wanneer de computer het goed of verkeerd doet: winnen is goed en verliezen is fout. Mede hierdoor is het mogelijk om de computer tegen zichzelf te laten spelen en daarmee oneindig veel trainingsdata te genereren. Dit is precies wat Google DeepMind doet: tientallen miljoenen spelletjes. Op zich is dit geen nieuw idee; denk maar aan de film War Games uit 1983, waarin de computer er na heel veel simulaties uiteindelijk achter komt dat een nucleaire oorlog alleen maar verliezers kent.

Helaas kunnen we nog niet alle problemen vertalen naar een spelletje. Maar we kunnen er niet meer omheen dat er in diverse juridische toepassingen gewoon te veel data is. Iedere zoekopdracht, hoe goed dan ook) geeft te veel documenten om te bekijken. Je weet nooit precies wat je krijgt of wat je mist. Je weet niet precies waar je op moet zoeken en maakt spellingsfouten of gaat afwijken. Bovendien is het doorzoeken van data, tijdrovend, saai en vervelend werk.

 

Help de mens

Wij mensen hebben cognitieve beperkingen wanneer we grote hoeveelheden data moeten verwerken en daaruit inzichten moeten halen. We zijn gewoon niet geschikt om succesvol grote volumes data te synthetiseren.

Ondersteuning vanuit AI bij de organisatie, analyse en interpretatie van de feiten in dit soort grote dataverzamelingen moet ons in de toekomst helpen. Alleen dan kunnen we de werkdruk verminderen en de kwaliteit van de rechtspraak verbeteren. Gezien de recente succesvolle ontwikkelingen op allerlei gebieden binnen de AI, zullen we ook op het gebied van rechtspraak in staat zijn, steeds meer complexe problemen op te lossen. Daarmee kunnen we steeds meer saai werk uit handen geven, de kosten verlagen en de kwaliteit van het werk verhogen. En dat hebben we dan allemaal geleerd van computers die uit zichzelf spelletjes leren spelen!

Geschreven door Annelore van der Lint

Connect met Annelore van der Lint op LinkedIn of op