Open menu
  • Home
  • Schrijfsels
    • Blogs
    • Populaire
    • Wetenschappelijk
    • Drenten
  • In de Media
    • AV
    • Web
    • Krant
    • Lezingen
    • AV-Lezingen
    • Televisie
  • Werk
    • TST & AI
    • Affiliaties
    • Netwerken
    • Infrastructuur
    • Projecten
    • Programming
    • Software
    • Over mij
    • LOT 2023
    • NTU
    • Workshop(s)
  • Persoonlijk
    • Arjan
    • Brigitte
    • Drentsche Patrijshonden
    • Huizen
    • Rolanda
  • Interessant
    • Zips Law
    • Conversatie Regels
  • Extra Activiteit

media

Open menu
  • AV
  • Web
  • Krant
  • Lezingen
  • AV-Lezingen
  • Televisie

China en VS gaan er met het nieuwe IT-goud vandoor

 

logo nrc

Europese privacywetgeving, zoals GDPR, zet onze techbedrijven op achterstand in de ontwikkeling van kunstmatige intelligentie, meent Arjan van Hessen.

7 november 2017 om 15:36

 

nrc 1

Wij leven in een wonderlijke tijd. Komend jaar treedt de nieuwe Europese wetgeving voor databescherming, de General Data Protection Regulation (kortweg GDPR) in werking. Hierdoor wordt het voor bedrijven een stuk lastiger om structureel persoonsgebonden data te verzamelen, langdurig te bewaren en met anderen te delen. Een strop om de nek van Europese techbedrijven, die deze data hard nodig hebben in hun strijd naar het nieuwe IT-goud: het talig vermogen.

nrc 2Arjan van Hessen is onderzoeker taal- en spraaktechnologie aan de
Universiteit Twente.

Wat we zien is dat huidige toepassingen van kunstmatige of artificiële intelligentie (AI), zoals zelfsturende auto’s of ‘intelligent’ communicerende chatbots, steeds vaker de mens naar de achtergrond duwen. Mensen blijven dikwijls wel eindverantwoordelijk maar het leeuwendeel van het ‘werk’ zal door AI-gebaseerde software worden gedaan.

Maar sterke (lees: echte) kunstmatige intelligentie vraagt meer dan het herkennen van patronen in grote hoeveelheden ruizige data. Wat ons mensen bijzonder maakt is de mogelijkheid tot denken in concepten, in taal: beter bekend als ons ‘talig vermogen’. Alles wat je verzint, denkt en voelt, gebeurt immers aan de hand van taal. En onder taal verstaan we niet het Nederlands of Italiaans, maar een soort interne stem waarmee we in ons hoofd met onszelf communiceren.

Dit talig vermogen stelt ons in staat te overleggen en gedachten te verwoorden om zo tot diepere inzichten te komen. Om kunstmatige intelligentie op menselijk niveau te brengen, moeten computers eerst geleerd worden te ‘denken in taal’. Het bedrijf dat dit het eerst voor elkaar weet te krijgen, heeft goud in handen. Sterke AI zal voorlopig nog wel een droom blijven en voorlopig richt men zich op de zwakke AI, want ook daar valt nog een wereld te winnen. En dat geldt zowel voor de op patroonherkenning, als de op taalgerichte AI.

Voor de ontwikkeling van AI zijn zoals bekend grote hoeveelheden data nodig; data die vanwege GDPR volgend jaar niet meer of slechts met grote moeite beschikbaar zal zijn voor Europese techbedrijven. De waarschijnlijkheid dat zij op internationaal niveau mee kunnen blijven doen met concurrenten uit de VS en China wordt met de dag kleiner. Juist nu heeft onze IT-sector meer data nodig.

Internet of Things

Neem de leasebranche. Met de komst van Internet of Things staat een groeiend aantal applicaties en apparatuur met elkaar in verbinding via het internet. Dit genereert een enorme hoeveelheid data die tot nu toe voornamelijk negatief in het nieuws komt. Er is echter ook een vaak onderbelichte en positieve kant. Dezelfde data kunnen namelijk gebruikt worden om bedrijfsprocessen te stroomlijnen, kosten en tijd te besparen en zelfs het milieu te ontzien door een verlaging van energiekosten en uitstoot. De les die we hieruit kunnen leren is de volgende: data op individueel niveau die tot een persoon kan worden herleid kunnen gevaarlijk zijn, maar geanonimiseerde data op groepsniveau kunnen daarentegen veel voordelen opleveren.

Geanonimiseerde data op groepsniveau kunnen bedrijfsprocessen stroomlijnen en zelfs het milieu ontzien door verlaging van uitstoot

Het aan de hand van de thermostaatdata uitvogelen hoe laat iemand meestal zijn huis verlaat en weer terugkomt kan het inbrekersgilde op verkeerde ideeën brengen, maar een geaggregeerde en geanonimiseerde verzameling van deze data kan verkeersspecialisten helpen bij het opzetten van een optimale inrichting van wegen en openbaar vervoer. Gemeenten moeten juist dit soort gegevens als open data beschikbaar maken in de hoop dat bedrijven er ‘handige’ diensten mee ontwikkelen: diensten waarvan we nu nog niet weten dat we ze nodig hebben!

Een wet zoals de GDPR stelt terecht strenge eisen aan de beheerders van data die tot personen te herleiden zijn, maar door te besluiten dat dit soort data niet meer gebruikt mogen worden, wordt het kind met het badwater weggegooid. De Europese IT-sector heeft toegang tot dit soort data nodig, wil ze de aansluiting met de rest van de wereld niet missen. Een aanpassing van de regels is wellicht niet nodig, maar de Europese lidstaten zouden gezamenlijk moeten nadenken hoe de data toch op een veilige manier beschikbaar kan worden gesteld voor ontwikkeling in de techsector. Alleen dan hebben Nederlandse en Europese IT-bedrijven een kans in de zoektocht naar de heilige graal van de IT: de omgang met de talig mens.


 

De toekomst van machines is 'smart'

24 - 07 - 2017

is een smart home de toekomstIs smart de toekomst? © Pixabay

Amsterdam, 24 juli 2017 - Interview met dr. Arjan van Hessen, als taal- en spraaktechnoloog verbonden aan de Universiteit van Twente en Utrecht en spreker tijdens het NVL Jubileum event op 12 september 2017.

Op dit moment vinden wij veel apparaten nog een beetje dom. Omdat ze niet vooruit kunnen denken en geen emoties (her)kennen. De sleutel tot echt slimme apparaten zit in het 'talig vermogen'; alles wat we bedenken, bedenken we via taal. Met zogenaamde artificial intelligence is men in staat om talig vermogen toe te voegen aan computers en objecten waardoor ze écht intelligent worden, bovendien zelflerend en ook in staat meerdere taken tegelijk uit te voeren.

De inzichten met betrekking tot deze technologie en de toepassingen ervan worden op het NVL Jubileum gepresenteerd door dr. Arjan van Hessen. NVL Next sprak hem alvast en samen keken we vooruit naar 12 september.

Kunstmatige intelligentie of Artificial Intelligence, kortweg AI, is een containerbegrip. Het komt neer op ‘met computers nabootsen van wat wij verstaan onder menselijke intelligentie’.

U bent als taal- en spraaktechnoloog hoofdspreker tijdens een jubileumevent van de Nederlandse vereniging van leasemaatschappijen. Waarom is dat minder onlogisch dan het op het eerste gezicht lijkt?

De laatste tijd is er enorm veel interesse in AI. Systemen proberen patronen te vinden in grote hoeveelheden data en ze proberen te redeneren en te voorspellen. De volgende grote stap is die van het begrijpen en dat is iets waar wij mensen ook goed in (denken te) zijn. Het talige vermogen van mensen dat ons in staat stelt te redeneren over gebeurtenissen, te fantaseren, als-dan scenario’s te bedenken en uit te werken, het abstraheren en het samenvatten. Dat wordt vaak gezien als de menselijke intelligentie. Als je daar wat mee wilt doen met computers, kom je al snel bij de taal en spraaktechnologie: die proberen immers de communicatie tussen mensen en machines na te bootsen door de menselijke communicatie zo goed mogelijk te begrijpen.

Waarom is juist taal een van de meest belangrijke zaken met betrekking tot het lerend vermogen van computers?
Taal, en dan niet “het Frans”, “het Chinees”, of “het Nederlands”, maar het talig vermogen van de mens onderscheidt ons van de overige (zoog)dieren. Dit talige vermogen stelt ons in staat om te leren, te bedenken, te abstraheren etc. Hoe beter we dit begrijpen, hoe beter we in staat zijn om het na te maken en dus hoe slimmer systemen kunnen worden.
 

Wat is het belangrijkste inzicht dat u de afgelopen jaren heeft ontdekt in relatie tot spraakherkenning?
Duidelijk is geworden dat de stap naar 100% herkenning, die door spraakherkenningstechnologen altijd als een soort heilige graal werd gezien, eigenlijk niet zo relevant is. Ook wij mensen herkennen de spraak niet vlekkeloos, maar we begrijpen de ander (hopelijk) wel volkomen. Gebrek in de herkenning wordt door ons gecompenseerd doordat we begrijpen waar het overgaat. Hiaten in de herkenning vullen we als het ware zelf aan. Daar zit natuurlijk ook een gevaar in: we denken dat we iets gehoord hebben, maar dat is niet altijd zo.. Dit is de stap van herkennen naar begrijpen en die is essentieel!
 

Facebook en Google investeren fortuinen in fundamenteel onderzoek rond artificial intelligence. Waarom doen ze dat?

Alle grote internetbedrijven investeren massaal in HLT, Human Language Technology. Wie als eerste in staat is om op een enigszins intelligente manier met mensen te communiceren, ze te begrijpen, te ondersteunen en ze te vermaken, heeft de buit binnen. Denk aan ouderen die eenzaam zijn, mensen die iets willen maar er niet uitkomen hoe dat te bereiken etc. Als er een slimme “robot” is die hier met jou over kan praten, je kan helpen…. Dan gaat er een hele wereld open.
 

Wat zijn voorbeelden van toepassingen van artificial intelligence waar u de komende 3-5 jaar het meest van verwacht?
We zullen AI op alle gebieden tegen gaan komen. Niet alleen in de HLT maar in werkelijk alles. Denk aan het herkennen van beelden, het vroegtijdig opsporen van ziektes op basis van een hersenscan, het voorspellen wanneer een onderdeel in een apparaat vervangen moet worden, het helpen bij medische beslissingen, het ondersteunen van advocaten en rechters, het communiceren met mensen via internet bij bv het aanvragen van een hypotheek, etc. Er is waarschijnlijk niet een gebied waar het niet zal worden gebruikt.
 

Waar in de keten zou de overheid een rol kunnen of moeten spelen in stimuleren van de toepassingen van artificial intelligence?
De overheid zou veel meer moeten investeren in het opbouwen van de kennis door het verzamelen en (her)gebruiken van data (uiteraard met inachtneming van privacy) te stimuleren. Nu doen de grote internetbedrijven (Apple, Google, Facebook, IBM, Microsoft, Amazon) dat waardoor alle kennis naar de overkant “lekt” en daar ook onze data staan. Onze technici en universiteiten doen niet veel onder voor de Amerikanen, maar het is in Europa veel lastiger om grote hoeveelheden data te bewaren en vooral te hergebruiken. Als dat eenmaal gaat dan komen de toepassingen vanzelf. Maar we moeten oppassen het goud (de data) niet te verkwanselen aan anderen.
 

Je bent ook actief in het bedrijfsleven, bijvoorbeeld klantcontactsector, wat speelt er in die sector wat betreft AI?
Ja dat klopt. Enerzijds zien we dat bestaande software (veel) beter wordt door het gebruik van AI, anderzijds zien we dat nieuwe mogelijkheden opkomen door slimme toepassingen van AI. Denk daarbij aan het voorspellen. Je belt een bedrijf/organisatie en stelt een vraag. Hoe kun je het best met de combinatie van tijdstip, beller, zijn/haar geschiedenis, de gestelde vraag en beschikbare resources bij de organisatie omgaan om ervoor te zorgen dat de beller en de organisatie optimaal geholpen worden? Hierbij kan al 95% van de vragen juist worden afgehandeld. En veel sneller en goedkoper. Dit biedt bedrijven veel kansen.
 

Wat is de belangrijkste mind shift die de leasebranche volgens u zou moeten maken?
Ga experimenteren. Denk niet: dat zal mijn tijd wel duren want dan zijn de Amerikanen en Chinezen er al. Probeer al dan niet in samenspraak met slimme bedrijven, start-ups en universiteiten te experimenteren met wat mogelijk is en wat nu nog onmogelijk lijkt. Probeer de toekomst te voorspellen op basis van alle gegevens die je nu al hebt. Verzamel data, ook waarvan je nu het nut niet inziet, uiteraard binnen de grenzen van de privacy wetgeving. Leg vragen en processen vast, zodat je die straks kunt ontrafelen en op basis van de data betere beslissingen kunt nemen. Bijvoorbeeld het goedkeuren van lease-aanvragen; als je het goed organiseert kan een computer dat op basis van data beter en sneller dan een mens. Of voorspellen welke bedrijfsmiddelen onderhoud nodig hebben of welke klanten binnenkort de leasetermijnen niet meer kunnen betalen. Denk na over toepassingen voor jouw bedrijf. Maar doe iets!
 

Welk advies heeft u, tot slot, voor mensen die dit interview lezen?
Verdiep je er in, lees er over, probeer mee te doen en laat je bijpraten door mensen die er meer van weten. Deze leestips zijn misschien een leuk begin:

https://medium.com

https://artplusmarketing.com/digital-processes-inspiring-analog-paintings-a358eb7801a0

http://notas.nl/artikelen/blogs/165-spraakherkenning-van-nederlandse-bodem

Smaakt dit naar meer? Je hoort Arjan tijdens het NVL Jubileum event op 12 september.  Ben je werkzaam bij een van de leden van NVL, dan kun je je aanmelden voor het event: http://noq.caos.nl/forms/NVLjubileum/application/

Door Pascal van Hombergh, namens NVL Next

Emotieherkenning

Artikel geschreven door Enith Vlooswijk voor Quest (27 januari, 2020)

emotie

Je komt thuis na een dag lang oeverloos vergaderen en home assistent Siri vraagt hoe je dag was. ‘Kon niet beter’, verzucht je, terwijl je je tas kreunend in de hoek smijt. Een invoelende assistent hoort aan de toon van je stem dat je in een slecht humeur bent. Hij raadt je de laatste aflevering van je favoriete serie aan en zegt, gezien je aanleg voor depressies, dat het misschien een goed idee is om je therapeut weer eens op te zoeken. Met onder meer dit beeld voor ogen werken allerlei wetenschappers en bedrijven aan technologieën die onze apparaten emotionele voelsprieten moeten geven, gebruikmakend van ons stemgeluid. Maar hoe realistisch is dit toekomstbeeld en zitten we eigenlijk wel op te wachten op automatische emotieherkenners?

Depressieve stem

Waarschijnlijk hoor je zelf wel of een collega ontzettend vrolijk is, of depressief. Zonder erbij na te denken, maak je aan de stem op of iemand zich ergert, of opgewonden is. Voor psychiaters geldt hetzelfde. Als ze tijdens een gesprek beoordelen hoe een patiënt eraan toe is, doen ze dat deels op basis van indrukken die lastig in regels zijn te vatten: hoe zit een patiënt erbij, hoe kijkt hij uit zijn ogen, wat heeft hij te vertellen? Ook het stemgeluid speelt een rol. Zo spreekt een depressieve persoon meestal monotoner, trager, zachter en minder veel dan iemand die zich kiplekker voelt. Waarschijnlijk zijn er ook verschillen in het stemgebruik die de psychiater niet oppikt. Bij het Universitair Medisch Centrum in Utrecht onderzoeken Janna de Boer en haar collega’s welke stemeigenschappen iets zeggen over ons geestelijk welzijn. Zelflerende computerprogramma’s analyseren allerlei aspecten van opgenomen gesprekken: geluidsaspecten zoals de spreeksnelheid, de intonatie, de pauzes en de toonhoogte van de stem, maar ook inhoudelijke aspecten zoals de samenhang en de complexiteit van de zin, de zinslengte en de grammaticale opbouw van een fragment. ‘Een psychiater kan tijdens een gesprek niet turven hoeveel pauzes iemand laat vallen, of hoeveel bijzinnen hij gebruikt tot hij tot zijn punt komt’, legt De Boer uit. ‘Een computer is daar juist heel goed in.’

Het is niet de bedoeling dat de computer de psychiater gaat vervangen - daarvoor is een diagnose nog veel te complex. Wel hopen de onderzoekers dat de technologie de psychiater in de toekomst kan ondersteunen. ‘Een derde van de mensen die een psychose ervaart, krijgt niet nogmaals een psychose’, zegt De Boer. ‘Toch krijgt iedereen na een psychose anti-psychosemedicatie, omdat we nog niet kunnen voorspellen wie er wel of niet gevoelig voor is.’ Als algoritmes dit wel kunnen doen op basis van de spraak (stemgeluid en woordkeuzes), zouden patiënten een app kunnen gebruiken om een vinger aan de pols te houden. Ze zouden om de zoveel tijd een spraakopname kunnen maken, die vervolgens inschat of de kans op terugval groot is. Hetzelfde geldt voor mensen met een depressie. Bij mensen met dementie of Alzheimer zou de app wellicht kunnen aangeven hoe ver de ziekte inmiddels al is gevorderd.

Zelflerende computers

De Boer en haar collega’s zijn bepaald niet de enigen in de wereld van de geestelijke gezondheidszorg die met stemanalyse grip proberen te krijgen op aandoeningen als autisme, Parkinson, psychose, posttraumatische stress en ga zo maar door. Dat dit soort toepassingen van stemanalyse juist de afgelopen jaren zo’n vaart neemt, is niet zo vreemd, vertelt Arjan van Hessen, onderzoeker aan de Universiteit Twente. ‘Onderzoek naar emotie gebeurt al heel lang, maar het lukte nooit om emoties in duidelijke regels uit te drukken’, vertelt hij. ‘Sinds 2010 is het onderzoek in de versnelling gekomen door de combinatie van snelle computers, grote hoeveelheden data en het gebruik van neurale netwerken.’ Neurale netwerken zijn zelflerende computerprogramma’s die op basis van heel veel, meestal door de mens gelabelde voorbeelden, zoeken naar verbanden tussen verschillende zaken - bijvoorbeeld het verband tussen een trillende stem en een bepaalde emotie. Omdit te kunnen doen, heb je heel veel spraakopnamen nodig waarvan bekend is op de spreker bv wel of niet depressief is, ofdat de spreker later wel of juist niet weer een psychose gehad heeft. Als er in de spraak cues zijn die redelijk voorspellen of iemand een verhoogde kans heeft op een nieuwe psychose, dan zou een neuraal netwerk kunnen leren om nieuwe spraakopnamen te voorzien van een label “kans op psychose”. Daarbij gaat het vaak om cues in de spraak (bv hogere spreeksnelheid in combinatie met lange pauzes tussen de woorden) waar mensen zelf helemaal niet bewust van zijn. Ook Van Hessen verwacht niet dat deze computerprogramma’s binnen afzienbare tijd zo accuraat zullen zijn, dat ze psychiaters zullen vervangen; het zal voorlopig vooral een artsen ondersteunende technologie zijn. ‘Maar als de technologie “voldoende goed is” en bv in een polshorloge kan worden ingebouwd, dan kan het wel een mooie steun zijn voor verplegend personeel of de patient in kwestie.’

Riccardo Fusaroli, onderzoeker aan de Deense Aarhus University, snapt het enthousiasme over de mogelijkheden van zelflerende computerprogramma’s voor de geestelijke gezondheidszorg. Hij waarschuwt echter voor ‘overfitting’, een verschijnsel dat hij veel tegenkwam bij programma’s die autisme opsporen aan de hand van stemgeluid. Allerlei onderzoeksgroepen claimen dat hun zelflerende algoritmes in zeventig of tachtig procent van de gevallen correct aangeven of iemand wel of niet autistisch is. In werkelijkheid, zegt Fusaroli, blijken die programma’s vooral goed afgestemd op de beperkte hoeveelheid stemmen die tijdens het onderzoek zijn gebruikt. Zodra dezelfde technologie op nieuwe proefpersonen wordt uitgeprobeerd, vallen de resultaten vaak tegen. ‘Er zijn veel startups die apps op dit vlak ontwikkelen, maar we hebben nog te weinig grip op de materie. Het is meer een langetermijn-optie, maar wel een veel belovende.’

Zorgrobots

Ook zorgrobots kunnen wel wat extra emotioneel inschattingsvermogen gebruiken. Om mensen met fysieke beperkingen beter van dienst te kunnen zijn, is het belangrijk om te begrijpen of iemand blij, geïrriteerd of boos op de robot reageert. Onderzoeker Khiet Truong van de Universiteit Twente onderzoekt onder meer wat zo’n robot uit onze stem kan opmaken. Ook zij benadrukt het geduld dat een robot aan de dag kan leggen voor het turven van hoorbare stemkenmerken. Niettemin zullen er belangrijke beperkingen blijven aan het empathische vermogen van een robot, waarschuwt de onderzoeker. ‘Als ik iemand hoor zeggen dat hij een emotieherkenningssysteem heeft ontworpen, gaan bij mij alle alarmbellen af. Op basis van beelden kunnen computerprogramma’s de zes basisemoties - blijdschap, woede, verdriet, angst afschuw en verrassing - wel herkennen. Maar geluid is veel complexer, spraak is erg persoonsafhankelijk. Zelfs als ik twee keer hetzelfde zeg, klinkt dat beide keren anders.’

Computers hebben bijvoorbeeld nog erg veel moeite om blijdschap te onderscheiden van woede, zeker als er allerlei omgevingsgeluiden zijn te horen. Wij mensen maken gretig gebruik van de context: hoe kijkt iemand erbij, waar gaat het gesprek over, wat is de situatie? Voor een computer is het inschatten van die context nog erg lastig. Wanneer de stem en de gezichtsuitdrukking worden gecombineerd, zijn de resultaten wel een stuk beter.

Marketing

Hoe complex de materie ook is, Google, Apple, Amazon en een keur aan startups zetten hun kaarten op automatische emotieherkenning. Niet alle vergezichten zijn alleen even nobel: wat te denken van marketingprogramma’s die stemanalyse gebruiken om meer te verkopen? Of van zorgverzekeraars die de klinkende aanwijzingen over onze gezondheid verwerken in hun polissen? Lambèr Royakkers, onderzoeker ethiek en techniek aan de Technische Universiteit Eindhoven, houdt zijn hart nu al vast.

‘Als gegevens over iemands gezondheid in handen komen van verzekeringsmaatschappijen, of van werkgevers, kunnen die daar misbruik van maken.’ Wat hem nog meer zorgen baart, is dat onze mentale en emotionele privacy onder druk kan komen te staan. ‘Dit soort technologieën zijn makkelijk in een app te implementeren. Stel dat de ander via het mobieltje kan zien hoe ik me voel. Wat ik denk en wat ik voel, wil ik privé houden.’

De ideale home assistent heeft emotionele voelsprieten en houdt rekening met context, maar ook met onze behoefte aan privacy.

Rembrandt’s stem en nep-noodkreten

‘Vooral zeg ik u: niemand, behoudens mij zelf, kan schilderen zoals Rembrandt!’ Begin dit jaar luisterden vele Nederlanders naar dit zinnetje, uitgesproken door ‘de stem van Rembrandt’. De stem was gereconstrueerd door wetenschappers van de Carnegie Mellon University. Dat deden zij door te kijken naar zijn zelfportretten en op basis van fysieke kenmerken met een computerprogramma te voorspellen hoe zijn stem moet hebben geklonken. Normaal doen de onderzoekers het omgekeerde: op basis van de stem trachten ze mensen in beeld te brengen. Hun zelflerende computerprogramma’s maken gebruik van zogenaamde micro-kenmerken van een stem: nauwelijks te horen geluidsnuances, veroorzaakt door, bijvoorbeeld, de breedte van de neusholte, de gebitsvorm, de lengte en het gewicht van de spreker, maar ook hun leeftijd en emotionele staat. Met die programma’s hopen ze onder meer mensen op te sporen die voor de grap bellen naar alarmnummers.

Empathische auto

Wie dronken, doodmoe of witheet van woede achter het stuur kruipt, is op dat moment misschien niet de beste chauffeur. Verschillende autofabrikanten zoals Volvo, Citroën en BMW ontwikkelen momenteel technologieën om in te schatten hoe de bestuurder zich voelt. Gezichtsherkenning speelt daarbij een grote rol, maar ook stemanalyse kan van pas komen. Wetenschappers van de universiteit van Augsburg ontwikkelden software die woede, blijdschap, verdriet en irritatie uit onze stem kan detecteren. BMW test nu of deze software geschikt is om de chauffeurs van toekomstige BMW-modellen emotioneel te scannen.

Schoenendoos

Een van de allereerste computers die betekenis uit stemgeluid wist te filteren, was de ‘Shoebox’ van IBM. De computer, die oogde als een schoenendoos, kon zestien gesproken woorden en de cijfers nul tot en met negen herkennen. Aan de zijkant zaten tien kleine lampjes met een cijfer eronder, die oplichtten als iemand het betreffende cijfer uitsprak. De Shoebox was een spraakmakende attractie tijdens de Wereldtentoonstelling in Seattle in 1962. De technologie zou belangrijk blijken voor de ontwikkeling van automatische spraakherkenning.

DNA

Onze stem is net zo uniek als ons DNA: onze vrienden herkennen we feilloos aan hun stemgeluid zolang we die spraak maar goed kunnen horen (herkennen van sprekers over de ouderwetse telefoonlijnen is al een heel stuk moeilijker. Daar haal je nl. vrij makkelijk vader en zoons of moeder en dochters door elkaar). Ons lichaam is namelijk een uitzonderlijk instrument: de stembanden in je strottenhoofd die de lucht uit je longen de juiste trilling meegeven, je luchtpijp, je mondholte, je borstkas, je schedel, alles heeft invloed op het stemgeluid. Niettemin worden computers steeds beter in het imiteren van die stem. Zo presenteerde het Canadese bedrijf Lyrebird alweer twee jaar geleden een overtuigend geluidsfragment waarin de Amerikaanse president Trump een gezellig gesprek had met zijn voorganger Barack Obama. Het gesprek had nooit plaatsgevonden, maar was met behulp van zelflerende computerprogramma’s in elkaar geknutseld.

Dit artikel is verschenen in Quest.

Gemeenten zien nut ondertitels bij raadsvergadering niet

Artikel verscheen oorspronkelijk 8 oktober 2019 op Binnenlands Bestuur Digitaal

Een redelijke ondertiteling kan geautomatiseerd worden gegenereerd. Dat het nog niet veel gebeurt bij raadsvergaderingen, komt doordat gemeenten het gemak, het nut en de noodzaak ervan niet inzien, zegt Arjan van Hessen, onderzoeker taal- en spraaktechnologie bij de Universiteit Twente.

Een redelijke ondertiteling kan geautomatiseerd worden gegenereerd. Dat het nog niet veel gebeurt bij raadsvergaderingen, komt doordat gemeenten het gemak, het nut en de noodzaak ervan niet inzien, zegt Arjan van Hessen, onderzoeker taal- en spraaktechnologie bij de Universiteit Twente.

Niet toegankelijk

Online live uitzendingen van gemeenteraadsvergaderingen en commissievergaderingen zijn relatief makkelijk te ondertitelen met behulp van spraakherkenningssoftware. Het gebeurt al in Amsterdam en Capelle aan de IJssel. Ook Den Haag wil nog dit jaar beginnen met geautomatiseerde live ondertiteling. De meeste gemeenten ondertitelen hun uitzendingen echter niet, ook niet achteraf. Live audio en video hoeft volgens de toegankelijkheidsrichtlijnen niet toegankelijk worden gemaakt, maar niet-live geluid en beeld wel. Ook over het algemeen is het slecht gesteld is met de toegankelijkheid van veel overheidswebsites.

Beter verstaan en zoeken

Arjan van Hessen is onderzoeker op het gebied van taal- en spraaktechnologie aan de Universiteit Twente. Hij vermoedt dat voor veel gemeenten de noodzaak ontbreekt om ondertiteling te verzorgen. ‘In het kader van het inclusieve zouden ze dat gewoon moeten doen. Niet iedereen is goed in het verstaan van het Nederlands. Een vorm van imperfecte ondertiteling kan dan helpen.’

Doorzoekbare tekst

Ondertiteling geeft ook de mogelijkheid om debatten te volgen zonder dat het geluid hoeft aan te staan. Een ander voordeel is dat de tekst doorzoekbaar is. Van Hessen: ‘Niemand gaat een gemeenteraadsvergadering van zes uur zitten naluisteren, maar je wil misschien wel weten wat er is gezegd over drugsoverlast in het Wilhelminapark. Die fragmenten kun je opvragen. Niet alleen van de vergadering van afgelopen woensdag, maar van het hele jaar als je wil.’

Contextafhankelijk

Live spraakherkenning is altijd iets minder goed dan automatische ondertiteling achteraf. Dat komt door de manier waarop de software werkt. Geluid uit een audiobestand wordt door de computer omgezet in Nederlandse klanken. Van die klanken probeert het vervolgens woorden te maken. Dat is een zoekproces, want mensen praten onduidelijk en slikken soms woorden in. De software vindt een aantal mogelijke woorden en bepaalt op basis van een statistisch taalmodel welke woorden het zouden kunnen zijn. De zin 'de man stapt in zijn…' zullen de meeste mensen aanvullen met 'auto', maar in sommige contexten is 'schoenen' een logischere keuze. ‘Hoe langer de zoekzinnen, hoe meer geheugen je nodig hebt,’ legt Van Hessen uit. ‘Real time spraakverkenners hebben geheugen voor drie woorden achter elkaar. Als je meer tijd hebt om te rekenen, kun je langere reeksen woorden gebruiken.’

Eigen taalmodel

In de gemeenteraad van Utrecht komen andere onderwerpen aan de orde dan in die van Hengelo. Utrecht heeft dus spraaksoftware nodig die 'Tivoli-Vredenburg' herkent, Hengelo heeft meer aan 'Lambertuskermis'. ‘Het werkt altijd beter als je een toepassing leert waar het over gaat,’ zegt Van Hessen. ‘Daarvoor kun je het algemene Nederlandse taalmodel aanvullen met teksten van de gemeenteraad van de afgelopen tien jaar. Die laad je in en dan ga je de kans berekenen dat bepaalde nieuwe woorden zullen voorkomen in de vergaderingen. Ten slotte moet de computer nog leren hoe ze klinken.’

Niet foutloos

Foutloos worden de ondertitels nooit, benadrukt hij. Zeker met namen heeft spraaksoftware moeite. Ook hoofdletters en komma’s ontbreken. Sprekers herkennen is wel mogelijk. Van iedere spreker kan met ongeveer vijf minuten spraak een eigen akoestisch model gemaakt worden. Maar in moderne vergaderomgevingen heeft iedere spreker zijn eigen microfoon en is het maken van een akoestisch model niet eens nodig. Het is dan wel noodzakelijk dat de de bewerking wordt gedaan voordat alle kanalen worden samengevoegd.

Hoe de verzekeraar straks ons gedrag gaat ‘voorspellen’

Artikel op de AMWEB-website nav een lezing in juni 2018 over TST en AI

Geschreven door Cindrea Limburg

Hij houdt zich bezig met de ‘talige kant’ van Artificial Intelligence (AI). Die talige kant is volgens dr. Arjan van Hessen gerelateerd aan de kennis van de wereld die we halen uit, wat hij noemt, ‘de producten van de menselijke geest’ (kranten, boeken, interviews en architectuur). Dit in tegenstelling tot AI die zich meer richt op de ‘producten van de natuur’ (temperatuur, vochtigheid, hersenen, gesteente, vloeistof). Volgens Van Hessen vormt de enorme ontwikkeling op met name het talige gebied een serieuze bedreiging. Want, zo zegt hij, AI gaat heel ver. Het is een onvermijdelijk gevolg en voor veel professionals geldt volgens hem dat ze op zoek moeten gaan naar hun eigen meerwaarde. Mits goed geïmplementeerd is AI steeds beter in staat om ons gedrag te voorspellen. Verzekeraars worden straks ‘de voorspeller’.

Arjan Van Hessen 269x272

AI is steeds beter in staat om met algoritmes een beeld te maken van de menselijke angsten, verlangens en gedragingen. Van Hessen vindt dat verzekeraars flink op weg zijn wat betreft het gebruik van AI in hun technologieën. “Vooral voor de callcenters is al redelijk wat ontwikkeld. Een computer vraagt je waarom je belt en nog voordat je een callcentermedewerker te spreken krijgt, heeft hij/zij al redelijk wat informatie over jou op het scherm staan. Bij sommige verzekeraars wordt het hele hypotheekproces door software beoordeeld, het gaat heel hard.”

Over een tijdje, wanneer AI voldoende is ontwikkeld, weet de verzekeraar volgens de wetenschapper al wat je wil en kunnen ze zelf proactief contact opnemen. Verzekeringsmaatschappijen kunnen dan als het ware al voorspellen waar je behoefte aan hebt.

Opgebouwde vanzelfsprekendheden

Maar er liggen momenteel nog wel wat uitdagingen zegt Van Hessen: “Wij mensen hebben ons beeld van de wereld gevormd en dat gebruiken we in onze intermenselijke communicatie. Als je onze gesprekken zou uitschrijven zie je hoe vaak we maar halve zinnen maken, én tegelijkertijd elkaar toch begrijpen. Wij mensen spelen bewust en onbewust heel erg op elkaar in. Tussen mensen en AI zit nu nog een groot gat. Als een gesprek nu langer dan twee zinnen van elkaar verwijderd is lukt het gesprek met AI niet meer. Wij mensen kunnen dat wel goed, de draad bijvoorbeeld in een gesprek verliezen en die later dan weer ineens oppakken.”

Onderhuidse veronderstellingen

Juist daar ligt volgens de wetenschapper de uitdaging in de verdere ontwikkeling van AI: het contact tussen mensen, de gebaren, de indirecte woordgrappen. “AI werkt goed bij heel directe communicatie, als er bijvoorbeeld letterlijk wordt vertaald wat er wordt gezegd. En dan heb ik het over zakelijke communicatie, want als een verhaal ook maar enigszins iets poëtisch heeft, wordt de vertaling troebel. Die onderhuidse veronderstellingen, die toespelingen, dat is heel lastig.” Van Hessen legt uit dat in de afgelopen tien jaren AI enorm heeft bijgedragen aan de verbetering van de spraakherkenning en dat de focus nu vooral ligt op ‘spraak-begrijpen’.

Met dergelijke technologieën maak je processen sneller en goedkoper en zal het op een aantal gebieden even goed werk verrichten als de specialist, maar ik hoop dat we het zullen zien als ondersteunende techniek

AI als assistent

Wat bedoelt Van Hessen daar eigenlijk mee? “We zijn nu bijvoorbeeld bezig met een meldkamer-project van de politie. Als je vroeger naar 112 belde en zei: ‘Ik sta in Utrecht op de Maliebaan’, dan moest de dispatcher de kaart erbij pakken en doorvragen. Nu laat het systeem onmiddellijk de kaart van Utrecht zien en zoomt in op het gebied. De informatie wordt sneller getoond en meer met elkaar gekoppeld waardoor we sneller kunnen reageren. AI is onze assistent.”

Van Hessen geeft toe dat hij een voorstander is van AI zien als ‘assisting technology’. “Ik zie de technologie als onze assistent. Velen van ons kennen Watson, een supercomputer die is gebouwd door IBM. Die computer kan een geschreven medische vraag interpreteren en na een zoektocht door een verzameling van encyclopedieën, boeken, tijdschriften, wetenschappelijke artikelen en gedownloade websites binnen enkele seconden goed beantwoorden. Sommigen voorspellen dat Watson de specialist zal wegvagen, maar dat vraag ik me af.”

Volgens de wetenschapper is het de vraag of de maatschappij daar op zit te wachten. “Met dergelijke technologieën maak je processen sneller en goedkoper en zal het op een aantal gebieden even goed werk verrichten als de specialist, maar ik hoop dat we het zullen zien als ondersteunende techniek.”

Maatschappelijke debatten zijn nodig

Het zijn wendingen waar we volgens Van Hessen maatschappelijk gezien toch debat over zullen moeten voeren. Dat zullen dan vooral debatten ‘achteraf’ zijn en niet ‘vooraf’. Van Hessen: “Er wordt veel geëxperimenteerd en soms is AI al doorgevoerd in werkprocessen. De politierechter bijvoorbeeld, de kleinere vergrijpen zoals diefstal en bekeuringen worden nu door middel van AI gestuurde computers beoordeeld en vonnissen uitgedeeld zonder dat daar een mens bij aan te pas is gekomen. Een aantal juristen roept daar nu vragen over op. En dan niet over de kwaliteit van de vonnissen, maar over het feit dat er geen mens aan te pas komt.”

Discriminatie en de menselijke kant

Het gevaar zit hem volgens Van Hessen in het feit dat we de ethische kant van AI wel eens over het hoofd willen zien. AI werkt volgens hem goed waardoor wij er een enorm vertrouwen in krijgen, maar, zo vertelt hij, de gebruikte algoritmes zijn getraind op menselijke data en die bevatten ook veel vooroordelen en fouten. “Een hypotheek kan worden afgewezen simpel en alleen om het feit dat je een bepaalde postcode hebt. AI kan discriminatie ook in de hand werken, het reflecteert immers de discriminatoire tendensen in de maatschappij. Daarom moeten we goed blijven nadenken over de inzet. Mijn hoop is dat AI wordt ingezet om de adviseurs een inschatting te kunnen geven, niet om hun werk over te nemen, zodat de menselijke kant erin blijft.”

Toegevoegde waarde en slimme manieren

Wel adviseert Van Hessen adviseurs goed op te blijven letten wat de ontwikkeling van AI betreft: “Heel veel dingen die ze nu doen, zullen ze over een aantal jaar niet meer doen. Probeer in te spelen op de toegevoegde waarde. Ik sprak laatst een headhunter die eigenlijk boos was omdat ‘mijn software’ zijn werk eigenlijk overnam (het zoeken naar geschikte mensen voor een baan). Maar deze headhunter had daar een slimme reactie op: die computer gaat de mensen vinden, maar ik ga de bedrijven helpen bij het opstellen van de taakomschrijving en de profielschets. Op dat onderdeel is die headhunter nu met succes ingesprongen.”

Van Hessen is spreker op am:innosurance. Het event vindt 12 juni plaats op de High Tech Campus in Eindhoven. Inschrijven kan hier.

Eerste publicatie door Cindrea Limburg op 3 mei 2018
Laatste update: 8 mei 2018
  1. Voice strategie workshop a.s.r. - sessie 3
  2. Interview met Arjan van Hessen over AI
  3. Reinventing Customer Service
  4. Stemmen die afleiden

Pagina 1 van 2

  • 1
  • 2
  • Laatst gewijzigd: woensdag 15 april 2026 20:25:03
  • Copyright @2026 Arjan van Hessen