Dutch subtitles for clip: File:Will robots outsmart us.webm
Jump to navigation
Jump to search
1 00:00:00,133 --> 00:00:04,711 Gaan robots zich ooit tegen ons keren en de wereld overnemen? 2 00:00:04,736 --> 00:00:07,802 Ik ga je er alles over vertellen. 3 00:00:07,827 --> 00:00:10,584 Zullen robots ons te slim af zijn? 4 00:00:16,004 --> 00:00:18,543 Dit is de Universiteit van Nederland 5 00:00:18,949 --> 00:00:21,270 Er verschijnen steeds nieuwe technologieën. 6 00:00:21,295 --> 00:00:24,598 In films zien we beangstigende scenario's... 7 00:00:24,623 --> 00:00:29,067 waarin robots slimmer zijn dan mensen en de controle overnemen. 8 00:00:29,488 --> 00:00:31,778 Sommige films gaan nog een stapje verder... 9 00:00:31,803 --> 00:00:34,996 en voorspellen dat robots zich zullen kunnen reproduceren. 10 00:00:35,021 --> 00:00:38,410 Maar zal dit ooit de werkelijkheid worden? 11 00:00:38,435 --> 00:00:40,993 Zullen robots ons ooit te slim af zijn? 12 00:00:41,082 --> 00:00:44,291 Als toegepast wiskundige en werktuigbouwkundig ingenieur... 13 00:00:44,315 --> 00:00:46,660 probeer ik deze vraag te beantwoorden. 14 00:00:47,534 --> 00:00:52,275 Met mijn team werk ik aan het namaken van intelligentie in robots. 15 00:00:52,301 --> 00:00:54,952 Ons doel is robots te maken die kunnen leren... 16 00:00:54,976 --> 00:00:57,797 beslissingen nemen, omgevingen kunnen herkennen... 17 00:00:57,822 --> 00:01:01,199 en wellicht ook kunnen creëren zonder tussenkomst van mensen. 18 00:01:01,776 --> 00:01:06,374 Dit heet kunstmatige intelligentie, ofwel AI: artificial intelligence. 19 00:01:06,669 --> 00:01:09,458 Als AI net als een mens kan denken... 20 00:01:09,483 --> 00:01:12,075 als AI bewustzijn heeft eigenlijk... 21 00:01:12,100 --> 00:01:15,315 dan noemen we zo'n AI 'algemene AI'. 22 00:01:15,780 --> 00:01:19,450 Als AI zichzelf kan vermenigvuldigen... 23 00:01:19,475 --> 00:01:21,780 noemen we dat 'super-AI'. 24 00:01:22,289 --> 00:01:26,281 De maatschappij is daar echter nog lang niet. 25 00:01:26,638 --> 00:01:31,537 Op dit moment werken we aan 'zwakke AI'. 26 00:01:32,073 --> 00:01:35,851 In zwakke AI willen we menselijke redenering gebruiken... 27 00:01:35,877 --> 00:01:38,304 als het cement voor de training van robots... 28 00:01:38,330 --> 00:01:40,338 maar niet als einddoel. 29 00:01:41,221 --> 00:01:47,755 We proberen niet het volle menselijke denkvermogen na te bootsen in een robot... 30 00:01:47,780 --> 00:01:52,154 maar we trainen robots simpele handelingen uit te voeren. 31 00:01:52,336 --> 00:01:56,476 Een robot zegt bijvoorbeeld hoi als iemand langsloopt... 32 00:01:56,501 --> 00:01:59,319 of lacht om een van je grappen. 33 00:02:00,356 --> 00:02:03,300 De meesten van jullie denken waarschijnlijk... 34 00:02:03,325 --> 00:02:06,192 dat AI en robotica hetzelfde doel hebben. 35 00:02:06,617 --> 00:02:08,422 Maar dat is niet waar. 36 00:02:08,687 --> 00:02:12,813 In robotica proberen we fysiek menselijk handelen na te bootsen. 37 00:02:13,127 --> 00:02:17,096 We bouwen robots die een object kunnen oppakken, zoals een bal... 38 00:02:17,121 --> 00:02:19,550 en het op een bepaalde plek kunnen zetten... 39 00:02:19,575 --> 00:02:22,131 die van tevoren vastgesteld is door een mens. 40 00:02:23,001 --> 00:02:29,756 In AI proberen we intelligentie na te bootsen in een robot. 41 00:02:29,893 --> 00:02:33,307 We trainen robots om objecten te herkennen. 42 00:02:33,332 --> 00:02:35,984 Te begrijpen dat het object een bal is... 43 00:02:36,010 --> 00:02:40,305 en het op een bepaalde plek te plaatsen... 44 00:02:40,331 --> 00:02:42,456 zonder tussenkomst van de mens. 45 00:02:43,738 --> 00:02:47,887 Als je AI en robotica samenvoegt... 46 00:02:47,912 --> 00:02:51,310 krijg je een kunstmatig intelligente robot. 47 00:02:51,899 --> 00:02:57,157 Daarin werkt AI als het brein en robotica als een lichaam. 48 00:02:58,360 --> 00:03:01,516 Je weet nu wat kunstmatige intelligentie is. 49 00:03:01,541 --> 00:03:06,650 Maar hoe trainen we robots om kunstmatig intelligent te zijn? 50 00:03:06,675 --> 00:03:09,352 Hoe kunnen we robots trainen om beslissingen te nemen... 51 00:03:09,377 --> 00:03:12,288 omgevingen te herkennen of te handelen? 52 00:03:13,049 --> 00:03:16,799 Hiervoor moeten we menselijk gedrag begrijpen. 53 00:03:17,559 --> 00:03:22,213 Dan moeten we eerst weten hoe het menselijk brein functioneert. 54 00:03:23,131 --> 00:03:25,725 Als we inzoomen op het menselijk brein... 55 00:03:25,750 --> 00:03:30,081 zien we dat het uit miljarden hersencellen bestaat. 56 00:03:30,645 --> 00:03:32,988 Die heten ook wel neuronen. 57 00:03:33,715 --> 00:03:37,497 Deze cellen hebben een elektrochemische structuur. 58 00:03:38,006 --> 00:03:44,103 Een neuron begint met een set input-antennes, de dendrieten. 59 00:03:44,617 --> 00:03:48,828 Deze antennes ontvangen signalen van buitenaf... 60 00:03:48,853 --> 00:03:50,706 of van de andere cellen. 61 00:03:51,478 --> 00:03:56,010 Als zo'n inkomend signaal hoog genoeg is... 62 00:03:56,279 --> 00:03:59,263 wordt de cel geactiveerd. 63 00:03:59,288 --> 00:04:02,900 De cel geeft dan neurotransmitters af... 64 00:04:02,925 --> 00:04:07,679 die naar de andere kant van de cel reizen, naar de synaps. 65 00:04:07,704 --> 00:04:11,341 Het eindstation voor communicatie met een andere cel. 66 00:04:12,371 --> 00:04:17,503 De cel wordt op dat moment geactiveerd. 67 00:04:18,752 --> 00:04:21,713 Cellen worden verbonden tot grote netwerken. 68 00:04:21,738 --> 00:04:25,785 Dan kunnen we specifieke patronen van hersencellen afvuren. 69 00:04:26,145 --> 00:04:30,090 Die worden als specifieke situaties geïnterpreteerd. 70 00:04:31,132 --> 00:04:32,484 Een voorbeeld. 71 00:04:32,932 --> 00:04:37,695 Als we plotseling een spin zien worden we bang. 72 00:04:37,815 --> 00:04:41,432 Sommige mensen rennen weg, anderen gaan schreeuwen. 73 00:04:42,239 --> 00:04:46,058 Deze visuele prikkel, de spin... 74 00:04:46,096 --> 00:04:49,924 activeert een set cellen in onze hersenen... 75 00:04:49,949 --> 00:04:52,581 die herkend worden als een patroon. 76 00:04:52,606 --> 00:04:55,381 Dat patroon betekent 'gevaarlijke situatie'. 77 00:04:56,302 --> 00:04:58,825 Om dit in robots na te bootsen... 78 00:04:58,850 --> 00:05:01,083 moeten we het patroon begrijpen. 79 00:05:01,108 --> 00:05:03,201 We moeten het programmeren. 80 00:05:04,228 --> 00:05:10,666 Dit doen we door hersencellen na te bootsen met kunstmatige cellen. 81 00:05:10,691 --> 00:05:13,609 Dan verbinden we ze tot grote netwerken... 82 00:05:13,635 --> 00:05:16,032 die lijken op natuurlijke netwerken. 83 00:05:16,464 --> 00:05:20,070 Maar deze nieuwe kunstmatige netwerken... 84 00:05:20,094 --> 00:05:22,956 zijn geen elektrochemische apparaten. 85 00:05:22,981 --> 00:05:25,495 Het zijn wiskundige apparaten. 86 00:05:25,859 --> 00:05:28,640 Elke cel is een wiskundig element... 87 00:05:28,665 --> 00:05:32,549 met een stel input- en outputsignalen. 88 00:05:32,915 --> 00:05:35,837 Als het inputsignaal sterk genoeg is... 89 00:05:35,913 --> 00:05:39,741 wordt het wiskundige element geactiveerd. 90 00:05:39,766 --> 00:05:42,173 Dat zal een outputsignaal uitzenden... 91 00:05:42,198 --> 00:05:45,006 dat dan weer een andere cel kan activeren. 92 00:05:45,999 --> 00:05:50,405 Zo bouwen we een patroon in grote neurale netwerken. 93 00:05:50,891 --> 00:05:54,785 Maar deze patronen moet je trainen. 94 00:05:54,810 --> 00:06:00,006 We moeten neurale netwerken leren dat specifieke situaties iets betekenen. 95 00:06:00,031 --> 00:06:03,789 Bijvoorbeeld dat een spin betekent 'gevaarlijke situatie'. 96 00:06:04,873 --> 00:06:10,658 Daarvoor moeten we de neurale netwerken voorzien van enorme hoeveelheden data. 97 00:06:10,682 --> 00:06:16,493 Om de robot te leren dat een spin gevaar betekent... 98 00:06:16,518 --> 00:06:22,030 moeten we de robot veel afbeeldingen van verschillende spinnen geven. 99 00:06:22,108 --> 00:06:27,639 Zo leert de robot kenmerken van spinnen herkennen. 100 00:06:28,883 --> 00:06:32,366 Maar zo trainen we robots alleen maar... 101 00:06:32,392 --> 00:06:36,619 om objecten, situaties of omgevingen te herkennen. 102 00:06:37,070 --> 00:06:39,078 Ze leren niet om daarnaar te handelen. 103 00:06:39,103 --> 00:06:42,448 Als wij bijvoorbeeld een spin zien, rennen we direct weg. 104 00:06:42,473 --> 00:06:45,379 We willen dat robots hetzelfde doen. 105 00:06:46,702 --> 00:06:52,160 Om dat voor elkaar te krijgen moeten we menselijk handelen begrijpen. 106 00:06:52,185 --> 00:06:55,831 Dan pas kunnen we robots trainen actie te ondernemen. 107 00:06:56,387 --> 00:07:00,240 De oplossing hiervoor zoeken we in de psychologie. 108 00:07:01,224 --> 00:07:07,247 In de negentiende eeuw bestudeerde Ivan Pavlov klassiek conditioneren. 109 00:07:07,631 --> 00:07:11,868 In zijn bekende experiment liet hij een hond een bel horen... 110 00:07:11,893 --> 00:07:14,140 elke keer als de hond voedsel kreeg. 111 00:07:14,212 --> 00:07:16,719 Zo begon de hond speeksel te produceren. 112 00:07:17,354 --> 00:07:22,596 Na een tijd werd de associatie tussen voedsel en belgeluid zo sterk... 113 00:07:22,621 --> 00:07:27,107 dat de hond al begon te kwijlen als hij alleen maar de bel hoorde. 114 00:07:27,959 --> 00:07:31,162 Dat is geconditioneerd leren. 115 00:07:31,861 --> 00:07:36,719 Bij geconditioneerd leren leggen we een verband tussen twee stimuli. 116 00:07:36,745 --> 00:07:38,807 Een natuurlijke en een neutrale stimulus. 117 00:07:38,832 --> 00:07:42,632 Voedsel is natuurlijk, het belgeluid is neutraal. 118 00:07:42,847 --> 00:07:48,869 Na verloop van tijd is de associatie tussen de twee heel sterk... 119 00:07:48,894 --> 00:07:51,650 en zo leiden ze tot dezelfde respons. 120 00:07:52,031 --> 00:07:56,359 Klassieke conditionering kan ook vertaald worden naar de robotwereld. 121 00:07:56,384 --> 00:08:00,580 We hebben bijvoorbeeld een robot en twee objecten, een auto en een bal. 122 00:08:00,604 --> 00:08:03,611 We willen dat de robot de bal volgt. 123 00:08:03,779 --> 00:08:06,139 Steeds als de robot een bal ziet... 124 00:08:06,164 --> 00:08:08,959 spelen we een bepaalde melodie af... 125 00:08:08,995 --> 00:08:13,367 die in een computerprogramma wordt geïmplementeerd als een beloning. 126 00:08:13,504 --> 00:08:16,957 Zo weet de robot als hij de bal volgt... 127 00:08:16,982 --> 00:08:19,584 dat hij het goed doet. 128 00:08:21,308 --> 00:08:26,253 Na verloop van tijd zal de associatie tussen bal en melodie zo sterk worden... 129 00:08:26,278 --> 00:08:29,656 dat de robot ballen zal gaan volgen... 130 00:08:29,681 --> 00:08:32,375 zonder dat hij een melodie hoort. 131 00:08:33,888 --> 00:08:39,912 In klassieke conditionering leren we dus de associatie tussen twee stimuli. 132 00:08:40,456 --> 00:08:44,417 Bal en melodie, voedsel en belgeluid. 133 00:08:45,557 --> 00:08:49,417 In machine learning wordt dit het voorspellingsalgoritme genoemd. 134 00:08:49,442 --> 00:08:53,004 Daarmee voorspellen we de uitkomst van elke situatie. 135 00:08:53,756 --> 00:08:58,161 Maar dit is ook het grootste probleem met deze leertechniek. 136 00:08:58,753 --> 00:09:01,393 Als we Pavlovs experiment herhalen... 137 00:09:01,418 --> 00:09:04,960 en een hond voedsel geven maar geen belgeluid laten horen... 138 00:09:04,985 --> 00:09:06,972 en dit steeds herhalen... 139 00:09:07,058 --> 00:09:10,925 zal de hond vergeten te kwijlen als hij een bel hoort. 140 00:09:11,658 --> 00:09:14,815 Het leerproces kan dus verminderen. 141 00:09:15,080 --> 00:09:18,823 We willen niet dat dit gebeurt bij robots. 142 00:09:18,848 --> 00:09:22,853 Ze zullen hun training immers vergeten. 143 00:09:23,963 --> 00:09:27,721 We hebben dus een complexere leertechniek nodig. 144 00:09:27,867 --> 00:09:30,660 Namelijk reinforcement leren: leren door versterking. 145 00:09:30,685 --> 00:09:36,145 In reinforcement leren zal een mens of dier vaker een handeling vertonen... 146 00:09:36,170 --> 00:09:39,411 die in het verleden tot een beloning heeft geleid... 147 00:09:39,435 --> 00:09:43,276 en minder vaak acties die tot straf hebben geleid. 148 00:09:43,580 --> 00:09:47,002 Je laat bijvoorbeeld een kat in een kooi... 149 00:09:47,027 --> 00:09:49,021 met daarin vier knoppen. 150 00:09:49,066 --> 00:09:54,602 Eén van die knoppen zorgt dat de kat een beloning krijgt, zoals voedsel. 151 00:09:54,626 --> 00:09:58,501 De andere drie knoppen staan voor een straf. 152 00:09:58,526 --> 00:10:00,938 Bijvoorbeeld een elektrische schok. 153 00:10:01,290 --> 00:10:04,886 Na een tijdje zal de kat doorhebben... 154 00:10:04,911 --> 00:10:09,742 dat de vierde knop voedsel oplevert. 155 00:10:09,796 --> 00:10:13,210 De kat zal deze knop vaker gaan indrukken. 156 00:10:14,376 --> 00:10:17,813 Dit kan ook vertaald worden naar de robotwereld. 157 00:10:18,313 --> 00:10:23,496 Daarvoor bouwen we een algoritme gebaseerd op de wet van effect. 158 00:10:23,796 --> 00:10:29,991 Het algoritme moet verschillende acties vergelijken op hun uitkomst... 159 00:10:30,016 --> 00:10:32,759 en het moet associaties bouwen. 160 00:10:32,784 --> 00:10:37,516 Het moet elke situatie verbinden met een vooraf geleerde handeling. 161 00:10:39,069 --> 00:10:44,545 Zo kunnen we robots trainen op onbekende omgevingen. 162 00:10:44,700 --> 00:10:47,781 Wil je bijvoorbeeld een robot naar Mars sturen... 163 00:10:47,810 --> 00:10:52,529 dan wil je dat hij zich beweegt zonder obstakels te raken. 164 00:10:52,973 --> 00:10:56,007 Hiervoor gebruiken we reinforcement leren. 165 00:10:56,565 --> 00:11:00,314 Het grootste probleem met reinforcement leren... 166 00:11:00,339 --> 00:11:03,495 is dat er een wisselwerking moet zijn met de omgeving. 167 00:11:03,881 --> 00:11:06,622 We moeten feedback krijgen van de omgeving. 168 00:11:07,520 --> 00:11:09,544 Dat is niet altijd mogelijk. 169 00:11:09,637 --> 00:11:15,661 Zo zijn er omgevingen die ons maar heel weinig tot geen beloning geven. 170 00:11:16,250 --> 00:11:22,007 Als je een robot wil trainen om automatisch een computerspel te spelen... 171 00:11:22,205 --> 00:11:24,666 dan is reinforcement leren niet bruikbaar... 172 00:11:24,691 --> 00:11:28,619 als winst of verlies pas aan het eind van het spel bepaald wordt. 173 00:11:30,040 --> 00:11:33,548 Voor zulke situaties hebben we een nieuw soort leren nodig. 174 00:11:33,573 --> 00:11:36,252 Dat nieuwe leren noemen we imitatieleren. 175 00:11:36,980 --> 00:11:42,885 Bij imitatieleren is er een imitator of leraar... 176 00:11:42,910 --> 00:11:46,637 die acties demonstreert aan de robot. 177 00:11:47,554 --> 00:11:52,867 Zo krijgt de robot meer data en wordt het leerproces korter. 178 00:11:53,582 --> 00:11:58,762 Imitatieleren kan gebruikt worden als we robots naar Mars sturen... 179 00:11:58,787 --> 00:12:01,532 om daar nederzettingen te bouwen. 180 00:12:02,747 --> 00:12:05,216 Door menselijk gedrag te imiteren... 181 00:12:05,241 --> 00:12:09,386 zullen de robots samenwerken aan de bouw van constructies. 182 00:12:10,750 --> 00:12:16,750 We leren nu dat het niet genoeg is om één robot individueel te trainen. 183 00:12:16,775 --> 00:12:19,328 We moeten ze in groepen trainen. 184 00:12:20,037 --> 00:12:22,646 Net zoals bij de menselijke maatschappij. 185 00:12:22,713 --> 00:12:28,540 Mensen vormen groepen en werken samen om hun overlevingskansen te vergroten. 186 00:12:28,648 --> 00:12:32,554 Om fabrieken zonder mensen te bouwen... 187 00:12:32,579 --> 00:12:35,444 moeten we collaboratieve robotica gebruiken. 188 00:12:35,470 --> 00:12:38,721 Denk aan twee robots die samen een auto lassen. 189 00:12:38,746 --> 00:12:42,228 Of twee robots die samen materiaal printen... 190 00:12:42,252 --> 00:12:44,680 tot een bepaalde precieze structuur. 191 00:12:44,706 --> 00:12:47,349 Er kunnen dan veel problemen ontstaan. 192 00:12:47,374 --> 00:12:53,138 Het kan gebeuren dat de ene robot het object herkent en de andere niet. 193 00:12:53,163 --> 00:12:57,152 Of de ene verwerkt informatie veel sneller dan de andere. 194 00:12:57,176 --> 00:13:00,967 Ze zijn zich niet bewust van de eigen fysieke beperkingen... 195 00:13:00,992 --> 00:13:03,727 of die van andere robots. 196 00:13:03,752 --> 00:13:09,808 Ze moeten zich ook bewust zijn van alle acties die andere robots uitvoeren. 197 00:13:10,625 --> 00:13:14,809 We moeten AI dus zo verbeteren dat het kan samenwerken. 198 00:13:15,804 --> 00:13:20,328 Het maakt niet uit of we robots individueel trainen of in een groep. 199 00:13:20,353 --> 00:13:24,333 We hebben hoe dan ook grote datasets nodig om ze te trainen. 200 00:13:24,358 --> 00:13:27,525 Daarvoor hebben we enorme computerkracht nodig. 201 00:13:27,810 --> 00:13:30,801 Hiervoor gebruiken we supercomputers. 202 00:13:30,827 --> 00:13:37,050 Maar zelfs een bijenbrein is krachtiger dan de grootste supercomputer ter wereld. 203 00:13:37,251 --> 00:13:41,853 Supercomputers kunnen weliswaar sneller informatie verwerken. 204 00:13:41,878 --> 00:13:47,417 In dit geval zo'n 200 duizend keer sneller dan de hersenen van een bij. 205 00:13:48,446 --> 00:13:51,587 Maar zij hebben meer energie nodig. 206 00:13:51,843 --> 00:13:57,439 Om dezelfde informatie te verwerken heeft een bij 10 microwatt energie nodig. 207 00:13:57,464 --> 00:14:01,439 Een supercomputer heeft maar liefst 13 megawatt nodig. 208 00:14:02,407 --> 00:14:07,063 AI-algoritmes gebruiken dus heel veel energie. 209 00:14:07,088 --> 00:14:08,995 We moeten nieuwe algoritmes bouwen... 210 00:14:09,020 --> 00:14:12,288 die alleen op kleine datasets gebaseerd zijn... 211 00:14:12,312 --> 00:14:15,064 en daardoor minder energie gebruiken. 212 00:14:16,174 --> 00:14:19,174 Daarnaast, als we robots trainen... 213 00:14:19,198 --> 00:14:22,537 doen we dat op basis van onze voorkennis. 214 00:14:22,562 --> 00:14:25,760 Dat betekent dat een robot een nieuw muziekstuk kan maken... 215 00:14:25,785 --> 00:14:27,135 of een nieuwe tekening... 216 00:14:27,247 --> 00:14:30,857 maar dat is wel altijd gebaseerd op onze voorkennis. 217 00:14:32,272 --> 00:14:35,420 Ze kunnen dus niets creëren dat echt nieuw is. 218 00:14:35,935 --> 00:14:41,675 Sommige onderzoekers stellen dat AI dus helemaal niet intelligent is. 219 00:14:41,701 --> 00:14:47,640 Ik geloof wel dat we robots intelligenter zullen maken dan ze nu zijn. 220 00:14:47,665 --> 00:14:51,819 Hiervoor moeten we in plaats van associatieve relaties... 221 00:14:51,845 --> 00:14:54,996 tussen stimuli of stimulus en actie... 222 00:14:55,021 --> 00:14:58,317 oorzaak-gevolgrelaties gaan bouwen. 223 00:14:58,612 --> 00:15:02,704 Robots kunnen nu heel precies bewegen... 224 00:15:02,862 --> 00:15:06,924 maar ze weten niet genoeg om eventuele ongelukken te voorspellen. 225 00:15:07,808 --> 00:15:12,379 Hun kennisniveau is lager dan dat van een baby van 16 maanden oud. 226 00:15:12,729 --> 00:15:18,987 We moeten dus AI bouwen die zulke oorzaak-gevolgrelaties kan bouwen. 227 00:15:19,995 --> 00:15:23,939 We hebben vandaag gezien dat machine- en robotintelligentie... 228 00:15:23,964 --> 00:15:26,346 afhankelijk zijn van grote datasets... 229 00:15:26,596 --> 00:15:30,417 complexe algoritmes en enorme computerkracht. 230 00:15:30,787 --> 00:15:35,748 Maar is dit genoeg om algemene of super AI te bereiken? 231 00:15:36,027 --> 00:15:37,862 De tijd zal het leren. 232 00:15:37,873 --> 00:15:40,311 Eén ding weten we zeker. 233 00:15:40,669 --> 00:15:44,677 Robotintelligentie zal verschillen van menselijke intelligentie... 234 00:15:44,702 --> 00:15:49,210 net zoals dierlijke intelligentie verschilt van menselijke. 235 00:15:49,674 --> 00:15:54,394 Robots zullen simpelweg uitblinken in andere soorten vaardigheden dan mensen. 236 00:15:54,418 --> 00:15:56,594 Ik geloof dat ze op een dag... 237 00:15:56,618 --> 00:16:00,992 meer zullen maken dan mensen tot nu toe hebben gemaakt. 238 00:16:01,503 --> 00:16:02,800 Dank je wel. 239 00:16:04,480 --> 00:16:08,253 Meer video's? Abonneer je op ons kanaal.