Dutch subtitles for clip: File:Will robots outsmart us.webm

From Wikimedia Commons, the free media repository
Jump to navigation Jump to search
1
00:00:00,133 --> 00:00:04,711
Gaan robots zich ooit tegen ons
keren en de wereld overnemen?

2
00:00:04,736 --> 00:00:07,802
Ik ga je er alles over vertellen.

3
00:00:07,827 --> 00:00:10,584
Zullen robots ons te slim af zijn?

4
00:00:16,004 --> 00:00:18,543
Dit is de Universiteit van Nederland

5
00:00:18,949 --> 00:00:21,270
Er verschijnen steeds nieuwe technologieën.

6
00:00:21,295 --> 00:00:24,598
In films zien we
beangstigende scenario's...

7
00:00:24,623 --> 00:00:29,067
waarin robots slimmer zijn dan
mensen en de controle overnemen.

8
00:00:29,488 --> 00:00:31,778
Sommige films gaan nog een stapje verder...

9
00:00:31,803 --> 00:00:34,996
en voorspellen dat robots zich
zullen kunnen reproduceren.

10
00:00:35,021 --> 00:00:38,410
Maar zal dit ooit de werkelijkheid worden?

11
00:00:38,435 --> 00:00:40,993
Zullen robots ons ooit te slim af zijn?

12
00:00:41,082 --> 00:00:44,291
Als toegepast wiskundige en
werktuigbouwkundig ingenieur...

13
00:00:44,315 --> 00:00:46,660
probeer ik deze
vraag te beantwoorden.

14
00:00:47,534 --> 00:00:52,275
Met mijn team werk ik aan het
namaken van intelligentie in robots.

15
00:00:52,301 --> 00:00:54,952
Ons doel is robots te
maken die kunnen leren...

16
00:00:54,976 --> 00:00:57,797
beslissingen nemen,
omgevingen kunnen herkennen...

17
00:00:57,822 --> 00:01:01,199
en wellicht ook kunnen creëren
zonder tussenkomst van mensen.

18
00:01:01,776 --> 00:01:06,374
Dit heet kunstmatige intelligentie,
ofwel AI: artificial intelligence.

19
00:01:06,669 --> 00:01:09,458
Als AI net als een mens kan denken...

20
00:01:09,483 --> 00:01:12,075
als AI bewustzijn heeft eigenlijk...

21
00:01:12,100 --> 00:01:15,315
dan noemen we zo'n AI 'algemene AI'.

22
00:01:15,780 --> 00:01:19,450
Als AI zichzelf kan vermenigvuldigen...

23
00:01:19,475 --> 00:01:21,780
noemen we dat 'super-AI'.

24
00:01:22,289 --> 00:01:26,281
De maatschappij is
daar echter nog lang niet.

25
00:01:26,638 --> 00:01:31,537
Op dit moment werken we aan 'zwakke AI'.

26
00:01:32,073 --> 00:01:35,851
In zwakke AI willen we
menselijke redenering gebruiken...

27
00:01:35,877 --> 00:01:38,304
als het cement voor
de training van robots...

28
00:01:38,330 --> 00:01:40,338
maar niet als einddoel.

29
00:01:41,221 --> 00:01:47,755
We proberen niet het volle menselijke
denkvermogen na te bootsen in een robot...

30
00:01:47,780 --> 00:01:52,154
maar we trainen robots simpele
handelingen uit te voeren.

31
00:01:52,336 --> 00:01:56,476
Een robot zegt bijvoorbeeld
hoi als iemand langsloopt...

32
00:01:56,501 --> 00:01:59,319
of lacht om een van je grappen.

33
00:02:00,356 --> 00:02:03,300
De meesten van jullie
denken waarschijnlijk...

34
00:02:03,325 --> 00:02:06,192
dat AI en robotica hetzelfde doel hebben.

35
00:02:06,617 --> 00:02:08,422
Maar dat is niet waar.

36
00:02:08,687 --> 00:02:12,813
In robotica proberen we fysiek
menselijk handelen na te bootsen.

37
00:02:13,127 --> 00:02:17,096
We bouwen robots die een object
kunnen oppakken, zoals een bal...

38
00:02:17,121 --> 00:02:19,550
en het op een bepaalde
plek kunnen zetten...

39
00:02:19,575 --> 00:02:22,131
die van tevoren vastgesteld
is door een mens.

40
00:02:23,001 --> 00:02:29,756
In AI proberen we intelligentie
na te bootsen in een robot.

41
00:02:29,893 --> 00:02:33,307
We trainen robots om objecten te herkennen.

42
00:02:33,332 --> 00:02:35,984
Te begrijpen dat het object een bal is...

43
00:02:36,010 --> 00:02:40,305
en het op een bepaalde plek te plaatsen...

44
00:02:40,331 --> 00:02:42,456
zonder tussenkomst van de mens.

45
00:02:43,738 --> 00:02:47,887
Als je AI en robotica samenvoegt...

46
00:02:47,912 --> 00:02:51,310
krijg je een kunstmatig intelligente robot.

47
00:02:51,899 --> 00:02:57,157
Daarin werkt AI als het brein
en robotica als een lichaam.

48
00:02:58,360 --> 00:03:01,516
Je weet nu wat
kunstmatige intelligentie is.

49
00:03:01,541 --> 00:03:06,650
Maar hoe trainen we robots
om kunstmatig intelligent te zijn?

50
00:03:06,675 --> 00:03:09,352
Hoe kunnen we robots trainen
om beslissingen te nemen...

51
00:03:09,377 --> 00:03:12,288
omgevingen te
herkennen of te handelen?

52
00:03:13,049 --> 00:03:16,799
Hiervoor moeten we
menselijk gedrag begrijpen.

53
00:03:17,559 --> 00:03:22,213
Dan moeten we eerst weten hoe
het menselijk brein functioneert.

54
00:03:23,131 --> 00:03:25,725
Als we inzoomen op het menselijk brein...

55
00:03:25,750 --> 00:03:30,081
zien we dat het uit miljarden
hersencellen bestaat.

56
00:03:30,645 --> 00:03:32,988
Die heten ook wel neuronen.

57
00:03:33,715 --> 00:03:37,497
Deze cellen hebben een
elektrochemische structuur.

58
00:03:38,006 --> 00:03:44,103
Een neuron begint met een set
input-antennes, de dendrieten.

59
00:03:44,617 --> 00:03:48,828
Deze antennes ontvangen
signalen van buitenaf...

60
00:03:48,853 --> 00:03:50,706
of van de andere cellen.

61
00:03:51,478 --> 00:03:56,010
Als zo'n inkomend signaal hoog genoeg is...

62
00:03:56,279 --> 00:03:59,263
wordt de cel geactiveerd.

63
00:03:59,288 --> 00:04:02,900
De cel geeft dan neurotransmitters af...

64
00:04:02,925 --> 00:04:07,679
die naar de andere kant van
de cel reizen, naar de synaps.

65
00:04:07,704 --> 00:04:11,341
Het eindstation voor
communicatie met een andere cel.

66
00:04:12,371 --> 00:04:17,503
De cel wordt op dat moment geactiveerd.

67
00:04:18,752 --> 00:04:21,713
Cellen worden verbonden
tot grote netwerken.

68
00:04:21,738 --> 00:04:25,785
Dan kunnen we specifieke
patronen van hersencellen afvuren.

69
00:04:26,145 --> 00:04:30,090
Die worden als specifieke
situaties geïnterpreteerd.

70
00:04:31,132 --> 00:04:32,484
Een voorbeeld.

71
00:04:32,932 --> 00:04:37,695
Als we plotseling een
spin zien worden we bang.

72
00:04:37,815 --> 00:04:41,432
Sommige mensen rennen
weg, anderen gaan schreeuwen.

73
00:04:42,239 --> 00:04:46,058
Deze visuele prikkel, de spin...

74
00:04:46,096 --> 00:04:49,924
activeert een set cellen
in onze hersenen...

75
00:04:49,949 --> 00:04:52,581
die herkend worden als een patroon.

76
00:04:52,606 --> 00:04:55,381
Dat patroon betekent
'gevaarlijke situatie'.

77
00:04:56,302 --> 00:04:58,825
Om dit in robots na te bootsen...

78
00:04:58,850 --> 00:05:01,083
moeten we het patroon begrijpen.

79
00:05:01,108 --> 00:05:03,201
We moeten het programmeren.

80
00:05:04,228 --> 00:05:10,666
Dit doen we door hersencellen na
te bootsen met kunstmatige cellen.

81
00:05:10,691 --> 00:05:13,609
Dan verbinden we ze tot grote netwerken...

82
00:05:13,635 --> 00:05:16,032
die lijken op natuurlijke netwerken.

83
00:05:16,464 --> 00:05:20,070
Maar deze nieuwe kunstmatige netwerken...

84
00:05:20,094 --> 00:05:22,956
zijn geen elektrochemische apparaten.

85
00:05:22,981 --> 00:05:25,495
Het zijn wiskundige apparaten.

86
00:05:25,859 --> 00:05:28,640
Elke cel is een wiskundig element...

87
00:05:28,665 --> 00:05:32,549
met een stel input- en outputsignalen.

88
00:05:32,915 --> 00:05:35,837
Als het inputsignaal sterk genoeg is...

89
00:05:35,913 --> 00:05:39,741
wordt het wiskundige element geactiveerd.

90
00:05:39,766 --> 00:05:42,173
Dat zal een outputsignaal uitzenden...

91
00:05:42,198 --> 00:05:45,006
dat dan weer een andere cel kan activeren.

92
00:05:45,999 --> 00:05:50,405
Zo bouwen we een patroon
in grote neurale netwerken.

93
00:05:50,891 --> 00:05:54,785
Maar deze patronen moet je trainen.

94
00:05:54,810 --> 00:06:00,006
We moeten neurale netwerken leren
dat specifieke situaties iets betekenen.

95
00:06:00,031 --> 00:06:03,789
Bijvoorbeeld dat een spin
betekent 'gevaarlijke situatie'.

96
00:06:04,873 --> 00:06:10,658
Daarvoor moeten we de neurale netwerken
voorzien van enorme hoeveelheden data.

97
00:06:10,682 --> 00:06:16,493
Om de robot te leren dat
een spin gevaar betekent...

98
00:06:16,518 --> 00:06:22,030
moeten we de robot veel afbeeldingen
van verschillende spinnen geven.

99
00:06:22,108 --> 00:06:27,639
Zo leert de robot kenmerken
van spinnen herkennen.

100
00:06:28,883 --> 00:06:32,366
Maar zo trainen we robots alleen maar...

101
00:06:32,392 --> 00:06:36,619
om objecten, situaties of
omgevingen te herkennen.

102
00:06:37,070 --> 00:06:39,078
Ze leren niet om daarnaar te handelen.

103
00:06:39,103 --> 00:06:42,448
Als wij bijvoorbeeld een spin
zien, rennen we direct weg.

104
00:06:42,473 --> 00:06:45,379
We willen dat robots hetzelfde doen.

105
00:06:46,702 --> 00:06:52,160
Om dat voor elkaar te krijgen moeten
we menselijk handelen begrijpen.

106
00:06:52,185 --> 00:06:55,831
Dan pas kunnen we robots
trainen actie te ondernemen.

107
00:06:56,387 --> 00:07:00,240
De oplossing hiervoor
zoeken we in de psychologie.

108
00:07:01,224 --> 00:07:07,247
In de negentiende eeuw bestudeerde
Ivan Pavlov klassiek conditioneren.

109
00:07:07,631 --> 00:07:11,868
In zijn bekende experiment
liet hij een hond een bel horen...

110
00:07:11,893 --> 00:07:14,140
elke keer als de hond voedsel kreeg.

111
00:07:14,212 --> 00:07:16,719
Zo begon de hond speeksel te produceren.

112
00:07:17,354 --> 00:07:22,596
Na een tijd werd de associatie
tussen voedsel en belgeluid zo sterk...

113
00:07:22,621 --> 00:07:27,107
dat de hond al begon te kwijlen
als hij alleen maar de bel hoorde.

114
00:07:27,959 --> 00:07:31,162
Dat is geconditioneerd leren.

115
00:07:31,861 --> 00:07:36,719
Bij geconditioneerd leren leggen
we een verband tussen twee stimuli.

116
00:07:36,745 --> 00:07:38,807
Een natuurlijke en een neutrale stimulus.

117
00:07:38,832 --> 00:07:42,632
Voedsel is natuurlijk,
het belgeluid is neutraal.

118
00:07:42,847 --> 00:07:48,869
Na verloop van tijd is de associatie
tussen de twee heel sterk...

119
00:07:48,894 --> 00:07:51,650
en zo leiden ze tot dezelfde respons.

120
00:07:52,031 --> 00:07:56,359
Klassieke conditionering kan ook
vertaald worden naar de robotwereld.

121
00:07:56,384 --> 00:08:00,580
We hebben bijvoorbeeld een robot
en twee objecten, een auto en een bal.

122
00:08:00,604 --> 00:08:03,611
We willen dat de robot de bal volgt.

123
00:08:03,779 --> 00:08:06,139
Steeds als de robot een bal ziet...

124
00:08:06,164 --> 00:08:08,959
spelen we een bepaalde melodie af...

125
00:08:08,995 --> 00:08:13,367
die in een computerprogramma wordt
geïmplementeerd als een beloning.

126
00:08:13,504 --> 00:08:16,957
Zo weet de robot als hij de bal volgt...

127
00:08:16,982 --> 00:08:19,584
dat hij het goed doet.

128
00:08:21,308 --> 00:08:26,253
Na verloop van tijd zal de associatie
tussen bal en melodie zo sterk worden...

129
00:08:26,278 --> 00:08:29,656
dat de robot ballen zal gaan volgen...

130
00:08:29,681 --> 00:08:32,375
zonder dat hij een melodie hoort.

131
00:08:33,888 --> 00:08:39,912
In klassieke conditionering leren we
dus de associatie tussen twee stimuli.

132
00:08:40,456 --> 00:08:44,417
Bal en melodie, voedsel en belgeluid.

133
00:08:45,557 --> 00:08:49,417
In machine learning wordt dit het
voorspellingsalgoritme genoemd.

134
00:08:49,442 --> 00:08:53,004
Daarmee voorspellen we
de uitkomst van elke situatie.

135
00:08:53,756 --> 00:08:58,161
Maar dit is ook het grootste
probleem met deze leertechniek.

136
00:08:58,753 --> 00:09:01,393
Als we Pavlovs experiment herhalen...

137
00:09:01,418 --> 00:09:04,960
en een hond voedsel geven
maar geen belgeluid laten horen...

138
00:09:04,985 --> 00:09:06,972
en dit steeds herhalen...

139
00:09:07,058 --> 00:09:10,925
zal de hond vergeten te
kwijlen als hij een bel hoort.

140
00:09:11,658 --> 00:09:14,815
Het leerproces kan dus verminderen.

141
00:09:15,080 --> 00:09:18,823
We willen niet dat dit gebeurt bij robots.

142
00:09:18,848 --> 00:09:22,853
Ze zullen hun training immers vergeten.

143
00:09:23,963 --> 00:09:27,721
We hebben dus een
complexere leertechniek nodig.

144
00:09:27,867 --> 00:09:30,660
Namelijk reinforcement
leren: leren door versterking.

145
00:09:30,685 --> 00:09:36,145
In reinforcement leren zal een mens
of dier vaker een handeling vertonen...

146
00:09:36,170 --> 00:09:39,411
die in het verleden tot
een beloning heeft geleid...

147
00:09:39,435 --> 00:09:43,276
en minder vaak acties
die tot straf hebben geleid.

148
00:09:43,580 --> 00:09:47,002
Je laat bijvoorbeeld een kat in een kooi...

149
00:09:47,027 --> 00:09:49,021
met daarin vier knoppen.

150
00:09:49,066 --> 00:09:54,602
Eén van die knoppen zorgt dat de
kat een beloning krijgt, zoals voedsel.

151
00:09:54,626 --> 00:09:58,501
De andere drie knoppen
staan voor een straf.

152
00:09:58,526 --> 00:10:00,938
Bijvoorbeeld een elektrische schok.

153
00:10:01,290 --> 00:10:04,886
Na een tijdje zal de kat doorhebben...

154
00:10:04,911 --> 00:10:09,742
dat de vierde knop voedsel oplevert.

155
00:10:09,796 --> 00:10:13,210
De kat zal deze knop vaker gaan indrukken.

156
00:10:14,376 --> 00:10:17,813
Dit kan ook vertaald
worden naar de robotwereld.

157
00:10:18,313 --> 00:10:23,496
Daarvoor bouwen we een algoritme
gebaseerd op de wet van effect.

158
00:10:23,796 --> 00:10:29,991
Het algoritme moet verschillende
acties vergelijken op hun uitkomst...

159
00:10:30,016 --> 00:10:32,759
en het moet associaties bouwen.

160
00:10:32,784 --> 00:10:37,516
Het moet elke situatie verbinden
met een vooraf geleerde handeling.

161
00:10:39,069 --> 00:10:44,545
Zo kunnen we robots trainen
op onbekende omgevingen.

162
00:10:44,700 --> 00:10:47,781
Wil je bijvoorbeeld een
robot naar Mars sturen...

163
00:10:47,810 --> 00:10:52,529
dan wil je dat hij zich beweegt
zonder obstakels te raken.

164
00:10:52,973 --> 00:10:56,007
Hiervoor gebruiken we reinforcement leren.

165
00:10:56,565 --> 00:11:00,314
Het grootste probleem
met reinforcement leren...

166
00:11:00,339 --> 00:11:03,495
is dat er een wisselwerking
moet zijn met de omgeving.

167
00:11:03,881 --> 00:11:06,622
We moeten feedback krijgen van de omgeving.

168
00:11:07,520 --> 00:11:09,544
Dat is niet altijd mogelijk.

169
00:11:09,637 --> 00:11:15,661
Zo zijn er omgevingen die ons maar
heel weinig tot geen beloning geven.

170
00:11:16,250 --> 00:11:22,007
Als je een robot wil trainen om
automatisch een computerspel te spelen...

171
00:11:22,205 --> 00:11:24,666
dan is reinforcement
leren niet bruikbaar...

172
00:11:24,691 --> 00:11:28,619
als winst of verlies pas aan het
eind van het spel bepaald wordt.

173
00:11:30,040 --> 00:11:33,548
Voor zulke situaties hebben
we een nieuw soort leren nodig.

174
00:11:33,573 --> 00:11:36,252
Dat nieuwe leren noemen we imitatieleren.

175
00:11:36,980 --> 00:11:42,885
Bij imitatieleren is er
een imitator of leraar...

176
00:11:42,910 --> 00:11:46,637
die acties demonstreert aan de robot.

177
00:11:47,554 --> 00:11:52,867
Zo krijgt de robot meer data
en wordt het leerproces korter.

178
00:11:53,582 --> 00:11:58,762
Imitatieleren kan gebruikt worden
als we robots naar Mars sturen...

179
00:11:58,787 --> 00:12:01,532
om daar nederzettingen te bouwen.

180
00:12:02,747 --> 00:12:05,216
Door menselijk gedrag te imiteren...

181
00:12:05,241 --> 00:12:09,386
zullen de robots samenwerken
aan de bouw van constructies.

182
00:12:10,750 --> 00:12:16,750
We leren nu dat het niet genoeg is
om één robot individueel te trainen.

183
00:12:16,775 --> 00:12:19,328
We moeten ze in groepen trainen.

184
00:12:20,037 --> 00:12:22,646
Net zoals bij de menselijke maatschappij.

185
00:12:22,713 --> 00:12:28,540
Mensen vormen groepen en werken samen
om hun overlevingskansen te vergroten.

186
00:12:28,648 --> 00:12:32,554
Om fabrieken zonder mensen te bouwen...

187
00:12:32,579 --> 00:12:35,444
moeten we collaboratieve
robotica gebruiken.

188
00:12:35,470 --> 00:12:38,721
Denk aan twee robots
die samen een auto lassen.

189
00:12:38,746 --> 00:12:42,228
Of twee robots die
samen materiaal printen...

190
00:12:42,252 --> 00:12:44,680
tot een bepaalde precieze structuur.

191
00:12:44,706 --> 00:12:47,349
Er kunnen dan veel problemen ontstaan.

192
00:12:47,374 --> 00:12:53,138
Het kan gebeuren dat de ene robot
het object herkent en de andere niet.

193
00:12:53,163 --> 00:12:57,152
Of de ene verwerkt informatie
veel sneller dan de andere.

194
00:12:57,176 --> 00:13:00,967
Ze zijn zich niet bewust van
de eigen fysieke beperkingen...

195
00:13:00,992 --> 00:13:03,727
of die van andere robots.

196
00:13:03,752 --> 00:13:09,808
Ze moeten zich ook bewust zijn van
alle acties die andere robots uitvoeren.

197
00:13:10,625 --> 00:13:14,809
We moeten AI dus zo verbeteren
dat het kan samenwerken.

198
00:13:15,804 --> 00:13:20,328
Het maakt niet uit of we robots
individueel trainen of in een groep.

199
00:13:20,353 --> 00:13:24,333
We hebben hoe dan ook grote
datasets nodig om ze te trainen.

200
00:13:24,358 --> 00:13:27,525
Daarvoor hebben we
enorme computerkracht nodig.

201
00:13:27,810 --> 00:13:30,801
Hiervoor gebruiken we supercomputers.

202
00:13:30,827 --> 00:13:37,050
Maar zelfs een bijenbrein is krachtiger
dan de grootste supercomputer ter wereld.

203
00:13:37,251 --> 00:13:41,853
Supercomputers kunnen weliswaar
sneller informatie verwerken.

204
00:13:41,878 --> 00:13:47,417
In dit geval zo'n 200 duizend keer
sneller dan de hersenen van een bij.

205
00:13:48,446 --> 00:13:51,587
Maar zij hebben meer energie nodig.

206
00:13:51,843 --> 00:13:57,439
Om dezelfde informatie te verwerken
heeft een bij 10 microwatt energie nodig.

207
00:13:57,464 --> 00:14:01,439
Een supercomputer heeft
maar liefst 13 megawatt nodig.

208
00:14:02,407 --> 00:14:07,063
AI-algoritmes gebruiken
dus heel veel energie.

209
00:14:07,088 --> 00:14:08,995
We moeten nieuwe algoritmes bouwen...

210
00:14:09,020 --> 00:14:12,288
die alleen op kleine
datasets gebaseerd zijn...

211
00:14:12,312 --> 00:14:15,064
en daardoor minder energie gebruiken.

212
00:14:16,174 --> 00:14:19,174
Daarnaast, als we robots trainen...

213
00:14:19,198 --> 00:14:22,537
doen we dat op basis
van onze voorkennis.

214
00:14:22,562 --> 00:14:25,760
Dat betekent dat een robot een
nieuw muziekstuk kan maken...

215
00:14:25,785 --> 00:14:27,135
of een nieuwe tekening...

216
00:14:27,247 --> 00:14:30,857
maar dat is wel altijd
gebaseerd op onze voorkennis.

217
00:14:32,272 --> 00:14:35,420
Ze kunnen dus niets
creëren dat echt nieuw is.

218
00:14:35,935 --> 00:14:41,675
Sommige onderzoekers stellen
dat AI dus helemaal niet intelligent is.

219
00:14:41,701 --> 00:14:47,640
Ik geloof wel dat we robots
intelligenter zullen maken dan ze nu zijn.

220
00:14:47,665 --> 00:14:51,819
Hiervoor moeten we in plaats
van associatieve relaties...

221
00:14:51,845 --> 00:14:54,996
tussen stimuli of stimulus en actie...

222
00:14:55,021 --> 00:14:58,317
oorzaak-gevolgrelaties gaan bouwen.

223
00:14:58,612 --> 00:15:02,704
Robots kunnen nu heel precies bewegen...

224
00:15:02,862 --> 00:15:06,924
maar ze weten niet genoeg om
eventuele ongelukken te voorspellen.

225
00:15:07,808 --> 00:15:12,379
Hun kennisniveau is lager dan dat
van een baby van 16 maanden oud.

226
00:15:12,729 --> 00:15:18,987
We moeten dus AI bouwen die zulke
oorzaak-gevolgrelaties kan bouwen.

227
00:15:19,995 --> 00:15:23,939
We hebben vandaag gezien dat
machine- en robotintelligentie...

228
00:15:23,964 --> 00:15:26,346
afhankelijk zijn van grote datasets...

229
00:15:26,596 --> 00:15:30,417
complexe algoritmes en
enorme computerkracht.

230
00:15:30,787 --> 00:15:35,748
Maar is dit genoeg om
algemene of super AI te bereiken?

231
00:15:36,027 --> 00:15:37,862
De tijd zal het leren.

232
00:15:37,873 --> 00:15:40,311
Eén ding weten we zeker.

233
00:15:40,669 --> 00:15:44,677
Robotintelligentie zal verschillen
van menselijke intelligentie...

234
00:15:44,702 --> 00:15:49,210
net zoals dierlijke intelligentie
verschilt van menselijke.

235
00:15:49,674 --> 00:15:54,394
Robots zullen simpelweg uitblinken in
andere soorten vaardigheden dan mensen.

236
00:15:54,418 --> 00:15:56,594
Ik geloof dat ze op een dag...

237
00:15:56,618 --> 00:16:00,992
meer zullen maken dan mensen
tot nu toe hebben gemaakt.

238
00:16:01,503 --> 00:16:02,800
Dank je wel.

239
00:16:04,480 --> 00:16:08,253
Meer video's?
Abonneer je op ons kanaal.