1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
Kunstig intelligens er ærefrygtindgydende.

4
00:00:28,361 --> 00:00:31,489
Okay. God cirkelformation.

5
00:00:33,116 --> 00:00:36,703
Kunstig intelligens
kan eliminere fattigdom,

6
00:00:36,786 --> 00:00:41,583
finde ny medicin og gøre
vores verden endnu mere fredelig.

7
00:00:46,087 --> 00:00:46,921
Godt gået.

8
00:00:49,883 --> 00:00:53,428
Men der er så mange risici undervejs.

9
00:01:04,773 --> 00:01:09,611
Med AI skaber vi
en ikke-menneskelig intelligens,

10
00:01:09,694 --> 00:01:11,863
der er meget uforudsigelig.

11
00:01:14,407 --> 00:01:19,746
I takt med, at den bliver mere kraftfuld,
hvor sætter vi så grænsen med AI

12
00:01:19,829 --> 00:01:22,665
i forhold til,
hvordan vi bruger den eller ej?

13
00:01:25,001 --> 00:01:28,505
Der er intet bedre udgangspunkt
for denne samtale

14
00:01:28,588 --> 00:01:31,049
end AI's militære anvendelse.

15
00:01:34,010 --> 00:01:38,890
Slagmarken domineres nu
af software og hardware.

16
00:01:41,059 --> 00:01:42,936
Målet er fastlåst…

17
00:01:43,019 --> 00:01:48,399
Militæret har travlt med at udvikle AI
hurtigere end fjenden.

18
00:01:49,526 --> 00:01:50,360
Jeg er død.

19
00:01:53,780 --> 00:01:58,326
Vi bevæger os hurtigt mod en verden,
hvor ikke kun militæret,

20
00:01:58,409 --> 00:02:02,997
men ikke-statslige aktører,
private industrier

21
00:02:03,081 --> 00:02:06,042
eller vores lokale politi

22
00:02:06,543 --> 00:02:10,046
kan bruge disse våben,
der kan dræbe selvstændigt.

23
00:02:12,006 --> 00:02:17,303
Vil vi overlade beslutningen om at tage
et liv til algoritmer og computersoftware?

24
00:02:18,638 --> 00:02:21,516
Det er et af tidens
mest presserende emner.

25
00:02:23,935 --> 00:02:26,354
Hvis den ikke bruges klogt,

26
00:02:26,437 --> 00:02:30,275
vil den udgøre en alvorlig risiko
for alle på Jorden.

27
00:03:28,291 --> 00:03:30,168
Godt gået derude.

28
00:03:59,948 --> 00:04:02,200
Det er en meget bredere linse end før.

29
00:04:02,283 --> 00:04:03,117
Virkelig?

30
00:04:03,201 --> 00:04:06,287
-Man kan se meget mere data.
-Virkelig sejt.

31
00:04:07,538 --> 00:04:11,167
Hos Shield AI bygger vi en AI-pilot,

32
00:04:11,251 --> 00:04:14,879
der tager selvkørende,
kunstig intelligens,

33
00:04:14,963 --> 00:04:16,631
og anvender den i fly.

34
00:04:19,300 --> 00:04:21,719
Når vi taler om en AI-pilot,

35
00:04:21,803 --> 00:04:25,139
så planlægger vi
at give et fly mere autonomi.

36
00:04:25,223 --> 00:04:27,850
De vil løse problemer alene.

37
00:04:29,602 --> 00:04:32,355
Nova er en autonom quadcopter,

38
00:04:32,438 --> 00:04:35,942
der udforsker bygninger
og underjordiske strukturer,

39
00:04:36,859 --> 00:04:41,322
før styrkerne rykker ind,
ved at agere øjne og ører i de rum.

40
00:04:41,906 --> 00:04:45,618
Der er helt klart en masse forbedringer,
siden vi så den sidst.

41
00:04:45,702 --> 00:04:47,870
Vi inkorporerer nogle ændringer.

42
00:04:47,954 --> 00:04:50,248
Vi tager en etage ad gangen.

43
00:04:50,331 --> 00:04:53,584
Den færdiggør en etage,
før den går videre.

44
00:04:54,294 --> 00:04:56,796
-Det er fedt.
-Vi har ændret nogle ting…

45
00:04:56,879 --> 00:04:58,548
Mange spørger mig ofte,

46
00:04:58,631 --> 00:05:02,468
hvorfor kunstig intelligens
er en vigtig evne.

47
00:05:02,552 --> 00:05:06,973
Jeg tænker tilbage på de missioner,
jeg udførte.

48
00:05:09,142 --> 00:05:10,935
Jeg tilbragte syv år i flåden.

49
00:05:11,561 --> 00:05:15,273
Jeg var kommandosoldat
og gjorde tjeneste to gange i Afghanistan

50
00:05:15,356 --> 00:05:17,191
og en gang i Stillehavsområdet.

51
00:05:18,026 --> 00:05:22,947
På en dag skal vi måske rydde
150 forskellige strukturer.

52
00:05:30,997 --> 00:05:34,250
En af kernefunktionerne er nærkamp.

53
00:05:35,293 --> 00:05:39,172
Ildkamp på klos hold i bygninger.

54
00:05:41,466 --> 00:05:42,967
Man bliver beskudt.

55
00:05:43,468 --> 00:05:46,471
Der er muligvis
improviserede eksplosive anordninger.

56
00:05:49,015 --> 00:05:55,229
Det er den farligste ting,
medlemmer af specialstyrkerne

57
00:05:55,313 --> 00:05:58,358
eller infanterister
kan gøre i en kampzone.

58
00:05:58,441 --> 00:05:59,275
Uden tvivl.

59
00:06:12,497 --> 00:06:16,334
Jeg vil altid være taknemmelig
for min tid i flåden.

60
00:06:17,168 --> 00:06:22,423
Der er en række øjeblikke og minder,
hvor jeg, når jeg tænker tilbage på dem,

61
00:06:22,507 --> 00:06:24,592
bliver følelsesladet.

62
00:06:28,346 --> 00:06:32,725
Det er en kliché. Frihed er ikke gratis,
men jeg tror 100 % på det,

63
00:06:33,559 --> 00:06:37,105
jeg har oplevet det,
og det kræver store ofre.

64
00:06:38,022 --> 00:06:38,856
Undskyld.

65
00:06:41,067 --> 00:06:44,570
Når der sker noget
slemt med en i din gruppe,

66
00:06:44,654 --> 00:06:46,614
hvis de bliver såret eller dræbt,

67
00:06:47,490 --> 00:06:49,700
så er det en meget tragisk ting.

68
00:06:49,784 --> 00:06:52,912
I det arbejde, vi laver nu,

69
00:06:52,995 --> 00:06:58,835
er det motiverende at kunne begrænse,

70
00:06:58,918 --> 00:07:00,336
hvor tit det sker.

71
00:07:07,176 --> 00:07:08,886
Omkring 2010

72
00:07:08,970 --> 00:07:11,556
skete der en opvågnen
i forsvarsministeriet

73
00:07:11,639 --> 00:07:15,351
i forhold til det, man kan kalde
den utilsigtede robot-revolution.

74
00:07:15,893 --> 00:07:19,564
Vi indsatte tusindvis af luft-
og landrobotter i Irak og Afghanistan.

75
00:07:21,482 --> 00:07:24,068
Da jeg blev bedt af Obama-regeringen

76
00:07:24,152 --> 00:07:26,404
om at blive viceforsvarsminister,

77
00:07:26,904 --> 00:07:31,117
var måden, krige blev udkæmpet på,
under forandring.

78
00:07:32,452 --> 00:07:36,330
Robotter blev brugt,
hvor folk ville være blevet brugt.

79
00:07:37,999 --> 00:07:40,376
Tidlige robotter var fjernstyrede.

80
00:07:40,460 --> 00:07:45,173
Et menneske styrede den,
som var det en fjernstyret bil.

81
00:07:46,632 --> 00:07:51,512
De gik først efter
improviserede eksplosive anordninger

82
00:07:52,013 --> 00:07:54,849
og eksploderede bomben,
gjorde robotten det også.

83
00:07:57,393 --> 00:08:00,396
"Ærgerligt. Send en ny robot af sted."

84
00:08:02,273 --> 00:08:04,484
I Afghanistan var der Predator-dronen,

85
00:08:05,276 --> 00:08:09,739
som var et meget nyttigt redskab til
at udføre luftangreb.

86
00:08:13,117 --> 00:08:16,829
Med tiden begyndte
militærplanlæggere at tænke:

87
00:08:16,913 --> 00:08:20,791
"Hvad kan robotter ellers bruges til?"
Hvilken vej går udviklingen?

88
00:08:20,875 --> 00:08:24,170
En fællestendens var større autonomi.

89
00:08:26,506 --> 00:08:30,635
Et autonomt våben er et,
der træffer beslutninger alene

90
00:08:30,718 --> 00:08:33,304
med lille eller ingen
menneskelig indblanding.

91
00:08:33,387 --> 00:08:37,558
Det har en selvstændig kapacitet,
og det er selvstyret.

92
00:08:38,434 --> 00:08:41,604
Om det kan dræbe afhænger af,
om det er armeret eller ej.

93
00:08:43,314 --> 00:08:47,026
Når man har mere og mere autonomi
i hele systemet,

94
00:08:47,109 --> 00:08:49,779
så bevæger alt sig med højere hastighed.

95
00:08:51,989 --> 00:08:56,869
Opererer man i et hurtigere tempo
end sine fjender,

96
00:08:57,453 --> 00:09:01,165
er det en ekstraordinær
stor fordel i kamp.

97
00:09:03,960 --> 00:09:06,254
Det, vi fokuserer på med autonomi,

98
00:09:07,255 --> 00:09:09,966
er modstandsdygtige
intelligente systemer.

99
00:09:12,051 --> 00:09:15,304
Systemer, der aflæser
og reagerer ud fra deres omgivelser,

100
00:09:15,805 --> 00:09:19,642
som træffer beslutninger om,
hvordan man manøvrerer i den verden.

101
00:09:24,981 --> 00:09:29,151
Anlægget, hvor vi er i dag,
blev oprindeligt bygget som et filmstudie,

102
00:09:29,235 --> 00:09:30,611
der blev ombygget for

103
00:09:30,695 --> 00:09:34,156
at muliggøre disse
realistiske militære træningsmiljøer.

104
00:09:39,495 --> 00:09:43,291
Vi skal evaluere vores AI-pilot.

105
00:09:44,625 --> 00:09:49,297
Missionen leder efter trusler.
Området skal erklæres sikkert.

106
00:09:49,380 --> 00:09:52,800
Den kan beslutte,
hvordan man bedst håndterer problemet.

107
00:09:55,428 --> 00:09:59,390
Vi kalder det "den fatale tragt".
Man skal ind gennem en døråbning.

108
00:10:01,726 --> 00:10:03,728
Det er her, vi er mest sårbare.

109
00:10:03,811 --> 00:10:05,146
Den her ser bedre ud.

110
00:10:07,106 --> 00:10:10,151
Nova fortæller os,
om der er en skytte bag døren,

111
00:10:10,818 --> 00:10:12,653
er der en familie bag døren?

112
00:10:15,114 --> 00:10:18,451
Vi kan træffe bedre beslutninger
og holde folk i sikkerhed.

113
00:10:57,114 --> 00:10:59,367
Vi bruger syns-sensorer

114
00:10:59,450 --> 00:11:03,162
til at forstå, hvordan miljøet ser ud.

115
00:11:04,997 --> 00:11:08,334
Det er en fleretagersbygning.
Her er kortet.

116
00:11:08,417 --> 00:11:11,671
Her er, hvad jeg så og hvor,
da jeg kiggede mig omkring

117
00:11:19,929 --> 00:11:22,098
Persondetektor. Fedt.

118
00:11:23,891 --> 00:11:27,061
En af Novas andre sensorer
er en termisk scanner.

119
00:11:27,561 --> 00:11:30,690
Hvis den viser 37 grader,
er det sikkert et menneske.

120
00:11:32,358 --> 00:11:35,444
Folk betragtes som trusler,
indtil andet er bevist.

121
00:11:38,906 --> 00:11:43,244
Det handler om at fjerne krigens tåge
og træffe bedre beslutninger.

122
00:11:44,704 --> 00:11:46,539
Når vi ser ud i fremtiden,

123
00:11:47,039 --> 00:11:50,793
vil vi bygge grupper af autonome fly.

124
00:11:53,754 --> 00:11:55,631
Med selvkørende køretøjer

125
00:11:55,715 --> 00:11:57,466
har personen sagt til det:

126
00:11:57,550 --> 00:12:00,386
"Du skal køre fra punkt A til B."

127
00:12:02,972 --> 00:12:06,475
Vores systemer bliver ikke bedt om
at bevæge sig mellem punkter,

128
00:12:06,559 --> 00:12:08,477
men om at opnå et mål.

129
00:12:10,312 --> 00:12:13,190
Der er tættere på:
"Jeg skal bruge noget mælk."

130
00:12:13,274 --> 00:12:17,486
Robotten skal finde ud af,
hvilken butik den skal tage til

131
00:12:17,570 --> 00:12:20,239
for at hente mælken og bringe den tilbage.

132
00:12:20,740 --> 00:12:22,074
Mere specifikt

133
00:12:22,158 --> 00:12:27,037
kan man udtrykke det som:
"Sørg for, der er fyldt op i køleskabet."

134
00:12:27,538 --> 00:12:29,457
Det er et niveau af intelligens,

135
00:12:29,540 --> 00:12:32,168
der handler om, hvordan vi gør det.

136
00:12:32,251 --> 00:12:34,253
Er der en udfordring, et problem,

137
00:12:34,336 --> 00:12:37,381
så skal vi finde ud, hvordan vi løser det.

138
00:12:40,801 --> 00:12:45,431
Da jeg besluttede at forlade flåden,
tænkte jeg:

139
00:12:45,514 --> 00:12:47,558
"Hvad skal jeg finde på nu?"

140
00:12:49,143 --> 00:12:52,021
Jeg voksede op med nettet.
Så, hvad det blev til.

141
00:12:53,189 --> 00:12:55,608
Den konklusion, jeg nåede frem til, var…

142
00:12:56,108 --> 00:13:02,907
AI i 2015 var,
hvor internettet var i 1991.

143
00:13:04,033 --> 00:13:06,285
Og kunstig intelligens var klar til

144
00:13:06,368 --> 00:13:09,747
at blive en af de mest
kraftfulde teknologier i verden.

145
00:13:11,791 --> 00:13:16,212
Jeg arbejder med det hver dag
og kan følge de fremskridt, der gøres.

146
00:13:19,048 --> 00:13:22,051
For mange mennesker,
når de tænker "AI",

147
00:13:22,551 --> 00:13:25,221
tænker de straks på Hollywood.

148
00:13:28,057 --> 00:13:29,975
Skal vi spille et spil?

149
00:13:30,059 --> 00:13:35,314
Hvad med Global Thermonuclear War?

150
00:13:35,898 --> 00:13:36,816
Okay.

151
00:13:38,275 --> 00:13:40,861
Når folk tænker på kunstig intelligens,

152
00:13:40,945 --> 00:13:44,824
tænker de måske på
Terminator eller I, Robot.

153
00:13:45,574 --> 00:13:46,700
Deaktiver.

154
00:13:46,784 --> 00:13:48,160
Hvad er jeg?

155
00:13:48,244 --> 00:13:49,620
Eller The Matrix.

156
00:13:51,080 --> 00:13:53,749
Baseret på det, man ser i sci-fi-film,

157
00:13:53,833 --> 00:13:57,878
hvordan ved du, jeg er et menneske?
Måske er jeg computergenereret.

158
00:13:58,379 --> 00:14:02,174
Replikanter er som alle andre maskiner.
De er en hjælp eller en fare.

159
00:14:02,675 --> 00:14:06,095
Men der er alle mulige
primitive AI'er,

160
00:14:06,178 --> 00:14:08,097
som stadig vil ændre vores liv,

161
00:14:08,180 --> 00:14:11,851
før vi når tænkende
og talende robot-stadiet.

162
00:14:12,643 --> 00:14:15,771
Robotterne er her.
Robotterne træffer beslutninger.

163
00:14:15,855 --> 00:14:18,816
Robotrevolutionen er her,

164
00:14:18,899 --> 00:14:22,319
den ligner bare ikke det,
nogen troede.

165
00:14:23,320 --> 00:14:26,740
Terminator er en infiltrationsenhed.
Halvt mand, halvt maskine.

166
00:14:27,950 --> 00:14:31,370
Vi taler ikke om
en Terminator-dræberrobot.

167
00:14:31,871 --> 00:14:35,958
Vi taler om kunstig intelligens,
der kan udføre visse menneskelige opgaver.

168
00:14:36,041 --> 00:14:39,879
Bekymringen er,
om disse systemer er pålidelige.

169
00:14:40,462 --> 00:14:45,426
Nye detaljer i gårsdagens dødsulykke
med en selvkørende Uber-SUV.

170
00:14:45,509 --> 00:14:48,762
Firmaet skabte en AI-chatbot.

171
00:14:48,846 --> 00:14:51,181
Hun havde en ret racistisk tone…

172
00:14:51,265 --> 00:14:55,394
26 lokalpolitikere blev fejlagtigt
identificeret som kriminelle.

173
00:14:57,438 --> 00:15:02,026
Spørgsmålet er, om de kan håndtere
den moderne verdens kompleksitet.

174
00:15:22,212 --> 00:15:24,006
Den fysiske verden er rodet.

175
00:15:25,174 --> 00:15:27,426
Der er mange ting, vi ikke ved,

176
00:15:27,968 --> 00:15:30,763
hvilket gør det sværere
at træne AI-systemer.

177
00:15:33,098 --> 00:15:36,977
Det er her,
maskinlæringssystemer spiller en rolle.

178
00:15:38,520 --> 00:15:41,440
Maskinlæring har været
et stort fremskridt,

179
00:15:42,024 --> 00:15:45,611
fordi det betyder,
at vi ikke behøver at lære computere alt.

180
00:15:47,905 --> 00:15:52,409
Man giver en computer
millioner af informationer,

181
00:15:52,493 --> 00:15:54,453
som maskinen begynder at lære af.

182
00:15:55,245 --> 00:15:57,289
Og det gælder hvad som helst.

183
00:16:00,250 --> 00:16:02,962
I vores Robothund-projekt
prøver vi at vise,

184
00:16:03,045 --> 00:16:09,009
at vores hund kan gå
i mange forskellige slags terræn.

185
00:16:10,052 --> 00:16:14,098
Mennesket har udviklet
sin evne til at gå i milliarder af år,

186
00:16:14,932 --> 00:16:20,688
men det kræver stor intelligens
at tilpasse sig forskellige terræn.

187
00:16:21,939 --> 00:16:24,316
Spørgsmålet er,
om vores robotsystemer

188
00:16:24,400 --> 00:16:27,069
også kan tilpasse sig
som dyr og mennesker?

189
00:16:35,953 --> 00:16:37,413
Med maskinlæring

190
00:16:37,496 --> 00:16:40,582
indsamler vi masser af data i simulation.

191
00:16:42,668 --> 00:16:45,838
En simulation er
en digital tvilling af virkeligheden.

192
00:16:46,588 --> 00:16:52,052
Vi kan have mange varianter af den
virkelighed på forskellige computere.

193
00:16:53,178 --> 00:16:56,974
Den simulerer tusindvis af handlinger.

194
00:16:58,892 --> 00:17:02,229
De underlag, de møder,
har grader af glathed.

195
00:17:02,312 --> 00:17:03,856
Der er grader af blødhed.

196
00:17:04,898 --> 00:17:08,318
Vi tager alle disse tusindvis
af robotters erfaring

197
00:17:08,402 --> 00:17:13,282
fra simuleringer og downloader den til
et ægte robotsystem.

198
00:17:15,492 --> 00:17:20,039
Den test, vi skal lave i dag, er at se,
om den kan tilpasse sig nye terræn.

199
00:17:53,322 --> 00:17:55,491
Da robotten kørte over skum,

200
00:17:55,574 --> 00:17:58,577
trampede fødderne på jorden.

201
00:17:59,369 --> 00:18:02,206
I modsætning til polyoverfladen,

202
00:18:03,248 --> 00:18:06,460
hvor den prøvede at justere bevægelsen,
så den ikke glider.

203
00:18:08,670 --> 00:18:10,672
Det er der, det går op for dig:

204
00:18:10,756 --> 00:18:14,051
"Det er det her,
maskinlæring har at byde på."

205
00:18:41,161 --> 00:18:44,123
Vi mener, at robothunden kan hjælpe

206
00:18:44,206 --> 00:18:46,166
i katastrofesituationer,

207
00:18:46,250 --> 00:18:49,670
hvor man skal navigere
mange forskellige slags terræn.

208
00:18:52,631 --> 00:18:57,427
Eller lade hundene udføre overvågning
i ufremkommelige miljøer.

209
00:19:15,696 --> 00:19:19,575
Men de fleste teknologier
har det problem,

210
00:19:19,658 --> 00:19:22,369
at de kan bruges til
både gode og dårlige ting.

211
00:19:24,079 --> 00:19:27,875
For eksempel kan vi bruge
atomteknologi til energi…

212
00:19:30,419 --> 00:19:33,797
…men vi kan også udvikle atombomber,
som er en dårlig ting.

213
00:19:35,090 --> 00:19:38,468
Det er det,
der kaldes dobbeltanvendelsesproblemet.

214
00:19:39,052 --> 00:19:40,929
Ild er dobbeltanvendelse.

215
00:19:41,722 --> 00:19:44,308
Menneskelig intelligens
har dobbeltanvendelse.

216
00:19:44,391 --> 00:19:48,645
Det er kunstig intelligens
naturligvis også.

217
00:19:49,354 --> 00:19:53,984
Det er vigtigt at tænke
på kunstig intelligens i sammenhæng,

218
00:19:54,693 --> 00:19:59,114
fordi, ja, det er fantastisk
at have en redningsrobot,

219
00:19:59,198 --> 00:20:02,284
som kan finde nogen efter en lavine,

220
00:20:02,868 --> 00:20:05,871
men den samme robot kan
også bruges som et våben.

221
00:20:15,088 --> 00:20:21,094
Når man ser robotter,
som firmaer har udstyret med våben,

222
00:20:21,178 --> 00:20:22,930
så bliver en del af dig gal.

223
00:20:23,931 --> 00:20:28,435
Og en del af det er erkendelsen af,
at når vi bruger vores teknologi,

224
00:20:28,518 --> 00:20:30,103
er det det, der vil ske.

225
00:20:31,021 --> 00:20:34,441
Det er en ægte transformerende teknologi.

226
00:20:36,235 --> 00:20:38,028
Det er våbensystemer,

227
00:20:38,111 --> 00:20:43,617
der kan ændre vores sikkerhed
på en dramatisk måde.

228
00:20:46,161 --> 00:20:51,500
I øjeblikket er vi ikke sikre på,
at maskiner kan

229
00:20:51,583 --> 00:20:54,962
sondre mellem civile og soldater.

230
00:21:01,885 --> 00:21:05,597
Tidligt i krigen i Afghanistan
var jeg med i et snigskytteteam,

231
00:21:05,681 --> 00:21:08,016
der ledte efter fjendtlige krigere.

232
00:21:09,685 --> 00:21:12,521
De sendte en lille pige
for tjekke vores position.

233
00:21:13,939 --> 00:21:17,067
En ting, der aldrig faldt os ind,
var at skyde pigen.

234
00:21:19,695 --> 00:21:22,864
Ifølge krigens love ville
det have været lovligt.

235
00:21:24,950 --> 00:21:27,369
Der er ingen aldersgrænse
for fjendesoldater.

236
00:21:29,079 --> 00:21:33,417
Hvis du byggede en robot,
der overholdt krigens love,

237
00:21:33,500 --> 00:21:35,252
havde den skudt den lille pige.

238
00:21:36,420 --> 00:21:41,091
Hvordan skal en robot kende forskel på,
hvad der er lovligt og rigtigt?

239
00:21:43,385 --> 00:21:46,054
Når det drejer sig om
autonom dronekrigsførelse,

240
00:21:46,138 --> 00:21:49,933
vil de fjerne den skade,
den påfører amerikanske soldater

241
00:21:50,017 --> 00:21:51,601
og den amerikanske psyke,

242
00:21:52,602 --> 00:21:57,149
men i stedet rammes civile afghanere,

243
00:21:57,232 --> 00:21:58,775
irakere og somaliere.

244
00:22:09,619 --> 00:22:14,416
Jeg ville spørge dem, der støtter
brugen af AI i droner:

245
00:22:15,375 --> 00:22:18,211
"Hvad, hvis din landsby
var målet for den?"

246
00:22:23,550 --> 00:22:25,594
AI er et tveægget sværd.

247
00:22:26,595 --> 00:22:30,724
Den kan bruges til gode formål,
som er det, vi normalt bruger den til,

248
00:22:31,558 --> 00:22:33,477
men ved at trykke på en knap

249
00:22:34,561 --> 00:22:38,023
kan teknologien forvandles til noget,
der er dødbringende.

250
00:22:47,032 --> 00:22:48,533
Jeg er klinisk farmakolog.

251
00:22:49,618 --> 00:22:50,994
Jeg har et team,

252
00:22:51,078 --> 00:22:54,247
der bruger kunstig intelligens til
at finde medicin,

253
00:22:54,331 --> 00:22:57,751
der kan kurere sygdomme,
der ikke får opmærksomhed.

254
00:22:59,711 --> 00:23:04,132
Man plejede at finde ny medicin
ved at tage et eksisterende molekyle

255
00:23:04,216 --> 00:23:06,885
og ændre det for
at skabe en ny slags medicin.

256
00:23:08,261 --> 00:23:13,350
Nu har vi udviklet kunstig intelligens,
der kan give os millioner af idéer,

257
00:23:13,892 --> 00:23:15,227
millioner af molekyler,

258
00:23:16,186 --> 00:23:19,231
og det åbner så mange muligheder

259
00:23:19,314 --> 00:23:23,151
for at behandle sygdomme,
vi aldrig har kunnet behandle før.

260
00:23:25,153 --> 00:23:28,448
Men der er en bagside,
som jeg aldrig havde troet,

261
00:23:28,532 --> 00:23:29,741
jeg skulle opleve.

262
00:23:33,161 --> 00:23:35,872
Det hele startede, da jeg blev inviteret

263
00:23:35,956 --> 00:23:40,043
af en schweizisk organisation
ved navn Spiez-laboratoriet til

264
00:23:40,544 --> 00:23:44,423
at holde et oplæg
om misbrug af kunstig intelligens.

265
00:23:48,343 --> 00:23:51,221
Sean sendte mig en e-mail
med nogle idéer til,

266
00:23:51,304 --> 00:23:55,308
hvordan vi kan misbruge
vores egen kunstige intelligens.

267
00:23:56,059 --> 00:24:00,355
I stedet for at bede vores model om
at skabe medicinlignende molekyler

268
00:24:00,439 --> 00:24:02,274
til at behandle sygdomme,

269
00:24:02,774 --> 00:24:06,403
så lad os se, om vi kan generere
så giftige molekyler som muligt.

270
00:24:10,198 --> 00:24:11,491
Jeg ville undersøge,

271
00:24:11,575 --> 00:24:15,203
om vi kan bruge AI-teknologi til
at designe dødelige molekyler.

272
00:24:17,414 --> 00:24:20,083
For at være ærlig troede vi,
vi ville fejle,

273
00:24:20,167 --> 00:24:24,504
for det eneste, vi gjorde,
var at ændre et nul til et.

274
00:24:26,715 --> 00:24:30,385
Ved at vende det om,
i stedet for at fjerne os fra giftighed,

275
00:24:30,469 --> 00:24:32,220
bevægede vi os mod den.

276
00:24:32,721 --> 00:24:33,555
Det var alt.

277
00:24:37,517 --> 00:24:40,729
Mens jeg var hjemme,
lavede computeren arbejdet.

278
00:24:41,521 --> 00:24:44,816
Den genererede tusindvis af molekyler,

279
00:24:45,650 --> 00:24:49,529
og vi behøvede ikke
gøre andet end at trykke på "start".

280
00:24:54,493 --> 00:24:58,330
Næste morgen var der
en fil på min computer,

281
00:24:59,080 --> 00:25:03,376
og i den var der omkring 40.000 molekyler,

282
00:25:03,460 --> 00:25:05,253
der potentielt var

283
00:25:05,337 --> 00:25:08,882
nogle af de mest giftige molekyler,
vi kender.

284
00:25:10,217 --> 00:25:12,761
Hårene i nakken rejste sig.

285
00:25:13,386 --> 00:25:14,554
Jeg var målløs.

286
00:25:15,388 --> 00:25:19,017
Computeren havde
titusindvis af idéer

287
00:25:19,100 --> 00:25:20,685
til nye kemiske våben.

288
00:25:21,645 --> 00:25:26,274
Vi har molekyler,
der ligner og er VX-analoger og VX

289
00:25:26,775 --> 00:25:27,609
i datasættet.

290
00:25:28,360 --> 00:25:31,363
VX er et af de mest
potente kemiske våben i verden.

291
00:25:31,863 --> 00:25:33,573
Politiet siger nu,

292
00:25:33,657 --> 00:25:37,786
at kvinderne,
der snigmyrdede Kim Jong-nam i lufthavnen,

293
00:25:37,869 --> 00:25:41,248
brugte en dødbringende nervegift
kaldet VX.

294
00:25:41,748 --> 00:25:44,417
Den kan forårsage død ved kvælning.

295
00:25:45,043 --> 00:25:47,629
Det er en meget potent molekyle,

296
00:25:47,712 --> 00:25:52,092
og de fleste af disse molekyler antoges
at være mere dødelige end VX.

297
00:25:53,301 --> 00:25:56,972
Mange af dem var aldrig blevet set før.

298
00:25:57,472 --> 00:26:02,310
Da Sean og jeg indså det,
sagde vi: "Hvad har vi gjort?"

299
00:26:04,771 --> 00:26:09,192
Jeg indså hurtigt,
at vi havde åbnet Pandoras æske,

300
00:26:09,901 --> 00:26:13,280
og jeg sagde "Stop.
Gør ikke andet. Vi er færdige."

301
00:26:13,905 --> 00:26:17,158
"Lav de slides,
jeg skal bruge til præsentationen."

302
00:26:19,202 --> 00:26:20,704
Da vi lavede eksperimentet,

303
00:26:20,787 --> 00:26:23,873
tænkte jeg
"Hvad er det værste, der kan ske?"

304
00:26:26,251 --> 00:26:30,255
Nu tænker jeg: "Vi var totalt naive."

305
00:26:33,466 --> 00:26:36,928
Det, der skræmmer mig, er,
at alle kan gøre, hvad vi gjorde.

306
00:26:38,930 --> 00:26:40,765
Man trykker bare på en knap.

307
00:26:42,934 --> 00:26:46,187
Hvordan styrer vi denne teknologi,
før den bliver brugt

308
00:26:46,271 --> 00:26:50,942
til noget, der er destruktivt?

309
00:26:55,780 --> 00:27:00,285
Kernen i samtalen om
kunstig intelligens,

310
00:27:00,368 --> 00:27:03,538
og hvordan vi vælger
at bruge den i samfundet,

311
00:27:04,289 --> 00:27:08,835
er et kapløb mellem den kraft,
som vi udvikler teknologier med,

312
00:27:08,918 --> 00:27:11,379
og den visdom, vi har til at styre den.

313
00:27:13,340 --> 00:27:16,926
Der er de åbenlyse moralske
og etiske konsekvenser

314
00:27:17,010 --> 00:27:20,138
af at lade den ting,
der kører vores mobiler,

315
00:27:20,221 --> 00:27:23,433
træffe moralske beslutninger
om at tage et liv.

316
00:27:25,727 --> 00:27:31,191
Jeg arbejder med Future Of Life Institute,
en forening af aktivistiske forskere.

317
00:27:31,733 --> 00:27:33,443
Vi prøver at vise,

318
00:27:33,526 --> 00:27:38,698
at der er andre konsekvenser af
at fremskynde denne automatisering.

319
00:27:38,782 --> 00:27:42,619
Vi prøver at sikre os,
at de teknologier, vi skaber,

320
00:27:42,702 --> 00:27:45,038
bruges på en sikker og etisk måde.

321
00:27:46,247 --> 00:27:49,959
Lad os snakke om spillereglerne

322
00:27:50,043 --> 00:27:54,005
og adfærdskodekser i forhold
til brugen af AI i våbensystemer.

323
00:27:54,798 --> 00:27:59,135
Vi ser allerede slagmarks-teknologier,

324
00:27:59,219 --> 00:28:01,680
der selvstændigt kan bruges til at dræbe.

325
00:28:10,230 --> 00:28:15,110
I 2021 udgav FN en rapport
om den potentielle brug

326
00:28:15,193 --> 00:28:19,364
af et dødbringende autonomt våben
på slagmarken i Libyen.

327
00:28:20,073 --> 00:28:23,910
Et FN-panel udtalte,
at en drone under den libyske borgerkrig

328
00:28:23,993 --> 00:28:27,330
var programmeret til
at angribe mål selvstændigt.

329
00:28:28,289 --> 00:28:31,209
Hvis rapporten er korrekt,

330
00:28:31,292 --> 00:28:34,963
er det et skelsættende
øjeblik for menneskeheden.

331
00:28:35,046 --> 00:28:37,090
Fordi det markerer en udvikling,

332
00:28:37,173 --> 00:28:42,137
hvor en AI traf beslutningen
om at tage et liv, ikke et menneske.

333
00:28:49,686 --> 00:28:51,688
Vi ser, at avancerede autonome våben

334
00:28:51,771 --> 00:28:55,150
begynder at blive brugt
forskellige steder i verden.

335
00:28:56,276 --> 00:28:58,278
Der var rapporter fra Israel.

336
00:29:00,280 --> 00:29:05,702
Aserbajdsjan brugte autonome
systemer mod det armenske luftforsvar.

337
00:29:07,370 --> 00:29:09,998
Den kan flyve rundt
på slagmarken i timevis,

338
00:29:10,081 --> 00:29:12,500
lede efter ting, den kan ramme

339
00:29:12,584 --> 00:29:16,087
og så pløje ind i dem
uden menneskelig indblanding.

340
00:29:16,796 --> 00:29:18,298
Vi har for nylig set

341
00:29:18,381 --> 00:29:21,760
forskellige videoer,
der bliver postet i Ukraine.

342
00:29:23,303 --> 00:29:26,890
Det er uklart,
hvilken tilstand de var i under missionen.

343
00:29:26,973 --> 00:29:30,393
Var der et menneske, der valgte,
hvilke mål, der skulle angribes,

344
00:29:30,477 --> 00:29:32,729
eller gjorde maskinen det selv?

345
00:29:32,812 --> 00:29:36,524
Men der kommer
helt sikkert et tidspunkt,

346
00:29:36,608 --> 00:29:40,195
og måske er det sket i Libyen,
Ukraine eller andre steder,

347
00:29:40,278 --> 00:29:44,449
hvor en maskine træffer beslutning om,
hvem man skal dræbe på slagmarken.

348
00:29:47,035 --> 00:29:50,997
Maskiner, der udøver
dødbringende kraft mod mennesker

349
00:29:51,080 --> 00:29:53,374
uden menneskelig indgriben,

350
00:29:53,458 --> 00:29:57,337
er politisk uacceptabelt
og moralsk frastødende.

351
00:29:59,214 --> 00:30:01,299
Om det internationale samfund

352
00:30:01,382 --> 00:30:05,011
er i stand til
at lovgive om disse udfordringer,

353
00:30:05,094 --> 00:30:06,888
er det store spørgsmål.

354
00:30:08,932 --> 00:30:12,685
Hvis vi ser ud i fremtiden,
blot et par år,

355
00:30:12,769 --> 00:30:15,730
ser landskabet meget skræmmende ud,

356
00:30:16,564 --> 00:30:20,485
for den mængde kapital
og de menneskelige ressourcer,

357
00:30:20,568 --> 00:30:23,404
der bruges på at gøre AI mere kraftfuld

358
00:30:23,488 --> 00:30:26,950
og kunne bruge den til alle disse
forskellige ting, er enorm.

359
00:30:39,254 --> 00:30:41,214
Åh gud.

360
00:30:41,756 --> 00:30:43,424
Han ved, han ikke kan vinde.

361
00:30:46,761 --> 00:30:51,099
Når jeg ser AI vinde, er det inspirerende.

362
00:30:51,683 --> 00:30:53,977
Et sidste desperat forsøg.

363
00:30:54,477 --> 00:30:59,524
Og man kan bruge samme taktik,
teknikker og procedurer på rigtige fly.

364
00:31:01,401 --> 00:31:02,318
Godt spil.

365
00:31:02,402 --> 00:31:03,653
Godt spil.

366
00:31:08,658 --> 00:31:09,909
Det er overraskende,

367
00:31:09,993 --> 00:31:14,122
at folk fortsætter med at udtale sig om,
hvad kunstig intelligens ikke kan.

368
00:31:14,205 --> 00:31:17,166
"Den vil aldrig kunne slå
en verdensmester i skak."

369
00:31:20,211 --> 00:31:22,672
En computer har gjort comeback

370
00:31:22,755 --> 00:31:25,925
i den anden kamp mod
verdensmesteren i skak, Garry Kasparov.

371
00:31:28,136 --> 00:31:30,847
Kasparov giver op.

372
00:31:31,598 --> 00:31:34,642
Når jeg ser noget,
der er langt over min forståelse,

373
00:31:34,726 --> 00:31:38,062
gør det mig bange. Og det var det her.

374
00:31:39,355 --> 00:31:41,107
Og så sagde folk:

375
00:31:41,190 --> 00:31:44,402
"Den vil aldrig slå
en verdensmester i spillet Go."

376
00:31:44,485 --> 00:31:50,700
Jeg tror, at menneskelig intuition
er for avanceret til, at AI

377
00:31:50,783 --> 00:31:52,827
er på samme niveau.

378
00:31:55,330 --> 00:31:58,416
Go er et af de mest komplicerede spil,
nogen kan lære,

379
00:31:58,499 --> 00:32:02,211
for antallet af træk,
når man regner på dem,

380
00:32:02,295 --> 00:32:05,256
overgår antallet af atomer i universet.

381
00:32:06,799 --> 00:32:08,968
Der var et team hos Google DeepMind,

382
00:32:09,052 --> 00:32:11,471
der lavede et program kaldet AlphaGo

383
00:32:11,554 --> 00:32:14,265
for at kunne slå verdens bedste spillere.

384
00:32:16,559 --> 00:32:18,394
Tillykke til…

385
00:32:18,478 --> 00:32:19,437
AlphaGo

386
00:32:19,520 --> 00:32:22,774
Et computerprogram
har lige slået en 9 dan professionel.

387
00:32:25,610 --> 00:32:31,532
Og så valgte DeepMind
StarCraft som deres næste AI-udfordring.

388
00:32:33,743 --> 00:32:38,081
StarCraft er måske det mest populære
strategispil nogensinde.

389
00:32:40,333 --> 00:32:44,712
AlphaStar blev berømt,
da den begyndte at besejre verdensmestre.

390
00:32:45,338 --> 00:32:48,800
AlphaStar knuser Immortal Arc.

391
00:32:48,883 --> 00:32:49,717
Ved du hvad?

392
00:32:49,801 --> 00:32:52,553
Det er ikke en kamp,
de professionelle kan vinde.

393
00:32:53,680 --> 00:32:54,806
Det er ret utroligt.

394
00:32:57,642 --> 00:33:00,895
Gamere sagde:
"Jeg ville aldrig bruge den taktik.

395
00:33:00,979 --> 00:33:04,816
Jeg ville aldrig bruge den strategi.
Det er ikke menneskeligt. "

396
00:33:07,151 --> 00:33:10,655
Det var måske "a-ha"-øjeblikket for mig.

397
00:33:13,574 --> 00:33:16,661
Jeg indså, at tiden er nu.

398
00:33:17,412 --> 00:33:21,082
Der er en vigtig teknologi
og en mulighed for at gøre en forskel.

399
00:33:24,502 --> 00:33:29,382
Jeg kendte kun de problemer,
jeg havde haft i hæren i nærkamp,

400
00:33:30,383 --> 00:33:34,470
men en af mine gode venner,
der var F-18-pilot, sagde til mig:

401
00:33:34,554 --> 00:33:37,724
"Vi har det samme problem
i jagerfly-miljøet."

402
00:33:37,807 --> 00:33:39,434
"De jammer kommunikationen."

403
00:33:39,517 --> 00:33:42,562
"Der er flere og flere
jord-til-luft-missilsystemer,

404
00:33:42,645 --> 00:33:44,439
der gør det for farligt at operere."

405
00:33:47,483 --> 00:33:50,987
Tænk, hvis vi havde et jagerfly,
der blev styret af AI.

406
00:33:51,070 --> 00:33:52,739
Velkommen til AlphaDogfight.

407
00:33:52,822 --> 00:33:56,159
Vi er et par minutter fra
den første semifinale.

408
00:33:56,242 --> 00:33:59,871
DARPA,
Defense Advanced Research Projects Agency,

409
00:33:59,954 --> 00:34:03,624
havde set AlphaGo og AlphaStar,

410
00:34:04,292 --> 00:34:08,171
og deraf opstod tanken om
AlphaDogfight-konkurrencen.

411
00:34:09,005 --> 00:34:11,466
Man vil se jagerpiloter gøre det.

412
00:34:11,549 --> 00:34:13,593
Det ligner en menneskelig luftkamp.

413
00:34:15,595 --> 00:34:19,057
Jagerfly mødes i luftkamp.

414
00:34:19,849 --> 00:34:22,852
Det er som en boksekamp på himlen.

415
00:34:23,853 --> 00:34:26,314
Måske har folk set filmen Top Gun.

416
00:34:26,397 --> 00:34:27,815
Er vi hurtigere end dem?

417
00:34:28,649 --> 00:34:31,277
-Ikke deres missiler og våben.
-Så er det en luftkamp.

418
00:34:35,531 --> 00:34:39,410
At lære at mestre luftkamp
kan tage otte til ti år.

419
00:34:42,288 --> 00:34:46,209
Det er en ekstremt kompleks udfordring
at opbygge AI omkring.

420
00:34:54,092 --> 00:34:58,679
Tidligere tilgange til autonomi
og luftkampe var usammenhængende.

421
00:34:59,222 --> 00:35:03,017
Vi tænkte, at maskinlæring
nok var løsningen på problemet.

422
00:35:04,477 --> 00:35:08,189
Først vidste AI'en intet om
den verden, den blev droppet i.

423
00:35:08,272 --> 00:35:12,735
Den vidste ikke, den fløj, eller hvad
en luftkamp var. Hvad en F-16 er.

424
00:35:13,236 --> 00:35:15,905
Den vidste kun, hvad den kunne gøre,

425
00:35:15,988 --> 00:35:18,407
og den begyndte at udforske de handlinger.

426
00:35:19,325 --> 00:35:23,204
Det blå fly har trænet i meget kort tid.

427
00:35:23,287 --> 00:35:25,832
Man kan se det slingre frem og tilbage,

428
00:35:26,624 --> 00:35:30,545
det flyver meget uregelmæssigt
og mest væk fra sin modstander.

429
00:35:31,587 --> 00:35:32,755
Som kampen skrider frem

430
00:35:32,839 --> 00:35:38,636
kan vi se, blå fastlægger sin kampplan.
Det er i en position, hvor det kan skyde.

431
00:35:39,178 --> 00:35:41,305
En gang imellem sagde læringsalgoritmen:

432
00:35:41,389 --> 00:35:43,891
"Her er en småkage. Det var godt.
Fortsæt med det."

433
00:35:45,143 --> 00:35:50,064
Vi kan udnytte computerkraften
og træne agenterne mange gange parallelt.

434
00:35:51,357 --> 00:35:55,778
Det er som et baskethold. I stedet for
at spille mod det samme hold igen og igen,

435
00:35:55,862 --> 00:35:59,198
rejser vi verden rundt
og spiller mod 512 forskellige hold,

436
00:35:59,699 --> 00:36:00,950
alle på samme tid.

437
00:36:01,492 --> 00:36:03,452
Du kan blive god meget hurtigt.

438
00:36:04,162 --> 00:36:07,456
Vi kørte simuleringen i døgndrift

439
00:36:07,540 --> 00:36:11,919
og fik 30 års pilot-træningstid
på ti måneder.

440
00:36:12,879 --> 00:36:17,717
Vi gik fra knap nok at kunne styre flyet
til at være en iskold snigmorder.

441
00:36:19,010 --> 00:36:23,514
Under træningen konkurrerede vi
kun mod anden kunstig intelligens.

442
00:36:24,473 --> 00:36:28,561
Men at konkurrere direkte
med mennesker var det ultimative mål.

443
00:36:34,192 --> 00:36:35,610
Mit navn er Mike Benitez,

444
00:36:36,110 --> 00:36:38,362
oberstløjtnant i USA's luftvåben.

445
00:36:39,155 --> 00:36:41,157
Jeg har været i aktiv tjeneste i 25 år.

446
00:36:42,825 --> 00:36:47,538
Jeg har 250 kampmissioner,
jeg har gået på USAF Weapons School.

447
00:36:48,039 --> 00:36:49,832
luftvåbnets version af Top Gun.

448
00:36:52,627 --> 00:36:55,171
Jeg har aldrig fløjet mod AI.

449
00:36:55,254 --> 00:36:58,549
Jeg er spændt på at se,
hvor godt jeg klarer det.

450
00:36:59,634 --> 00:37:03,054
Vi har et frontalangreb
på 1800 meters afstand.

451
00:37:04,388 --> 00:37:05,223
Kampen er i gang.

452
00:37:13,314 --> 00:37:14,148
Han er væk nu.

453
00:37:14,732 --> 00:37:16,651
Det er faktisk rigtig interessant.

454
00:37:20,780 --> 00:37:23,658
-Død.
-Jeg fik ham. Fejlfri sejr.

455
00:37:25,910 --> 00:37:27,453
Okay, runde to.

456
00:37:35,461 --> 00:37:40,508
Det, kunstig intelligens gør,
er at manøvrere med en præcision,

457
00:37:41,384 --> 00:37:43,219
hvor jeg ikke kan følge med.

458
00:37:48,474 --> 00:37:49,725
Sammensmeltningen..

459
00:37:50,309 --> 00:37:51,894
Nu er du færdig.

460
00:37:53,145 --> 00:37:53,980
Fik ham!

461
00:37:54,063 --> 00:37:55,022
Fik mig igen.

462
00:37:58,567 --> 00:38:00,069
AI'en bliver aldrig bange.

463
00:38:00,736 --> 00:38:03,781
Der er et følelsesmæssigt element,
som AI'en ikke har.

464
00:38:04,991 --> 00:38:08,077
En af de mere interessante strategier,
vores AI udviklede,

465
00:38:08,160 --> 00:38:10,121
var det, vi kalder ansigtsskuddet.

466
00:38:10,621 --> 00:38:14,000
Normalt vil et menneske skyde bagfra,

467
00:38:14,083 --> 00:38:16,377
for det er svært for dem at ryste dig af.

468
00:38:17,044 --> 00:38:20,381
De forsøger ikke med ansigtsskud,
fordi det er en nervekrig.

469
00:38:21,424 --> 00:38:25,511
Når vi flyver lige mod hinanden,
så går vi fra 900 til 150 meter

470
00:38:25,594 --> 00:38:27,096
på et kort øjeblik.

471
00:38:27,596 --> 00:38:31,183
Man risikerer at kollidere,
så det undgår mennesket.

472
00:38:32,893 --> 00:38:35,938
Får AI'en ikke besked på
at frygte døden, gør den det ikke.

473
00:38:37,857 --> 00:38:40,234
Det føles,
som om jeg kæmper mod et menneske,

474
00:38:40,776 --> 00:38:44,113
der ingen respekt har for sin sikkerhed.

475
00:38:45,489 --> 00:38:47,325
Han overlever ikke den sidste.

476
00:38:57,168 --> 00:38:58,461
Han har ikke tid nok.

477
00:39:01,964 --> 00:39:02,965
Godnat.

478
00:39:04,091 --> 00:39:04,925
Jeg er død.

479
00:39:16,812 --> 00:39:17,980
Det er ydmygende at vide,

480
00:39:18,064 --> 00:39:20,900
at jeg måske ikke er den
bedste til denne mission,

481
00:39:21,484 --> 00:39:24,320
at den ting kan erstatte mig en dag.

482
00:39:25,696 --> 00:39:26,906
Samme 6 CAV.

483
00:39:27,615 --> 00:39:28,824
Offset på 1000.

484
00:39:29,450 --> 00:39:32,078
Når AI-piloten styrer jagerflyet,

485
00:39:32,828 --> 00:39:34,830
vinder den konsekvent. Den dominer.

486
00:39:34,914 --> 00:39:37,249
Den vinder ikke bare stort.

487
00:39:37,333 --> 00:39:41,545
Det er: "Hvordan kan vi få det
om bord på vores fly?" Den er så stærk.

488
00:39:43,672 --> 00:39:47,802
Det er realistisk,
at AI vil styre en F-16,

489
00:39:47,885 --> 00:39:49,970
og at det snart vil ske.

490
00:39:51,305 --> 00:39:56,769
Hvis du er oppe mod en pilot,
der vinder 99,99 % af gangene,

491
00:39:56,852 --> 00:39:58,646
har du ikke en chance.

492
00:39:59,605 --> 00:40:02,733
Når jeg tænker på,
at en AI-pilot er uovervindelig,

493
00:40:02,817 --> 00:40:06,695
så tænker jeg på,
hvad et hold på 50 eller 100

494
00:40:07,279 --> 00:40:12,535
eller 1.000 kunstige piloter kan opnå.

495
00:40:13,702 --> 00:40:17,415
En sværm er et hold
af meget intelligente fly,

496
00:40:17,498 --> 00:40:18,791
der samarbejder.

497
00:40:19,291 --> 00:40:23,462
De deler information om,
hvordan man løser et problem.

498
00:40:25,172 --> 00:40:30,469
Sværme bliver en gamechanger
og en transformerende evne

499
00:40:30,553 --> 00:40:32,638
for vores militær og allierede.

500
00:41:42,750 --> 00:41:47,379
Målet er fastlåst, dronerne tracker ham.

501
00:42:02,019 --> 00:42:03,604
Her kommer landingen.

502
00:42:07,566 --> 00:42:10,402
Det primære mål for vores
"sværm"-forskning

503
00:42:11,153 --> 00:42:13,697
er at indsætte et stort antal droner

504
00:42:13,781 --> 00:42:17,910
i et område,
der er ufremkommeligt eller farligt.

505
00:42:21,705 --> 00:42:26,085
Hærens forskningslaboratorium
har støttet dette projekt.

506
00:42:26,919 --> 00:42:28,963
Vil du vide, hvad der er et sted,

507
00:42:29,046 --> 00:42:32,883
men det er svært at nå området,
eller det er meget stort,

508
00:42:33,676 --> 00:42:35,886
så giver det mening at bruge en sværm

509
00:42:35,970 --> 00:42:38,389
til at udvide individers rækkevidde

510
00:42:38,472 --> 00:42:41,934
og indsamle oplysninger,
der er kritiske for missionen.

511
00:42:46,689 --> 00:42:48,983
Så lige nu i vores sværmmission

512
00:42:49,066 --> 00:42:53,904
udsteder vi en enkelt kommando om
at spore vores mål.

513
00:42:54,488 --> 00:42:57,283
Det gør dronerne på egen hånd.

514
00:42:59,493 --> 00:43:04,081
Kunstig intelligens gør det muligt for
robotterne at bevæge sig som en sværm

515
00:43:04,164 --> 00:43:05,708
på en decentral måde.

516
00:43:10,671 --> 00:43:12,506
I de sværme, vi ser i naturen,

517
00:43:13,299 --> 00:43:18,178
er der ingen chef, intet dyr,
der fortæller dem, hvad de skal gøre.

518
00:43:20,556 --> 00:43:25,019
Adfærden kommer ud af hvert enkelt dyr,

519
00:43:25,102 --> 00:43:27,104
der følger nogle få enkle regler.

520
00:43:27,688 --> 00:43:32,443
Og ud af det vokser denne
kollektive adfærd, man ser.

521
00:43:33,944 --> 00:43:37,031
Det, der er imponerende
ved sværme i naturen,

522
00:43:37,114 --> 00:43:39,992
er den ynde, med hvilken de bevæger sig.

523
00:43:40,576 --> 00:43:44,288
Det er, som om de blev bygget til
at være en del af denne gruppe.

524
00:43:46,790 --> 00:43:51,128
Ideelt set er det,
vi gerne vil se med vores dronesværm,

525
00:43:51,211 --> 00:43:53,172
ligesom med sværmen i naturen,

526
00:43:53,672 --> 00:43:56,717
at gruppen
træffer beslutninger kollektivt.

527
00:43:59,928 --> 00:44:02,765
Den anden inspiration for os

528
00:44:02,848 --> 00:44:06,268
kommer i form af pålidelighed
og modstandsdygtighed.

529
00:44:07,311 --> 00:44:09,188
Sværmen mislykkes ikke,

530
00:44:09,271 --> 00:44:13,567
hvis et enkelt dyr ikke gør, som det skal.

531
00:44:15,194 --> 00:44:20,866
Selv hvis en af agenterne falder ud,
fejler eller ikke kan udføre opgaven,

532
00:44:21,909 --> 00:44:23,369
vil sværmen fortsætte.

533
00:44:25,204 --> 00:44:27,873
Og i sidste ende er det vores mål.

534
00:44:29,333 --> 00:44:33,879
Vi har dette behov i kampscenarier,
hvor vi skal identificere fjendefly,

535
00:44:33,962 --> 00:44:37,841
og der plejede at være en person,
der styrede en robot.

536
00:44:38,592 --> 00:44:40,552
I takt med, at autonomien stiger,

537
00:44:40,636 --> 00:44:43,555
håber jeg, at vi vil se,
at et stort antal robotter

538
00:44:43,639 --> 00:44:46,558
styres af et meget lille antal mennesker.

539
00:44:47,851 --> 00:44:50,854
Jeg ser ingen grund til,
vi ikke kan nå et tal på 1000,

540
00:44:51,355 --> 00:44:56,443
for hver agent kan handle selvstændigt,
og der er ingen øvre grænse.

541
00:44:57,027 --> 00:44:59,071
Vi kan skalere vores læring…

542
00:44:59,154 --> 00:45:03,325
Vi har arbejdet med sværme
i simulering i lang tid,

543
00:45:03,409 --> 00:45:06,829
og det er på tide
at bringe dem til virkelige fly.

544
00:45:07,329 --> 00:45:12,042
Vi forventer at starte med
tre robotter på netværket

545
00:45:12,126 --> 00:45:15,129
og løbende tilføje flere funktioner.

546
00:45:15,879 --> 00:45:18,549
Vi vil kunne teste det i mindre systemer,

547
00:45:18,632 --> 00:45:22,261
men anvende de samme koncepter
i større systemer,

548
00:45:22,344 --> 00:45:23,679
som et kampfly.

549
00:45:24,596 --> 00:45:26,014
Vi taler meget om,

550
00:45:26,098 --> 00:45:31,937
hvordan giver man en deling
den samme kampstyrke som en bataljon?

551
00:45:34,982 --> 00:45:39,528
Eller en bataljon
samme kampstyrke som en brigade?

552
00:45:39,611 --> 00:45:41,488
Det kan man med sværme.

553
00:45:42,614 --> 00:45:45,200
Og når man kan låse op
for sværmens kraft,

554
00:45:45,284 --> 00:45:49,455
skaber man en ny strategisk
afskrækkelse mod militær aggression.

555
00:45:52,332 --> 00:45:57,004
Det mest spændende
er antallet af unge mænd og kvinder,

556
00:45:57,087 --> 00:46:00,299
hvis liv vi kan redde,
hvis vi gør det rigtigt.

557
00:46:01,091 --> 00:46:03,594
Så vi udveksler maskiner,

558
00:46:04,553 --> 00:46:05,846
ikke menneskeliv.

559
00:46:06,638 --> 00:46:10,893
Nogle hævder, at autonome våben
vil gøre krigsførelse mere præcis

560
00:46:10,976 --> 00:46:12,311
og mere human,

561
00:46:12,853 --> 00:46:15,397
men det er faktisk svært at forudsige

562
00:46:15,481 --> 00:46:19,443
præcis hvordan autonome
våben kan ændre krig på forhånd.

563
00:46:21,320 --> 00:46:23,238
Ligesom Gatling-maskingeværet.

564
00:46:25,073 --> 00:46:26,700
Richard Gatling var opfinder.

565
00:46:27,201 --> 00:46:30,954
Han så sårede soldater
vende tilbage under borgerkrigen,

566
00:46:32,289 --> 00:46:35,292
og ville finde en måde
at gøre krig mere human på.

567
00:46:36,293 --> 00:46:39,797
Reducere antallet af soldater,
der blev dræbt i krig

568
00:46:40,422 --> 00:46:42,633
ved at reducere antallet på slagmarken.

569
00:46:44,092 --> 00:46:48,388
Så han opfandt Gatling-maskingeværet,
et automatvåben med håndsving,

570
00:46:48,472 --> 00:46:50,516
der automatiserede affyringen.

571
00:46:53,268 --> 00:46:57,981
Den effektiviserede den ildkraft,
soldaterne kunne levere, hundredfold.

572
00:47:01,235 --> 00:47:05,239
Ofte kan forsøg på at gøre
krigsførelse mere præcise og human

573
00:47:06,490 --> 00:47:07,991
have den modsatte effekt.

574
00:47:10,160 --> 00:47:13,455
Tænk på effekten af
et vildfarent droneangreb

575
00:47:13,539 --> 00:47:17,209
i et landligt område.
som vender lokalbefolkningen mod USA,

576
00:47:17,292 --> 00:47:20,712
mod det lokale styre. De gode.

577
00:47:22,589 --> 00:47:25,008
Forstør det med 1.000.

578
00:47:26,802 --> 00:47:28,720
Skabelsen af et våbensystem,

579
00:47:28,804 --> 00:47:34,560
der er billigt, skalerbart
og ikke kræver menneskelige operatører,

580
00:47:34,643 --> 00:47:37,896
ændrer konfliktbarrieren på drastisk vis.

581
00:47:40,107 --> 00:47:44,486
Jeg ligger søvnløs og tænker på en verden,
hvor der altid er krig,

582
00:47:44,987 --> 00:47:48,657
en krig der ikke har
menneskelige og økonomiske omkostninger,

583
00:47:48,740 --> 00:47:51,410
fordi vi er så langt fra…

584
00:47:52,369 --> 00:47:54,037
…de liv, der vil gå tabt.

585
00:47:59,501 --> 00:48:01,420
Det hele hjemsøger mig.

586
00:48:02,212 --> 00:48:05,924
Jeg skulle bare bruge et eksempel
på misbrug af AI.

587
00:48:06,800 --> 00:48:10,888
De uventede konsekvenser
af enkle tankeeksperimenter

588
00:48:10,971 --> 00:48:12,848
er gået alt for langt.

589
00:48:13,348 --> 00:48:16,226
AI I MEDICINOPDAGELSE
UNDGÅ AT GØRE MERE SKADE END GAVN

590
00:48:17,352 --> 00:48:22,107
Da jeg holdt præsentationen om de
giftige molekyler skabt af AI-teknologi,

591
00:48:22,608 --> 00:48:24,318
var publikum målløse.

592
00:48:25,402 --> 00:48:27,613
TOP 5.000 FORBINDELSER
VAR KENDTE VX-ANALOGER

593
00:48:29,406 --> 00:48:33,577
Den næste beslutning var,
om vi skulle offentliggøre informationen.

594
00:48:34,912 --> 00:48:36,914
Man vil advare verden

595
00:48:36,997 --> 00:48:40,125
om disse farer, men på den anden side

596
00:48:40,208 --> 00:48:44,087
vil man ikke give nogen en idé,
de aldrig har haft før.

597
00:48:46,340 --> 00:48:48,133
Vi besluttede at offentliggøre det

598
00:48:48,216 --> 00:48:52,679
for måske at finde en måde
at afbøde denne type AI-misbrug

599
00:48:52,763 --> 00:48:54,139
før det sker.

600
00:48:54,222 --> 00:48:56,975
DOBBELTANVENDELSE
AF AI- MEDICINSOFTWARE

601
00:48:57,559 --> 00:49:00,437
SÅDAN KAN AI-TEKNOLOGI
TIL MEDICINOPDAGELSE

602
00:49:01,897 --> 00:49:04,775
Offentlighedens reaktion var chokerende.

603
00:49:07,194 --> 00:49:10,656
Vi kan se,
hvor mange der har tilgået siden.

604
00:49:10,739 --> 00:49:14,451
De slags artikler, vi normalt skriver,
der er vi heldige, hvis…

605
00:49:14,534 --> 00:49:19,831
Hvis et par tusinde mennesker
læser dem over en årrække.

606
00:49:19,915 --> 00:49:22,084
10.000 havde læst det inden for en uge.

607
00:49:22,167 --> 00:49:25,337
Så var det 20.000, 30.000, 40.000,

608
00:49:25,837 --> 00:49:28,715
vi var oppe på 10.000 mennesker om dagen.

609
00:49:30,258 --> 00:49:33,512
Der var artikler i The Economist,
i Financial Times.

610
00:49:35,639 --> 00:49:39,977
Radiolab kontaktede os.
Jeg havde hørt om Radiolab!

611
00:49:41,937 --> 00:49:45,899
Men reaktionerne blev til noget,
der var ude af kontrol.

612
00:49:49,778 --> 00:49:53,532
Da vi så de tweets, tænkte vi:
"Åh gud, kan de blive værre?"

613
00:49:54,324 --> 00:49:55,993
Hvorfor gjorde de det?

614
00:50:01,164 --> 00:50:04,501
Og så fik vi en invitation,
jeg aldrig havde forventet.

615
00:50:08,797 --> 00:50:12,926
Der var meget diskussion
i Det Hvide Hus om artiklen,

616
00:50:13,010 --> 00:50:15,345
og de ville straks tale med os.

617
00:50:18,849 --> 00:50:23,020
Det er en utrolig ære
at kunne tale med folk på dette niveau.

618
00:50:23,603 --> 00:50:25,272
Men så slår det en.

619
00:50:25,355 --> 00:50:28,900
"Åh gud, det er Det Hvide Hus. Chefen. "

620
00:50:29,693 --> 00:50:33,196
Det involverede data,
der var open source…

621
00:50:33,280 --> 00:50:37,701
På cirka seks timer kunne modellen
generere over 40.000…

622
00:50:37,784 --> 00:50:41,038
De spurgte,
hvor meget computerkraft, der skulle til.

623
00:50:41,872 --> 00:50:43,832
Vi sagde ikke noget særligt.

624
00:50:44,332 --> 00:50:48,211
En almindelig, seks år gammel Mac.

625
00:50:49,546 --> 00:50:51,256
De måbede.

626
00:50:54,968 --> 00:50:59,473
Dem, der er ansvarlige for
at forstå kemiske kampmidler

627
00:50:59,556 --> 00:51:04,019
og regeringsorganer
havde ingen anelse om dette potentiale.

628
00:51:06,605 --> 00:51:09,816
Vi har kogebogen til
at lave kemiske våben,

629
00:51:10,650 --> 00:51:15,572
og i hænderne på en med onde hensigter

630
00:51:16,573 --> 00:51:18,992
er konsekvenserne skræmmende.

631
00:51:21,703 --> 00:51:23,205
Folk må vågne op,

632
00:51:23,288 --> 00:51:26,458
og vi må tage skridt til
at regulere teknologien

633
00:51:27,250 --> 00:51:30,670
eller begrænse den på en måde,
så den ikke kan misbruges.

634
00:51:31,880 --> 00:51:35,175
Fordi potentialet for dødelighed…

635
00:51:36,176 --> 00:51:37,344
…er skræmmende.

636
00:51:40,680 --> 00:51:45,977
Spørgsmålet om AI-etik
varetages af samfundet,

637
00:51:46,561 --> 00:51:50,273
ikke af ingeniører,
teknologer og matematikere.

638
00:51:52,484 --> 00:51:56,822
Alle teknologier,
vi skaber, hver nyskabelse,

639
00:51:56,905 --> 00:52:00,617
er det samfundets ansvar at beslutte,
hvordan den skal anvendes.

640
00:52:03,036 --> 00:52:06,498
Forsvarsministeriet siger:

641
00:52:06,581 --> 00:52:09,960
"Den eneste, der siger,
at vi skal dræbe nogen

642
00:52:10,043 --> 00:52:11,920
på slagmarken, er et menneske."

643
00:52:12,504 --> 00:52:14,548
PÅ ORDRE AF ET MENNESKE

644
00:52:15,674 --> 00:52:18,927
men kun efter ordre fra
en menneskelig operatør,

645
00:52:19,636 --> 00:52:21,429
og det ser jeg ikke ændre sig.

646
00:52:24,808 --> 00:52:28,103
De forsikrer os,
at denne type teknologi er sikker.

647
00:52:29,729 --> 00:52:33,692
Men det amerikanske militær
har ikke et troværdigt ry

648
00:52:33,775 --> 00:52:35,485
hvad angår dronekrig.

649
00:52:36,820 --> 00:52:41,783
Så når det kommer til at stole på
USA's militær og brugen af AI,

650
00:52:41,867 --> 00:52:44,953
så taler historien for sig selv.

651
00:52:46,288 --> 00:52:50,125
Det amerikanske forsvarsministeriums
politik om brug af autonomi i våben

652
00:52:50,208 --> 00:52:52,919
forbyder ikke nogen form for våbensystem.

653
00:52:53,003 --> 00:52:56,715
Og selvom militæret måske ikke
vil have autonome våben,

654
00:52:56,798 --> 00:53:01,678
kan vi se militæret overlade
flere beslutninger til maskiner

655
00:53:01,761 --> 00:53:03,680
for at holde trit med konkurrenterne.

656
00:53:04,764 --> 00:53:08,351
Det kan drive militæret
til at automatisere beslutninger,

657
00:53:08,435 --> 00:53:09,978
det måske ikke ønsker.

658
00:53:12,022 --> 00:53:16,693
Vladimir Putin sagde:
"Den førende inden for AI regerer verden."

659
00:53:17,736 --> 00:53:23,325
Præsident Xi har gjort det klart,
at AI er en af de førende teknologier,

660
00:53:23,408 --> 00:53:25,702
som Kina vil dominere indenfor.

661
00:53:26,786 --> 00:53:29,831
Vi er tydeligvis ude i
en teknologisk konkurrence.

662
00:53:33,501 --> 00:53:35,670
Man hører tale om foranstaltninger,

663
00:53:36,463 --> 00:53:39,424
og jeg mener, det er det, man bør indføre.

664
00:53:40,467 --> 00:53:45,180
Men der er et ægte kapløb om
AI-overlegenhed.

665
00:53:47,265 --> 00:53:51,603
Og vores modstandere,
om det er Kina, Rusland eller Iran,

666
00:53:52,187 --> 00:53:56,566
er totalt ligeglade med vores politik
om kunstig intelligens.

667
00:54:00,820 --> 00:54:04,324
Der bliver talt meget mere om AI-politik,

668
00:54:06,117 --> 00:54:09,287
men jeg ville ønske,
flere ledere ville sige:

669
00:54:09,371 --> 00:54:11,706
"Hvor hurtigt kan vi opbygge den?"

670
00:54:12,707 --> 00:54:15,168
"Lad os prioritere at gøre det."

671
00:54:18,922 --> 00:54:21,299
AUSA
ÅRLIGE MESSE

672
00:54:33,478 --> 00:54:38,358
Vi er til militærets største årlige messe.

673
00:54:39,609 --> 00:54:44,572
Alle, der sælger et produkt
eller en teknologi til militæret

674
00:54:44,656 --> 00:54:46,616
er til stede på messen.

675
00:54:47,617 --> 00:54:50,537
Tyndall Air Force Base
har fire af vores robotter,

676
00:54:50,620 --> 00:54:53,748
der patruljerer basen 24 timer i døgnet.

677
00:54:55,750 --> 00:55:00,130
Vi kan tilføje alt fra kameraer
til sensorer til hvad som helst.

678
00:55:00,213 --> 00:55:05,135
Manipulatorarme. Så kunden kan
fuldføre den mission, de har i tankerne.

679
00:55:06,678 --> 00:55:08,763
Hvad, hvis fjenden introducerer AI?

680
00:55:09,431 --> 00:55:12,976
Et kampsystem,
der tænker og reagerer hurtigere

681
00:55:13,059 --> 00:55:16,062
end et menneske kan gøre?
Vi må være forberedt.

682
00:55:17,605 --> 00:55:21,359
Vi træner vores systemer til
at indsamle oplysninger om fjenden

683
00:55:22,027 --> 00:55:26,531
og håndtere fjendtlige mål,
men hvor mennesker styrer "dræberkæden".

684
00:55:33,288 --> 00:55:34,956
-Hej, general.
-Går det godt?

685
00:55:35,040 --> 00:55:36,416
Ja, hvad med Dem?

686
00:55:37,709 --> 00:55:42,630
Ingen investerer mere i en AI-pilot.
Vores AI-pilot hedder Hivemind,

687
00:55:43,298 --> 00:55:47,135
og den styrer vores quadcopter, Nova.
Den flyver ind i bygninger

688
00:55:47,218 --> 00:55:50,805
og udforsker dem for specialstyrkerne
og infanteristyrkerne.

689
00:55:50,889 --> 00:55:52,891
Vi bruger Hivemind i V-BAT

690
00:55:52,974 --> 00:55:56,811
og planlægger at indsætte
hundredvis af de teams.

691
00:55:56,895 --> 00:55:58,730
Om det er i Taiwanstrædet

692
00:55:58,813 --> 00:56:01,608
eller i Ukraine for at
afskrække vores modstandere.

693
00:56:01,691 --> 00:56:03,360
Det ser ret lovende ud.

694
00:56:03,943 --> 00:56:06,196
-Okay. Tak.
-Tak, general.

695
00:56:07,989 --> 00:56:13,370
AI-piloter bør være i generel brug
i 2025 eller 2030.

696
00:56:14,204 --> 00:56:17,582
De bliver hurtigt indfaset
i militær over hele verden.

697
00:56:19,250 --> 00:56:22,962
Hvad med det rumænske militær,
deres UAS?

698
00:56:23,046 --> 00:56:24,589
Højteknologi i militæret.

699
00:56:25,256 --> 00:56:29,803
Vi har brugt en halv milliard dollars på
at bygge en AI-pilot.

700
00:56:29,886 --> 00:56:33,181
Vi vil bruge endnu en milliard
de næste fem år.

701
00:56:33,264 --> 00:56:37,769
Det er en vigtig grund til,
at vi bliver udvalgt til projekter i USA.

702
00:56:37,852 --> 00:56:38,853
Fint.

703
00:56:38,937 --> 00:56:42,732
Det er imponerende.
Så den er armeret?

704
00:56:43,650 --> 00:56:45,568
Det er den ikke endnu.

705
00:56:45,652 --> 00:56:48,321
Ikke endnu. Men ja, i fremtiden.

706
00:56:48,905 --> 00:56:52,534
Kunderne ser den som en lastbil.
Vi tænker "intelligent lastbil",

707
00:56:52,617 --> 00:56:54,452
der kan gøre mange ting.

708
00:56:54,536 --> 00:56:55,703
-Tak, makker.
-Ja.

709
00:56:55,787 --> 00:56:57,914
Jeg vil følge op med dig.

710
00:57:01,668 --> 00:57:04,129
Hvis du kommer tilbage om ti år,

711
00:57:04,212 --> 00:57:10,802
så vil AI og autonomi
dominere hele markedet.

712
00:57:14,889 --> 00:57:19,352
Styrker, der understøttes
af kunstig intelligens og autonomi

713
00:57:19,436 --> 00:57:25,108
vil absolut dominere,
knuse og udslette styrker, der ikke er.

714
00:57:26,401 --> 00:57:30,780
Det svarer til heste mod kampvogne,

715
00:57:31,781 --> 00:57:34,367
folk med sværd mod maskingevær.

716
00:57:34,909 --> 00:57:37,120
De har ikke en chance.

717
00:57:38,746 --> 00:57:42,750
Det vil blive brugt
i alle aspekter af krigsførelse,

718
00:57:43,585 --> 00:57:46,546
på det taktiske og det strategiske niveau,

719
00:57:47,172 --> 00:57:50,800
i et tempo,
som mennesket ikke kan forstå i dag.

720
00:57:53,094 --> 00:57:57,098
Øverstbefalende drukner allerede
i for meget information.

721
00:57:57,599 --> 00:58:01,019
Billeder fra satellitter,
droner og sensorer.

722
00:58:02,103 --> 00:58:06,774
En af de ting, AI kan gøre,
er at formidle, hvad der sker.

723
00:58:07,650 --> 00:58:09,903
"Hvilke beslutninger skal jeg træffe?"

724
00:58:11,237 --> 00:58:14,866
Kunstig intelligens vil tage højde for
alle de faktorer,

725
00:58:14,949 --> 00:58:17,702
som bestemmer, hvordan krig udkæmpes,

726
00:58:18,286 --> 00:58:20,246
finde på strategier

727
00:58:22,540 --> 00:58:25,668
og give råd om,
hvordan man vinder et slag.

728
00:58:32,217 --> 00:58:34,344
LOCKHEED MARTIN
INNOVATIONSCENTER

729
00:58:36,971 --> 00:58:40,266
Hos Lockheed Martin,
og det samme gælder forsvarsministeriet,

730
00:58:40,350 --> 00:58:45,104
betragtes AI som en nøgleteknologi
i kommando- og kontrolsystemer.

731
00:58:47,065 --> 00:58:50,109
Spredningen er i gennemsnit
60 cm i sekundet.

732
00:58:50,193 --> 00:58:52,278
Området dækker omkring 280 hektar.

733
00:58:52,779 --> 00:58:55,782
Krigens tåge er
en realitet for os på forsvarssiden,

734
00:58:57,158 --> 00:59:00,495
men der er paralleller til
at være i miljøet

735
00:59:00,578 --> 00:59:03,206
og kunne træffe beslutninger
om skovbrande.

736
00:59:03,289 --> 00:59:06,543
Washburn-branden
er lige nord for byen Wawona.

737
00:59:06,626 --> 00:59:09,629
Man skal træffe beslutninger
med ufuldkommen data.

738
00:59:10,630 --> 00:59:14,300
Hvordan kan AI hjælpe os med krigens tåge?

739
00:59:17,637 --> 00:59:19,597
Skovbrande er meget kaotiske.

740
00:59:20,181 --> 00:59:21,266
De er komplekse,

741
00:59:22,267 --> 00:59:26,354
så vi bruger kunstig intelligens til

742
00:59:26,437 --> 00:59:27,855
at træffe beslutninger.

743
00:59:31,442 --> 00:59:33,987
Cognitive Mission Manager er et program,

744
00:59:34,070 --> 00:59:37,949
der optager infrarød video fra luften,

745
00:59:38,032 --> 00:59:41,786
og så bearbejder vi den
med vores AI-algoritmer

746
00:59:41,869 --> 00:59:45,248
for at kunne forudsige ildens udvikling.

747
00:59:48,042 --> 00:59:49,794
Et stykke tid ude i fremtiden

748
00:59:49,877 --> 00:59:52,922
vil Cognitive Mission Manager
anvende simulering,

749
00:59:53,006 --> 00:59:57,093
scenarier,
der omfatter tusindvis af cyklusser,

750
00:59:57,176 --> 01:00:00,722
til at anbefale den mest effektive
ressourceudnyttelse

751
01:00:00,805 --> 01:00:04,058
for at prioritere bestemte ildområder.

752
01:00:08,062 --> 01:00:12,400
Den vil sige:
"Nedkæmp ilden her med en Firehawk."

753
01:00:13,568 --> 01:00:15,903
"Tag folk på jorden,
der rydder krat,

754
01:00:16,946 --> 01:00:19,032
brandmænd, der oversprøjter områder

755
01:00:19,657 --> 01:00:23,077
og træk dem ind
i de højest prioriterede områder."

756
01:00:26,289 --> 01:00:29,292
De beslutninger vil kunne
genereres hurtigere

757
01:00:29,375 --> 01:00:31,044
og mere effektivt.

758
01:00:35,840 --> 01:00:38,468
Vi betragter AI som en unik mulighed
for mennesket

759
01:00:38,551 --> 01:00:42,305
til at følge med i
et altid foranderligt miljø.

760
01:00:43,389 --> 01:00:46,517
Og der er et troværdigt antal paralleller

761
01:00:46,601 --> 01:00:50,355
til det, vi er vant til
hos Lockheed Martin på forsvarssiden.

762
01:00:52,231 --> 01:00:55,860
Militæret taler ikke længere
om kun at bruge AI

763
01:00:55,943 --> 01:01:00,323
og individuelle våbensystemer til
at træffe mål- og dræb-beslutninger,

764
01:01:00,865 --> 01:01:02,200
men om at integrere AI

765
01:01:02,283 --> 01:01:05,787
ind i hele
militærets beslutningsarkitektur.

766
01:01:09,457 --> 01:01:12,960
Hæren har et stort projekt,
der hedder Project Convergence.

767
01:01:14,545 --> 01:01:16,589
Flåden har Overmatch.

768
01:01:16,673 --> 01:01:19,592
Og luftvåbnet har
Advanced Battle Management System.

769
01:01:21,886 --> 01:01:24,138
Forsvarsministeriet spørger sig selv:

770
01:01:24,222 --> 01:01:26,683
"Hvordan samler vi brikkerne,

771
01:01:26,766 --> 01:01:32,355
så vi kan operere hurtigere end
vores fjende og virkelig få en fordel? "

772
01:01:33,481 --> 01:01:37,527
En AI "Battle Manager"
er en højtstående general,

773
01:01:37,610 --> 01:01:39,821
der styrer slagets gang

774
01:01:41,155 --> 01:01:44,158
og giver ordrer til
et stort antal styrker

775
01:01:45,118 --> 01:01:49,247
og koordinerer alle de våben,
der er på slagmarken

776
01:01:49,330 --> 01:01:51,958
i et tempo,
som intet menneske kan matche.

777
01:01:53,543 --> 01:01:55,294
Vi har brugt de sidste 70 år på

778
01:01:55,378 --> 01:01:58,798
at bygge det mest sofistikerede
militær på planeten,

779
01:01:58,881 --> 01:02:03,177
og nu står vi over for beslutningen om,
hvorvidt vi vil afstå kontrollen

780
01:02:03,261 --> 01:02:07,598
over den infrastruktur til en algoritme,
til software.

781
01:02:10,351 --> 01:02:13,187
Og konsekvenserne af den beslutning

782
01:02:13,271 --> 01:02:16,774
kan udløse
vores samlede militære arsenaler.

783
01:02:16,858 --> 01:02:19,902
Det er ikke et Hiroshima.
Det er hundredvis.

784
01:02:25,616 --> 01:02:27,869
Det er nu, vi skal handle,

785
01:02:27,952 --> 01:02:33,166
for det vindue, vi har til
at kontrollere denne risiko, lukker snart.

786
01:02:35,126 --> 01:02:39,338
I dag starter vi med
internationale sikkerhedsudfordringer

787
01:02:39,422 --> 01:02:41,132
fra nye teknologier

788
01:02:41,215 --> 01:02:44,343
på området for
dødbringende autonome våbensystemer.

789
01:02:44,427 --> 01:02:47,722
SEKRETÆR

790
01:02:47,805 --> 01:02:50,016
den trussel, autonome våben udgør,

791
01:02:50,600 --> 01:02:56,564
og forbuddet mod systemer,
der bruger AI til at udvælge folk.

792
01:02:56,647 --> 01:03:00,777
Teknologerne er enige.

793
01:03:00,860 --> 01:03:04,030
Vi er imod autonome våben,
der rettes mod mennesker.

794
01:03:05,615 --> 01:03:08,993
I årevis har lande været villige
til at diskutere

795
01:03:09,076 --> 01:03:11,329
dødbringende autonome våbensystemer.

796
01:03:12,288 --> 01:03:16,793
Det handler om
en fælles følelse af sikkerhed.

797
01:03:17,794 --> 01:03:20,546
Men det er selvfølgelig ikke nemt.

798
01:03:21,297 --> 01:03:27,762
Visse lande, især militærmagterne,
vil være på forkant med udviklingen,

799
01:03:28,429 --> 01:03:31,599
så de er foran deres modstandere.

800
01:03:32,600 --> 01:03:36,187
Problemet er,
at alle skal være enige om at gøre noget.

801
01:03:36,896 --> 01:03:39,065
Der vil være mindst et land,
der er imod,

802
01:03:39,148 --> 01:03:42,109
og USA og russerne har begge
gjort det klart,

803
01:03:42,193 --> 01:03:45,655
at de vil modsætte sig en traktat,
der forbyder autonome våben.

804
01:03:47,198 --> 01:03:53,204
Når vi tænker på, hvor mange der
arbejder på at gøre AI mere kraftfuld,

805
01:03:54,747 --> 01:03:56,457
så er der stor trængsel.

806
01:03:57,750 --> 01:04:02,880
Når vi tænker på dem,
der vil sikre, at AI er sikker,

807
01:04:04,340 --> 01:04:07,510
så er der tale om langt færre.

808
01:04:11,764 --> 01:04:13,724
Men jeg er også optimist.

809
01:04:16,060 --> 01:04:19,480
Når jeg ser på konventionen om forbud
mod biologiske våben,

810
01:04:19,564 --> 01:04:22,358
så blev den indgået under den kolde krig,

811
01:04:23,025 --> 01:04:27,655
på trods af spændingerne
mellem Sovjetunionen og USA.

812
01:04:29,156 --> 01:04:33,536
De indså,
at udviklingen af biologiske våben

813
01:04:33,619 --> 01:04:36,247
ikke var i deres interesse

814
01:04:36,330 --> 01:04:38,749
eller i verdens interesse.

815
01:04:41,335 --> 01:04:44,714
Våbenkapløb favoriserer
tempo over sikkerhed.

816
01:04:45,715 --> 01:04:48,342
Men det er vigtigt at huske på,

817
01:04:48,426 --> 01:04:52,430
at prisen for at bevæge sig hurtigt frem
kan blive for høj.

818
01:04:56,225 --> 01:04:59,270
Vi kan ikke bare udvikle ting isoleret

819
01:05:00,021 --> 01:05:06,611
og sætte dem i verden uden at tænke på,
hvordan de vil udvikle sig i fremtiden.

820
01:05:07,862 --> 01:05:10,823
Vi må forhindre atombombe-øjeblikket.

821
01:05:14,577 --> 01:05:17,705
Indsatsen i AI-kapløbet er enorm.

822
01:05:18,289 --> 01:05:22,001
Jeg tror ikke,
at mange forstår den globale stabilitet,

823
01:05:22,084 --> 01:05:28,174
en overlegen militærstyrke
har været garant for

824
01:05:28,257 --> 01:05:31,135
i de sidste 75 år.

825
01:05:32,887 --> 01:05:35,681
USA og dets allierede

826
01:05:36,557 --> 01:05:38,684
skal overgå al fjendtlig AI.

827
01:05:43,314 --> 01:05:45,441
Der er ingen andenplads i krig.

828
01:05:45,524 --> 01:05:49,111
Kina vil være førende inden for
kunstig intelligens i 2030.

829
01:05:49,195 --> 01:05:51,656
Nogle siger, at USA taber kapløbet…

830
01:05:52,740 --> 01:05:56,160
Man fremskynder
indførelsen af kunstig intelligens

831
01:05:56,243 --> 01:05:59,246
for at sikre vores militære forspring.

832
01:06:02,875 --> 01:06:05,461
Vi ræser derudad med denne teknologi.

833
01:06:05,544 --> 01:06:08,673
Det er uklart, hvor langt vi skal gå.

834
01:06:09,507 --> 01:06:12,760
Styrer vi teknologien,
eller styrer den os?

835
01:06:14,136 --> 01:06:16,973
Man får ikke en chance til.

836
01:06:17,807 --> 01:06:20,977
Når ånden er ude af flasken, er den ude.

837
01:06:22,019 --> 01:06:25,189
Og det er meget svært
at komme den ind i flasken igen.

838
01:06:28,609 --> 01:06:31,737
Handler vi ikke nu, er det for sent.

839
01:06:33,114 --> 01:06:34,657
Måske er det for sent.

840
01:08:48,124 --> 01:08:53,254
Tekster af: Charlotte Reeve



