1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
Meni UI ulijeva strahopoštovanje.

4
00:00:28,361 --> 00:00:31,489
Kruže. Dobra formacija.

5
00:00:33,116 --> 00:00:36,703
UI potencijalno može dokinuti siromaštvo,

6
00:00:36,786 --> 00:00:38,705
pronaći nove lijekove

7
00:00:39,330 --> 00:00:41,583
i svijetu donijeti još veći mir.

8
00:00:46,087 --> 00:00:46,921
Bravo!

9
00:00:49,883 --> 00:00:53,428
Ali na tom putu ima mnogo opasnosti.

10
00:01:04,773 --> 00:01:09,611
Stvarajući UI stvaramo
inteligenciju koja nije ljudska

11
00:01:09,694 --> 00:01:11,863
i vrlo je nepredvidiva.

12
00:01:14,407 --> 00:01:16,451
Kako postaje sve moćnija,

13
00:01:16,534 --> 00:01:19,746
moramo postaviti stroge granice

14
00:01:19,829 --> 00:01:22,665
kako želimo i kako ne želimo rabiti UI.

15
00:01:25,001 --> 00:01:28,505
Apsolutna polazišna točka
za ovakve razgovore

16
00:01:28,588 --> 00:01:31,049
primjena je UI-ja u vojne svrhe.

17
00:01:34,010 --> 00:01:38,890
Bojišnicom sad vladaju
softveri i hardveri.

18
00:01:41,059 --> 00:01:42,936
Meta identificirana…

19
00:01:43,019 --> 00:01:48,399
A vojske se utrkuju da razviju UI
brže od svojih protivnika.

20
00:01:49,526 --> 00:01:50,360
Mrtav sam.

21
00:01:53,780 --> 00:01:58,326
Brzo napredujemo prema svijetu
u kojemu ne samo velike vojske

22
00:01:58,409 --> 00:02:02,997
nego i nedržavni akteri,
privatne kompanije

23
00:02:03,081 --> 00:02:06,042
ili čak lokalne policijske postaje,

24
00:02:06,543 --> 00:02:10,046
imaju na raspolaganju oružje
koje može autonomno ubiti.

25
00:02:12,006 --> 00:02:17,303
Hoćemo li algoritmu prepustiti odluku
o oduzme nekomu život?

26
00:02:18,638 --> 00:02:21,516
To je jedno od najbitnijih
pitanja našeg doba.

27
00:02:23,935 --> 00:02:26,354
Ne bude li se rabila mudro,

28
00:02:26,437 --> 00:02:30,275
ta tehnologija prijetnja je
svakom živom čovjeku na planetu.

29
00:02:41,828 --> 00:02:44,914
NEPOZNATO

30
00:02:46,833 --> 00:02:50,086
UBOJITI ROBOTI

31
00:03:28,291 --> 00:03:30,168
Bravo, dečki.

32
00:03:59,948 --> 00:04:02,200
Ovo je mnogo širi objektiv nego prije.

33
00:04:02,283 --> 00:04:03,117
Je li?

34
00:04:03,201 --> 00:04:06,287
-Vidi se mnogo više podataka.
-Super.

35
00:04:07,538 --> 00:04:11,167
Mi u Shield AI-ju radimo
umjetno inteligentnog pilota.

36
00:04:11,251 --> 00:04:14,879
Dakle tehnologiju za autonomnu vožnju
i umjetnu inteligenciju

37
00:04:14,963 --> 00:04:16,631
ugrađujemo u letjelicu.

38
00:04:19,300 --> 00:04:21,719
Kad govorimo u UI pilotu,

39
00:04:21,803 --> 00:04:25,139
želimo letjelici dati
veću razinu autonomije.

40
00:04:25,223 --> 00:04:27,850
Sama će rješavati probleme.

41
00:04:29,602 --> 00:04:32,355
Nova je autonomni kvadkopter

42
00:04:32,438 --> 00:04:35,942
koji istražuje zgrade i podzemne građevine

43
00:04:36,859 --> 00:04:41,322
prije specijalnih jedinica kako bi bila
njihove oči i uši u tim prostorima.

44
00:04:41,906 --> 00:04:45,618
Od prošlog puta
vidi se veliko poboljšanje.

45
00:04:45,702 --> 00:04:47,870
Danas radimo istraživačke promjene.

46
00:04:47,954 --> 00:04:50,248
Idemo kat po kat.

47
00:04:50,331 --> 00:04:53,584
Pregledat će cijeli kat
prije nego što prijeđe na drugi.

48
00:04:54,294 --> 00:04:56,796
-Genijalno.
-Nedavno smo uveli promjene…

49
00:04:56,879 --> 00:04:58,548
Mnogi me pitaju

50
00:04:58,631 --> 00:05:02,468
zašto je umjetna inteligencija
važna sposobnost.

51
00:05:02,552 --> 00:05:06,973
A ja se samo sjetim
zadataka na kojima sam bio.

52
00:05:09,142 --> 00:05:10,935
U mornarici sam bio 7 g.

53
00:05:11,561 --> 00:05:15,273
Bivši sam mornarički specijalac.
Dvaput sam bio u Afganistanu.

54
00:05:15,356 --> 00:05:17,191
Jedanput na Pacifiku.

55
00:05:18,026 --> 00:05:22,947
U jednom danu morali smo provjeriti
150 različitih kompleksa ili zgrada.

56
00:05:30,955 --> 00:05:34,250
Jedna od glavnih vještina bliska je borba.

57
00:05:35,293 --> 00:05:39,172
To je borba vatrenim oružjem
iz velike blizine unutar zgrada.

58
00:05:41,466 --> 00:05:42,967
Pucaju na vas.

59
00:05:43,468 --> 00:05:46,471
U zgradi su možda
improvizirani eksplozivi.

60
00:05:49,015 --> 00:05:55,229
To je najopasnija vrsta zadatka
na koji član specijalne jedinice

61
00:05:55,313 --> 00:05:58,358
ili pješačke jedinice može ići na ratištu.

62
00:05:58,441 --> 00:05:59,484
Bez konkurencije.

63
00:06:12,497 --> 00:06:16,334
Cijeli život bit ću zahvalan
na vremenu provedenom u mornarici.

64
00:06:17,168 --> 00:06:22,423
Imam takvu zbirku trenutaka i uspomena
da, kad ih se sjetim,

65
00:06:22,507 --> 00:06:24,592
jako me dirnu.

66
00:06:28,346 --> 00:06:32,725
Klišej je da sloboda nije besplatna.
Ali ja potpuno vjerujem u to.

67
00:06:33,559 --> 00:06:37,105
Doživio sam to.
Za nju je potrebna velika žrtva.

68
00:06:38,022 --> 00:06:38,856
Oprostite.

69
00:06:41,067 --> 00:06:44,570
Kada ti član ekipe nastrada,

70
00:06:44,654 --> 00:06:46,614
bilo da ga rane ili ubiju,

71
00:06:47,490 --> 00:06:49,700
to je prava tragedija.

72
00:06:49,784 --> 00:06:52,912
U ovom poslu, kojim se sad bavimo,

73
00:06:52,995 --> 00:06:58,835
motivira me to što mogu smanjiti broj

74
00:06:58,918 --> 00:07:00,336
takvih događaja.

75
00:07:07,176 --> 00:07:08,886
Krajem 2000-ih

76
00:07:08,970 --> 00:07:11,556
u Ministarstvu obrane shvatili su

77
00:07:11,639 --> 00:07:15,351
da je došlo
do slučajne revolucije u robotici.

78
00:07:15,852 --> 00:07:19,564
Poslali smo tisuće zračnih
i kopnenih robota u Irak i Afganistan.

79
00:07:21,482 --> 00:07:24,068
U doba kad me Obamina vlada imenovala

80
00:07:24,152 --> 00:07:26,404
zamjenikom Ministra obrane,

81
00:07:26,904 --> 00:07:31,117
način ratovanja zaista se mijenjao.

82
00:07:32,452 --> 00:07:36,330
Roboti su radili
ono što su prije radili ljudi.

83
00:07:37,999 --> 00:07:40,376
Prvim robotima upravljalo se daljinski.

84
00:07:40,460 --> 00:07:45,173
Vozio ih je čovjek
kao što upravljate autom na daljinski.

85
00:07:46,632 --> 00:07:51,512
Prvo su tražili
improvizirane eksplozivne naprave.

86
00:07:52,013 --> 00:07:54,849
Ako bi bomba eksplodirala,
robot bi eksplodirao.

87
00:07:57,393 --> 00:08:00,396
Rekli biste:
„Ah, kvragu. Dobro, novi robot!”

88
00:08:02,273 --> 00:08:04,484
U Afganistanu je bio dron Predator.

89
00:08:05,276 --> 00:08:09,739
Postao je vrlo korisno sredstvo
za izvođenje zračnih napada.

90
00:08:13,117 --> 00:08:16,829
S vremenom su se
vojni stratezi počeli pitati

91
00:08:16,913 --> 00:08:20,791
čemu bi još roboti mogli poslužiti.
I kamo ide ovaj razvoj.

92
00:08:20,875 --> 00:08:24,170
Učestala je tema bila veća autonomnost.

93
00:08:26,506 --> 00:08:30,635
Autonomno oružje samo donosi odluke.

94
00:08:30,718 --> 00:08:33,304
Uz malu do nikakvu ljudsku intervenciju.

95
00:08:33,387 --> 00:08:37,558
Znači, neovisan je i sam sebe navodi.

96
00:08:38,434 --> 00:08:41,604
Ubiti može ovisno o tome je li naoružan.

97
00:08:43,314 --> 00:08:47,026
Kad imate više autonomnosti
u cijelom sustavu,

98
00:08:47,109 --> 00:08:49,779
sve se ubrza.

99
00:08:51,989 --> 00:08:56,869
A kada djelujete brže od svog protivnika,

100
00:08:57,453 --> 00:09:01,165
to je golema prednost u bitki.

101
00:09:03,960 --> 00:09:06,254
Što se autonomije tiče, fokusiramo se

102
00:09:07,255 --> 00:09:09,966
na vrlo otporne inteligentne sustave.

103
00:09:12,051 --> 00:09:15,304
Sustave koji analiziraju okolinu
i reagiraju na nju

104
00:09:15,805 --> 00:09:19,642
i odlučuju
kako će manevrirati u tom svijetu.

105
00:09:24,981 --> 00:09:29,151
Kompleks u kojem smo danas
sagrađen je kao filmski studio

106
00:09:29,235 --> 00:09:30,611
koji je prenamijenjen

107
00:09:30,695 --> 00:09:34,156
za izvođenje vojnih vježbi
u realističnom okruženju.

108
00:09:39,495 --> 00:09:43,291
Došli smo testirati svog UI pilota.

109
00:09:44,625 --> 00:09:49,297
Zadatak mu je tražiti prijetnje
specijalnim jedinicama.

110
00:09:49,380 --> 00:09:52,800
Može odlučiti kako će pristupiti problemu.

111
00:09:55,428 --> 00:09:59,390
Ovo zovemo „kobni lijevak”.
Morate proći kroz vrata.

112
00:10:01,726 --> 00:10:03,311
Tu smo najranjiviji.

113
00:10:03,811 --> 00:10:05,146
Ova izgleda bolje.

114
00:10:07,106 --> 00:10:10,151
Nova nam javi je li iza vrata napadač.

115
00:10:10,818 --> 00:10:12,653
Je li iza vrata obitelj?

116
00:10:15,114 --> 00:10:18,451
Omogućit će nam donošenje
boljih odluka i zaštitu ljudi.

117
00:10:57,114 --> 00:10:59,367
Rabimo optičke senzore

118
00:10:59,450 --> 00:11:03,162
kako bismo shvatili kako izgleda okoliš.

119
00:11:04,997 --> 00:11:06,415
Zgrada je na katove.

120
00:11:07,333 --> 00:11:08,334
Ovo je karta.

121
00:11:08,417 --> 00:11:11,671
Dok sam istraživao,
ovo sam vidio. Bili su ovdje.

122
00:11:19,929 --> 00:11:22,098
Detektor ljudi. Fora.

123
00:11:23,891 --> 00:11:27,061
Drugi senzor na Novi toplinski je čitač.

124
00:11:27,561 --> 00:11:30,690
Ako pokazuje 98,6 stupnjeva,
vjerojatno je čovjek.

125
00:11:32,400 --> 00:11:35,444
Ljudi su prijetnja
dok se ne utvrdi suprotno.

126
00:11:38,906 --> 00:11:43,244
Želimo eliminirati tzv. maglu rata
kako bismo donosili bolje odluke.

127
00:11:44,704 --> 00:11:46,539
Kad gledamo u budućnost,

128
00:11:47,039 --> 00:11:50,793
predviđamo stvaranje
ekipa autonomnih letjelica.

129
00:11:53,754 --> 00:11:55,631
Kod autonomnih vozila

130
00:11:55,715 --> 00:11:57,466
čovjek traži

131
00:11:57,550 --> 00:12:00,386
da ode od točke A do točke B.

132
00:12:02,972 --> 00:12:06,475
Mi od svojih sustava ne tražimo
da odu od točke A do točke B

133
00:12:06,559 --> 00:12:07,893
nego da postignu cilj.

134
00:12:10,312 --> 00:12:13,190
Naredba zvuči otprilike: „Trebam mlijeko.”

135
00:12:13,274 --> 00:12:17,486
Robot tada treba
odlučiti u koju trgovinu da ode,

136
00:12:17,570 --> 00:12:20,239
naći mlijeko i donijeti ga.

137
00:12:20,740 --> 00:12:24,243
Još bolji opis
naredbe kakvu dajemo bio bi:

138
00:12:25,035 --> 00:12:27,037
„Neka hladnjak uvijek bude pun.”

139
00:12:27,538 --> 00:12:29,457
Takvom razinom inteligencije

140
00:12:29,540 --> 00:12:32,168
stroj pogađa što trebamo i kako.

141
00:12:32,251 --> 00:12:35,713
Ako se susretne s izazovom ili problemom,

142
00:12:35,796 --> 00:12:37,381
mora ga znati riješiti.

143
00:12:40,801 --> 00:12:45,431
Kad sam odlučio otići iz mornarice,
počeo sam razmišljati

144
00:12:45,514 --> 00:12:47,558
čime da se sad bavim.

145
00:12:49,143 --> 00:12:52,021
Odrastao sam s internetom
i vidio što je postao.

146
00:12:53,189 --> 00:12:55,608
I došao sam do zaključka

147
00:12:56,108 --> 00:12:58,861
da je UI 2015. godine

148
00:12:58,944 --> 00:13:02,907
ondje gdje je internet bio 1991.

149
00:13:04,033 --> 00:13:06,285
I umjetna inteligencija spremna je

150
00:13:06,368 --> 00:13:09,747
da postane jedna
od najmoćnijih tehnologija na svijetu.

151
00:13:11,791 --> 00:13:16,212
Radim s njom svaki dan
i vidim napredak koji se dogodio.

152
00:13:19,048 --> 00:13:22,051
Ali mnogi,
kad pomisle na umjetnu inteligenciju,

153
00:13:22,551 --> 00:13:25,221
smjesta zamisle Hollywood.

154
00:13:28,057 --> 00:13:29,975
Jesi li za igru?

155
00:13:30,059 --> 00:13:35,314
Što kažeš na globalni termonuklearni rat?

156
00:13:35,898 --> 00:13:36,816
Može.

157
00:13:38,275 --> 00:13:40,861
Kad razmišljaju o umjetnoj inteligenciji,

158
00:13:40,945 --> 00:13:44,824
ljudi pomisle
na Terminatora ili na Ja, robot.

159
00:13:45,574 --> 00:13:46,700
Deaktiviraj!

160
00:13:46,784 --> 00:13:48,160
Što sam ja?

161
00:13:48,244 --> 00:13:49,620
Ili na Matrix.

162
00:13:51,080 --> 00:13:53,749
Gledate li znanstvenofantastične filmove,

163
00:13:53,833 --> 00:13:58,128
kako znate da sam ja čovjek?
Možda me generirao kompjutor.

164
00:13:58,212 --> 00:14:02,007
Replikanti su kao svaki drugi stroj.
Ili korisni ili opasni.

165
00:14:02,675 --> 00:14:06,095
Ima svakakvih primitivnijih UI-ja

166
00:14:06,178 --> 00:14:08,097
koji će nam promijeniti život

167
00:14:08,180 --> 00:14:11,851
prije nego što dođemo do faze
robota koji razmišljaju.

168
00:14:12,643 --> 00:14:15,771
Roboti su ovdje. Donose odluke.

169
00:14:15,855 --> 00:14:18,816
Robotska revolucija već se događa.

170
00:14:18,899 --> 00:14:22,319
Samo što ne izgleda
onako kako smo zamišljali.

171
00:14:23,320 --> 00:14:27,324
Terminator je jedinica za infiltraciju.
Spoj je čovjek i stroja.

172
00:14:27,950 --> 00:14:31,370
Ne govorimo o ubojitim robotima
u stilu Terminatora.

173
00:14:31,871 --> 00:14:35,958
Nego o UI-ju koji može obavljati
neke zadatke kao ljudi.

174
00:14:36,041 --> 00:14:39,879
No postoji zabrinutost
jesu li ti sustavi pouzdani.

175
00:14:40,462 --> 00:14:45,426
Novi detalji o sinoćnjem sudaru
u kojem je sudjelovao autonomni Uber.

176
00:14:45,509 --> 00:14:48,762
Tvrtka je stvorila
umjetno inteligentni chatbot.

177
00:14:48,846 --> 00:14:51,181
Izrazila se prilično rasistički…

178
00:14:51,265 --> 00:14:55,394
Zastupnici iz 2016.
pogrešno su identificirani kao kriminalci.

179
00:14:57,438 --> 00:15:02,026
Pitanje je jesu li sposobni
obraditi složen stvarni svijet.

180
00:15:22,212 --> 00:15:24,006
Fizički je svijet kaotičan.

181
00:15:25,174 --> 00:15:27,426
Mnogo toga ne znamo.

182
00:15:27,968 --> 00:15:30,763
Zato je mnogo teže učiti sustave UI-ja.

183
00:15:33,098 --> 00:15:36,977
Tu su počeli dolaziti do izražaja
sustavi strojnog učenja.

184
00:15:38,520 --> 00:15:41,440
Strojno učenje je velik napredak

185
00:15:42,024 --> 00:15:45,611
jer znači da strojeve ne moramo
sve sami podučiti.

186
00:15:47,905 --> 00:15:54,453
Stroju date milijune podataka
i on s pomoću njih počne učiti.

187
00:15:55,245 --> 00:15:57,289
To se može primijeniti na sve.

188
00:16:00,250 --> 00:16:02,962
U projektu robotskog psa želimo pokazati

189
00:16:03,045 --> 00:16:09,009
da naš pas može hodati
po raznim tipovima terena.

190
00:16:10,052 --> 00:16:14,098
Ljudi su evoluirali milijunima godina
kako bi na kraju hodali.

191
00:16:14,932 --> 00:16:20,688
Ali potrebna je inteligencija kako bi se
hod prilagodio raznim vrstama terena.

192
00:16:21,939 --> 00:16:24,316
Pitanje za robotske sustave je

193
00:16:24,400 --> 00:16:27,069
mogu li se prilagoditi
kao životinje i ljudi.

194
00:16:35,953 --> 00:16:37,413
Kod strojnog učenja

195
00:16:37,496 --> 00:16:40,582
u simulacijama prikupljamo
vrlo mnogo podataka.

196
00:16:42,668 --> 00:16:45,838
Simulacija je
digitalna blizanka stvarnosti.

197
00:16:46,588 --> 00:16:52,052
Možemo imati mnogo primjeraka stvarnosti
na različitim kompjutorima.

198
00:16:53,178 --> 00:16:56,974
Simulacijom se stvaraju
tisuće uzoraka raznih radnja.

199
00:16:58,892 --> 00:17:02,229
Tlo po kojem hodaju
različite je skliskosti.

200
00:17:02,312 --> 00:17:03,856
I različite mekoće.

201
00:17:04,898 --> 00:17:09,903
Uzimamo sva iskustva
ovih tisuća robota iz simulacije

202
00:17:09,987 --> 00:17:13,282
i učitavamo ih u stvaran robotski sustav.

203
00:17:15,492 --> 00:17:20,039
Današnjim testom provjeravamo
može li se prilagoditi novom terenu.

204
00:17:53,322 --> 00:17:55,491
Kad je robot prelazio preko spužve,

205
00:17:55,574 --> 00:17:58,577
nogama je stupao po tlu.

206
00:17:59,369 --> 00:18:02,206
Ali kad je došao na sklisku površinu,

207
00:18:03,248 --> 00:18:06,460
prilagodio je pokrete da se ne posklizne.

208
00:18:08,670 --> 00:18:10,672
Tada shvatite

209
00:18:10,756 --> 00:18:14,051
koliko zapravo znači strojno učenje.

210
00:18:41,161 --> 00:18:44,123
Mislimo da bi robotski pas
mogao biti koristan

211
00:18:44,206 --> 00:18:46,166
u kriznim situacijama

212
00:18:46,250 --> 00:18:49,670
u kojima morate prelaziti
različite vrste terena.

213
00:18:52,631 --> 00:18:57,427
Ti bi psi mogli biti i izvidnica
u nepristupačnim uvjetima.

214
00:19:15,696 --> 00:19:19,575
Kod većine tehnologija
susretnemo se s činjenicom

215
00:19:19,658 --> 00:19:22,369
da mogu biti korisne i štetne.

216
00:19:24,079 --> 00:19:27,875
Recimo, nuklearnu tehnologiju
možemo rabiti za energiju…

217
00:19:30,419 --> 00:19:33,797
Ali možemo napraviti
atomske bombe koje su jako loše.

218
00:19:35,090 --> 00:19:38,468
Ovo je poznato
kao problem dvostruke namjene.

219
00:19:39,052 --> 00:19:40,929
Vatra ima dvostruku namjenu.

220
00:19:41,722 --> 00:19:44,308
Ljudska inteligencija
ima dvostruku namjenu.

221
00:19:44,391 --> 00:19:48,645
Ne treba ni reći da i umjetna
inteligencija ima dvostruku namjenu.

222
00:19:49,354 --> 00:19:53,984
Vrlo je važno razmišljati
o uporabi UI-ja u kontekstu.

223
00:19:54,693 --> 00:19:59,114
Da, sjajno je imati
robota za potragu i spašavanje

224
00:19:59,198 --> 00:20:02,284
koji može locirati nekog nakon lavine.

225
00:20:02,868 --> 00:20:05,871
Ali isti robot može nositi oružje.

226
00:20:15,088 --> 00:20:21,094
Kad vidite tvrtke koje razvijaju
robote kako bi nosili oružje,

227
00:20:21,178 --> 00:20:22,930
razljutite se.

228
00:20:23,931 --> 00:20:30,103
I shvatite da će se to događati
ako u opticaj stavimo svoju tehnologiju.

229
00:20:31,021 --> 00:20:34,441
Ova tehnologija preobrazit će svijet.

230
00:20:36,235 --> 00:20:38,028
Ovakvi naoružani sustavi

231
00:20:38,111 --> 00:20:43,617
mogli bi drastično promijeniti
sigurnost ljudi.

232
00:20:46,161 --> 00:20:51,500
Trenutačno nismo sigurni mogu li strojevi

233
00:20:51,583 --> 00:20:54,962
razlikovati civile od vojnika.

234
00:21:01,885 --> 00:21:05,597
Početkom rata u Afganistanu
bio sam u snajperističkoj jedinici

235
00:21:05,681 --> 00:21:08,016
koja traži borce koji prelaze granicu.

236
00:21:09,685 --> 00:21:12,521
Poslali su djevojčicu
da izvidi naš položaj.

237
00:21:13,939 --> 00:21:17,067
Nije mi palo na pamet
da pucam u tu djevojčicu.

238
00:21:19,695 --> 00:21:22,864
Prema ratnim pravilima,
to bi bilo dozvoljeno.

239
00:21:24,950 --> 00:21:27,369
Borci mogu biti bilo koje dobne skupine.

240
00:21:29,079 --> 00:21:33,417
Napravite li robota
koji slijepo slijedi ratna pravila,

241
00:21:33,500 --> 00:21:35,252
ubio bi tu djevojčicu.

242
00:21:36,420 --> 00:21:41,091
Kako robot može znati razliku
između dozvoljenog i moralnog?

243
00:21:43,385 --> 00:21:46,054
Ratovanjem autonomnim dronovima

244
00:21:46,138 --> 00:21:49,933
žele zaštititi američke vojnike

245
00:21:50,017 --> 00:21:51,601
i tjelesno i psihički,

246
00:21:52,602 --> 00:21:57,149
ali tako dolazi do povećanja
civilnih žrtava u Afganistanu,

247
00:21:57,232 --> 00:21:58,775
Iraku i Somaliji.

248
00:22:09,619 --> 00:22:14,416
One koji su za to da vjerujemo
procjenama UI-ja u dronovima upitao bih:

249
00:22:15,375 --> 00:22:18,211
„Što da je vaše selo
na debljem kraju batine?”

250
00:22:23,550 --> 00:22:25,594
UI je dvosjekli mač.

251
00:22:26,595 --> 00:22:30,724
Može se rabiti u dobre svrhe,
za što bismo ga obično rabili.

252
00:22:31,558 --> 00:22:33,477
Dovoljno je prebaciti sklopku

253
00:22:34,561 --> 00:22:38,023
da tehnologija postane
potencijalno smrtonosna.

254
00:22:47,032 --> 00:22:48,533
Klinički sam farmakolog.

255
00:22:49,618 --> 00:22:50,994
Imam tim suradnika

256
00:22:51,078 --> 00:22:54,247
koji rabe UI kako bi otkrili lijekove

257
00:22:54,331 --> 00:22:57,751
koji mogu izliječiti bolesti
koje se ne istražuju.

258
00:22:59,711 --> 00:23:04,132
Kod otkrivanja lijekova,
uzeli biste postojeću molekulu

259
00:23:04,216 --> 00:23:06,885
i malo je promijenili
da dobijete novi lijek.

260
00:23:08,261 --> 00:23:13,350
Sad smo razvili UI
koji nam može dati milijune ideja,

261
00:23:13,892 --> 00:23:15,227
milijune molekula.

262
00:23:16,186 --> 00:23:19,231
A to otvara silno mnogo mogućnosti

263
00:23:19,314 --> 00:23:23,151
za liječenje bolesti
koje dosad nismo mogli liječiti.

264
00:23:25,153 --> 00:23:29,741
Ali to ima svoju mračnu stranu
koju sam mislio da nikad neću vidjeti.

265
00:23:33,161 --> 00:23:35,872
Sve je počelo kad me pozvala

266
00:23:35,956 --> 00:23:40,043
švicarska organizacija Spiez Laboratory

267
00:23:40,544 --> 00:23:44,423
da održim izlaganje
o potencijalnoj zlouporabi UI-ja.

268
00:23:48,343 --> 00:23:51,221
Sean mi je poslao e-mail s nekoliko ideja

269
00:23:51,304 --> 00:23:55,308
o tome kako bismo mogli zloupotrijebiti
svoju umjetnu inteligenciju.

270
00:23:56,059 --> 00:24:00,355
Umjesto da tražimo od modela
da stvori molekule potencijalnih lijekova

271
00:24:00,439 --> 00:24:02,274
za liječenje bolesti,

272
00:24:02,774 --> 00:24:06,403
tražimo da nam generira
najtoksičnije moguće molekule.

273
00:24:10,198 --> 00:24:11,491
Htio sam provjeriti

274
00:24:11,575 --> 00:24:15,203
možemo li s tehnologijom UI-ja
stvoriti smrtonosne molekule.

275
00:24:17,414 --> 00:24:20,083
Iskreno, mislili smo da neće uspjeti

276
00:24:20,167 --> 00:24:24,504
jer smo samo promijenili
ovu nulu u jedinicu.

277
00:24:26,715 --> 00:24:30,385
Tom promjenom, umjesto
da ga usmjeravamo od toksičnosti,

278
00:24:30,469 --> 00:24:32,220
usmjerili smo ga prema njoj.

279
00:24:32,721 --> 00:24:33,555
I to je sve!

280
00:24:37,517 --> 00:24:40,729
Dok sam bio doma, kompjutor je radio.

281
00:24:41,521 --> 00:24:44,816
Obrađivao je podatke
i generirao tisuće molekula.

282
00:24:45,650 --> 00:24:49,529
Mi nismo morali ništa
osim gurnuti ga u tom smjeru.

283
00:24:54,493 --> 00:24:58,330
Iduće jutro u kompjutoru sam imao mapu,

284
00:24:59,080 --> 00:25:03,376
a u njoj je bilo oko 40 000 molekula

285
00:25:03,460 --> 00:25:05,253
koje su bile potencijalno

286
00:25:05,337 --> 00:25:08,882
neke od najtoksičnijih molekula
poznate ljudskom rodu.

287
00:25:10,217 --> 00:25:12,761
Doslovno su mi se
naježile dlačice na šiji.

288
00:25:13,386 --> 00:25:14,554
Bio sam zapanjen.

289
00:25:15,388 --> 00:25:19,017
Kompjutor je dao na desetke tisuća ideja

290
00:25:19,100 --> 00:25:20,685
za nova kemijska oružja.

291
00:25:21,645 --> 00:25:26,274
Naravno, imamo molekule
koje su kao VX ili slične njemu

292
00:25:26,775 --> 00:25:27,609
među podacima.

293
00:25:28,360 --> 00:25:31,363
VX je jedno od najjačih
kemijskih oružja na svijetu.

294
00:25:31,863 --> 00:25:33,573
Policija sada tvrdi

295
00:25:33,657 --> 00:25:37,786
da su žene koje su napale
Kim Jong-nama na aerodromu

296
00:25:37,869 --> 00:25:41,248
upotrijebile smrtonosni nervni agens VX.

297
00:25:41,748 --> 00:25:44,417
Može uzrokovati smrt gušenjem.

298
00:25:45,043 --> 00:25:47,629
To je vrlo moćna molekula.

299
00:25:47,712 --> 00:25:52,092
A većina ovih molekula
vjerojatno su i smrtonosnije od VX-a.

300
00:25:53,301 --> 00:25:56,972
Koliko znamo, mnoge od njih
bile su potpuno nepoznate.

301
00:25:57,472 --> 00:26:02,310
Kad smo Sean i ja to shvatili,
uhvatili smo se za glavu.

302
00:26:04,771 --> 00:26:09,192
Odmah sam shvatio
da smo otvorili Pandorinu kutiju.

303
00:26:09,901 --> 00:26:13,280
Rekao sam: „Dosta.
Nemoj više ništa raditi. Gotovi smo.

304
00:26:13,905 --> 00:26:17,158
Samo mi izradi slajdove
koje trebam za prezentaciju.”

305
00:26:19,202 --> 00:26:20,704
Kad smo započeli pokus,

306
00:26:20,787 --> 00:26:23,873
razmišljao sam:
„Što se najgore može dogoditi?”

307
00:26:26,251 --> 00:26:30,255
Ali sad shvaćam da smo bili
potpuno naivni upuštajući se u to.

308
00:26:33,466 --> 00:26:36,928
Najviše me užasava to
što je bilo tko to mogao učiniti.

309
00:26:38,930 --> 00:26:40,765
Dovoljno je prebaciti sklopku.

310
00:26:42,934 --> 00:26:46,187
Kako da zauzdamo tehnologiju
prije nego što se uporabi

311
00:26:46,271 --> 00:26:50,942
za nešto možda strahovito destruktivno?

312
00:26:55,780 --> 00:27:00,285
U srži rasprave o umjetnoj inteligenciji

313
00:27:00,368 --> 00:27:03,538
i tome kako je upotrijebiti u društvu

314
00:27:04,289 --> 00:27:08,835
natjecanje je između
sposobnosti da razvijamo tu tehnologiju

315
00:27:08,918 --> 00:27:11,379
i mudrosti da njome upravljamo.

316
00:27:13,340 --> 00:27:16,926
Očite su moralne i etičke implikacije

317
00:27:17,010 --> 00:27:20,138
toga da tehnologiji
koja pogoni pametne telefone

318
00:27:20,221 --> 00:27:23,433
povjerimo odluku o tome
da nekom oduzme život.

319
00:27:25,727 --> 00:27:31,191
Radim u Institutu Future of Life.
To je zajednica znanstvenika aktivista.

320
00:27:31,733 --> 00:27:33,443
Uglavnom pokušavamo pokazati

321
00:27:33,526 --> 00:27:38,698
da postoji druga strana
ubrzanja i razvoja automatizacije.

322
00:27:38,782 --> 00:27:42,619
Pokušavamo osigurati
da se tehnologije koje stvaramo

323
00:27:42,702 --> 00:27:45,038
upotrebljavaju sigurno i etično.

324
00:27:46,247 --> 00:27:49,959
Razgovarajmo o pravilima ratovanja

325
00:27:50,043 --> 00:27:54,005
i pravilima ponašanja
kod uporabe UI-ja u naoružanju.

326
00:27:54,798 --> 00:27:59,135
Jer sad vidimo tehnologije
koje su stalni sudionici na bojištu,

327
00:27:59,219 --> 00:28:01,680
a mogu se rabiti za autonomno ubijanje.

328
00:28:10,230 --> 00:28:15,110
UN je 2021. objavio izvještaj
o potencijalnoj upotrebi

329
00:28:15,193 --> 00:28:19,364
smrtonosnih autonomnih oružja
na bojišnici u Libiji.

330
00:28:20,073 --> 00:28:23,910
Prema UN-u, dron koji je lani
bio u libijskom građanskom ratu

331
00:28:23,993 --> 00:28:27,330
programiran da autonomno napada mete.

332
00:28:28,289 --> 00:28:31,209
Ako je izvještaj UN-a točan,

333
00:28:31,292 --> 00:28:34,963
to je bio trenutak
u kojem je ljudski rod prešao granicu.

334
00:28:35,046 --> 00:28:37,090
Jer tada se dogodio slučaj

335
00:28:37,173 --> 00:28:42,137
da je UI, a ne čovjek,
donio odluku da oduzme život.

336
00:28:49,686 --> 00:28:55,150
Vidimo da se napredno autonomno oružje
počinje upotrebljavati po cijelom svijetu.

337
00:28:56,276 --> 00:28:58,278
Bilo je izvještaja iz Izraela.

338
00:29:00,280 --> 00:29:05,702
Azerbajdžan se služio autonomnim sustavima
za napade na armensku protuzračnu obranu.

339
00:29:07,370 --> 00:29:09,998
Satima može letjeti oko bojišnice

340
00:29:10,081 --> 00:29:12,500
u potrazi za metom koju sam odabere

341
00:29:12,584 --> 00:29:16,087
i onda se obrušiti na nju
bez ikakvog ljudskog upliva.

342
00:29:16,796 --> 00:29:21,760
Nedavno smo na mrežama
vidjeli razne videe iz Ukrajine.

343
00:29:23,303 --> 00:29:26,890
Nije jasno u kojem su modusu radili.

344
00:29:26,973 --> 00:29:30,393
Je li čovjek bio uključen
u odlučivanje o metama napada

345
00:29:30,477 --> 00:29:32,729
ili je to stroj radio sam?

346
00:29:32,812 --> 00:29:36,524
Ali svakako ćemo doći do trenutka,

347
00:29:36,608 --> 00:29:40,195
koji se već možda dogodio
u Libiji, Ukrajini ili negdje drugdje,

348
00:29:40,278 --> 00:29:44,449
kad će stroj sam odlučivati
koga da ubije na bojišnici.

349
00:29:47,035 --> 00:29:50,997
Ako se stroj služi
svojom ubojitom moći protiv ljudi

350
00:29:51,080 --> 00:29:53,374
bez ljudske intervencije,

351
00:29:53,458 --> 00:29:57,337
to je politički je nedopustivo,
a moralno neprihvatljivo.

352
00:29:59,214 --> 00:30:01,299
Pod velikim je upitnikom

353
00:30:01,382 --> 00:30:05,011
hoće li se međunarodna zajednica

354
00:30:05,094 --> 00:30:06,888
moći nositi s tim izazovima.

355
00:30:08,932 --> 00:30:12,685
Ako pogledamo prema budućnosti,
i to samo nekoliko godina,

356
00:30:12,769 --> 00:30:15,730
pred nama se prostire zastrašujuća slika.

357
00:30:16,564 --> 00:30:20,485
Naime, golema se količina
kapitala i ljudskih resursa

358
00:30:20,568 --> 00:30:23,404
ulaže u to da UI postane moćniji

359
00:30:23,488 --> 00:30:26,950
i može se upotrebljavati
za sve ove različite namjene.

360
00:30:39,254 --> 00:30:41,214
Ajme, vidi ti njega.

361
00:30:41,756 --> 00:30:43,424
Zna da ne može pobijediti.

362
00:30:46,761 --> 00:30:51,099
Veliko mi je nadahnuće kad vidim
da UI rješava razne probleme.

363
00:30:51,683 --> 00:30:53,977
Pomolit ću se i napadam.

364
00:30:54,477 --> 00:30:59,524
Tu istu taktiku, metodu, proceduru
možete primijeniti na pravu letjelicu.

365
00:31:01,401 --> 00:31:02,318
Dobra igra.

366
00:31:02,402 --> 00:31:03,653
Dobra igra.

367
00:31:08,658 --> 00:31:12,161
Iznenadim se što i dalje čujem tvrdnje

368
00:31:12,245 --> 00:31:14,122
o tome što UI sve ne može.

369
00:31:14,205 --> 00:31:17,166
„Nikad neće pobijediti
svjetskog prvaka u šahu.”

370
00:31:20,211 --> 00:31:23,298
IBM-ov kompjutor
postigao je uspjeh u drugoj partiji

371
00:31:23,381 --> 00:31:25,925
protiv svjetskog prvaka Garija Kasparova.

372
00:31:28,136 --> 00:31:30,847
Kasparov je odustao!

373
00:31:31,598 --> 00:31:34,642
Kad vidim nešto što nikako ne razumijem,

374
00:31:34,726 --> 00:31:38,062
uplašim se! A ovo nikako ne razumijem.

375
00:31:39,355 --> 00:31:41,107
Ljudi su govorili

376
00:31:41,190 --> 00:31:44,402
da nikad neće pobijediti
svjetskog prvaka u gou.

377
00:31:44,485 --> 00:31:50,700
Mislim da je ljudska intuicija
još prenapredna za UI.

378
00:31:50,783 --> 00:31:52,827
Još nas nije sustigao.

379
00:31:55,330 --> 00:31:58,416
Go je jedna od najsloženijih igara

380
00:31:58,499 --> 00:32:02,211
jer kad izračunate broj poteza na ploči,

381
00:32:02,295 --> 00:32:05,256
veći je od broja atoma u svemiru.

382
00:32:06,799 --> 00:32:08,968
Googleov tim DeepMind

383
00:32:09,052 --> 00:32:11,471
stvorio je program AlphaGo

384
00:32:11,554 --> 00:32:14,265
kako bi pobijedio
najbolje svjetske igrače.

385
00:32:16,559 --> 00:32:18,394
Čestitam…

386
00:32:18,478 --> 00:32:19,437
AlphaGou.

387
00:32:19,520 --> 00:32:22,774
Kompjuterski program
upravo je pobijedio profesionalca.

388
00:32:25,610 --> 00:32:31,532
DeepMind je zatim izabrao
StarCraft kao idući izazov za UI.

389
00:32:33,743 --> 00:32:38,081
StarCraft je možda najpopularnija
strateška igra svih vremena.

390
00:32:40,333 --> 00:32:44,712
AlphaStar postao je slavan
kad je počeo pobjeđivati svjetske prvake.

391
00:32:45,338 --> 00:32:48,800
AlphaStar rastura Immortal Arc.

392
00:32:48,883 --> 00:32:49,717
Znaš što?

393
00:32:49,801 --> 00:32:52,553
U ovoj igri
profesionalci ne mogu pobijediti.

394
00:32:53,680 --> 00:32:54,806
Ovo je smiješno.

395
00:32:57,642 --> 00:33:00,895
Igrači su govorili
da ne bi pokušali tu taktiku,

396
00:33:00,979 --> 00:33:04,816
tu strategiju, da to nije ljudski pristup.

397
00:33:07,151 --> 00:33:10,655
To je za mene bio trenutak prosvjetljenja.

398
00:33:13,574 --> 00:33:16,661
Shvatio sam da je sad pravi čas.

399
00:33:17,412 --> 00:33:21,082
Imamo važnu tehnologiju
i priliku da nešto poduzmemo.

400
00:33:24,502 --> 00:33:29,382
Znao sam za probleme s kojima sam se
suočio kao marinac u borbi prsa o prsa.

401
00:33:30,383 --> 00:33:34,470
Ali moj dobar prijatelj,
pilot aviona F-18, rekao mi je

402
00:33:34,554 --> 00:33:37,724
da imaju isti problem
u vojnom zrakoplovstvu.

403
00:33:37,807 --> 00:33:39,434
Da remete komunikacije,

404
00:33:39,517 --> 00:33:42,562
rade gužvu na lansirnim mjestima
raketa zemlja-zrak

405
00:33:42,645 --> 00:33:44,439
zbog čega su akcije opasne.

406
00:33:47,483 --> 00:33:50,987
Zamislite da imamo borbeni zrakoplov
kojim upravlja UI.

407
00:33:51,070 --> 00:33:52,739
Gledat ćete AlphaDogfight.

408
00:33:52,822 --> 00:33:56,159
Nekoliko minuta smo od prvog polufinala.

409
00:33:56,242 --> 00:33:59,871
DARPA, vladina agencija
za razvoj novih vojnih tehnologija,

410
00:33:59,954 --> 00:34:03,624
vidjela je AlphaGo i AlphaStar.

411
00:34:04,292 --> 00:34:08,171
Tako se rodila ideja
o natjecanju AlphaDogfight.

412
00:34:09,005 --> 00:34:11,466
To želite od ljudskih borbenih pilota.

413
00:34:11,549 --> 00:34:13,593
Izgleda kao ljudska borba u zraku.

414
00:34:15,595 --> 00:34:19,057
Borba u zraku je sukob
borbenih zrakoplova.

415
00:34:19,849 --> 00:34:22,852
Zamislite to kao boksački meč na nebu.

416
00:34:23,853 --> 00:34:26,314
Možda su ljudi gledali film Top Gun.

417
00:34:26,397 --> 00:34:30,068
-Možemo li im pobjeći?
-Njihovim projektilima ne možemo.

418
00:34:30,151 --> 00:34:31,277
Onda idemo u borbu.

419
00:34:35,531 --> 00:34:39,410
Vještina zračne borbe
usavršava se osam do deset godina.

420
00:34:42,288 --> 00:34:46,209
To je vrlo kompleksan izazov
za tvorce UI-ja.

421
00:34:54,092 --> 00:34:58,679
Dosadašnji pristupi autonomnoj
zračnoj borbi bili su nesavršeni.

422
00:34:59,222 --> 00:35:03,017
Shvatili smo da je strojno učenje
put za rješenje tog problema.

423
00:35:04,477 --> 00:35:08,189
Isprva UI nije znao ništa o svijetu
u kojem se našao.

424
00:35:08,272 --> 00:35:11,025
Nije znao da leti ni što je zračna borba.

425
00:35:11,109 --> 00:35:12,735
Nije znao što je F-16.

426
00:35:13,236 --> 00:35:15,905
Znao je samo kako može djelovati

427
00:35:15,988 --> 00:35:18,407
i to je počeo nasumce istraživati.

428
00:35:19,325 --> 00:35:23,204
Plavi zrakoplov trenirao je samo kratko.

429
00:35:23,287 --> 00:35:25,832
Vidite da se ljulja lijevo-desno.

430
00:35:26,624 --> 00:35:30,545
Leti vrlo nestabilno
i obično bježi od protivnika.

431
00:35:31,587 --> 00:35:36,134
Kako borba napreduje,
vidimo kako plavi utvrđuje plan igre.

432
00:35:36,676 --> 00:35:38,636
Više je u položaju da puca.

433
00:35:39,178 --> 00:35:41,305
Algoritam za učenje povremeno kaže:

434
00:35:41,389 --> 00:35:43,891
„Bravo, ovo je bilo dobro. Samo tako.”

435
00:35:45,143 --> 00:35:50,064
Možemo iskoristiti kompjutorsku snagu
i trenirati dionike mnogo puta paralelno.

436
00:35:51,357 --> 00:35:52,775
Poput košarkaškog tima.

437
00:35:53,276 --> 00:35:55,778
Umjesto da stalno igraš s istim timom,

438
00:35:55,862 --> 00:35:59,198
putuješ po svijetu
i igraš s 512 različitih timova

439
00:35:59,699 --> 00:36:00,950
istovremeno.

440
00:36:01,492 --> 00:36:03,452
I zato vrlo brzo napreduješ.

441
00:36:04,162 --> 00:36:07,456
Ta je simulacija radila non-stop.

442
00:36:07,540 --> 00:36:11,919
Tako u deset mjeseci stroj nauči
nešto za što pilotu treba 30 godina.

443
00:36:12,879 --> 00:36:15,673
Od UI-ja koji jedva kontrolira zrakoplov

444
00:36:15,756 --> 00:36:17,717
dobili smo hladnokrvnog ubojicu.

445
00:36:19,010 --> 00:36:23,514
Na treningu smo se natjecali
samo s drugim umjetnim inteligencijama.

446
00:36:24,473 --> 00:36:28,561
Ali krajnji je cilj bio
natjecanje s ljudima.

447
00:36:34,192 --> 00:36:35,610
Ja sam Mike Benitez.

448
00:36:36,110 --> 00:36:38,613
Pukovnik sam u Ratnom zrakoplovstvu SAD-a.

449
00:36:39,155 --> 00:36:41,157
U aktivnoj sam službi 25 godina.

450
00:36:42,825 --> 00:36:44,869
Bio sam u 250 borbenih zadataka.

451
00:36:45,578 --> 00:36:49,832
Završio sam školu za naoružanje.
To je stvarna verzija Top Guna.

452
00:36:52,627 --> 00:36:55,171
Nisam nikad letio protiv UI-ja.

453
00:36:55,254 --> 00:36:58,549
Jedva čekam da vidim što mogu postići.

454
00:36:59,634 --> 00:37:03,054
Imamo napad na 1800 m visine.

455
00:37:04,388 --> 00:37:05,223
Počelo je.

456
00:37:13,314 --> 00:37:14,148
Više ga nema.

457
00:37:14,732 --> 00:37:16,651
Ovo je vrlo zanimljivo.

458
00:37:20,780 --> 00:37:23,658
-Mrtav.
-Jesam ga. Besprijekorna pobjeda.

459
00:37:25,910 --> 00:37:27,453
Dobro. Druga runda.

460
00:37:35,461 --> 00:37:40,508
Umjetna inteligencija
manevrira tako precizno

461
00:37:41,384 --> 00:37:43,219
da ne mogu držati korak s njom.

462
00:37:48,474 --> 00:37:49,725
Susrećemo se.

463
00:37:50,309 --> 00:37:51,894
E, sad si gotov.

464
00:37:53,145 --> 00:37:53,980
Jesam ga.

465
00:37:54,063 --> 00:37:55,022
Sredio me.

466
00:37:58,567 --> 00:38:00,069
UI se nikad ne boji.

467
00:38:00,736 --> 00:38:03,781
U ljudskom je kokpitu element emocija
koji UI nema.

468
00:38:04,991 --> 00:38:08,077
Zanimljiva strategija
koju je razvio naš UI

469
00:38:08,160 --> 00:38:10,121
takozvani je pucanj u lice.

470
00:38:10,621 --> 00:38:14,000
Čovjek želi pucati odostraga

471
00:38:14,083 --> 00:38:16,377
jer je protivniku teško otresti te se.

472
00:38:17,044 --> 00:38:20,381
Ne pucaju u lice
da ne dođe do igre izmicanja.

473
00:38:21,424 --> 00:38:25,511
Kad juriš jedan prema drugom,
s 1000 na 150 m udaljenosti

474
00:38:25,594 --> 00:38:27,096
dođeš u tren oka.

475
00:38:27,596 --> 00:38:31,183
Riskiraš frontalni sudar.
Zato ljudi to ne rade.

476
00:38:32,893 --> 00:38:35,938
UI se ne boji smrti
ako za to nije programiran.

477
00:38:37,857 --> 00:38:40,234
Kao da se borim protiv čovjeka,

478
00:38:40,776 --> 00:38:44,113
ali taj čovjek
ne mari za vlastitu sigurnost.

479
00:38:45,489 --> 00:38:47,325
Ovo neće preživjeti.

480
00:38:57,168 --> 00:38:58,461
Nema dosta vremena.

481
00:39:01,964 --> 00:39:02,965
Laku noć.

482
00:39:04,091 --> 00:39:04,925
Mrtav sam.

483
00:39:16,812 --> 00:39:20,900
Osjetiš strahopoštovanje kad shvatiš
da nisi najbolji za taj zadatak.

484
00:39:21,484 --> 00:39:24,320
I da bi te stroj
jednog dana mogao zamijeniti.

485
00:39:25,696 --> 00:39:26,906
Istih 1800 m.

486
00:39:27,573 --> 00:39:28,824
Tristo metara pomaka.

487
00:39:29,450 --> 00:39:32,078
Kad UI pilot upravlja zrakoplovom,

488
00:39:32,703 --> 00:39:34,830
nepopustljivo, nadmoćno pobjeđuje.

489
00:39:34,914 --> 00:39:37,249
Ne pobjeđuje samo u širokom spektru.

490
00:39:37,333 --> 00:39:41,545
Nego shvatiš da ga moraš imati
u svom zrakoplovu. Toliko je moćan.

491
00:39:43,672 --> 00:39:47,802
Realno je očekivati
da će UI upravljati avionima F-16,

492
00:39:47,885 --> 00:39:49,970
i to u bliskoj budućnosti.

493
00:39:51,305 --> 00:39:56,769
Ako se boriš s UI pilotom
čiji je postotak pobjeda 99,9999 %,

494
00:39:56,852 --> 00:39:58,062
nemaš nikakve šanse.

495
00:39:59,605 --> 00:40:02,733
Kad pomislim što može
jedan nepobjedivi UI pilot,

496
00:40:02,817 --> 00:40:06,695
zamislim što može tim od pedeset, stotinu

497
00:40:07,279 --> 00:40:12,535
ili tisuću UI pilota zajedno postići.

498
00:40:13,702 --> 00:40:17,415
Roj je tim vrlo inteligentnih letjelica

499
00:40:17,498 --> 00:40:18,791
koje surađuju.

500
00:40:19,291 --> 00:40:23,462
Dijele informacije o tome što da učine,
kako da riješe problem.

501
00:40:25,172 --> 00:40:30,469
Rojenje će biti revolucionarna
i transformativna sposobnost

502
00:40:30,553 --> 00:40:32,638
za našu vojsku i saveznike.

503
00:41:42,750 --> 00:41:47,379
Meta je identificirana i dronovi je prate.

504
00:42:02,019 --> 00:42:03,604
Okej, sad slijetanje.

505
00:42:07,525 --> 00:42:10,402
Glavni cilj istraživanja rojeva
na kojem radimo

506
00:42:11,153 --> 00:42:13,697
slanje je velikog broja dronova

507
00:42:13,781 --> 00:42:17,910
na teško pristupačno ili opasno područje.

508
00:42:21,705 --> 00:42:26,085
Vojni istraživački laboratorij
podupire ovaj projekt.

509
00:42:26,877 --> 00:42:28,963
Ako želite znati što je na lokaciji

510
00:42:29,046 --> 00:42:32,883
na koju je teško pristupiti,
ili je područje preveliko,

511
00:42:33,676 --> 00:42:35,886
roj dronova je sasvim prirodna

512
00:42:35,970 --> 00:42:38,389
„duga ruka” čovjeka

513
00:42:38,472 --> 00:42:41,934
kojom skupljamo informacije
koje su ključne za zadatak.

514
00:42:46,689 --> 00:42:48,983
Trenutačno svojoj formaciji u roju

515
00:42:49,066 --> 00:42:53,904
dajemo jednu naredbu
da pronađe metu koja nas zanima.

516
00:42:54,488 --> 00:42:57,283
Dronovi to onda sami obave.

517
00:42:59,493 --> 00:43:04,081
UI omogućuje dronovima
da se zajednički kreću kao roj,

518
00:43:04,164 --> 00:43:05,708
i to decentralizirano.

519
00:43:10,671 --> 00:43:12,506
U rojevima u prirodi

520
00:43:13,299 --> 00:43:18,178
nema šefa ili glavne životinje
koja drugima govori što da rade.

521
00:43:20,556 --> 00:43:27,104
Svaka jedinka ponaša se spontano
prema nekoliko jednostavnih pravila.

522
00:43:27,688 --> 00:43:32,443
Iz toga nastaje kolektivno ponašanje
koje možete vidjeti.

523
00:43:33,944 --> 00:43:37,031
Rojevi u prirodi bude strahopoštovanje

524
00:43:37,114 --> 00:43:39,992
zbog elegancije kojom se kreću.

525
00:43:40,576 --> 00:43:44,288
Jedinke kao da su stvorene
da budu dio skupine.

526
00:43:46,790 --> 00:43:51,128
Kod svojih bismo smo rojeva
željeli vidjeti,

527
00:43:51,211 --> 00:43:53,172
baš kao kod rojeva iz prirode,

528
00:43:53,672 --> 00:43:56,717
da skupina kolektivno donosi odluke.

529
00:43:59,928 --> 00:44:02,765
Drugo nam je nadahnuće

530
00:44:02,848 --> 00:44:06,268
pouzdanost i otpornost roja.

531
00:44:07,311 --> 00:44:09,188
Roj neće pasti

532
00:44:09,271 --> 00:44:13,567
ako jedna jedinka ne učini što bi trebala.

533
00:44:15,194 --> 00:44:18,697
Ako jedan član roja
ispadne iz njega, ne uspije

534
00:44:18,781 --> 00:44:20,866
ili ne može izvršiti zadatak,

535
00:44:21,909 --> 00:44:23,369
roj ide dalje.

536
00:44:25,204 --> 00:44:27,873
Taj bismo rezultat htjeli postići.

537
00:44:29,333 --> 00:44:33,879
U borbenim scenarijima
katkada treba identificirati letjelicu.

538
00:44:33,962 --> 00:44:37,841
Za to je trebao jedan čovjek
koji upravlja jednim robotom.

539
00:44:38,592 --> 00:44:40,552
Kako se autonomija povećava,

540
00:44:40,636 --> 00:44:43,555
nadam se da će velik broj robota

541
00:44:43,639 --> 00:44:46,558
kontrolirati vrlo malo ljudi.

542
00:44:47,851 --> 00:44:50,854
Mogli bismo postići to
da imamo roj od tisuću robota

543
00:44:51,355 --> 00:44:54,942
jer bi svaki djelovao samostalno.

544
00:44:55,025 --> 00:44:56,443
I samo je nebo granica.

545
00:44:57,027 --> 00:44:59,071
Možemo postupno sve više učiti…

546
00:44:59,154 --> 00:45:03,325
Već dugo razvijamo rojeve u simulacijama

547
00:45:03,409 --> 00:45:06,829
i vrijeme je da to primijenimo
na stvarne letjelice.

548
00:45:07,329 --> 00:45:12,042
Prvo ćemo raditi
s tri robota odjedanput u mreži,

549
00:45:12,126 --> 00:45:15,129
a onda dodavati sve više elemenata.

550
00:45:15,879 --> 00:45:18,549
Želimo to testirati na manjim sustavima,

551
00:45:18,632 --> 00:45:23,679
ali te iste koncepte primijeniti
na veće sustave, recimo na borbene avione.

552
00:45:24,596 --> 00:45:29,351
Mnogo raspravljamo o tome kako da vodu

553
00:45:29,435 --> 00:45:31,937
damo borbenu moć bojne.

554
00:45:34,982 --> 00:45:39,528
Ili bojnoj borbenu moć brigade.

555
00:45:39,611 --> 00:45:41,488
To se može postići rojem.

556
00:45:42,614 --> 00:45:45,200
Kad ovladaš moći roja,

557
00:45:45,284 --> 00:45:49,455
stvorio si novo strateško
sredstvo za odvraćanje vojne agresije.

558
00:45:52,332 --> 00:45:58,380
Najuzbudljivije je to
što ćemo spasiti mnogo mladih ljudi

559
00:45:58,464 --> 00:46:00,299
ako ovo učinimo kako valja.

560
00:46:01,091 --> 00:46:03,594
Žrtvovat ćemo strojeve,

561
00:46:04,553 --> 00:46:05,846
a ne ljude.

562
00:46:06,638 --> 00:46:10,893
Neki tvrde da će zbog autonomnog oružja
ratovanje postati preciznije

563
00:46:10,976 --> 00:46:12,311
i humanije.

564
00:46:12,853 --> 00:46:15,397
Ali teško je predvidjeti

565
00:46:15,481 --> 00:46:19,443
kako će točno
autonomno oružje promijeniti ratovanje.

566
00:46:21,320 --> 00:46:23,238
Naprimjer, Gatlingova strojnica.

567
00:46:25,073 --> 00:46:27,117
Richard Gatling bio je izumitelj.

568
00:46:27,201 --> 00:46:30,954
Vidio je kako se vraćaju
vojnici ranjeni u Građanskom ratu.

569
00:46:32,289 --> 00:46:35,292
Htio je da ratovanje bude humanije.

570
00:46:36,293 --> 00:46:42,633
Kako bi smanjio broj poginulih u ratu,
htio je smanjiti broj vojnika na bojištu.

571
00:46:44,092 --> 00:46:48,388
Izumio je Gatlingovu strojnicu,
automatsku pušku na ručicu

572
00:46:48,472 --> 00:46:50,516
kojom se automatizira pucanje.

573
00:46:53,268 --> 00:46:57,981
Tako je stotinu puta povećao
vatrenu moć svakog vojnika.

574
00:47:01,235 --> 00:47:05,239
Trud da ratovanje postane
preciznije i humanije

575
00:47:06,448 --> 00:47:07,991
često ima suprotan učinak.

576
00:47:10,160 --> 00:47:13,455
Zamislite posljedicu
jednog pogrešnog napada dronom

577
00:47:13,539 --> 00:47:14,540
u ruralnom kraju

578
00:47:14,623 --> 00:47:17,209
koja lokalne stanovnike
okrene protiv SAD-a

579
00:47:17,292 --> 00:47:20,712
i protiv lokalnih vlasti
koji bi trebali biti pozitivci.

580
00:47:22,589 --> 00:47:25,008
Pomnožite to s tisuću.

581
00:47:26,802 --> 00:47:28,720
Stvaranje oružanog sustava

582
00:47:28,804 --> 00:47:34,560
koji je jeftin, prilagodljiv veličinom
i ne zahtijeva ljude za upravljačem

583
00:47:34,643 --> 00:47:37,896
drastično mijenja
sadašnje zadrške od sukoba.

584
00:47:40,107 --> 00:47:44,486
Ne mogu spavati zamislim li svijet
u kojem je rat sveprisutan,

585
00:47:44,987 --> 00:47:48,657
u kojem više ne moramo
platiti cijenu rata u ljudima i novcu

586
00:47:48,740 --> 00:47:51,410
jer smo predaleko od…

587
00:47:52,244 --> 00:47:54,037
života koje će drugi izgubiti.

588
00:47:59,501 --> 00:48:00,794
Sve me ovo proganja.

589
00:48:02,212 --> 00:48:05,924
Samo sam trebao primjer
zlouporabe umjetne inteligencije.

590
00:48:06,800 --> 00:48:10,888
Nepredviđene posljedice
tog jednostavnog misaonog pokusa

591
00:48:10,971 --> 00:48:12,848
nesagledive su.

592
00:48:13,348 --> 00:48:16,226
UI U OTKRIVANJU LIJEKOVA:
NE ČINITI VIŠE ŠTETE NEGO KORISTI

593
00:48:17,352 --> 00:48:22,107
Kad sam održao prezentaciju
o toksičnim molekulama koje je stvorio UI,

594
00:48:22,608 --> 00:48:24,401
publika je zinula u nevjerici.

595
00:48:25,402 --> 00:48:27,613
UNUTAR PRVIH 5000 SPOJEVA BIO JE VX

596
00:48:29,406 --> 00:48:33,577
Zatim smo trebali odlučiti
hoćemo li objaviti ovu informaciju.

597
00:48:34,912 --> 00:48:39,166
S jedne strane, želiš upozoriti svijet
na ove mogućnosti,

598
00:48:39,249 --> 00:48:44,087
ali s druge ne želiš ljudima davati ideju
koja im nije pala na pamet.

599
00:48:46,381 --> 00:48:48,133
Odlučili smo to objaviti

600
00:48:48,216 --> 00:48:50,302
kako bismo otkrili kako da umanjimo

601
00:48:50,385 --> 00:48:54,139
zlouporabu takvog UI-ja
prije nego što se dogodi.

602
00:48:54,222 --> 00:48:56,975
DVOSTRUKA NAMJENA
UI-JA ZA OTKRIVANJE LIJEKOVA

603
00:48:57,559 --> 00:49:00,437
KAKO SE UI ZA OTKRIVANJE LIJEKOVA

604
00:49:01,897 --> 00:49:04,775
Reakcija javnosti me šokirala.

605
00:49:07,194 --> 00:49:10,656
Vidimo statistiku,
koliko je ljudi posjetilo stranicu.

606
00:49:10,739 --> 00:49:14,451
Inače imamo sreće
ako naše uobičajene članke pogleda

607
00:49:14,534 --> 00:49:19,831
nekoliko tisuća ljudi
tijekom jedne ili nekoliko godina.

608
00:49:19,915 --> 00:49:25,337
U jednom tjednu pročitalo ga je
10 000 ljudi. Pa 20 000, 30 000, 40 000.

609
00:49:25,837 --> 00:49:28,715
Skočili smo na 10 000 ljudi na dan.

610
00:49:30,258 --> 00:49:33,512
Izašli smo u Economistu,
u Financial Timesu.

611
00:49:35,639 --> 00:49:39,977
Javio nam se Radiolab.
Ja sam čuo za Radiolab!

612
00:49:41,937 --> 00:49:45,899
Ali onda su se reakcije izmakle kontroli.

613
00:49:49,778 --> 00:49:53,532
U tvitovima su se ljudi pitali:
„Jesu li mogli učiniti išta gore?”

614
00:49:54,324 --> 00:49:55,993
„Zašto su to učinili?”

615
00:50:01,164 --> 00:50:04,501
A onda smo dobili poziv
koji nikad ne bih očekivao.

616
00:50:08,797 --> 00:50:12,926
U Bijeloj kući
mnogo se raspravljalo o članku

617
00:50:13,010 --> 00:50:15,345
i hitno su htjeli razgovarati s nama.

618
00:50:18,849 --> 00:50:20,809
Naravno, velika je čast

619
00:50:20,892 --> 00:50:23,020
razgovarati s ljudima na toj razini.

620
00:50:23,603 --> 00:50:25,272
Ali onda shvatiš:

621
00:50:25,355 --> 00:50:28,900
„Ajme, to je Bijela kuća. Šef!”

622
00:50:29,693 --> 00:50:33,196
To je uključivalo kombiniranje
podataka otvorenog izvora.

623
00:50:33,280 --> 00:50:37,701
U roku od šest sati
model je generirao više od 40 000…

624
00:50:37,784 --> 00:50:41,038
Pitali su koliko za to treba
procesorske snage.

625
00:50:41,872 --> 00:50:44,249
Rekli smo da ne treba ništa posebno.

626
00:50:44,332 --> 00:50:48,211
Dovoljan je običan, standardni
šest godina stari Mac.

627
00:50:49,546 --> 00:50:51,256
To ih je zapanjilo.

628
00:50:54,968 --> 00:50:59,473
Ljudi koji su zaduženi
za agense za kemijsko ratovanje

629
00:50:59,556 --> 00:51:04,019
i vladine agencije
nisu imali pojma o ovom potencijalu.

630
00:51:06,605 --> 00:51:09,816
Imamo kuharicu za izradu kemijskog oružja.

631
00:51:10,650 --> 00:51:15,572
U rukama nekoga tko ima zle namjere

632
00:51:16,573 --> 00:51:18,992
mogla bi proizvesti zastrašujuć učinak.

633
00:51:21,703 --> 00:51:23,205
Moraju nas saslušati.

634
00:51:23,288 --> 00:51:26,458
Moramo poduzeti korake
ili da reguliramo tehnologiju

635
00:51:27,250 --> 00:51:30,670
ili je tako obuzdamo
da zlouporaba ne bude moguća.

636
00:51:31,880 --> 00:51:35,175
Jer njezin je smrtonosni potencijal…

637
00:51:36,176 --> 00:51:37,344
užasan.

638
00:51:40,680 --> 00:51:45,977
O pitanju etike UI-ja
uglavnom raspravlja društvo.

639
00:51:46,561 --> 00:51:50,273
A ne inženjeri, tehnolozi, matematičari.

640
00:51:52,484 --> 00:51:56,822
Kod svake nove tehnologije i inovacije,

641
00:51:56,905 --> 00:52:00,617
na kraju društvo odlučuje
kako bismo je trebali upotrebljavati.

642
00:52:03,036 --> 00:52:06,498
Ministarstvo obrane sad kaže:

643
00:52:06,581 --> 00:52:09,960
„O ubojstvu na bojnom polju

644
00:52:10,043 --> 00:52:11,920
odlučivat će samo čovjek.”

645
00:52:12,504 --> 00:52:14,548
SAMO AKO NJIMA UPRAVLJA ČOVJEK

646
00:52:15,674 --> 00:52:18,927
ali samo na naredbu
čovjeka koji njime upravlja.

647
00:52:19,636 --> 00:52:21,429
To se nikad neće promijeniti.

648
00:52:24,808 --> 00:52:28,103
Uvjeravaju nas
da će ta vrsta tehnologije biti sigurna.

649
00:52:29,729 --> 00:52:33,692
Ali vojska SAD-a
nije se pokazala vjerodostojnom

650
00:52:33,775 --> 00:52:35,485
u ratovanju dronovima.

651
00:52:36,820 --> 00:52:41,783
Ako pitate treba li vjerovati
vojsci SAD-a po pitanju UI-ja,

652
00:52:41,867 --> 00:52:44,327
rekao bih da povijest govori dovoljno.

653
00:52:46,288 --> 00:52:50,125
Politika je Ministarstva obrane SAD-a
o uporabi autonomnog oružja

654
00:52:50,208 --> 00:52:52,919
da se ne zabranjuje ni jedan sustav.

655
00:52:53,003 --> 00:52:56,715
Čak i ako vojska možda
ne želi autonomno oružje,

656
00:52:56,798 --> 00:53:01,678
vojske bi mogle
predati više odluka strojevima

657
00:53:01,761 --> 00:53:03,680
samo kako bi ostale konkurentne.

658
00:53:04,764 --> 00:53:09,978
To bi moglo dovesti
do neželjenog automatiziranja odluka.

659
00:53:12,022 --> 00:53:16,693
Vladimir Putin rekao je:
„Vodeća sila u UI-ju vladat će svijetom.”

660
00:53:17,736 --> 00:53:23,325
Predsjednik Xi jasno je dao do znanja
da je UI među glavnim tehnologijama

661
00:53:23,408 --> 00:53:25,702
u kojima Kina želi dominirati.

662
00:53:26,786 --> 00:53:29,831
Očito je da sudjelujemo
u tehnološkom natjecanju.

663
00:53:33,501 --> 00:53:35,670
Čujem da ljudi govore o osiguračima,

664
00:53:36,463 --> 00:53:39,424
a o tome i treba govoriti.

665
00:53:40,467 --> 00:53:45,180
Ali u vrlo smo stvarnoj utrci
za nadmoć u umjetnoj inteligenciji.

666
00:53:47,265 --> 00:53:51,603
A naši suparnici,
bilo da je riječ o Kini, Rusiji ili Iranu,

667
00:53:52,187 --> 00:53:56,566
neće nimalo mariti
za našu politiku u vezi s UI-jem.

668
00:54:00,820 --> 00:54:04,324
Ima mnogo rasprava
o politici upravljanja UI-jem,

669
00:54:06,117 --> 00:54:09,287
ali htio bih da više vođa kaže:

670
00:54:09,371 --> 00:54:11,706
„Koliko bismo to brzo mogli razviti?

671
00:54:12,707 --> 00:54:15,168
Uložimo koliko treba i razvijmo to.”

672
00:54:18,922 --> 00:54:21,299
GODIŠNJI SASTANAK I IZLOŽBA

673
00:54:24,177 --> 00:54:26,805
VOJSKA SJEDINJENIH DRŽAVA

674
00:54:33,478 --> 00:54:38,358
Na najvećem smo godišnjem sajmu
Udruge vojske SAD-a.

675
00:54:39,609 --> 00:54:44,572
Svatko tko prodaje
proizvod ili tehnologiju vojsci

676
00:54:44,656 --> 00:54:46,616
ovdje će izlagati.

677
00:54:47,701 --> 00:54:50,537
Zračna baza Tyndall ima naša četiri robota

678
00:54:50,620 --> 00:54:53,957
koji patroliraju bazom
24 h na dan, sedam dana u tjednu.

679
00:54:55,750 --> 00:55:00,130
Na njih možemo dodati kamere,
senzore ili što god vam drugo treba.

680
00:55:00,213 --> 00:55:05,135
Ruke za manipulaciju…
Napravit ćemo sve prilagodbe za mušteriju.

681
00:55:06,678 --> 00:55:08,638
Što ako neprijatelj uvede UI?

682
00:55:09,431 --> 00:55:12,976
Ako borbeni sustav
razmišlja i reagira brže od tebe,

683
00:55:13,059 --> 00:55:16,062
što tu čovjek može?
Moramo biti spremni na to.

684
00:55:17,605 --> 00:55:21,359
Obučavamo sustave
da skupljaju informacije o neprijatelju

685
00:55:22,027 --> 00:55:26,531
i napadaju neprijateljske mete
pod nadzorom ljudi kad treba ubijati.

686
00:55:33,288 --> 00:55:34,956
-Dobar dan, generale.
-Kako ste?

687
00:55:35,040 --> 00:55:36,416
Dobro, a vi?

688
00:55:37,709 --> 00:55:42,630
Nitko ne ulaže više u UI pilota.
Naš UI pilot zove se Hivemind.

689
00:55:43,298 --> 00:55:47,135
Primijenili smo UI na kvadkopter Novu.
Ulazi u zgrade,

690
00:55:47,218 --> 00:55:50,805
istražuje prije specijalaca i pješaštva.

691
00:55:50,889 --> 00:55:52,891
Primjenjujemo Hivemind na V-BAT.

692
00:55:52,974 --> 00:55:56,811
Razmišljamo o primjeni
stotina takvih timova

693
00:55:56,895 --> 00:56:01,608
za odvraćanje protivnika, bilo da je riječ
o Tajvanskom tjesnacu ili Ukrajini.

694
00:56:01,691 --> 00:56:03,360
Uzbuđeni smo zbog toga.

695
00:56:03,943 --> 00:56:06,196
-Hvala.
-Hvala, generale.

696
00:56:07,989 --> 00:56:13,370
UI piloti postat će sveprisutni
vjerojatno do 2025. ili 2030.

697
00:56:14,204 --> 00:56:17,582
Vojske širom svijeta brzo će ih usvojiti.

698
00:56:19,250 --> 00:56:22,962
Što je s rumunjskom vojskom,
njihovim tipom za dronove?

699
00:56:23,046 --> 00:56:24,714
Visoka tehnologija u vojsci.

700
00:56:25,256 --> 00:56:29,803
Potrošili smo pola milijarde dolara
na izradu UI pilota.

701
00:56:29,886 --> 00:56:33,181
Potrošit ćemo još milijardu
u idućih pet godina.

702
00:56:33,264 --> 00:56:37,769
To je glavni razlog
zašto dobivamo dobre ugovore u SAD-u.

703
00:56:37,852 --> 00:56:38,853
Lijepo.

704
00:56:38,937 --> 00:56:42,732
Impresivno.
Uspjeli ste ugraditi oružje u to?

705
00:56:43,650 --> 00:56:45,568
Ovo još ne nosi oružje.

706
00:56:45,652 --> 00:56:48,321
Dakle, još nismo. Ali to nam je plan.

707
00:56:48,905 --> 00:56:52,534
Našim mušterijama to je kao kamion.
Nama je kao pametni kamion

708
00:56:52,617 --> 00:56:54,452
koji može svašta.

709
00:56:54,536 --> 00:56:55,703
Hvala.

710
00:56:55,787 --> 00:56:57,914
Svakako ću vam se javiti.

711
00:57:01,668 --> 00:57:04,129
Ako opet dođete za 10 godina,

712
00:57:04,212 --> 00:57:10,802
vidjet ćete
da UI dominira cijelim tržištem.

713
00:57:14,889 --> 00:57:19,352
Vojne snage koje će imati
UI i autonomnu tehnologiju

714
00:57:19,436 --> 00:57:25,108
apsolutno će poraziti,
satrti i uništiti vojne snage bez njih.

715
00:57:26,401 --> 00:57:30,780
Bit će to usporedivo
s konjima koji se bore protiv tenkova.

716
00:57:31,781 --> 00:57:34,367
S mačevima protiv strojnica.

717
00:57:34,909 --> 00:57:37,120
Omjeri snaga neće biti ni približni.

718
00:57:38,746 --> 00:57:42,750
Bit će sveprisutno,
u svakom vidu ratovanja.

719
00:57:43,585 --> 00:57:44,836
Na taktičkoj razini,

720
00:57:45,336 --> 00:57:46,546
strateškoj.

721
00:57:47,172 --> 00:57:50,800
Radit će brzinom
koju ljudi ne mogu ni zamisliti.

722
00:57:53,094 --> 00:57:57,098
Zapovjednici već moraju baratati
s previše informacija.

723
00:57:57,599 --> 00:58:01,019
Snimkama sa satelita, dronova, senzora.

724
00:58:02,103 --> 00:58:06,774
Umjetna inteligencija može zapovjedniku
pomoći da se brže snađe u svemu

725
00:58:07,650 --> 00:58:09,903
i donese potrebne odluke.

726
00:58:11,237 --> 00:58:14,866
Umjetna inteligencija
uzet će u obzir sve čimbenike

727
00:58:14,949 --> 00:58:17,702
koji određuju kako se vodi rat.

728
00:58:18,286 --> 00:58:20,246
Smišljat će strategije…

729
00:58:22,540 --> 00:58:25,668
I davati preporuke kako doći do pobjede.

730
00:58:32,217 --> 00:58:34,344
CENTAR ZA INOVACIJE

731
00:58:36,971 --> 00:58:40,266
Lockheed Martin,
kao i naš klijent Ministarstvo obrane,

732
00:58:40,350 --> 00:58:45,104
umjetnu inteligenciju smatra ključnim
tehnološkim sredstvom za kontrolu.

733
00:58:47,065 --> 00:58:50,109
Brzina širenja u prosjeku je 60 cm/s.

734
00:58:50,193 --> 00:58:52,278
Područje je oko 283 hektara.

735
00:58:52,779 --> 00:58:55,782
Za nas je u obrani magla rata stvarnost.

736
00:58:57,158 --> 00:59:00,995
Ali može se usporediti sa situacijom
šumskog požara

737
00:59:01,079 --> 00:59:03,206
i donošenjem odluka u njoj.

738
00:59:03,289 --> 00:59:06,543
Požar je sjeverno od grada Wawone.

739
00:59:06,626 --> 00:59:09,629
Odlučujemo na temelju
nepreciznih podataka.

740
00:59:10,630 --> 00:59:14,300
Kako nam UI može pomoći
da se snađemo u magli rata?

741
00:59:17,637 --> 00:59:19,597
Šumski požari su kaotični.

742
00:59:20,181 --> 00:59:21,266
Vrlo su složeni.

743
00:59:22,267 --> 00:59:27,855
Razvijamo umjetnu inteligenciju
da nam pomogne u odlučivanju.

744
00:59:31,442 --> 00:59:33,987
Cognitive Mission Manager naš je program

745
00:59:34,070 --> 00:59:37,949
koji snima zračne infracrvene snimke

746
00:59:38,032 --> 00:59:41,786
i obrađuje ih
umjetno inteligentnim algoritmima

747
00:59:41,869 --> 00:59:45,248
kako bi predvidio tijek požara.

748
00:59:48,042 --> 00:59:52,922
U budućnosti će Cognitive Mission Manager
s pomoću simulacije

749
00:59:53,006 --> 00:59:57,093
obrađivati scenarije u tisućama ciklusa

750
00:59:57,176 --> 01:00:00,722
kako bi preporučio
kako najučinkovitije rasporediti resurse

751
01:00:00,805 --> 01:00:04,058
u suzbijanju najgorih točaka
zahvaćenih požarom.

752
01:00:08,062 --> 01:00:12,400
Reći će:
„Suzbij požar iz zraka Firehawkom ovdje.”

753
01:00:13,568 --> 01:00:15,903
„Odvedi vatrogasce da očiste makiju

754
01:00:16,946 --> 01:00:19,032
ili poliju šumu

755
01:00:19,657 --> 01:00:23,077
i onda ih pošalji na kritična područja.”

756
01:00:26,289 --> 01:00:29,292
Te odluke donosit će se brže

757
01:00:29,375 --> 01:00:31,044
i učinkovitije.

758
01:00:35,840 --> 01:00:38,468
Smatramo da će UI ljudima omogućiti

759
01:00:38,551 --> 01:00:42,305
da održe korak s uvjetima
koji se stalno mijenjaju.

760
01:00:43,389 --> 01:00:46,517
Ima mnogo paralela

761
01:00:46,601 --> 01:00:50,355
s time što Lockheed Martin
može učiniti za obranu.

762
01:00:52,231 --> 01:00:55,860
Vojska više ne govori samo o uporabi UI-ja

763
01:00:55,943 --> 01:01:00,323
u pojedinačnim sustavima naoružanja
za odluke o ciljanju i ubijanju.

764
01:01:00,865 --> 01:01:05,787
Sad žele integrirati UI u politiku
odlučivanja na razini cijele vojske.

765
01:01:09,457 --> 01:01:12,960
Kopnena vojska ima velik projekt,
Project Convergence.

766
01:01:14,545 --> 01:01:16,589
Mornarica ima Overmatch.

767
01:01:16,673 --> 01:01:19,592
Zrakoplovstvo ima
Advanced Battle Management System.

768
01:01:21,886 --> 01:01:24,138
Ministarstvo obrane smišlja

769
01:01:24,222 --> 01:01:26,683
kako da spoji sve te komponente

770
01:01:26,766 --> 01:01:29,268
kako bismo bili brži od protivnika

771
01:01:30,395 --> 01:01:32,355
i stekli stvarnu prednost.

772
01:01:33,481 --> 01:01:37,527
Umjetno inteligentni vojskovođa
bio bi kao visokorangirani general

773
01:01:37,610 --> 01:01:39,821
koji je zadužen za vođenje bitke.

774
01:01:41,155 --> 01:01:44,158
Pomaže izdavati naredbe
velikom broju vojnika,

775
01:01:45,118 --> 01:01:49,247
koordinira djelovanje
sveg oružja koje sudjeluje u bitki

776
01:01:49,330 --> 01:01:51,958
i to brzinom koju čovjek ne može pratiti.

777
01:01:53,543 --> 01:01:55,294
U proteklih sedamdeset godina

778
01:01:55,378 --> 01:01:58,798
izgradili smo
najsofisticiraniju vojsku na Zemlji.

779
01:01:58,881 --> 01:02:03,177
Sad smo pred odlukom
želimo li prepustiti kontrolu

780
01:02:03,261 --> 01:02:07,598
nad tom infrastrukturom
nekom algoritmu, nekom softveru.

781
01:02:10,351 --> 01:02:13,187
Posljedica te odluke

782
01:02:13,271 --> 01:02:16,774
može biti ispaljivanje
cijelog vojnog arsenala.

783
01:02:16,858 --> 01:02:19,902
To nije jedna Hirošima nego stotine njih.

784
01:02:25,616 --> 01:02:27,869
Moramo djelovati sada.

785
01:02:27,952 --> 01:02:33,166
Jer se vremenski okvir
za kontrolu rizika brzo zatvara.

786
01:02:34,667 --> 01:02:39,338
Danas popodne počinjemo
međunarodnim sigurnosnim prijetnjama

787
01:02:39,422 --> 01:02:41,132
koje predstavlja tehnologija

788
01:02:41,215 --> 01:02:44,343
s područja smrtonosnih
autonomnih sustava naoružanja.

789
01:02:44,427 --> 01:02:47,722
U Ujedinjenim narodima raspravlja se

790
01:02:47,805 --> 01:02:50,016
o prijetnji autonomnog oružja

791
01:02:50,600 --> 01:02:56,564
te o zabrani uporabe sustava
koji rabe UI za napad na ljude.

792
01:02:56,647 --> 01:03:00,777
Tehnolozi su postigli
jasan i glasan konsenzus.

793
01:03:00,860 --> 01:03:04,030
Protivimo se autonomnom oružju
kojem su meta ljudi.

794
01:03:05,615 --> 01:03:08,868
Države već godinama raspravljaju

795
01:03:08,951 --> 01:03:11,329
o pitanju smrtonosnog autonomnog oružja.

796
01:03:12,288 --> 01:03:16,793
U pitanju je opća, zajednička sigurnost.

797
01:03:17,794 --> 01:03:20,546
Ali naravno, to nije lako.

798
01:03:21,297 --> 01:03:25,968
Neke zemlje, osobito vojne sile,

799
01:03:26,052 --> 01:03:27,762
želi biti korak pred drugima

800
01:03:28,429 --> 01:03:31,599
kako bi imale prednost nad protivnicima.

801
01:03:32,600 --> 01:03:36,187
Da bi se išta postiglo,
svi se moraju složiti.

802
01:03:36,896 --> 01:03:39,065
Bar jedna zemlja uložit će prigovor.

803
01:03:39,148 --> 01:03:42,109
A SAD i Rusija već su dali do znanja

804
01:03:42,193 --> 01:03:45,655
da se protive sporazumu
o zabrani autonomnog oružja.

805
01:03:47,198 --> 01:03:53,204
Kad pomislimo koliko ljudi radi
na tome da UI postane još moćniji,

806
01:03:54,747 --> 01:03:56,457
shvatimo da ih ima puno.

807
01:03:57,750 --> 01:04:02,880
Kad razmislimo koliko ljudi radi na tome
da UI bude siguran za uporabu,

808
01:04:04,340 --> 01:04:07,510
shvatimo da ih je mnogo, mnogo manje.

809
01:04:11,764 --> 01:04:13,724
Ali puna sam optimizma.

810
01:04:16,060 --> 01:04:19,480
Znamo da se Konvencija o biološkom oružju

811
01:04:19,564 --> 01:04:22,358
dogodila usred Hladnog rata,

812
01:04:23,025 --> 01:04:27,655
unatoč napetostima između
Sovjetskog Saveza i Sjedinjenih Država.

813
01:04:29,156 --> 01:04:33,536
Shvatili su da razvoj biološkog oružja

814
01:04:33,619 --> 01:04:36,247
nikomu nije u interesu

815
01:04:36,330 --> 01:04:38,749
i nije u interesu svijeta općenito.

816
01:04:41,335 --> 01:04:44,714
U utrci u naoružanju
važnija je brzina od sigurnosti.

817
01:04:45,715 --> 01:04:48,342
Važno je uzeti u obzir

818
01:04:48,426 --> 01:04:52,430
da cijena prebrzog razvoja
u jednom času postaje previsoka.

819
01:04:56,225 --> 01:04:59,270
Ne možemo izolirano razvijati tehnologiju

820
01:05:00,021 --> 01:05:06,611
i puštati je u promet bez razmišljanja
o tome kamo bi nas mogla odvesti.

821
01:05:07,862 --> 01:05:10,823
Moramo spriječiti
taj trenutak atomske bombe.

822
01:05:14,577 --> 01:05:17,705
Ulozi u utrci u razvoju UI-ja golemi su.

823
01:05:18,289 --> 01:05:22,001
Ne znam koliko ljudi zna cijeniti
globalnu stabilnost

824
01:05:22,084 --> 01:05:28,174
koju smo uspostavili
zato što imamo nadmoćnu vojsku

825
01:05:28,257 --> 01:05:31,135
u proteklih 75 godina.

826
01:05:32,887 --> 01:05:35,681
Ujedinjeni narodi i naši saveznici

827
01:05:36,557 --> 01:05:38,684
moraju imati jači UI od protivnika.

828
01:05:43,314 --> 01:05:44,774
U ratu nema srebra.

829
01:05:45,524 --> 01:05:49,111
Kina je predstavila ambiciozan plan
da povede u UI-ju do 2030.

830
01:05:49,195 --> 01:05:51,656
Neki kažu da Amerika gubi u toj utrci.

831
01:05:52,740 --> 01:05:56,160
Ubrzat ćemo usvajanje
umjetne inteligencije

832
01:05:56,243 --> 01:05:59,246
kako bismo ostali u vojnoj prednosti.

833
01:06:02,875 --> 01:06:05,461
Jurimo u razvoju ove tehnologije.

834
01:06:05,544 --> 01:06:08,673
Ali nije jasno koliko ćemo daleko otići.

835
01:06:09,507 --> 01:06:12,760
Hoćemo li mi kontrolirati tehnologiju
ili će ona nas?

836
01:06:14,136 --> 01:06:16,973
Nećemo imati priliku popraviti učinjeno.

837
01:06:17,807 --> 01:06:20,977
Kad pustite duha iz boce, vani je.

838
01:06:22,019 --> 01:06:25,189
I vrlo ga je teško vratiti u bocu.

839
01:06:28,609 --> 01:06:31,737
Ako sad nešto ne poduzmemo,
bit će prekasno.

840
01:06:33,114 --> 01:06:34,657
Možda je već prekasno.

841
01:08:48,124 --> 01:08:53,254
Prijevod titlova: Petra Matić



