1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
Rémisztőnek találom az MI-t.

4
00:00:28,361 --> 00:00:31,489
Rendben, kört alkotnak. Jó alakzat.

5
00:00:33,116 --> 00:00:36,703
Az MI-ben ott a lehetőség,
hogy felszámoljuk a szegénységet,

6
00:00:36,786 --> 00:00:38,705
hogy új gyógyszereket alkossunk,

7
00:00:39,289 --> 00:00:41,583
hogy a világot még békésebbé tegyük.

8
00:00:46,087 --> 00:00:46,921
Szép munka.

9
00:00:49,883 --> 00:00:53,428
De rengeteg kockázat is felmerül közben.

10
00:01:04,773 --> 00:01:09,611
Az MI-vel lényegében egy nem emberi
intelligenciát hozunk létre,

11
00:01:09,694 --> 00:01:11,863
ami rendkívül kiszámíthatatlan.

12
00:01:14,407 --> 00:01:16,451
Egyre több mindenre képes,

13
00:01:16,534 --> 00:01:19,746
de hol húzzuk meg a határt az MI-nél,

14
00:01:19,829 --> 00:01:22,665
hogy hogyan akarjuk
vagy nem akarjuk használni?

15
00:01:25,001 --> 00:01:28,505
Nincs olyan terület,
amely alkalmasabb lenne erre,

16
00:01:28,588 --> 00:01:31,049
mint a katonai felhasználás.

17
00:01:34,010 --> 00:01:38,890
A csatatér mostanra a szoftverek
és hardverek világa lett.

18
00:01:41,059 --> 00:01:42,936
Célpont bemérve…

19
00:01:43,019 --> 00:01:48,399
És a hadseregek versenyt futnak,
melyikük fejleszt gyorsabban MI-t.

20
00:01:49,526 --> 00:01:50,360
Meghaltam.

21
00:01:53,780 --> 00:01:58,326
Olyan világ felé robogunk,
amelyben nemcsak a legnagyobb hadseregek,

22
00:01:58,409 --> 00:02:02,997
de nem állami és magánipari szereplők,

23
00:02:03,081 --> 00:02:06,042
sőt, akár a helyi rendőrség az utcán is

24
00:02:06,543 --> 00:02:10,046
használhat ilyen fegyvereket,
amelyek önállóan képesek ölni.

25
00:02:12,006 --> 00:02:17,303
Egy élet kioltását algoritmusokra,
számítógépes szoftverekre bízzuk?

26
00:02:18,638 --> 00:02:21,516
Ez a jelenkor
egyik legsürgetőbb problémája.

27
00:02:23,935 --> 00:02:26,354
És ha helytelenül használják,

28
00:02:26,437 --> 00:02:30,275
azzal óriási veszélynek tesznek ki
mindenkit a Földön.

29
00:02:41,828 --> 00:02:44,914
AZ ISMERETLEN

30
00:02:46,833 --> 00:02:50,086
GYILKOS ROBOTOK

31
00:03:28,291 --> 00:03:30,168
Bravó, srácok.

32
00:03:59,864 --> 00:04:02,200
Sokkal szélesebb objektív az eddiginél.

33
00:04:02,283 --> 00:04:03,117
Tényleg?

34
00:04:03,201 --> 00:04:05,703
- Sokkal több adatot kapunk.
- Kiváló.

35
00:04:07,538 --> 00:04:11,167
A Shield AI-nál
mi olyan MI-pilótát készítünk,

36
00:04:11,251 --> 00:04:16,631
amely egy önvezető, mesterséges
intelligenciával rendelkező légi jármű.

37
00:04:19,300 --> 00:04:21,719
Amikor MI-pilótáról beszélünk,

38
00:04:21,803 --> 00:04:25,139
sokkal nagyobb önállósággal bíró
légi járműre gondolunk,

39
00:04:25,223 --> 00:04:27,850
amely saját maga old meg problémákat.

40
00:04:29,602 --> 00:04:32,355
A Nova egy autonóm kvadkopter,

41
00:04:32,438 --> 00:04:35,942
amely épületeket
és föld alatti építményeket derít fel

42
00:04:36,859 --> 00:04:38,611
az odaérkező egységek előtt,

43
00:04:38,695 --> 00:04:41,322
hangot és képet biztosítva a helyszínről.

44
00:04:41,906 --> 00:04:45,618
Rengeteg látványos fejlesztés történt
a legutóbbi verzió óta.

45
00:04:45,702 --> 00:04:50,206
Ma az emeletről emeletre történő
felderítésen dolgozunk.

46
00:04:50,290 --> 00:04:53,584
Végigjárja egy emelet minden helyiségét,
majd továbbmegy.

47
00:04:54,294 --> 00:04:56,796
- Ez szuper.
- Változtattunk pár dolgon…

48
00:04:56,879 --> 00:04:58,548
Sokan kérdezik tőlem,

49
00:04:58,631 --> 00:05:02,468
hogy a mesterséges intelligencia
miért olyan fontos lehetőség.

50
00:05:02,552 --> 00:05:06,973
És ilyenkor a bevetésekre gondolok,
melyekben részt vettem.

51
00:05:09,142 --> 00:05:10,935
Hét évig voltam haditengerész,

52
00:05:11,561 --> 00:05:15,273
Navy SEAL-esként
kétszer jártam Afganisztánban,

53
00:05:15,356 --> 00:05:17,191
egyszer a Csendes-óceánon.

54
00:05:18,026 --> 00:05:22,947
Egy nap akár 150 különböző területet
vagy épületet is át kell néznünk.

55
00:05:30,997 --> 00:05:34,250
Az egyik legfontosabb képesség
a közelharctudás.

56
00:05:35,293 --> 00:05:39,172
Tűzharc közvetlen közelről épületekben.

57
00:05:41,466 --> 00:05:42,967
Ott lőnek ránk.

58
00:05:43,468 --> 00:05:46,471
Pokolgépek lehetnek az épületben.

59
00:05:49,015 --> 00:05:55,229
Ez a legveszélyesebb,
ami egy különleges alakulat tagjára

60
00:05:55,313 --> 00:05:58,358
vagy gyalogsági katonára várhat
egy harci övezetben.

61
00:05:58,441 --> 00:05:59,275
Kétségkívül.

62
00:06:12,497 --> 00:06:16,334
Örökké hálás leszek
a haditengerészetnél töltött időszakomért.

63
00:06:17,168 --> 00:06:22,423
Vannak olyan pillanatok és emlékek,
amelyek ha eszembe jutnak,

64
00:06:22,507 --> 00:06:24,592
rögtön elérzékenyülök.

65
00:06:28,346 --> 00:06:32,725
Közhely, hogy a szabadság nincs ingyen,
de abszolút így gondolom.

66
00:06:33,559 --> 00:06:37,105
Megtapasztaltam, és sok áldozatot követel.

67
00:06:38,022 --> 00:06:38,856
Elnézést!

68
00:06:41,067 --> 00:06:44,570
Amikor valami rossz történik
az egyik bajtársunkkal,

69
00:06:44,654 --> 00:06:46,614
megsérül vagy meghal,

70
00:06:47,490 --> 00:06:49,700
az borzasztóan tragikus.

71
00:06:49,784 --> 00:06:54,914
Tudják, engem a munkánkban az motivál,

72
00:06:54,997 --> 00:07:00,336
hogy csökkenthetjük
az ilyen esetek számát.

73
00:07:07,176 --> 00:07:08,886
A 2000-es évek végén

74
00:07:08,970 --> 00:07:11,556
a Védelmi Minisztériumban felfigyeltek

75
00:07:11,639 --> 00:07:15,268
az úgynevezett
spontán robotikai forradalomra.

76
00:07:15,768 --> 00:07:19,564
Több ezer légi és földi robotot küldtünk
Irakba és Afganisztánba.

77
00:07:21,482 --> 00:07:26,404
Amikor az Obama-kormány felkért,
hogy legyek a helyettes védelmi miniszter,

78
00:07:26,904 --> 00:07:31,117
a háborúk megvívásának módja
egyértelműen változóban volt.

79
00:07:32,452 --> 00:07:36,330
A robotokat ott használták,
ahol az embereket is.

80
00:07:37,999 --> 00:07:40,376
A korai robotok távirányításúak voltak.

81
00:07:40,460 --> 00:07:45,173
Ember irányította, kormányozta,
mint egy távirányítós autót.

82
00:07:46,632 --> 00:07:51,512
Először többnyire pokolgépek után
kutattak velük,

83
00:07:52,013 --> 00:07:54,849
így ha a bomba felrobbant,
a robotban esett kár.

84
00:07:57,393 --> 00:08:00,396
És azt mondták:
„Ez van. Küldjünk ki másik robotot!”

85
00:08:02,273 --> 00:08:04,484
Afganisztánban Predator drón volt,

86
00:08:05,276 --> 00:08:09,739
ami nagyon hasznosnak bizonyult
légicsapások végrehajtásánál.

87
00:08:13,117 --> 00:08:16,829
A katonai tervezők
aztán azon kezdtek gondolkodni,

88
00:08:16,913 --> 00:08:20,791
mire használhatnánk még a robotokat,
és hogy ennek hol a vége.

89
00:08:20,875 --> 00:08:24,170
És az egyik közös pontot
a nagyobb autonómia jelentette.

90
00:08:26,506 --> 00:08:30,635
Egy autonóm fegyver
saját maga hoz döntéseket,

91
00:08:30,718 --> 00:08:33,304
minimális emberi beavatkozással.

92
00:08:33,387 --> 00:08:37,558
Szóval autonóm képességgel rendelkezik,
önvezető,

93
00:08:38,434 --> 00:08:41,604
és hogy képes-e ölni,
attól függ, van-e fegyverzete.

94
00:08:43,314 --> 00:08:47,026
Amikor az egész rendszerben
egyre több az önállóság,

95
00:08:47,109 --> 00:08:49,779
minden jóval nagyobb sebességre kapcsol.

96
00:08:51,989 --> 00:08:56,869
És amikor gyorsabban hajtod végre
a műveletet, mint az ellenségeid,

97
00:08:57,453 --> 00:09:01,165
akkor az elképesztően nagy előnyt jelent
a csatatéren.

98
00:09:03,960 --> 00:09:06,254
Amikre az autonómia terén fókuszálunk,

99
00:09:07,255 --> 00:09:09,966
azok a jól alkalmazkodó
intelligens rendszerek,

100
00:09:12,051 --> 00:09:15,304
melyek érzékelik a környezetüket,
reagálnak rá,

101
00:09:15,805 --> 00:09:19,642
és eldöntik,
hogyan hajtsák végre a feladatukat.

102
00:09:21,602 --> 00:09:24,897
SAN DIEGO
KALIFORNIA ÁLLAM

103
00:09:24,981 --> 00:09:29,151
Ez a létesítmény, ahol most vagyunk,
eredetileg filmstúdiónak épült,

104
00:09:29,235 --> 00:09:30,611
később alakították át,

105
00:09:30,695 --> 00:09:34,156
és lett belőle
katonai tréningre alkalmas környezet.

106
00:09:39,495 --> 00:09:43,291
Azért jöttünk,
hogy értékeljük az MI-pilótánkat.

107
00:09:44,625 --> 00:09:49,297
Fenyegetések felkutatása a feladat,
lényegében a felderítés.

108
00:09:49,380 --> 00:09:52,800
Képes döntést hozni arról,
hogyan kezelje a problémát.

109
00:09:55,428 --> 00:09:59,390
Ezt „halálhasadék”-nak nevezzük.
Be kell menni egy ajtón.

110
00:10:01,726 --> 00:10:03,311
Itt vagy a legvédtelenebb.

111
00:10:03,811 --> 00:10:05,146
Ez jobbnak tűnik.

112
00:10:07,106 --> 00:10:10,151
A Nova tudatja velünk,
van-e lövész az ajtó mögött,

113
00:10:10,818 --> 00:10:12,653
vagy esetleg egy család.

114
00:10:15,114 --> 00:10:18,451
Így jobb döntéseket tudunk hozni,
nagyobb biztonságot ad.

115
00:10:57,114 --> 00:10:59,367
Vizuális szenzorokat használunk,

116
00:10:59,450 --> 00:11:03,162
hogy jobban megértsük,
hogyan néz ki a környezet.

117
00:11:04,872 --> 00:11:06,415
Ez egy többszintes épület.

118
00:11:07,333 --> 00:11:08,334
Itt a térkép.

119
00:11:08,417 --> 00:11:11,671
Itt van,
hogy felderítés közben mit és hol láttam.

120
00:11:19,929 --> 00:11:22,098
Személyérzékelő. Elég király.

121
00:11:23,891 --> 00:11:27,061
A Nova egy másik érzékelője a hőkamera.

122
00:11:27,561 --> 00:11:30,690
Ha 37 fokos, akkor valószínűleg ember.

123
00:11:32,358 --> 00:11:35,861
Minden ember fenyegetésnek számít,
amíg másképp nem véljük.

124
00:11:38,906 --> 00:11:43,244
A cél, hogy eloszlassuk a háború ködét,
így jobb döntéseket hozva.

125
00:11:44,704 --> 00:11:46,539
És amikor a jövőbe tekintünk,

126
00:11:47,039 --> 00:11:50,751
azt látjuk, hogy autonóm légi járművekből
lesznek csapataink.

127
00:11:53,754 --> 00:11:55,631
Önvezető járműveknél

128
00:11:55,715 --> 00:11:59,802
az ember eddig azt mondta:
„Menj A-ból B pontba!”

129
00:12:02,972 --> 00:12:07,893
A mi rendszereinknél nem ezt akarjuk
elérni, inkább egy célt kívánunk kitűzni.

130
00:12:10,312 --> 00:12:13,190
Például ha azt mondanám,
hogy „tejet szeretnék”,

131
00:12:13,274 --> 00:12:17,486
akkor a robotnak kell kitalálnia,
melyik boltba kell mennie,

132
00:12:17,570 --> 00:12:20,239
hogy tejet szerezzen, mielőtt visszajön.

133
00:12:20,740 --> 00:12:26,996
Sőt, talán még jobb, ha azt mondjuk:
„A hűtő mindig legyen tele!”

134
00:12:27,496 --> 00:12:32,168
Ez olyan szint, ahol ki kell találnia,
mit akarunk, és azt hogyan valósítsa meg.

135
00:12:32,251 --> 00:12:37,381
És ha nehézség, probléma vagy gond adódik,
rá kell jönnie, hogyan oldja meg.

136
00:12:40,801 --> 00:12:45,431
Amikor úgy döntöttem, otthagyom
a haditengerészetet, azon kezdtem agyalni,

137
00:12:45,514 --> 00:12:47,558
hogy most mi legyen?

138
00:12:49,101 --> 00:12:52,021
Az internettel nőttem fel.
Láttam, mi lett belőle.

139
00:12:53,189 --> 00:12:55,608
Arra a következtetésre jutottam,

140
00:12:56,108 --> 00:13:02,907
hogy az MI 2015-ben ott tartott,
ahol az internet 1991-ben,

141
00:13:04,033 --> 00:13:09,747
és az MI készen állt, hogy a világ egyik
legjelentősebb technológiájává váljon.

142
00:13:11,791 --> 00:13:16,212
Mivel mindennap ezen dolgoztam,
látom, mennyit fejlődött.

143
00:13:19,048 --> 00:13:22,051
De sokan, amikor meghallják, hogy „MI”,

144
00:13:22,551 --> 00:13:25,221
rögtön Hollywoodra gondolnak.

145
00:13:26,639 --> 00:13:27,973
MŰVELETI REAKCIÓTERV

146
00:13:28,057 --> 00:13:29,975
Nincs kedve játszani?

147
00:13:30,059 --> 00:13:35,314
Mit szólnál
a Globális termonukleáris háborúhoz?

148
00:13:35,898 --> 00:13:36,816
Jó.

149
00:13:38,275 --> 00:13:40,861
Amikor az emberek az MI-re gondolnak,

150
00:13:40,945 --> 00:13:44,824
a Terminátor
vagy az Én, a robot jut eszükbe.

151
00:13:45,574 --> 00:13:46,700
Deaktivál!

152
00:13:46,784 --> 00:13:48,160
Mi vagyok én?

153
00:13:48,244 --> 00:13:49,620
Vagy a Mátrix.

154
00:13:51,080 --> 00:13:53,749
Ha a sci-fikben látottakat vesszük alapul:

155
00:13:53,833 --> 00:13:57,920
honnan tudják, hogy ember vagyok?
Számítógéppel készült MI is lehetek.

156
00:13:58,420 --> 00:14:02,132
A replikánsok is csak gépek.
Vagy hasznosak, vagy veszélyesek.

157
00:14:02,675 --> 00:14:08,097
De mindenféle primitívebb MI
változtatja majd meg az életünket,

158
00:14:08,180 --> 00:14:11,851
jóval azelőtt, hogy gondolkodó
és beszélő robotok jönnének.

159
00:14:12,643 --> 00:14:15,771
A robotok már itt vannak.
Döntéseket hoznak.

160
00:14:15,855 --> 00:14:18,816
A robotforradalom elérkezett,

161
00:14:18,899 --> 00:14:22,319
csak épp nem olyan,
mint amilyennek bárki elképzelte.

162
00:14:23,320 --> 00:14:26,740
A terminátor egy beszivárgó egység.
Félig ember, félig gép.

163
00:14:27,950 --> 00:14:31,370
Nem terminátorszerű
gyilkos robotokról beszélünk,

164
00:14:31,871 --> 00:14:36,000
hanem MI-ről, mely el tud végezni
olyan feladatokat, amiket az emberek.

165
00:14:36,083 --> 00:14:39,879
A kérdés az,
hogy ezek a rendszerek megbízhatóak-e.

166
00:14:40,462 --> 00:14:45,426
Új részletek derültek ki a tegnap esti,
önvezető autót érintő halálos balesetről.

167
00:14:45,509 --> 00:14:48,762
A cég mesterséges intelligenciával
bíró csetrobotja

168
00:14:48,846 --> 00:14:51,056
elég rasszista hangnemet ütött meg.

169
00:14:51,140 --> 00:14:55,394
Huszonhat állami törvényhozót
tévesen bűnözőként azonosítottak.

170
00:14:57,438 --> 00:15:02,026
A kérdés az, megbirkóznak-e
a való világ összetettségével.

171
00:15:03,193 --> 00:15:06,655
CAMBRIDGE
MASSACHUSETTS ÁLLAM

172
00:15:22,212 --> 00:15:24,006
Az érzékvilág elég bonyolult.

173
00:15:25,174 --> 00:15:27,426
Rengeteg mindent nem ismerünk,

174
00:15:27,968 --> 00:15:30,763
ami megnehezíti
az MI-rendszerek fejlesztését.

175
00:15:33,098 --> 00:15:36,977
Itt kezdtek bejönni
a gépi tanulási rendszerek.

176
00:15:38,520 --> 00:15:41,440
A gépi tanulás hatalmas előrelépés volt,

177
00:15:42,024 --> 00:15:45,611
mivel így a számítógépeknek
nem kell mindent megtanítanunk.

178
00:15:47,905 --> 00:15:52,409
Egy számítógépet
több millió információval látunk el,

179
00:15:52,493 --> 00:15:54,453
és a gép elkezd tanulni.

180
00:15:55,245 --> 00:15:57,289
És ez bármire alkalmazható.

181
00:16:00,125 --> 00:16:02,962
A robotkutyaprojektünkben
azt akarjuk megmutatni,

182
00:16:03,045 --> 00:16:09,009
hogy a kutyánk
sok különböző terepen végig tud menni.

183
00:16:10,052 --> 00:16:14,098
Az emberek évmilliárdokon át fejlődtek,
hogy tudjanak járni,

184
00:16:14,932 --> 00:16:20,688
de rengeteg információ áll rendelkezésre,
hogy alkalmazkodni tudjon a terepekhez.

185
00:16:21,897 --> 00:16:27,069
Kérdés, egy robotikai rendszer képes-e úgy
alkalmazkodni, mint az állatok, az ember?

186
00:16:35,953 --> 00:16:40,582
Gépi tanulással
sok-sok szimulációs adatot gyűjtünk.

187
00:16:42,668 --> 00:16:45,838
A szimuláció a valóság digitális mása.

188
00:16:46,588 --> 00:16:52,052
És jó néhány ilyen másolatot futtathatunk
különböző számítógépen.

189
00:16:53,178 --> 00:16:56,974
A gép több ezer mozgásformát próbál ki
a szimuláció során.

190
00:16:58,892 --> 00:17:02,229
Változó a talaj síkossága.

191
00:17:02,312 --> 00:17:03,856
Akárcsak a keménysége.

192
00:17:04,898 --> 00:17:09,903
Felhasználjuk a több ezer robot
szimulációs tapasztalatát,

193
00:17:09,987 --> 00:17:13,282
és letöltjük
egy valós robotikai rendszerbe.

194
00:17:15,492 --> 00:17:20,039
A mai tesztben azt vizsgáljuk,
képes-e új terepekhez alkalmazkodni.

195
00:17:53,322 --> 00:17:55,491
Amikor a robot szivacson ment át,

196
00:17:55,574 --> 00:17:58,577
a lábával doboló mozgást végzett.

197
00:17:59,369 --> 00:18:02,206
Viszont amikor
a polietilén talajra lépett,

198
00:18:03,248 --> 00:18:06,460
próbált változtatni a mozgásán,
hogy ne csússzon el.

199
00:18:08,670 --> 00:18:10,672
És ekkor fogalmazódott meg bennem,

200
00:18:10,756 --> 00:18:14,051
hogy a gépi tanulás ilyen előnyökkel jár.

201
00:18:41,161 --> 00:18:46,166
Úgy véljük, a robotkutya
nagyon hasznos lehet katasztrófák esetén,

202
00:18:46,250 --> 00:18:49,670
amikor sokféle,
különböző terepen kell helytállni.

203
00:18:52,631 --> 00:18:57,427
Vagy megfigyelésre is használható
zord körülmények között.

204
00:19:15,696 --> 00:19:19,575
De a legtöbb technológia
azzal a kihívással szembesül,

205
00:19:19,658 --> 00:19:22,369
hogy használható jó és rossz célokra is.

206
00:19:24,079 --> 00:19:27,875
Például a nukleáris technológiával
energiát nyerhetünk,

207
00:19:30,419 --> 00:19:33,797
de atombombát is készíthetünk,
ami elég szörnyű.

208
00:19:35,090 --> 00:19:38,468
Ezt a kettős felhasználás
problémájaként ismerjük.

209
00:19:39,052 --> 00:19:40,929
A tűz kettős felhasználású.

210
00:19:41,722 --> 00:19:44,308
Az emberi intelligencia is.

211
00:19:44,391 --> 00:19:48,645
Tehát magától értetődő,
hogy a mesterséges intelligencia is az.

212
00:19:49,354 --> 00:19:53,984
Az MI használatánál
nagyon fontos a kontextus,

213
00:19:54,693 --> 00:19:59,114
mert igen, fantasztikus,
ha van egy kutató-mentő robotunk,

214
00:19:59,198 --> 00:20:02,284
amely segíthet megtalálni valakit
egy lavina után,

215
00:20:02,868 --> 00:20:05,871
de ugyanez a robot
fegyverként is használható.

216
00:20:15,088 --> 00:20:21,094
Amikor azt látom, hogy egyes cégek
fegyvereket szerelnek robotokra,

217
00:20:21,178 --> 00:20:22,930
az eléggé dühítő.

218
00:20:23,931 --> 00:20:28,435
Részben maga a felismerés is az,
hogy ha közzétesszük a technológiánkat,

219
00:20:28,518 --> 00:20:30,103
akkor ez fog történni.

220
00:20:31,021 --> 00:20:34,441
Ez egy igazán forradalmasító technológia.

221
00:20:36,235 --> 00:20:38,028
Ezek fegyverrendszerek,

222
00:20:38,111 --> 00:20:43,617
amelyek óriási mértékben lehetnek hatással
a biztonságunkra.

223
00:20:46,161 --> 00:20:51,500
Egyelőre nem tudjuk biztosan,
hogy ezek a gépek

224
00:20:51,583 --> 00:20:54,962
képesek-e különbséget tenni
civilek és katonák között.

225
00:21:01,802 --> 00:21:05,514
Az afganisztáni háború elején
a mesterlövészcsapat tagja voltam.

226
00:21:05,597 --> 00:21:08,016
A határt figyeltük, jön-e ellenséges erő.

227
00:21:09,685 --> 00:21:12,604
Egy lányt küldtek,
hogy felderítse a helyzetünket.

228
00:21:13,939 --> 00:21:17,067
Az sosem merült fel,
hogy lelőjük ezt a kislányt.

229
00:21:19,695 --> 00:21:22,864
Bár a hadijog szerint
jogszerű lépés lett volna.

230
00:21:24,950 --> 00:21:27,369
Ha ellenséges fél, akkor nincs korhatár.

231
00:21:29,079 --> 00:21:33,417
Ha építenénk egy robotot, ami teljes
mértékben a hadijog szerint jár el,

232
00:21:33,500 --> 00:21:35,252
az lelőtte volna a kislányt.

233
00:21:36,420 --> 00:21:41,091
Egy robot hogyan tudna különbséget tenni,
hogy mi jogszerű és mi helyes?

234
00:21:43,385 --> 00:21:46,054
Az autonómdrón-hadviselés célja,

235
00:21:46,138 --> 00:21:51,601
hogy az amerikai psziché és az amerikai
katonák minél kevésbé sérüljenek,

236
00:21:52,602 --> 00:21:58,775
de így csak nő az afgán, az iraki
és a szomáliai civilek sérülésének esélye.

237
00:22:09,619 --> 00:22:14,416
Szívesen megkérdezném azokat, akik
támogatják az MI használatát drónokban,

238
00:22:15,375 --> 00:22:18,211
hogy mi lenne,
ha az ő falujuk volna a célpont?

239
00:22:23,550 --> 00:22:25,594
Az MI kétélű kard.

240
00:22:26,595 --> 00:22:30,724
Lehet jóra is használni,
ami ugyebár a célunk is,

241
00:22:31,558 --> 00:22:33,477
de minimális változtatással

242
00:22:34,561 --> 00:22:38,023
a technológia
halálos következményekkel is járhat.

243
00:22:38,106 --> 00:22:40,233
RALEIGH
ÉSZAK-KAROLINA ÁLLAM

244
00:22:47,032 --> 00:22:48,533
Klinikai farmakológusként

245
00:22:49,618 --> 00:22:50,994
van egy csapatom,

246
00:22:51,078 --> 00:22:54,247
amely MI segítségével kutat
olyan gyógyszerek után,

247
00:22:54,331 --> 00:22:57,751
melyekkel a több figyelmet érdemlő
betegségek gyógyíthatók.

248
00:22:59,711 --> 00:23:04,132
A gyógyszerfejlesztés eddig úgy zajlott,
hogy vettünk egy létező molekulát,

249
00:23:04,216 --> 00:23:06,885
és módosítottuk,
hogy új gyógyszert kapjunk.

250
00:23:08,261 --> 00:23:13,350
Viszont most fejlesztettünk egy MI-t,
amely több millió ötlettel lát el minket,

251
00:23:13,892 --> 00:23:15,310
több millió molekulával,

252
00:23:16,186 --> 00:23:19,231
és így rengeteg lehetőség nyílik,

253
00:23:19,314 --> 00:23:22,567
hogy kezeljünk betegségeket,
melyeket eddig nem tudtunk.

254
00:23:25,153 --> 00:23:29,741
De kétségtelenül van árnyoldala is,
amit nem hittem, hogy érintek majd.

255
00:23:33,161 --> 00:23:34,871
Ez az egész akkor kezdődött,

256
00:23:34,955 --> 00:23:40,043
amikor meghívott egy svájci szervezet,
a Spiez Laboratórium

257
00:23:40,544 --> 00:23:44,423
előadást tartani arról,
mi történik, ha az MI rossz kezekbe kerül.

258
00:23:48,343 --> 00:23:51,221
Sean küldött egy e-mailt néhány ötlettel,

259
00:23:51,304 --> 00:23:55,308
hogy miképp használható rossz célokra
a mesterséges intelligenciánk.

260
00:23:56,059 --> 00:24:00,230
A modelltől nem azt kérjük,
hogy alkosson molekulákat gyógyszerhez,

261
00:24:00,313 --> 00:24:02,274
amikkel betegségeket kezelhetünk,

262
00:24:02,774 --> 00:24:06,403
hanem a legtoxikusabb molekulákat
próbáljuk meg létrehozni.

263
00:24:10,157 --> 00:24:11,491
Meg akartam vizsgálni,

264
00:24:11,575 --> 00:24:15,203
hogy a technológiával
halálos molekulák is létrehozhatóak-e.

265
00:24:17,414 --> 00:24:20,083
Őszintén szólva azt hittük,
nem működik majd,

266
00:24:20,167 --> 00:24:23,962
mert annyit csinálhatunk,
hogy ezt a nullát átírtuk egyre.

267
00:24:24,045 --> 00:24:24,880
ADAT, 0

268
00:24:25,380 --> 00:24:26,631
ADAT, 1

269
00:24:26,715 --> 00:24:30,385
Így a módosítással
a toxicitás csökkentése helyett

270
00:24:30,469 --> 00:24:32,220
most növeljük a toxicitást.

271
00:24:32,721 --> 00:24:33,555
És ennyi.

272
00:24:37,517 --> 00:24:40,729
Amíg otthon voltam,
a számítógép dolgozott,

273
00:24:41,521 --> 00:24:44,816
konkrétan elkezdett előállítani
több ezer molekulát,

274
00:24:45,650 --> 00:24:49,529
és nem kellett mást tennünk,
mint rányomni az „indítás” gombra.

275
00:24:54,493 --> 00:24:58,330
Másnap reggel
ott volt ez a fájl a gépemen,

276
00:24:59,080 --> 00:25:03,376
benne nagyjából 40 ezer molekula,

277
00:25:03,460 --> 00:25:08,882
melyek valószínűleg
a legtoxikusabb ismert molekulák.

278
00:25:10,217 --> 00:25:12,761
Szó szerint felállt a szőr a hátamon.

279
00:25:13,345 --> 00:25:14,554
Teljesen elképedtem.

280
00:25:15,388 --> 00:25:20,685
A számítógép több 10 ezer
új vegyi fegyver ötletével állt elő.

281
00:25:21,645 --> 00:25:27,609
Nyilván vannak VX-hez hasonló molekulák,
illetve VX is az adatállományunkban.

282
00:25:28,276 --> 00:25:31,363
A VX az egyik leghatékonyabb
vegyi fegyver a világon.

283
00:25:31,863 --> 00:25:37,786
A rendőrség szerint a Kim Jong-nam elleni,
reptéri gyilkosság két női elkövetője

284
00:25:37,869 --> 00:25:41,248
a VX elnevezésű
halálos idegmérget használta.

285
00:25:41,748 --> 00:25:44,417
Ebben az esetben a halált fulladás okozza.

286
00:25:45,043 --> 00:25:47,629
Ez egy rendkívül hatékony molekula,

287
00:25:47,712 --> 00:25:52,092
és ezen molekulák közül a legtöbb
várhatóan még halálosabb is, mint a VX.

288
00:25:53,301 --> 00:25:56,972
Amennyire tudjuk,
a nagy részükkel még sohasem találkoztunk.

289
00:25:57,472 --> 00:26:02,310
Szóval amikor Seannal erre rájöttünk,
azt kérdeztük magunktól: „Mit tettünk?”

290
00:26:04,771 --> 00:26:09,192
Hamar felfogtam,
hogy kinyitottuk Pandóra szelencéjét,

291
00:26:09,901 --> 00:26:13,280
és azt mondtam:
„Elég, most álljunk le! Végeztünk.

292
00:26:13,905 --> 00:26:17,158
Csak készítsd el nekem a diákat
a prezentációmhoz!”

293
00:26:19,202 --> 00:26:23,873
A kísérlet elvégzésekor arra gondoltam,
mi a legrosszabb, ami történhet?

294
00:26:26,251 --> 00:26:30,255
De már látom, teljesen naivak voltunk,
hogy ebbe belevágtunk.

295
00:26:33,466 --> 00:26:36,928
Az ijeszt meg leginkább,
hogy bárki megteheti azt, amit mi.

296
00:26:38,930 --> 00:26:40,765
Csak egy apró változtatás kell.

297
00:26:42,934 --> 00:26:46,187
Hogyan szabályozzuk
ezt a technológiát azelőtt,

298
00:26:46,271 --> 00:26:50,942
hogy valami igazán ártalmas dologhoz
használják fel?

299
00:26:54,195 --> 00:26:55,697
BOSTON
MASSACHUSETTS ÁLLAM

300
00:26:55,780 --> 00:27:00,285
A mesterséges intelligenciáról
és a társadalmi felhasználásáról

301
00:27:00,368 --> 00:27:03,538
folytatott párbeszéd középpontjában

302
00:27:04,372 --> 00:27:11,379
a technológiákat létrehozni tudó képesség
és a kontrollt sürgető józanság harca áll.

303
00:27:13,340 --> 00:27:16,926
Vannak nyilvánvaló morális
és etikai következményei annak,

304
00:27:17,010 --> 00:27:20,138
hogy ugyanarra,
ami az okostelefonunkat működteti,

305
00:27:20,221 --> 00:27:23,433
rábízzák a morális döntést,
hogy kiolthat-e egy életet.

306
00:27:25,727 --> 00:27:31,191
Az Élet Jövője Intézetnél dolgozom,
amely tudós aktivisták közössége.

307
00:27:31,733 --> 00:27:33,443
Arra próbálunk rávilágítani,

308
00:27:33,526 --> 00:27:38,698
hogy az automatizálás felgyorsításának
és terjedésének van egy másik oldala is.

309
00:27:38,782 --> 00:27:42,619
De azon dolgozunk, hogy a technológiákat,
melyeket létrehozunk,

310
00:27:42,702 --> 00:27:45,038
biztonságosan és etikusan használják.

311
00:27:46,247 --> 00:27:49,959
Beszélnünk kell szolgálati szabályzatról

312
00:27:50,043 --> 00:27:54,005
és magatartási kódexről az MI
fegyverrendszeri használatában.

313
00:27:54,798 --> 00:27:59,135
Mert már látunk
harctérre kerülő technológiákat,

314
00:27:59,219 --> 00:28:01,680
melyekkel autonóm módon lehet ölni.

315
00:28:10,230 --> 00:28:13,775
2021-ben az ENSZ kiadott egy jelentést

316
00:28:13,858 --> 00:28:19,364
egy halálos, autonóm fegyver
lehetséges bevetéséről a líbiai harctéren.

317
00:28:19,948 --> 00:28:23,993
Egy ENSZ-bizottság szerint
drónt használtak a líbiai polgárháborúban,

318
00:28:24,077 --> 00:28:27,330
melyet autonóm támadásokra
programoztak be.

319
00:28:28,289 --> 00:28:31,209
Ha az ENSZ jelentése helytálló,

320
00:28:31,292 --> 00:28:34,963
akkor ez vízválasztó az emberiség számára.

321
00:28:35,046 --> 00:28:37,132
Mert ez olyan felhasználást jelent,

322
00:28:37,215 --> 00:28:42,137
amikor nem egy ember, hanem egy MI
döntötte el, hogy valaki meghal.

323
00:28:49,686 --> 00:28:55,150
Jól látható, hogy szerte a világon fejlett
autonóm fegyvereket kezdenek használni.

324
00:28:56,276 --> 00:28:58,278
Izraelből érkeztek hírek.

325
00:29:00,280 --> 00:29:05,702
Azerbajdzsán autonóm rendszerekkel
vette célba az örmény légvédelmet.

326
00:29:07,370 --> 00:29:09,998
Órákon át tud repülni a harctér fölött,

327
00:29:10,081 --> 00:29:12,459
keresve a saját maga célpontját,

328
00:29:12,542 --> 00:29:16,087
hogy aztán lecsapjon rá
mindenféle emberi beavatkozás nélkül.

329
00:29:16,796 --> 00:29:21,760
És nemrég láttuk a különböző,
Ukrajnában közzétett videókat.

330
00:29:23,303 --> 00:29:26,890
Nem egyértelmű, milyen módban üzemeltek.

331
00:29:26,973 --> 00:29:30,393
Hogy ember döntött-e arról,
milyen célpontokat támadjanak,

332
00:29:30,477 --> 00:29:32,729
vagy a gép a saját feje után ment?

333
00:29:32,812 --> 00:29:36,524
De mindenképp eljön majd az a pillanat,

334
00:29:36,608 --> 00:29:40,195
akár megtörtént már Líbiában,
Ukrajnában vagy máshol,

335
00:29:40,278 --> 00:29:44,449
hogy egy gép maga dönti el,
kit öljön meg a csatatéren.

336
00:29:47,035 --> 00:29:53,374
Az, hogy a gépek emberi beavatkozás nélkül
döntenek emberek életéről,

337
00:29:53,458 --> 00:29:57,337
politikailag elfogadhatatlan,
míg morálisan gyomorforgató.

338
00:29:59,214 --> 00:30:05,011
Hogy a nemzetközi közösség hatékonyan
meg tud-e birkózni ezekkel a kihívásokkal,

339
00:30:05,094 --> 00:30:06,888
az nagy kérdés.

340
00:30:08,932 --> 00:30:12,685
Ha a jövőbe tekintünk,
akár csak pár évvel előre,

341
00:30:12,769 --> 00:30:15,730
a helyzet rendkívül ijesztő,

342
00:30:16,564 --> 00:30:20,485
tekintve, milyen óriási pénzügyi
és emberi erőforrást fordítanak

343
00:30:20,568 --> 00:30:26,950
az MI további fejlesztésére és a különböző
területeken történő felhasználására.

344
00:30:27,659 --> 00:30:32,163
ARLINGTON
VIRGINIA ÁLLAM

345
00:30:39,254 --> 00:30:41,214
Úristen, ez a fickó!

346
00:30:41,756 --> 00:30:43,424
Tudja, hogy nem nyerhet.

347
00:30:46,678 --> 00:30:51,099
Inspirál, mikor azt látom, hogy különböző
problémák megoldásában az MI nyer.

348
00:30:51,683 --> 00:30:53,977
Mindent felteszek egy lapra.

349
00:30:54,477 --> 00:30:59,524
És ezeket a taktikákat és eljárásokat
igazi légi járműveken is lehet alkalmazni.

350
00:31:01,401 --> 00:31:02,318
Jó meccs volt.

351
00:31:02,402 --> 00:31:03,653
Jól van, szép volt.

352
00:31:08,658 --> 00:31:13,371
Meglepő számomra, hogy sokan még mindig
azzal jönnek, hogy mire nem képes az MI.

353
00:31:13,872 --> 00:31:16,583
Igaz? „Sosem győz le
egy világbajnok sakkozót.”

354
00:31:20,211 --> 00:31:23,298
Egy IBM számítógép
megfordította a második játszmát

355
00:31:23,381 --> 00:31:25,925
a sakkvilágbajnok Garri Kaszparov ellen.

356
00:31:28,136 --> 00:31:30,847
Kaszparov feladta!

357
00:31:31,598 --> 00:31:34,642
Amikor olyasmivel találkozom,
amit nem értek,

358
00:31:34,726 --> 00:31:38,062
megijedek, és ez olyasmi volt,
amit nagyon nem értek.

359
00:31:39,355 --> 00:31:41,107
És akkor azt harsogták:

360
00:31:41,190 --> 00:31:44,402
„Sosem győz le
egy világbajnok gojátékost.”

361
00:31:44,485 --> 00:31:49,699
Úgy gondolom, az emberi intuíció
továbbra is túl fejlett ahhoz,

362
00:31:49,782 --> 00:31:52,827
hogy a mesterséges intelligencia
felérjen hozzá.

363
00:31:55,204 --> 00:31:58,416
A go az egyik legkomplexebb játék,
amit megtanulhatunk,

364
00:31:58,499 --> 00:32:02,211
mert a táblán a lépések száma
többre jön ki,

365
00:32:02,295 --> 00:32:05,256
mint ahány atom van az egész univerzumban.

366
00:32:06,799 --> 00:32:11,554
A Google DeepMind nevű csapata
csinált egy AlphaGo elnevezésű programot,

367
00:32:11,638 --> 00:32:14,265
hogy az legyőzze
a világ legjobb játékosait.

368
00:32:14,349 --> 00:32:16,476
Azt a mindenit!

369
00:32:16,559 --> 00:32:18,269
És a győztes az…

370
00:32:18,353 --> 00:32:19,437
- AlphaGo.
- AlphaGo.

371
00:32:19,520 --> 00:32:22,774
Egy számítógépprogram legyőzött
egy kilencdanos profit.

372
00:32:25,610 --> 00:32:31,532
Aztán a DeepMind a StarCraftot választotta
a következő MI-kihívásának.

373
00:32:33,743 --> 00:32:38,081
Talán minden idők legnépszerűbb
valós idejű stratégiai játéka a StarCraft.

374
00:32:40,333 --> 00:32:44,712
Az AlphaStar híres lett,
amikor elkezdett világbajnokokat legyőzni.

375
00:32:45,338 --> 00:32:48,800
Az AlphaStar semmi esélyt nem ad
Immortal Arcnak.

376
00:32:48,883 --> 00:32:52,553
Mondok valamit: ez nem olyan csata,
amit a prók megnyerhetnek.

377
00:32:53,680 --> 00:32:54,806
Ez már nevetséges.

378
00:32:57,642 --> 00:33:00,895
A profi gamerek azt mondták,
nem próbálkoznának ezzel,

379
00:33:00,979 --> 00:33:04,816
ilyen taktikát nem választanának,
mert ez nem emberi.

380
00:33:07,151 --> 00:33:10,655
És valószínűleg
számomra ez volt az ahapillanat.

381
00:33:13,574 --> 00:33:16,661
Rájöttem, hogy itt az idő.

382
00:33:17,412 --> 00:33:21,082
Egy fontos technológiával és lehetőséggel
változást hozhatunk.

383
00:33:24,502 --> 00:33:29,382
Csak azon problémákat ismertem, amikkel
SEAL-esként a közelharc során találkoztam,

384
00:33:30,383 --> 00:33:34,470
de az egyik jó barátom,
aki F–18-as pilóta volt, azt mesélte,

385
00:33:34,554 --> 00:33:37,724
hogy ők, a vadászpilóták is
ilyen gondokkal küzdenek:

386
00:33:37,807 --> 00:33:39,434
zavarják a kommunikációt,

387
00:33:39,517 --> 00:33:42,562
elszaporodtak
a föld-levegő rakétaindító állások,

388
00:33:42,645 --> 00:33:44,439
amik nagy veszélyt jelentenek.

389
00:33:47,483 --> 00:33:50,987
Képzeljük el,
ha lenne egy MI-vezérelt vadászgépünk.

390
00:33:51,070 --> 00:33:56,159
Ez itt az AlphaDogfight verseny.
Pár perc múlva kezdődik az első elődöntő.

391
00:33:56,242 --> 00:33:59,871
A DARPA, a Fejlett Védelmi
Kutatási Projektek Ügynöksége

392
00:33:59,954 --> 00:34:03,624
látta az AlphaGót és az AlphaStart,

393
00:34:04,292 --> 00:34:08,171
így született meg
az AlphaDogfight nevű verseny ötlete.

394
00:34:09,005 --> 00:34:11,466
Ezt várjuk el az emberi vadászpilótától.

395
00:34:11,549 --> 00:34:13,593
Akár az emberek közti közelharc.

396
00:34:15,595 --> 00:34:19,057
A légi közelharc egy az egy elleni csata
repülőgépek közt.

397
00:34:19,849 --> 00:34:22,852
Tekinthetünk rá
egy levegőben zajló bokszmeccsként.

398
00:34:23,853 --> 00:34:26,314
Talán sokan látták a Top Gun című filmet.

399
00:34:26,397 --> 00:34:27,815
Nem tudunk meglépni?

400
00:34:28,649 --> 00:34:30,068
A rakétáik elől nem.

401
00:34:30,151 --> 00:34:31,277
Akkor légi harc.

402
00:34:35,531 --> 00:34:39,410
A légi közelharc elsajátítása
nyolc-tíz évbe telik.

403
00:34:42,288 --> 00:34:46,209
Borzasztóan nehéz felépíteni
erre egy MI-t.

404
00:34:49,629 --> 00:34:52,381
ARLINGTON
VIRGINIA ÁLLAM

405
00:34:54,050 --> 00:34:58,721
Az autonómia és a légi közelharc korábbi
megközelítései elég problémásak voltak.

406
00:34:59,222 --> 00:35:03,017
Úgy gondoltuk, ezt valószínűleg
a gépi tanulással oldhatjuk meg.

407
00:35:04,477 --> 00:35:08,189
Először az MI semmit sem tudott
a világról, amibe belecsöppent.

408
00:35:08,272 --> 00:35:12,735
Nem tudta, hogy repül, sem azt,
hogy mi a légi közelharc vagy egy F–16-os.

409
00:35:13,236 --> 00:35:18,407
Csak azt tudta, milyen műveleteket hajthat
végre, és ezeket elkezdte feltérképezni.

410
00:35:19,325 --> 00:35:23,204
A kék repülő még csak rövid ideje tanul.

411
00:35:23,287 --> 00:35:25,832
Láthatjuk, hogy ide-oda imbolyog,

412
00:35:26,624 --> 00:35:30,545
nagyon kiszámíthatatlanul repül,
elég messze az ellenséges géptől.

413
00:35:31,587 --> 00:35:32,755
Ahogy a harc halad,

414
00:35:32,839 --> 00:35:36,134
láthatjuk, hogy a kék
elkezdi kialakítani a taktikáját.

415
00:35:36,676 --> 00:35:38,636
Egyre inkább lőpozícióba kerül.

416
00:35:39,178 --> 00:35:43,891
Olykor a tanulóalgoritmus azt mondta:
„Tessék, egy süti, ezt folytasd tovább!”

417
00:35:45,143 --> 00:35:50,064
Kihasználhatjuk a komputer teljesítményét,
és párhuzamosan képezhetjük az ágenseket.

418
00:35:51,357 --> 00:35:52,775
Akár egy kosárcsapatnál:

419
00:35:53,276 --> 00:35:55,778
nem mindig ugyanaz ellen lépünk pályára,

420
00:35:55,862 --> 00:35:59,198
hanem a világot bejárva
512 különböző csapattal játszunk,

421
00:35:59,699 --> 00:36:01,033
minddel azonos időben.

422
00:36:01,534 --> 00:36:03,619
Így nagyon jók és gyorsak lehetünk.

423
00:36:04,162 --> 00:36:07,456
Éjjel-nappal futtattuk a szimulációt,

424
00:36:07,540 --> 00:36:11,919
és 30 évnyi pilótaképzést értünk el
tíz hónap alatt.

425
00:36:12,795 --> 00:36:17,717
Eleinte alig lehetett irányítani a gépet,
mostanra viszont könyörtelen gyilkos lett.

426
00:36:19,010 --> 00:36:23,514
A tanulás során kizárólag másik
mesterséges intelligenciával versengtünk.

427
00:36:24,473 --> 00:36:28,561
De a cél az volt,
hogy emberekkel vegyük fel a harcot.

428
00:36:34,192 --> 00:36:35,610
A nevem Mike Benitez,

429
00:36:36,110 --> 00:36:38,487
alezredes vagyok az amerikai légierőnél,

430
00:36:39,155 --> 00:36:41,157
25 éve tényleges szolgálatban.

431
00:36:42,825 --> 00:36:44,952
Kétszázötven bevetésen vettem részt,

432
00:36:45,453 --> 00:36:47,538
és elvégeztem a harcászati iskolát.

433
00:36:48,039 --> 00:36:49,832
Az a Top Gun légierő-verziója.

434
00:36:52,627 --> 00:36:55,171
Még sosem repültem MI ellen.

435
00:36:55,254 --> 00:36:58,549
Izgatottan várom, hogy mire leszek képes.

436
00:36:59,634 --> 00:37:03,054
Hatezer láb magasságon zajló
légi csatát állítottunk be.

437
00:37:04,388 --> 00:37:05,223
Indul a csata.

438
00:37:13,314 --> 00:37:14,148
És eltűnt.

439
00:37:14,732 --> 00:37:16,651
Aha, ez elég érdekes.

440
00:37:20,780 --> 00:37:23,658
- Meghaltam.
- Elkapta. Sima győzelem.

441
00:37:25,910 --> 00:37:27,453
Jól van, második menet.

442
00:37:35,461 --> 00:37:40,508
A mesterséges intelligencia
olyan precízen manőverezik,

443
00:37:41,259 --> 00:37:43,219
amivel nem tudok lépést tartani.

444
00:37:48,474 --> 00:37:49,725
Egy vonalba kerülnek.

445
00:37:50,309 --> 00:37:51,894
Most véged van.

446
00:37:53,145 --> 00:37:53,980
Elkapta.

447
00:37:54,063 --> 00:37:55,022
Így is elkapott.

448
00:37:58,567 --> 00:38:00,069
Az MI sosem fél.

449
00:38:00,653 --> 00:38:03,781
Az embernél ott az érzelmi tényező,
az MI-nél nincsen.

450
00:38:04,991 --> 00:38:10,121
A szembetámadás az egyik legérdekesebb
taktika, amit az MI-nk kifejlesztett.

451
00:38:10,621 --> 00:38:14,000
Az emberek
általában hátulról akarnak lőni,

452
00:38:14,083 --> 00:38:16,377
mert nehéz lerázni a mögötted lévőt.

453
00:38:16,961 --> 00:38:20,381
Szemből nem teszik,
mert úgy az a kérdés, ki ijed be előbb.

454
00:38:21,424 --> 00:38:27,096
Frontálisan 3000-ről 500 lábra a távolság
egy szempillantás alatt lecsökken.

455
00:38:27,596 --> 00:38:31,183
Hatalmas az ütközés kockázata,
ezért az emberek ezt kerülik.

456
00:38:32,810 --> 00:38:35,938
Az MI – hacsak nem utasítjuk –
nem érez halálfélelmet.

457
00:38:37,857 --> 00:38:40,234
Olyan, mintha emberrel harcolnék,

458
00:38:40,776 --> 00:38:44,113
de egy ember önkéntelenül is
a biztonságra törekszik.

459
00:38:45,489 --> 00:38:47,325
Nem éli túl az utolsót.

460
00:38:57,168 --> 00:38:58,461
Nincs elég ideje.

461
00:39:01,964 --> 00:39:02,965
Szép álmokat!

462
00:39:04,091 --> 00:39:04,925
Meghaltam.

463
00:39:16,812 --> 00:39:20,983
Megalázó a tudat, hogy talán van nálam
alkalmasabb is erre a feladatra,

464
00:39:21,484 --> 00:39:24,320
és hogy egy nap
lecserélhetnek erre az izére.

465
00:39:25,696 --> 00:39:28,824
Marad a hatos látótávolság.
Az eltolódás ezer.

466
00:39:29,450 --> 00:39:32,078
Az MI-irányítású vadászgép

467
00:39:32,828 --> 00:39:37,249
könyörtelen győzelmet arat, domináns,
nem csak távolról hatékony.

468
00:39:37,333 --> 00:39:41,545
Annyira jó, hogy használnunk kellene
a repülőgépeinken.

469
00:39:43,672 --> 00:39:47,802
Reális azt hinni,
hogy egy MI vezethet F–16-ost,

470
00:39:47,885 --> 00:39:49,970
és ez nem a távoli jövő.

471
00:39:51,305 --> 00:39:56,769
Ha egy olyan MI-pilótával csapsz össze,
aminek 99,99999%-os győzelmi mutatója van,

472
00:39:56,852 --> 00:39:58,646
akkor nincs esélyed.

473
00:39:59,605 --> 00:40:02,733
Amikor egy legyőzhetetlen
MI-pilótára gondolok,

474
00:40:02,817 --> 00:40:06,695
akkor az jár a fejemben,
hogy ötven, száz

475
00:40:07,279 --> 00:40:12,535
vagy ezer MI-pilóta mit érhet el.

476
00:40:13,702 --> 00:40:18,791
A raj egy magas intelligenciájú
repülőgépekből álló, együttműködő csapat.

477
00:40:19,291 --> 00:40:23,546
Megosztják egymással, hogy mit tegyenek,
hogyan kezeljenek egy problémát.

478
00:40:25,172 --> 00:40:32,054
Ez alapjaiban változtatja meg hadseregünk
és szövetségeseink képességét.

479
00:40:34,223 --> 00:40:39,186
LINCOLN
NEBRASKA ÁLLAM

480
00:41:42,750 --> 00:41:47,379
Célpont bemérve, a drónok a nyomában.

481
00:42:02,019 --> 00:42:03,604
Oké, most szállnak le.

482
00:42:07,566 --> 00:42:10,402
A jelenlegi rajkutatásunk legfőbb célja,

483
00:42:11,153 --> 00:42:13,697
hogy nagy számú drónt telepítsünk

484
00:42:13,781 --> 00:42:17,910
nehezen vagy veszélyesen megközelíthető
területek fölé.

485
00:42:21,705 --> 00:42:26,085
A hadsereg kutatólaboratóriuma
támogatja ezt a kutatási projektet.

486
00:42:26,919 --> 00:42:32,883
Ha tudni akarjuk, mi van a helyszínen,
de nehéz eljutni oda, vagy nagy terület,

487
00:42:33,676 --> 00:42:38,389
akkor egy raj telepítése logikus módja,
hogy kiterjesszük az egyének hatótávját,

488
00:42:38,472 --> 00:42:41,934
és létfontosságú információkat gyűjtsünk
a bevetéshez.

489
00:42:46,689 --> 00:42:48,983
Most, a raj telepítése során

490
00:42:49,066 --> 00:42:53,904
lényegében egyetlen parancsot adunk ki,
hogy kutassák fel a célpontot.

491
00:42:54,488 --> 00:42:57,283
A többit a drónok maguktól oldják meg.

492
00:42:59,493 --> 00:43:05,708
Az MI lehetővé teszi, hogy a robotok egy
rajként, decentralizált módon mozogjanak.

493
00:43:10,671 --> 00:43:12,506
A természetben látható rajoknál

494
00:43:13,299 --> 00:43:18,178
nincs vezető vagy falkavezér,
aki megmondja, mit tegyenek.

495
00:43:20,556 --> 00:43:25,019
Ez a viselkedés
minden egyes állatnál kialakul,

496
00:43:25,102 --> 00:43:27,104
néhány egyszerű szabályt követve.

497
00:43:27,688 --> 00:43:32,443
És ebből fejlődik ki ez a fajta
kollektív viselkedés, amit látunk.

498
00:43:33,944 --> 00:43:37,031
A természetben található rajokban
az a döbbenetes,

499
00:43:37,114 --> 00:43:39,992
amilyen könnyedséggel mozognak.

500
00:43:40,576 --> 00:43:44,288
Mint a csoport tagjának
lettek volna teremtve.

501
00:43:46,790 --> 00:43:53,172
Ugyanazt szeretnénk látni a drónrajunktól,
mint a természetben található rajoknál,

502
00:43:53,672 --> 00:43:56,717
hogy a csoport együttesen hozzon döntést.

503
00:43:59,928 --> 00:44:02,765
Ami még szintén inspirált minket,

504
00:44:02,848 --> 00:44:06,268
az a megbízhatóságuk
és az alkalmazkodóképességük.

505
00:44:07,311 --> 00:44:12,983
A raj nem bomlik meg,
ha egy állat nem teszi azt, amit kellene.

506
00:44:15,194 --> 00:44:20,866
Még ha egy ágens ki is esik, meghibásodik,
esetleg nem képes teljesíteni a feladatát,

507
00:44:21,909 --> 00:44:23,577
a raj teszi tovább a dolgát.

508
00:44:25,204 --> 00:44:27,873
Végső soron ezt szeretnénk elérni.

509
00:44:29,333 --> 00:44:33,879
A csatatéren fontos, hogy azonosítsuk
az ellenséges légi járműveket,

510
00:44:33,962 --> 00:44:37,841
és eddig egy robot irányításához
kellett egy személy.

511
00:44:38,592 --> 00:44:40,886
Az autonómia növekedésével remélem,

512
00:44:40,969 --> 00:44:46,558
eljutunk oda, hogy kevés ember is
elég lesz sok robot irányításához.

513
00:44:47,726 --> 00:44:50,854
Nem látom okát,
miért ne érhetnénk el az ezres számot,

514
00:44:51,355 --> 00:44:56,443
hiszen minden ágens képes lesz önállóan
cselekedni, és a határ a csillagos ég.

515
00:44:57,027 --> 00:44:59,071
Skálázhatjuk a tanulást…

516
00:44:59,154 --> 00:45:03,325
Jó ideje dolgozunk a rajok szimulációján,

517
00:45:03,409 --> 00:45:06,829
és itt az idő,
hogy valódi repülőn is kipróbáljuk.

518
00:45:07,329 --> 00:45:12,042
Azt várjuk, hogy egyszerre három robotot
működtetünk a hálózaton keresztül,

519
00:45:12,126 --> 00:45:15,129
és aztán egyre több képességet hozzáadunk.

520
00:45:15,879 --> 00:45:18,549
Kisebb rendszereken
szeretnénk letesztelni,

521
00:45:18,632 --> 00:45:22,177
de ugyanazokat az elveket alkalmaznánk
nagyobb rendszereken,

522
00:45:22,261 --> 00:45:23,679
például vadászgépen is.

523
00:45:24,596 --> 00:45:26,014
Sokat beszélünk arról,

524
00:45:26,098 --> 00:45:31,937
hogyan adhatnánk egy szakasznak
egy zászlóalj harcászati erejét.

525
00:45:34,982 --> 00:45:39,528
Vagy egy zászlóaljnak
egy dandár harcászati erejét.

526
00:45:39,611 --> 00:45:41,488
Ez drónrajokkal megoldható.

527
00:45:42,573 --> 00:45:45,200
Ha sikerül kiaknázni
a rajokban rejlő erőt,

528
00:45:45,284 --> 00:45:49,455
új stratégiai elrettentő eszköz jön létre
a katonai agresszió ellen.

529
00:45:52,291 --> 00:45:56,420
Szerintem a legizgalmasabb ebben az,
hogy hány fiatal férfi és nő lesz,

530
00:45:57,087 --> 00:46:00,299
akit megmentünk,
ha ezt tényleg jól csináljuk.

531
00:46:01,091 --> 00:46:03,594
Inkább áldozunk fel gépeket,

532
00:46:04,553 --> 00:46:05,846
mint emberéleteket.

533
00:46:06,638 --> 00:46:09,683
Egyesek szerint
az autonóm fegyverek a hadviselést

534
00:46:09,767 --> 00:46:11,727
precízebbé és humánusabbá teszik,

535
00:46:12,853 --> 00:46:15,397
de igazából nehéz megjósolni,

536
00:46:15,481 --> 00:46:19,443
hogy az autonóm fegyverek
azt pontosan miként változtatják meg.

537
00:46:21,278 --> 00:46:23,238
Példaként ott a Gatling-géppuska.

538
00:46:25,073 --> 00:46:27,117
Richard Gatling feltaláló volt,

539
00:46:27,201 --> 00:46:30,954
aki látta, mennyi sebesült katona
tér vissza a polgárháborúból,

540
00:46:32,289 --> 00:46:35,292
és valahogy humánusabbá akarta tenni
a hadviselést.

541
00:46:36,502 --> 00:46:39,880
Úgy vélte, a megoldás arra,
hogy kevesebb katona essen el,

542
00:46:40,380 --> 00:46:42,633
a csatába vonulók számának mérséklése.

543
00:46:44,092 --> 00:46:48,388
Ezért feltalálta a Gatling-géppuskát,
egy kurblis gépfegyvert,

544
00:46:48,472 --> 00:46:50,516
amivel automatizálta a tüzelést.

545
00:46:53,268 --> 00:46:57,981
Ezzel gyakorlatilag megszázszorozta
a katonák tűzerejét.

546
00:47:01,109 --> 00:47:05,239
Gyakran a szándék, hogy precízebbé
és humánusabbá tegyük a hadviselést,

547
00:47:06,490 --> 00:47:08,033
ellentétes hatást vált ki.

548
00:47:10,118 --> 00:47:14,540
Lehet, hogy egy téves dróntámadás
olyan hatást fejt ki egy vidéki területen,

549
00:47:14,623 --> 00:47:17,125
ami a helyi lakosságot az Egyesült Államok

550
00:47:17,209 --> 00:47:20,712
vagy a saját kormánya ellen fordítja,
akik elvileg a jófiúk.

551
00:47:22,589 --> 00:47:25,008
És most ezt szorozzuk meg ezerrel!

552
00:47:26,718 --> 00:47:28,720
Olyan fegyverrendszer létrehozása,

553
00:47:28,804 --> 00:47:34,560
ami olcsó, skálázható,
és nem igényel emberi operátort,

554
00:47:34,643 --> 00:47:37,896
drasztikusan megváltoztatja
a konfliktusok korlátait.

555
00:47:40,107 --> 00:47:44,486
Éjjel nem bírok aludni, olyan világra
gondolok, ahol mindenütt háború van,

556
00:47:44,987 --> 00:47:48,657
és mi többé nem viseljük a háború
emberi és anyagi terhét,

557
00:47:48,740 --> 00:47:51,410
mert olyan messze vagyunk

558
00:47:52,369 --> 00:47:54,162
a majdani elveszett életektől.

559
00:47:59,501 --> 00:48:00,794
Ez kísért engem.

560
00:48:02,212 --> 00:48:05,924
Csak egy példa kellett
az MI rossz célokra történő használatára.

561
00:48:06,800 --> 00:48:10,888
Ennek az egyszerű gondolatkísérletnek
a nem várt következményei

562
00:48:10,971 --> 00:48:12,848
túl messzire vezettek.

563
00:48:13,348 --> 00:48:16,435
MI A GYÓGYSZERFEJLESZTÉSBEN:
LEGALÁBB KÁRT NE TEGYÜNK

564
00:48:17,352 --> 00:48:22,107
Amikor az előadást tartottam az MI által
létrehozott toxikus molekulákról,

565
00:48:22,608 --> 00:48:24,568
a hallgatóságnak leesett az álla.

566
00:48:25,402 --> 00:48:27,613
5000 VEGYÜLET
ISMERT VX-SZÁRMAZÉK VOLT

567
00:48:29,406 --> 00:48:33,577
A következő kérdés az volt,
közzétegyük-e ezt az információt.

568
00:48:34,912 --> 00:48:39,166
Egyrészt figyelmeztetni akarjuk a világot
az efféle képességekre,

569
00:48:39,249 --> 00:48:44,087
de másrészt nem akarunk ötletet adni
olyasvalakinek, akinek eddig nem volt.

570
00:48:46,381 --> 00:48:49,551
Úgy döntöttünk, megéri publikálni,
hátha rájövünk,

571
00:48:49,635 --> 00:48:54,139
hogyan gátoljuk meg az MI-vel történő
visszaélést, mielőtt még bekövetkezik.

572
00:48:54,222 --> 00:48:56,975
AZ MI-VEL VÉGZETT
GYÓGYSZERFEJLESZTÉS VESZÉLYEI

573
00:48:57,559 --> 00:49:00,938
HOGYAN LEHET AZ MI-VEL VISSZAÉLNI
A GYÓGYSZERFEJLESZTÉSBEN

574
00:49:01,897 --> 00:49:04,775
A közvélemény reakciója sokkoló volt.

575
00:49:07,194 --> 00:49:10,656
Ezen az oldalon látjuk,
hány embert értünk el.

576
00:49:10,739 --> 00:49:14,451
Általában a cikkeink olvasottsága
jó esetben…

577
00:49:14,534 --> 00:49:19,831
Szóval pár ezer ember kattint a cikkeinkre
egy vagy több év alatt.

578
00:49:19,915 --> 00:49:22,084
Tízezren olvasták el egy hét alatt.

579
00:49:22,167 --> 00:49:25,337
Majd már 20, 30 és 40 ezren látták,

580
00:49:25,837 --> 00:49:28,715
mígnem elértük
a napi 10 ezres látogatottságot.

581
00:49:30,258 --> 00:49:33,512
Írt rólunk a The Economist,
a Financial Times.

582
00:49:35,639 --> 00:49:39,977
Megkeresett minket a Radiolab.
Mintha már hallottam volna róluk!

583
00:49:41,937 --> 00:49:45,899
De aztán a reakciók megváltoztak,
és nem lehetett kordában tartani.

584
00:49:48,819 --> 00:49:49,695
RÉMISZTŐ.

585
00:49:49,778 --> 00:49:53,532
Ilyen tweetek jöttek:
„Úristen, tehettek volna ennél rosszabbat?

586
00:49:54,324 --> 00:49:55,993
Miért csinálták?”

587
00:49:57,911 --> 00:50:01,081
A KOCKÁK VÉGEZNEK VELÜNK.

588
00:50:01,164 --> 00:50:04,501
Majd kaptunk egy meghívást,
amire nagyon nem számítottam.

589
00:50:08,797 --> 00:50:12,926
Komoly beszédtéma volt
a Fehér Házban a cikkünk,

590
00:50:13,010 --> 00:50:15,345
és sürgősen beszélni akartak velünk.

591
00:50:18,849 --> 00:50:23,020
Nyilván hihetetlen megtiszteltetés
ilyen rangú emberekkel beszélgetni.

592
00:50:23,603 --> 00:50:28,316
De aztán beléd ötlik: „Jézusom,
hisz ez a Fehér Ház. A nagyfőnök.”

593
00:50:29,693 --> 00:50:33,196
Ebben olyan adatállományok vannak,
melyek nyílt forráskódú…

594
00:50:33,280 --> 00:50:37,701
Hat óra alatt a modell
generált több mint 40 ezer…

595
00:50:37,784 --> 00:50:41,038
Arról kérdeztek,
milyen erős számítógép kell hozzá,

596
00:50:41,872 --> 00:50:43,832
és elmondtuk, hogy semmi extra.

597
00:50:44,332 --> 00:50:48,211
Szó szerint egy teljesen hétköznapi,
hatéves Mac elég volt hozzá.

598
00:50:49,546 --> 00:50:51,256
És ettől elállt a szavuk.

599
00:50:54,968 --> 00:51:01,349
A vegyi harcanyagokban és a kormányzati
szervekben jártas személyek

600
00:51:02,017 --> 00:51:04,269
nem tudták, mekkora a potenciál ebben.

601
00:51:06,605 --> 00:51:09,858
Tudjuk, hogy kell megalkotni
ezeket a vegyi fegyvereket,

602
00:51:10,650 --> 00:51:15,572
és ha ez a tudás rossz kezekbe kerül,
ha ezzel valaki ártani akar,

603
00:51:16,573 --> 00:51:18,992
annak borzasztó vége lehet.

604
00:51:21,661 --> 00:51:26,458
Az embereknek oda kell erre figyelniük,
és vagy szabályoznunk kell a technológiát,

605
00:51:27,167 --> 00:51:30,879
vagy korlátozni a használatát,
hogy ne lehessen visszaélni vele.

606
00:51:31,880 --> 00:51:35,175
Mert a halálos kimenetel lehetősége

607
00:51:36,176 --> 00:51:37,344
hátborzongató.

608
00:51:40,680 --> 00:51:45,977
Az MI etikai kérdésével
nagyrészt a társadalom foglalkozik,

609
00:51:46,561 --> 00:51:50,273
nem a mérnökök, a technológusok
vagy a matematikusok.

610
00:51:52,484 --> 00:51:56,822
Minden technológia, amivel előállunk,
minden újszerű innováció

611
00:51:56,905 --> 00:52:00,617
a társadalom megítélésétől függ,
hogy hogyan kéne használnunk.

612
00:52:03,036 --> 00:52:06,498
Jelenleg a Védelmi Minisztérium
azt mondja,

613
00:52:06,581 --> 00:52:11,920
hogy kizárólag emberek döntenek arról,
ki hal meg a csatatéren.

614
00:52:12,504 --> 00:52:14,548
Lehet, hogy egy gép öl,

615
00:52:15,674 --> 00:52:18,927
de csakis emberi operátor utasítására,

616
00:52:19,636 --> 00:52:21,429
és kétlem, hogy ez változna.

617
00:52:24,808 --> 00:52:28,103
Azt mondják,
ez a fajta technológia biztonságos lesz,

618
00:52:29,646 --> 00:52:31,565
de az Egyesült Államok hadserege

619
00:52:31,648 --> 00:52:35,485
nem épp a szavahihetőségéről híres
a drónhadviselés terén.

620
00:52:36,820 --> 00:52:41,783
Tehát amikor szóba kerül a bizalom
az amerikai hadsereg és az MI kapcsán,

621
00:52:41,867 --> 00:52:44,327
akkor szerintem a múlt önmagáért beszél.

622
00:52:46,288 --> 00:52:50,125
A Védelmi Minisztérium fegyverek
autonómiájára vonatkozó irányelve

623
00:52:50,208 --> 00:52:52,919
nem tilt semmilyen fegyverrendszert.

624
00:52:53,003 --> 00:52:56,715
És még ha a hadseregek
nem is akarnak autonóm fegyvereket,

625
00:52:56,798 --> 00:53:03,680
azt látni, egyre több döntést bíznak
a gépekre, hogy tartsák másokkal a lépést.

626
00:53:04,723 --> 00:53:08,351
És ez ráveheti a hadseregeket
olyan döntések automatizálására,

627
00:53:08,435 --> 00:53:09,978
amelyeket nem akarnak.

628
00:53:12,022 --> 00:53:16,693
Vlagyimir Putyin azt mondta: „Az lesz
a világ ura, aki az MI terén az élen jár.”

629
00:53:17,736 --> 00:53:23,325
Hszi elnök világossá tette, hogy az MI
az egyik legfontosabb technológia,

630
00:53:23,408 --> 00:53:25,702
amelyben Kína vezető szerepet akar.

631
00:53:26,786 --> 00:53:29,831
Ez egyértelműen egy technológiai verseny.

632
00:53:33,460 --> 00:53:35,670
Az emberek biztosítékokat követelnek,

633
00:53:36,463 --> 00:53:39,424
és szerintem nekik ez is a dolguk.

634
00:53:40,467 --> 00:53:45,180
De igazi versenyfutás zajlik
az MI jelentette fölényért.

635
00:53:47,265 --> 00:53:51,603
És az ellenfeleinket, akár Kína,
Oroszország vagy Irán az,

636
00:53:52,187 --> 00:53:56,566
nem fogja izgatni,
hogy nekünk milyen MI-irányelveink vannak.

637
00:54:00,820 --> 00:54:04,324
Az MI-irányelv elég felkapott téma lett,

638
00:54:06,117 --> 00:54:11,706
de bár több vezető mondaná azt:
„Milyen gyorsan tudjuk megépíteni?

639
00:54:12,707 --> 00:54:15,168
Támogassuk és csináljuk meg!”

640
00:54:16,419 --> 00:54:18,838
A FŐVÁROS, WASHINGTON

641
00:54:18,922 --> 00:54:21,299
AUSA, ÉVES GYŰLÉS ÉS KIÁLLÍTÁS
WASHINGTON

642
00:54:24,177 --> 00:54:26,805
AZ EGYESÜLT ÁLLAMOK HADSEREGE

643
00:54:33,478 --> 00:54:38,358
Az Amerikai Hadsereg Szövetségének
legnagyobb szakkiállításán vagyunk.

644
00:54:39,609 --> 00:54:44,572
Gyakorlatilag mindenki, aki terméket
vagy technológiát árul a hadseregnek,

645
00:54:44,656 --> 00:54:46,616
bemutatót tart itt.

646
00:54:47,701 --> 00:54:50,537
A Tyndall Légibázison négy robotunk van,

647
00:54:50,620 --> 00:54:53,748
melyek éjjel-nappal járőröznek
a támaszponton.

648
00:54:55,750 --> 00:55:00,130
Kamerától kezdve szenzorokon át
bármit hozzáadhatunk. Ami csak kell.

649
00:55:00,213 --> 00:55:05,135
Manipulátort. Tényleg bármit,
ami a vevőnek kell a sikeres bevetéshez.

650
00:55:06,678 --> 00:55:08,638
És ha az ellenség jön egy MI-vel?

651
00:55:09,431 --> 00:55:12,976
Egy harci rendszerrel,
ami gyorsabban gondolkodik és reagál,

652
00:55:13,059 --> 00:55:16,062
mint amire egy ember képes?
Készen kell állnunk rá.

653
00:55:17,605 --> 00:55:21,359
Információszerzésre képezzük ki
a rendszereinket,

654
00:55:22,027 --> 00:55:26,531
és hogy emberi felügyelet mellett
intézzék el az ellenséges célpontokat.

655
00:55:33,288 --> 00:55:34,956
- Tábornok úr!
- Hogy van?

656
00:55:35,040 --> 00:55:36,416
Jól, uram. És ön?

657
00:55:37,709 --> 00:55:42,630
Hadd mondjam el, senki sem fektet többet
MI-pilótába. A miénk neve Kaptártudat,

658
00:55:43,298 --> 00:55:47,135
amit a Nova kvadkopterünknél használunk.
Bemegy épületekbe,

659
00:55:47,218 --> 00:55:50,847
és feltérképezi a különleges
vagy gyalogsági alakulatok előtt.

660
00:55:50,930 --> 00:55:56,811
És a V-BAT-nél alkalmazzuk, szóval össze
tudunk állítani több száz ilyen csapatot.

661
00:55:56,895 --> 00:56:01,608
Akár a Tajvani-szorosnál, akár Ukrajnában,
akár az ellenségeink elrettentésére.

662
00:56:01,691 --> 00:56:03,360
Nagyon izgalmasnak találom.

663
00:56:03,943 --> 00:56:06,279
- Értem, köszönöm.
- Én is, tábornok úr.

664
00:56:07,989 --> 00:56:13,370
Az MI-pilótáknak mindenütt
jelen kell lenniük 2025-re vagy 2030-ra.

665
00:56:14,204 --> 00:56:17,582
Világszerte gyorsan elterjed majd
a hadseregeknél.

666
00:56:19,250 --> 00:56:22,962
Mi van a román hadsereggel,
a drónos fickójukkal?

667
00:56:23,046 --> 00:56:24,714
Csúcstechnológia a seregben.

668
00:56:25,256 --> 00:56:29,803
Eddig félmilliárd dollárt költöttünk
egy MI-pilóta megépítésére.

669
00:56:29,886 --> 00:56:33,181
A következő öt évben
még egymilliárdot költünk majd el.

670
00:56:33,264 --> 00:56:37,769
Ez az egyik fő oka annak,
hogy megnyerjük a Pentagon programjait.

671
00:56:37,852 --> 00:56:42,732
Szuper. Tényleg lenyűgöző.
És felfegyverezni is sikerült?

672
00:56:43,650 --> 00:56:45,568
Még nincs rajta fegyver.

673
00:56:45,652 --> 00:56:48,321
Szóval még nem. De majd az is meglesz.

674
00:56:48,905 --> 00:56:52,534
A vevőink kamionként,
mi intelligens kamionként tekintünk rá,

675
00:56:52,617 --> 00:56:54,285
ami sok mindenre képes.

676
00:56:54,369 --> 00:56:55,745
- Köszi szépen!
- Ugyan!

677
00:56:55,829 --> 00:56:57,914
Mindenképp beszélünk erről.

678
00:57:01,668 --> 00:57:04,129
Ha visszajövünk tíz év múlva,

679
00:57:04,212 --> 00:57:10,802
azt látjuk majd, hogy az MI
és az autonómia uralja a teljes piacot.

680
00:57:14,889 --> 00:57:19,352
Az MI-vel és autonómiával
támogatott haderők

681
00:57:19,436 --> 00:57:25,108
teljesen leuralják, szétzúzzák
és elpusztítják az MI nélküli haderőket.

682
00:57:26,401 --> 00:57:30,780
Mintha lovak szállnának szembe tankokkal,

683
00:57:31,781 --> 00:57:34,367
karddal hadonászók a gépfegyverekkel.

684
00:57:34,909 --> 00:57:37,120
Esélyük sem lesz.

685
00:57:38,746 --> 00:57:42,750
Annyira elterjedt lesz
a hadviselés minden területén,

686
00:57:43,585 --> 00:57:46,546
minden taktikai és stratégiai szinten,

687
00:57:47,172 --> 00:57:50,800
és a működésük olyan gyors lesz,
amit ma felfogni sem tudunk.

688
00:57:53,094 --> 00:57:57,098
A parancsnokok már így is túlterheltek
a túl sok információ miatt.

689
00:57:57,599 --> 00:58:01,019
Műholdképek, drónok és szenzorok.

690
00:58:02,103 --> 00:58:06,774
Az MI segíteni tud egy parancsnoknak
gyorsabban megérteni, mi a helyzet,

691
00:58:07,650 --> 00:58:09,903
és hogy milyen döntéseket kell hoznia.

692
00:58:11,237 --> 00:58:14,866
A mesterséges intelligencia
számításba vesz minden tényezőt,

693
00:58:14,949 --> 00:58:17,702
amely meghatározza a hadviselés módját,

694
00:58:18,286 --> 00:58:20,246
stratégiákat dolgoz ki…

695
00:58:22,457 --> 00:58:25,668
és javaslatokat tesz arra,
hogyan nyerhető meg a csata.

696
00:58:30,256 --> 00:58:32,050
SUFFOLK
VIRGINIA ÁLLAM

697
00:58:32,133 --> 00:58:34,344
LOCKHEED MARTIN
AZ INNOVÁCIÓ KÖZPONTJA

698
00:58:36,888 --> 00:58:40,266
A Lockheed Martinnál,
akárcsak a megrendelőnk, a Pentagon,

699
00:58:40,350 --> 00:58:45,104
az MI-t a parancsnoklás és irányítás
legfőbb technológiai eszközének tekintjük.

700
00:58:47,065 --> 00:58:50,109
A terjedési sebesség
átlagosan 36 méter/perc.

701
00:58:50,193 --> 00:58:52,278
A terület durván 300 hektáros.

702
00:58:52,779 --> 00:58:55,782
A háború köde számunkra valóság
a védelmi oldalon,

703
00:58:57,158 --> 00:59:00,495
de párhuzamot mutat azzal,
ha terepen vagyunk,

704
00:59:00,578 --> 00:59:03,206
és döntéseket kell hoznunk
futótüzek esetén.

705
00:59:03,289 --> 00:59:06,543
A Washburn-erdőtűz
Wawona városától északra van.

706
00:59:06,626 --> 00:59:09,629
Hiányos adatok segítségével
kell döntést hozni.

707
00:59:10,630 --> 00:59:13,716
Szóval hogyan segíthet nekünk az MI
a háború ködénél?

708
00:59:17,637 --> 00:59:19,597
A futótüzek rendkívül kaotikusak.

709
00:59:20,139 --> 00:59:21,266
Nagyon összetettek,

710
00:59:22,267 --> 00:59:26,354
ezért a mesterséges intelligencia
felhasználásán dolgozunk,

711
00:59:26,437 --> 00:59:27,855
ami segíthet dönteni.

712
00:59:31,442 --> 00:59:33,987
A Cognitive Mission Manageren dolgozunk,

713
00:59:34,070 --> 00:59:37,949
ami légi infravörös felvételeket készít,

714
00:59:38,032 --> 00:59:41,786
majd az MI-algoritmusaink segítségével
feldolgozza azokat,

715
00:59:41,869 --> 00:59:45,248
hogy megjósolhassuk
a tűz jövőbeni állapotát.

716
00:59:48,042 --> 00:59:52,922
A későbbiekben a Cognitive Mission Manager
program szimulációt fog használni,

717
00:59:53,006 --> 00:59:57,093
több ezer cikluson keresztül
lefuttat lehetséges kimeneteleket,

718
00:59:57,176 --> 01:00:00,722
hogy a leghatékonyabb
erőforrás-felhasználást javasolja

719
01:00:00,805 --> 01:00:04,058
az elsőbbséget élvező tűzterületek
elfojtásához.

720
01:00:08,062 --> 01:00:12,400
Azt mondja majd:
„Itt végezz légi tűzoltást Firehawkkal!

721
01:00:13,568 --> 01:00:15,903
A bozótot tisztító földi személyzetet

722
01:00:16,946 --> 01:00:19,032
és az oltást végző tűzoltókat

723
01:00:19,657 --> 01:00:23,077
küldd őket a legfontosabb területekre!”

724
01:00:26,289 --> 01:00:31,044
Ezek a döntések gyorsabban
és hatékonyabban születnek majd meg.

725
01:00:35,840 --> 01:00:37,925
Az MI-re lehetőségként tekintünk,

726
01:00:38,009 --> 01:00:42,305
hogy az emberek lépést tarthassanak
a folyamatosan változó környezettel.

727
01:00:43,389 --> 01:00:46,517
És több párhuzam is van azzal,

728
01:00:46,601 --> 01:00:50,355
amit a Lockheed Martinnál
megszoktunk a védelmi oldalon.

729
01:00:52,231 --> 01:00:55,860
A hadsereg már nemcsak arról beszél,
hogy az MI-t

730
01:00:55,943 --> 01:01:00,365
és egyes fegyverrendszereket célzási
és semlegesítési döntéseknél használ,

731
01:01:00,865 --> 01:01:05,787
hanem integrálja is az MI-t a hadsereg
teljes döntéshozatali struktúrájába.

732
01:01:09,415 --> 01:01:12,960
A hadseregnek van egy nagy projektje,
a Konvergencia program.

733
01:01:14,545 --> 01:01:16,547
A haditengerészetnél ott a Fölény,

734
01:01:16,631 --> 01:01:19,592
a légierőnél pedig
a fejlett harcvezetési rendszer.

735
01:01:21,886 --> 01:01:26,683
A Védelmi Minisztérium próbál rájönni,
hogyan rakja össze ezeket a darabkákat,

736
01:01:26,766 --> 01:01:29,268
és legyen gyorsabb az ellenfeleinél,

737
01:01:30,395 --> 01:01:32,355
ezzel valódi előnyre szert téve.

738
01:01:33,481 --> 01:01:37,527
Egy MI-harcvezető olyan lenne,
mint egy magas rangú tábornok,

739
01:01:37,610 --> 01:01:39,821
aki a csatát irányítja.

740
01:01:41,155 --> 01:01:44,158
Segítene parancsokat adni
nagy létszámú haderőknek,

741
01:01:45,118 --> 01:01:49,247
koordinálná a fegyverek használatát,

742
01:01:49,330 --> 01:01:51,958
és ezt olyan gyorsan,
amire ember nem képes.

743
01:01:53,543 --> 01:01:55,294
Az elmúlt 70 év azzal telt,

744
01:01:55,378 --> 01:01:58,798
hogy a világ legfejlettebb
hadseregét építettük,

745
01:01:58,881 --> 01:02:00,800
és most vár ránk a döntés:

746
01:02:00,883 --> 01:02:07,598
átengedjük-e az infrastruktúra irányítását
egy algoritmusnak, egy szoftvernek.

747
01:02:10,351 --> 01:02:13,187
És ennek a döntésnek a következményeként

748
01:02:13,271 --> 01:02:16,774
a teljes katonai arzenálunkat élesítheti.

749
01:02:16,858 --> 01:02:19,902
Ez nem egy Hirosima, hanem több száz.

750
01:02:25,616 --> 01:02:27,869
Most kell cselekednünk,

751
01:02:27,952 --> 01:02:33,166
mert a kockázat kordában tartására
rendelkezésre álló idő egyre fogy.

752
01:02:34,625 --> 01:02:39,297
Ma délután a nemzetközi
biztonsági kihívásokkal kezdünk,

753
01:02:39,380 --> 01:02:44,343
amiket a halálos autonóm fegyverrendszerek
terén megjelenő technológiák jelentenek.

754
01:02:44,427 --> 01:02:50,016
Az ENSZ-en belül zajlanak egyeztetések
a halálos autonóm fegyverek veszélyeiről,

755
01:02:50,600 --> 01:02:56,564
és az MI-t emberek célbavételére használó
rendszerekre vonatkozó tilalmakról.

756
01:02:56,647 --> 01:03:00,735
Teljes az egyetértés
a technológusok között.

757
01:03:00,818 --> 01:03:04,030
Ellenezzük az embereket célba vevő
autonóm fegyvereket.

758
01:03:05,615 --> 01:03:08,117
Az államok évek óta segítenek,

759
01:03:08,201 --> 01:03:11,329
beszélnek az autonóm
fegyverrendszerek problémájáról.

760
01:03:12,288 --> 01:03:16,793
Ez a közös biztonságérzetről szól.

761
01:03:17,794 --> 01:03:20,546
De persze nem egyszerű.

762
01:03:21,297 --> 01:03:27,762
Bizonyos, főleg katonailag erős országok
a gyorsabb fejlesztést forszírozzák,

763
01:03:28,429 --> 01:03:31,599
hogy az ellenfeleik előtt járjanak.

764
01:03:32,600 --> 01:03:36,187
A gond az, hogy a tettekhez
mindenki jóváhagyása szükséges.

765
01:03:36,813 --> 01:03:39,065
Legalább egy ország biztos elutasítja,

766
01:03:39,148 --> 01:03:42,068
és az USA,
illetve Oroszország egyértelművé tette:

767
01:03:42,151 --> 01:03:45,696
ellenzik az egyezményt,
ami betiltaná az autonóm fegyvereket.

768
01:03:47,198 --> 01:03:53,204
Ha arra gondolunk, hányan dolgoznak
az MI további fejlesztésén,

769
01:03:54,747 --> 01:03:56,457
akkor a terem zsúfolásig van.

770
01:03:57,750 --> 01:04:02,880
Ha arra gondolunk, hányan dolgoznak
az MI biztonságossá tételén,

771
01:04:04,340 --> 01:04:07,510
akkor a terem sokkal szellősebb.

772
01:04:11,764 --> 01:04:13,724
De azért optimista vagyok.

773
01:04:16,060 --> 01:04:19,397
Például ott van
a biológiaifegyver-tilalmi egyezmény,

774
01:04:19,480 --> 01:04:21,774
ami a hidegháború közben született meg

775
01:04:23,025 --> 01:04:27,655
a Szovjetunió és az Egyesült Államok
közti feszültség ellenére.

776
01:04:29,156 --> 01:04:33,536
Képesek voltak felismerni,
hogy a biológiai fegyverek fejlesztése

777
01:04:33,619 --> 01:04:36,247
egyiküknek sem áll az érdekében,

778
01:04:36,330 --> 01:04:38,749
és a világ érdekeit sem szolgálja.

779
01:04:41,335 --> 01:04:44,881
A fegyverkezési versenyben
fő a gyorsaság, nem a biztonság.

780
01:04:45,715 --> 01:04:48,342
De szerintem fontos figyelembe venni,

781
01:04:48,426 --> 01:04:52,430
hogy a sietségnek
egyszer túl nagy ára lesz.

782
01:04:56,225 --> 01:04:59,270
Nem fejleszthetünk elszigetelten dolgokat,

783
01:05:00,021 --> 01:05:06,611
és tehetjük közzé anélkül,
hogy átgondolnánk, mivé válhat a jövőben.

784
01:05:07,862 --> 01:05:10,823
Meg kell előznünk,
hogy új atombomba szülessen.

785
01:05:14,577 --> 01:05:17,705
Az MI-verseny tétje óriási.

786
01:05:18,289 --> 01:05:22,001
Nem hiszem, hogy sokan értékelik
azt a globális stabilitást,

787
01:05:22,084 --> 01:05:28,174
amelyet a legerősebb haderő
megléte biztosított

788
01:05:28,257 --> 01:05:31,135
az elmúlt 75 évben.

789
01:05:32,887 --> 01:05:35,681
Ezért Amerikának és a szövetségeseinknek

790
01:05:36,557 --> 01:05:38,684
felül kell múlni az ellenség MI-jét.

791
01:05:43,314 --> 01:05:44,774
Háborúban nincs második hely.

792
01:05:45,441 --> 01:05:49,111
Kína bemutatta tervét,
miszerint 2030-ra világelső lesz MI-ben.

793
01:05:49,195 --> 01:05:51,656
Egyesek szerint Amerikai vesztésre áll…

794
01:05:52,657 --> 01:05:56,160
Fel kell gyorsítani
a mesterséges intelligencia bevezetését,

795
01:05:56,243 --> 01:05:59,246
hogy biztosítsuk
katonai versenyelőnyünket.

796
01:06:02,875 --> 01:06:05,461
Versenyt futunk ezzel a technológiával.

797
01:06:05,544 --> 01:06:08,756
Ami nekem nem világos,
hogy milyen messzire megyünk el?

798
01:06:09,507 --> 01:06:12,760
Mi irányítjuk a technológiát,
vagy az irányít minket?

799
01:06:14,136 --> 01:06:16,973
Itt nincs második esély.

800
01:06:17,807 --> 01:06:20,977
Ha egyszer kiszabadul
a szellem a palackból,

801
01:06:22,019 --> 01:06:25,189
akkor nagyon, de nagyon nehéz visszazárni.

802
01:06:28,609 --> 01:06:31,737
És ha most nem cselekszünk, késő lesz.

803
01:06:33,114 --> 01:06:34,657
Talán máris túl késő.

804
01:08:48,124 --> 01:08:53,337
A feliratot fordította: Varga Balázs



