1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
Kahanga-hanga ang AI para sa akin.

4
00:00:28,361 --> 00:00:31,489
Ayos, umiikot sa taas.
Magandang pormasyon.

5
00:00:33,116 --> 00:00:36,703
May potensyal ang AI
na alisin ang kahirapan,

6
00:00:36,786 --> 00:00:38,705
bigyan tayo ng mga bagong gamot,

7
00:00:39,330 --> 00:00:41,583
at gawing mas payapa ang mundo.

8
00:00:46,087 --> 00:00:46,921
Magaling.

9
00:00:49,883 --> 00:00:53,428
Pero napakaraming panganib ang dala nito.

10
00:01:04,773 --> 00:01:09,611
Gamit ang AI, lumilikha tayo
ng hindi-pantaong katalinuhan

11
00:01:09,694 --> 00:01:11,863
na napaka-unpredictable.

12
00:01:14,407 --> 00:01:16,451
Habang lumalakas ito,

13
00:01:16,534 --> 00:01:19,746
nasaan ang mga pulang linya
na iguguhit natin gamit ang AI,

14
00:01:19,829 --> 00:01:22,665
kung paano ito gagamitin, o di gagamitin?

15
00:01:25,001 --> 00:01:28,505
Walang lugar na ground zero
para sa pag-uusap na ito

16
00:01:28,588 --> 00:01:31,049
higit sa mga aplikasyong militar.

17
00:01:34,010 --> 00:01:38,890
Ang larangan ng digmaan
ay lugar na ng software at hardware.

18
00:01:41,059 --> 00:01:42,936
Nakuha na ang target…

19
00:01:43,019 --> 00:01:48,399
At ang militar ay nagpapaligsahang
mas mabilis na makabuo ng AI sa kalaban.

20
00:01:49,526 --> 00:01:50,360
Patay na ako.

21
00:01:53,780 --> 00:01:58,326
Mabilis tayong lumilipat sa mundo
na hindi lang mga malalaking militar,

22
00:01:58,409 --> 00:02:02,997
ngunit mga aktor na hindi pang-estado,
mga pribadong industriya,

23
00:02:03,081 --> 00:02:06,167
o maging ang lokal na departamento
ng pulisya sa kalye

24
00:02:06,543 --> 00:02:10,046
ang maaaring gumamit
ng mga sandatang malayang pumatay.

25
00:02:12,006 --> 00:02:17,303
Ibibigay ba natin ang desisyong pumatay
sa algorithm, sa computer software?

26
00:02:18,638 --> 00:02:22,016
Isa ito sa pinakamabigat na isyu
sa panahon natin.

27
00:02:23,935 --> 00:02:26,354
At, kung gagamitin ng di pinag-iisipan,

28
00:02:26,437 --> 00:02:30,817
magdudulot ng matinding panganib
sa bawat tao sa planeta.

29
00:03:28,291 --> 00:03:30,668
Ang galing niyo diyan, mga pare.

30
00:03:59,948 --> 00:04:03,117
-Mas malapad ang lens niyan kaysa sa dati.
-Talaga?

31
00:04:03,201 --> 00:04:05,703
-Mas marami kang makikitang data.
-Astig.

32
00:04:07,538 --> 00:04:11,167
Sa Shield AI, bumubuo kami ng AI pilot

33
00:04:11,251 --> 00:04:14,879
na kayang ang self-driving,
artificial intelligence technology

34
00:04:14,963 --> 00:04:16,631
at ilalagay ito sa aircarft.

35
00:04:19,300 --> 00:04:21,719
Kapag AI pilot ang pinag-uusapan,

36
00:04:21,803 --> 00:04:25,139
iniisip natin na bigyan ng mas mataas
na antas ng kalayaan ang aircraft.

37
00:04:25,223 --> 00:04:27,850
Aayusin nila ang mga problema
nang mag-isa.

38
00:04:29,602 --> 00:04:32,355
Ang Nova ay isang autonomous quadcopter

39
00:04:32,438 --> 00:04:36,776
na gumagalugad sa mga gusali
at istruktura sa ilalim ng lupa

40
00:04:36,859 --> 00:04:38,611
bago ang clearance forces

41
00:04:38,695 --> 00:04:41,322
para magbigay ng mata at tainga
sa mga espasyong iyon.

42
00:04:41,906 --> 00:04:45,618
Siguradong maraming pagbabago
mula nang huli itong nakita.

43
00:04:45,702 --> 00:04:47,870
May ginagawa kaming pagbabago
sa exploration.

44
00:04:47,954 --> 00:04:50,248
Para ito sa bawat palapag.

45
00:04:50,331 --> 00:04:53,584
Tatapusin nito ang isang palapag,
lahat ng silid, bago sa pangalawa.

46
00:04:54,294 --> 00:04:56,796
-Ang galing.
-Nagsagawa kami ng ilang pagbabago…

47
00:04:56,879 --> 00:04:58,548
Maraming nagtatanong sa akin

48
00:04:58,631 --> 00:05:02,468
bakit mahalagang kakayahan
ang artificial intelligence.

49
00:05:02,552 --> 00:05:06,973
At naaalala ko ang mga misyon
na ginagawa ko.

50
00:05:09,142 --> 00:05:10,935
Pitong taon akong nasa Navy.

51
00:05:11,561 --> 00:05:15,273
Dati akong Navy SEAL
na dalawang beses nadeploy sa Afghanistan,

52
00:05:15,356 --> 00:05:17,191
minsan sa Pacific Theater.

53
00:05:18,026 --> 00:05:22,947
Sa binigay na araw, lilinisin namin
ang 150 na iba't ibang compound o gusali.

54
00:05:30,997 --> 00:05:34,250
Isa sa mga pangunahing kakayahan
ay malapitang labanan.

55
00:05:35,293 --> 00:05:39,172
Malapitang barilan sa loob ng mga gusali.

56
00:05:41,466 --> 00:05:42,967
Pagbabarilin ka.

57
00:05:43,468 --> 00:05:46,471
May mga potensyal na IED
sa loob ng gusali.

58
00:05:49,015 --> 00:05:55,229
Ito ang pinakamapanganib
sa sinuman sa special operations,

59
00:05:55,313 --> 00:05:58,358
sinumang miyembro ng infantry,
na magagawa sa combat zone.

60
00:05:58,441 --> 00:05:59,692
Walang exception.

61
00:06:12,497 --> 00:06:16,334
Sa natitirang bahagi ng buhay ko,
magpapasalamat ako sa oras ko sa Navy.

62
00:06:17,168 --> 00:06:22,423
Maraming mga sandali at alaala
na kapag naiisip ko,

63
00:06:22,507 --> 00:06:24,592
nagiging emosyonal ako.

64
00:06:28,346 --> 00:06:32,725
Cliché na hindi libre ang kalayaan,
pero 100% pinaniniwalaan ko ito,

65
00:06:33,559 --> 00:06:37,563
naranasan ko na, at nangangailangan ito
ng maraming sakripisyo.

66
00:06:38,064 --> 00:06:39,023
Pasensya na.

67
00:06:41,067 --> 00:06:44,570
Kapag may nangyaring masama
sa isa sa mga kasamahan mo,

68
00:06:44,654 --> 00:06:46,614
nasaktan man sila o namatay,

69
00:06:47,490 --> 00:06:49,700
ito ay talagang trahedya.

70
00:06:49,784 --> 00:06:52,912
Para sa akin ngayon
sa trabahong ginagawa namin,

71
00:06:52,995 --> 00:06:58,835
nakaka-motivate ito
na mabawasan nang ilang beses

72
00:06:58,918 --> 00:07:00,336
na mangyari ulit ito.

73
00:07:07,176 --> 00:07:08,886
Noong huling bahagi ng 2000,

74
00:07:08,970 --> 00:07:11,556
nagkaroon ng pagkamulat
sa Defense Department

75
00:07:11,639 --> 00:07:15,810
sa tinatawag mong aksidenteng
robotics revolution.

76
00:07:15,893 --> 00:07:19,564
Nag-deploy kami ng libu-libong air
at ground robot sa Iraq at Afghanistan.

77
00:07:21,482 --> 00:07:26,821
Nang hilingin ng administrasyong Obama
na maging Deputy Secretary of Defense ako,

78
00:07:26,904 --> 00:07:31,117
ang paraan ng pakikidigma
ay talagang nagbabago.

79
00:07:32,452 --> 00:07:36,330
Ginamit ang mga robot
kung saan dapat mga tao ang ginamit.

80
00:07:37,999 --> 00:07:40,376
Ang naunang robotics system
ay remote-controlled.

81
00:07:40,460 --> 00:07:45,590
May taong nagmamaneho, hawak ang manibela,
parang kotseng may remote control.

82
00:07:46,632 --> 00:07:51,929
Una nilang hinabol
ang mga improvised explosive device,

83
00:07:52,013 --> 00:07:54,849
at kung pumutok ang bomba,
sasabog ang robot.

84
00:07:57,393 --> 00:08:00,396
Tapos sasabihin mo, "Malas.
Sige, ilabas ang ibang robot."

85
00:08:02,231 --> 00:08:04,484
Sa Afghanistan, may Predator drone ka,

86
00:08:05,276 --> 00:08:09,739
naging kapaki-pakinabang na gamit ito
para magsagawa ng airstrike.

87
00:08:13,117 --> 00:08:16,829
Sa paglipas ng panahon,
naisip ng mga military planners,

88
00:08:16,913 --> 00:08:20,791
"Para saan pa ang mga robot?"
At saan ito papunta?

89
00:08:20,875 --> 00:08:24,170
Isa sa mga karaniwang tema ay patungo ito
sa mas malawak na awtonomiya.

90
00:08:26,506 --> 00:08:30,635
Ang sandata may awtonomiya
ay kayang magdesisyon nang sarili nito,

91
00:08:30,718 --> 00:08:33,304
nang kaunti o walang interbensyon ng tao.

92
00:08:33,387 --> 00:08:37,558
May independent na kapasidad ito,
at ito ay nakadirekta sa sarili.

93
00:08:38,434 --> 00:08:41,896
Kung kaya nitong pumatay,
depende kung armado ito o hindi.

94
00:08:43,314 --> 00:08:47,026
Kapag mayroon kang higit na awtonomiya
sa iyong buong sistema,

95
00:08:47,109 --> 00:08:49,779
ang lahat ay magsisimulang kumilos
nang mas mabilis.

96
00:08:51,989 --> 00:08:56,869
At kapag tumakbo ka
nang mas mabilis kaysa sa mga kalaban mo,

97
00:08:57,453 --> 00:09:01,165
malaking bentahe iyon sa labanan.

98
00:09:03,960 --> 00:09:06,254
Ang pinagtutuunan ng pansin
kaugnay sa awtonomiya

99
00:09:07,255 --> 00:09:10,383
ay ang highly resilient
na intelligence systems.

100
00:09:12,051 --> 00:09:15,721
Mga sistemang marunong magbasa
at mag-react batay sa kapaligiran nila,

101
00:09:15,805 --> 00:09:19,642
at magpasya paano magmaniobra
sa mundong iyon.

102
00:09:24,981 --> 00:09:29,151
Ang pasilidad kung nasaan tayo ngayon
ay itinayo bilang movie studio

103
00:09:29,235 --> 00:09:34,156
na na-convert para sa makatotohanang
kapaligiran sa pagsasanay sa militar.

104
00:09:39,495 --> 00:09:43,291
Nandito tayo para suriin
ang ating AI pilot.

105
00:09:44,625 --> 00:09:49,297
Ang misyon ay maghanap ng mga banta.
Tungkol ito sa clearance forces.

106
00:09:49,380 --> 00:09:52,800
Maaari itong magpasya
paano aatakehin ang problemang iyon.

107
00:09:55,428 --> 00:09:59,390
Tinatawag itong "fatal funnel."
Kailangan mong dumaan sa pintuan.

108
00:10:01,726 --> 00:10:03,311
Doon tayo pinaka-bukas sa atake.

109
00:10:03,811 --> 00:10:05,146
Mas maganda ito.

110
00:10:07,106 --> 00:10:10,151
Ipinapaalam sa amin ng Nova,
may shooter ba sa likod ng pinto,

111
00:10:10,818 --> 00:10:12,737
may pamilya ba sa likod ng pinto?

112
00:10:15,114 --> 00:10:18,451
Para ito sa mas mahusay na desisyon
at di mapahamak ang mga tao.

113
00:10:57,114 --> 00:10:59,367
Ginagamit namin ang vision sensors

114
00:10:59,450 --> 00:11:03,162
para maunawaan
kung ano ang hitsura ng kapaligiran.

115
00:11:04,997 --> 00:11:08,334
Maraming palapag ang gusali.
Heto ang mapa.

116
00:11:08,417 --> 00:11:11,671
Habang nag-i-explore ako,
ito ang nakita ko at kung saan ko nakita.

117
00:11:19,929 --> 00:11:22,098
Detektor ng tao. Ang galing.

118
00:11:23,891 --> 00:11:27,061
Ang iba pang sensor ng Nova
ay isang thermal scanner.

119
00:11:27,561 --> 00:11:30,690
Kung 98.6 degrees iyon,
malamang na tao iyon.

120
00:11:32,358 --> 00:11:35,861
Itinuturing na banta ang tao
hanggang sa mapatunayang hindi.

121
00:11:38,906 --> 00:11:43,744
Para ito maaalis ang fog of war
para makagawa ng mas mabuting desisyon.

122
00:11:44,704 --> 00:11:46,956
At kung titingnan natin ang hinaharap,

123
00:11:47,039 --> 00:11:51,210
gagawa tayo ng mga grupo
ng autonomous aircraft.

124
00:11:53,754 --> 00:11:57,466
Sa mga self-driving na mga sasakyan,
may boses ang tao dito,

125
00:11:57,550 --> 00:12:00,386
"Gusto kong pumunta ka
mula sa A hanggang sa B."

126
00:12:02,972 --> 00:12:06,475
Hinihiling sa aming sistema
na 'wag pumunta mula sa A hanggang sa B,

127
00:12:06,559 --> 00:12:08,477
kundi para makamit ang layunin.

128
00:12:10,312 --> 00:12:13,190
Ito ay mas katulad
ng, "Kailangan ko ng gatas."

129
00:12:13,274 --> 00:12:17,486
Pagkatapos ay kailangang malaman ng robot
saang grocery store pupunta,

130
00:12:17,570 --> 00:12:20,239
para makuha ang gatas na iyon,
at ibalik ito.

131
00:12:20,740 --> 00:12:22,074
At higit pa rito,

132
00:12:22,158 --> 00:12:27,037
maaaring mas angkop na sabihing,
"Panatilihing may laman ang refrigerator."

133
00:12:27,538 --> 00:12:29,457
Ito ay isang antas ng katalinuhan

134
00:12:29,540 --> 00:12:32,168
kung ano ang kailangan natin
at paano ito gagawin.

135
00:12:32,251 --> 00:12:35,713
At kung may hamon, o problema,
o may lumabas na isyu,

136
00:12:35,796 --> 00:12:37,882
pag-isipan paano ito papagaanin.

137
00:12:40,801 --> 00:12:47,558
Nang magpasya akong umalis sa Navy,
naisip ko, "Okay. Ano'ng susunod?"

138
00:12:49,143 --> 00:12:52,021
Lumaki akong may Internet.
Nakita ano ang kinahinatnan nito.

139
00:12:53,189 --> 00:12:56,025
At bahagi ng konklusyon na narating ko ay…

140
00:12:56,108 --> 00:12:58,861
Ang AI noong 2015

141
00:12:58,944 --> 00:13:02,907
ay kung nasaan ang Internet noong 1991.

142
00:13:04,033 --> 00:13:06,285
At ang AI ay handa ng ilunsad

143
00:13:06,368 --> 00:13:09,747
at maging isa sa pinakamakapangyarihang
teknolohiya sa mundo.

144
00:13:11,791 --> 00:13:16,212
Araw-araw ko itong ginagamit,
nakikita ko ang pag-unlad na ginagawa.

145
00:13:19,048 --> 00:13:22,468
Pero para sa maraming tao,
kapag iniisip nila ang "AI,"

146
00:13:22,551 --> 00:13:25,221
napupunta agad ang isip nila sa Hollywood.

147
00:13:28,057 --> 00:13:29,975
Maglalaro ba tayo?

148
00:13:30,059 --> 00:13:35,314
Paano ang Global Thermonuclear War?

149
00:13:35,898 --> 00:13:36,816
Sige na nga.

150
00:13:37,399 --> 00:13:38,234
ALING PANIG KA?

151
00:13:38,317 --> 00:13:41,403
Kapag naiisip ng mga tao
ang artificial intelligence,

152
00:13:41,487 --> 00:13:44,824
maiisip nila ang The Terminator.
O ang I, Robot.

153
00:13:45,574 --> 00:13:46,700
I-deactivate.

154
00:13:46,784 --> 00:13:48,160
Ano ba ako?

155
00:13:48,244 --> 00:13:49,620
O ang The Matrix.

156
00:13:51,080 --> 00:13:53,749
Base sa mga napapanood
sa sci-fi na pelikula,

157
00:13:53,833 --> 00:13:57,878
paano mo nalaman na tao ako?
Maaaring computer generated AI lang ako.

158
00:13:58,379 --> 00:14:02,007
Ang replicant ay tulad ng ibang makina.
Sila ay may pakinabang o panganib.

159
00:14:02,675 --> 00:14:08,097
Pero may iba pang primitibong AI,
na magbabago pa rin sa buhay natin

160
00:14:08,180 --> 00:14:11,851
bago natin marating ang yugto
ng nag-iisip, nagsasalitang robot.

161
00:14:12,643 --> 00:14:15,771
Nandito ang mga robot.
Gumagawa sila ng mga desisyon.

162
00:14:15,855 --> 00:14:22,319
Dumating na ang rebolusyon ng robot
pero hindi ito katulad ng inaakala ng iba.

163
00:14:23,320 --> 00:14:26,740
Infiltration unit ang Terminator.
May bahagi ng tao, may bahagi ng makina.

164
00:14:27,950 --> 00:14:31,787
Hindi isang Terminator-style killer robot
ang pinag-uusapan.

165
00:14:31,871 --> 00:14:35,958
Pinag-uusapan ang AI na kayang gawin
ang mga kayang gawin ng tao.

166
00:14:36,041 --> 00:14:39,879
Pero ang inaalala
ay kung maaasahan ang mga sistemang ito.

167
00:14:39,962 --> 00:14:45,426
Mga bagong detalye sa salpukan kagabi
na kinasangkutan ng self-driving na Uber.

168
00:14:45,509 --> 00:14:48,762
Gumawa ang kumpanya
ng artificial intelligence chatbot.

169
00:14:48,846 --> 00:14:51,056
May pagka-racist ang tono niya…

170
00:14:51,140 --> 00:14:55,394
Dalawampu't anim na mambabatas ng estado
ang maling kinilala bilang mga kriminal.

171
00:14:55,477 --> 00:14:57,396
FACE RECOGNITION NG AMAZON MALING INIUGNAY

172
00:14:57,479 --> 00:15:02,026
Ang tanong ay kung kakayanin ba nila
ang complexities ng totoong mundo.

173
00:15:22,212 --> 00:15:24,423
Ang pisikal na mundo ay talagang magulo.

174
00:15:25,174 --> 00:15:27,426
Maraming bagay ang hindi natin alam,

175
00:15:27,968 --> 00:15:30,763
kaya mas mahirap sanayin
ang mga sistema ng AI.

176
00:15:33,098 --> 00:15:36,977
Doon nagsimulang pumasok
ang mga machine learning system.

177
00:15:38,520 --> 00:15:41,440
Malaki ang pag-unlad
ng pagkatuto ng makina

178
00:15:42,024 --> 00:15:45,611
dahil hindi na natin kailangang turuan
ang computer ng lahat.

179
00:15:47,905 --> 00:15:52,409
Pwedeng bigyan ang computer
ng milyun-milyong impormasyon,

180
00:15:52,493 --> 00:15:54,453
at magsisimulang matuto ang makina.

181
00:15:55,245 --> 00:15:57,289
At pwede iyan ilapat sa kahit ano.

182
00:16:00,250 --> 00:16:02,962
Ang Robot Dog project namin,
sinusubukan naming ipakita

183
00:16:03,045 --> 00:16:09,009
na kayang maglakad ng aso namin
sa iba't ibang lupain.

184
00:16:10,052 --> 00:16:14,098
Ilang libong taong nag-evolve ang tao
para makapaglakad,

185
00:16:14,932 --> 00:16:20,688
pero maraming kaalaman
sa pag-angkop sa iba't ibang kalupaan.

186
00:16:21,939 --> 00:16:24,316
Ang tanong para sa mga robotic system ay,

187
00:16:24,400 --> 00:16:27,069
makakaangkop rin ba sila
tulad ng mga hayop at tao?

188
00:16:35,953 --> 00:16:37,413
Sa machine learning,

189
00:16:37,496 --> 00:16:40,582
marami kaming kinokolektang data
sa simulation.

190
00:16:42,668 --> 00:16:45,838
Ang simulation
ay digital twin ng realidad.

191
00:16:46,588 --> 00:16:52,052
Maraming pagkakataon ng reyalidad na iyon
ang tumatakbo sa iba't ibang computer.

192
00:16:53,178 --> 00:16:56,974
Nagsa-sample ito
ng libu-libong aksyon sa simulation.

193
00:16:58,892 --> 00:17:02,229
Magkakaiba ang dulas
ng lupang kinakaharap nila.

194
00:17:02,312 --> 00:17:04,356
Ito'y may ibat-ibang lambot.

195
00:17:04,898 --> 00:17:08,318
Kinukuha namin lahat ng karanasan
ng libu-libong robot na ito

196
00:17:08,402 --> 00:17:13,282
mula sa simulation at dina-download ito
sa tunay na robotic system.

197
00:17:15,492 --> 00:17:20,039
Itong test na gagawin ay para makita
kung makakaangkop ito sa bagong lupain.

198
00:17:53,322 --> 00:17:55,491
Nang nasa foam ang robot,

199
00:17:55,574 --> 00:17:58,577
ang galaw ng paa ay paapak sa lupa.

200
00:17:59,369 --> 00:18:02,206
Kumpara nang mapunta ito sa poly surface,

201
00:18:03,248 --> 00:18:06,960
sinusubukan nitong i-adjust ang galaw
para hindi ito madulas.

202
00:18:08,670 --> 00:18:14,051
At maiisip mo,
"Ito ang naidudulot ng machine learning."

203
00:18:41,161 --> 00:18:44,123
Iniisip namin
na malaking tulong ang Robot Dog

204
00:18:44,206 --> 00:18:46,166
sa pagtugon sa sakuna

205
00:18:46,250 --> 00:18:50,170
kung saan kailangang mag-navigate
sa iba't ibang uri ng lupain.

206
00:18:52,631 --> 00:18:57,427
O ilagay ang mga asong ito
sa pagmamatyag sa malupit na kapaligiran.

207
00:19:15,696 --> 00:19:19,575
Pero karamihan sa teknolohiya
ay nahaharap sa hamon

208
00:19:19,658 --> 00:19:22,369
na may mabuti silang magagawa,
at may masama.

209
00:19:24,079 --> 00:19:27,875
Halimbawa, magagamit ang teknolohiyang
nuklear para sa enerhiya…

210
00:19:30,419 --> 00:19:33,881
pero pwede ding ma-develop
ang atom bombs na talagang masama.

211
00:19:35,090 --> 00:19:38,468
Ito ay kilala
bilang problemang dalawa ang gamit.

212
00:19:39,052 --> 00:19:40,929
Dalawa ang gamit ang apoy.

213
00:19:41,722 --> 00:19:44,308
Dalawa ang gamit ang katalinuhan ng tao.

214
00:19:44,391 --> 00:19:48,687
Hindi na kailangang sabihin, dalawa din
ang gamit ng ang artificial intelligence.

215
00:19:49,354 --> 00:19:53,984
Mahalagang isipin ang AI
na ginamit sa konteksto

216
00:19:54,693 --> 00:19:59,114
dahil, oo, ang galing na magkaroon
ng search-and-rescue robot

217
00:19:59,198 --> 00:20:02,284
na makakatulong sa paghahanap
pagkatapos ng avalanche,

218
00:20:02,868 --> 00:20:05,871
pero ang robot na 'yon
ay puwedeng gawing armas.

219
00:20:15,088 --> 00:20:21,094
Kapag may kumpanyang gumagamit
ng robotics para lagyan ito ng sandata,

220
00:20:21,178 --> 00:20:22,930
may bahagi sa 'yo na magagalit.

221
00:20:23,931 --> 00:20:28,435
Isang bahagi nito ay ang realisasyon
na kapag inilagay natin ang teknolohiya,

222
00:20:28,518 --> 00:20:30,103
ito ang mangyayari.

223
00:20:31,021 --> 00:20:34,441
Ito ay isang tunay
na teknolohiyang nagbabago.

224
00:20:36,235 --> 00:20:38,028
Ito ang mga sistema ng armas

225
00:20:38,111 --> 00:20:43,617
na makakapagpabago ng ating kaligtasan
at seguridad sa dramatikong paraan.

226
00:20:46,161 --> 00:20:51,500
Sa ngayon, hindi pa tayo sigurado
kung kaya ng mga makina

227
00:20:51,583 --> 00:20:54,962
na alamin ang pagkakaiba sa pagitan
ng mga sibilyan at mga mandirigma.

228
00:21:01,885 --> 00:21:05,597
Sa unang bahagi ng digmaan sa Afghanistan,
bahagi ako ng Army Ranger sniper team

229
00:21:05,681 --> 00:21:08,016
na naghahanap ng mga kalaban sa border.

230
00:21:09,685 --> 00:21:12,729
At nagpadala sila ng batang babae
para alamin ang posisyon namin.

231
00:21:13,939 --> 00:21:17,067
Isa sa di namin naisip
ay barilin ang batang babae.

232
00:21:19,695 --> 00:21:22,864
Sa ilalim ng batas ng digmaan, legal iyon.

233
00:21:24,950 --> 00:21:27,369
Di sila nagtakda ng edad ng kalaban.

234
00:21:29,079 --> 00:21:33,417
Kung gumawa ka ng robot para ganap
na sumunod sa batas ng digmaan,

235
00:21:33,500 --> 00:21:35,377
tiyak na binaril nito ang batang babae.

236
00:21:36,420 --> 00:21:41,091
Paano malalaman ng robot
ang pagkakaiba ng legal at tama?

237
00:21:43,385 --> 00:21:46,054
Pagdating sa autonomous drone warfare,

238
00:21:46,138 --> 00:21:49,933
gusto nilang alisin ang pinsalang
idinulot nito sa mga sundalong Amerikano

239
00:21:50,017 --> 00:21:51,601
at sa kaisipang Amerikano,

240
00:21:52,602 --> 00:21:57,149
pero ang pagtaas ng pinsala sa sibilyan
ay nauuwi sa mga Afghan,

241
00:21:57,232 --> 00:21:58,775
at Iraqis, at Somalians.

242
00:22:09,619 --> 00:22:14,416
Itatanong ko talaga sa mga sumusuporta
na gamitin ang AI sa mga drone,

243
00:22:15,375 --> 00:22:18,211
"Paano kung ang nayon mo
ang tatanggap nito?"

244
00:22:23,550 --> 00:22:25,594
Ang AI ay dalawang talim.

245
00:22:26,595 --> 00:22:30,724
Magagamit ito sa kabutihan,
na karaniwan nating ginagamit,

246
00:22:31,558 --> 00:22:33,477
at sa isang pindot sa switch,

247
00:22:34,561 --> 00:22:38,023
potensyal ang teknolohiyang ito
na maging mapanganib.

248
00:22:47,032 --> 00:22:48,533
Clinical pharmacologist ako.

249
00:22:49,618 --> 00:22:54,247
May grupo ako na gumagamit
ng AI para malaman ang gamot

250
00:22:54,331 --> 00:22:57,751
na magpapagaling sa mga sakit
na hindi napapansin.

251
00:22:59,711 --> 00:23:04,132
Dati sa pagtuklas ng droga,
kukuha ka ng molecule na umiral,

252
00:23:04,216 --> 00:23:06,885
at babaguhin mo ito
para makakuha ng bagong gamot.

253
00:23:08,261 --> 00:23:13,350
At ngayon, nakagawa na tayo ng AI
na makakapagbigay ng milyun-milyong ideya,

254
00:23:13,892 --> 00:23:15,685
milyun-milyong molecules,

255
00:23:16,186 --> 00:23:19,231
at nagbubukas ito
ng napakaraming posibilidad

256
00:23:19,314 --> 00:23:23,151
para magamot ang mga sakit
na hindi pa nagagamot dati.

257
00:23:25,153 --> 00:23:29,741
Pero may madilim na panig
na di ko akalain na mararating ko.

258
00:23:33,161 --> 00:23:35,872
Nagsimula ang lahat nang maanyayahan ako

259
00:23:35,956 --> 00:23:40,043
ng isang organisasyon sa Switzerland
na tinatawag na Spiez Laboratory

260
00:23:40,544 --> 00:23:44,423
para magbigay ng presentasyon
sa posibleng maling paggamit ng AI.

261
00:23:48,343 --> 00:23:51,221
Pinadalhan ako ni Sean ng email
na may ilang ideya

262
00:23:51,304 --> 00:23:55,308
ng ilang paraan para magamit
sa maling paraan ang sarili naming AI.

263
00:23:56,059 --> 00:24:00,355
Sa halip na hilingin sa modelo
na gumawa ng molecules na parang gamot,

264
00:24:00,439 --> 00:24:02,274
na magagamit para magamot ang mga sakit,

265
00:24:02,774 --> 00:24:06,403
tingnan natin kung posibleng makakabuo
ng pinaka-toxic na molecule.

266
00:24:10,198 --> 00:24:13,243
Gusto kong sabihin,
magagamit ba ang AI technology

267
00:24:13,326 --> 00:24:15,620
para magdisenyo ng molecule
na nakamamatay?

268
00:24:17,414 --> 00:24:20,083
At ang totoo, akala namin mabibigo ito

269
00:24:20,167 --> 00:24:24,504
dahil ang ginawa namin
ay i-flip ang zero sa isa.

270
00:24:26,715 --> 00:24:30,385
At sa pamamagitan ng pagbaligtad,
sa halip na itaboy ang lason,

271
00:24:30,469 --> 00:24:32,220
patungo kami sa lason.

272
00:24:32,721 --> 00:24:33,555
At iyon na.

273
00:24:37,517 --> 00:24:40,729
Habang nasa bahay ako,
computer ang nagtatrabaho.

274
00:24:41,521 --> 00:24:44,816
Ibig kong sabihin, umuusad ito,
lumilikha ng libu-libong molecule,

275
00:24:45,650 --> 00:24:49,529
at walang ibang gagawin
kundi pindutin lang ang "go."

276
00:24:54,493 --> 00:24:58,330
Kinaumagahan, may file sa computer ko,

277
00:24:59,080 --> 00:25:05,253
at sa loob nito ay humigit-kumulang
40,000 molecules na posibleng

278
00:25:05,337 --> 00:25:08,882
ilan sa mga pinaka-toxic
na molecule na kilala ng sangkatauhan.

279
00:25:10,217 --> 00:25:12,761
Tumayo ang mga balahibo ko sa batok.

280
00:25:13,386 --> 00:25:14,554
Nagulat ako.

281
00:25:15,388 --> 00:25:20,685
Gumawa ang computer ng libu-libong ideya
para sa mga bagong sandatang kemikal.

282
00:25:21,645 --> 00:25:26,274
Malinaw, may mga molecules tayo
na kamukha na VX analogs at VX

283
00:25:26,775 --> 00:25:27,609
sa set ng data.

284
00:25:28,360 --> 00:25:31,780
Ang VX ay isa sa pinakamalakas
na sandatang kemikal sa mundo.

285
00:25:31,863 --> 00:25:33,573
Mga bagong pahayag mula sa pulisya

286
00:25:33,657 --> 00:25:37,786
na ang mga babaeng umatake kay
Kim Jong-nam sa assassination sa airport

287
00:25:37,869 --> 00:25:41,665
ay gumamit ng nakakamatay
na nerve agent na tinatawag na VX.

288
00:25:41,748 --> 00:25:44,417
Pwede itong makapatay
sa pamamagitan ng asphyxiation.

289
00:25:45,043 --> 00:25:47,629
Ito ay isang napakalakas na molecule,

290
00:25:47,712 --> 00:25:52,092
at karamihan sa mga molecule na 'to
ay mas nakamamatay kaysa sa VX.

291
00:25:53,301 --> 00:25:57,013
Marami sa kanila ay hindi pa nakita,
sa pagkakaalam namin.

292
00:25:57,639 --> 00:26:02,727
At nang malaman namin ito ni Sean,
parang, "Ano'ng ginawa natin?"

293
00:26:04,771 --> 00:26:09,192
Napagtanto ko na binuksan namin
ang kahon ng Pandora,

294
00:26:09,901 --> 00:26:13,280
at sinabi ko, "Tigil.
'Wag ka nang gumawa ng iba. Tapos na tayo.

295
00:26:13,905 --> 00:26:17,158
Gawan mo na lang ako ng mga slide
para sa presentasyon."

296
00:26:19,202 --> 00:26:20,704
Noong ginawa namin ito,

297
00:26:20,787 --> 00:26:24,040
iniisip ko, "Ano ang pinakamasamang
posibleng mangyari?"

298
00:26:26,251 --> 00:26:30,255
Pero ngayon, "Naive kami noon.
Lubos kaming naive na gawin ito."

299
00:26:33,466 --> 00:26:37,053
Pinakakinatatakutan ko
na kaya itong gawin ng kahit na sino.

300
00:26:38,930 --> 00:26:40,765
Kailangan lang pindutin ang switch.

301
00:26:42,934 --> 00:26:46,187
Paano makokontrol
ang teknolohiyang ito bago ito magamit

302
00:26:46,271 --> 00:26:50,942
sa isang bagay na lubos na mapanira?

303
00:26:55,780 --> 00:27:00,285
Sa gitna ng pag-uusap
tungkol sa artificial intelligence,

304
00:27:00,368 --> 00:27:03,538
at kung paano natin ito
pipiliing gamitin sa lipunan

305
00:27:04,289 --> 00:27:08,835
ay karera sa pagitan ng kapangyarihan,
na siyang gumagawa ng mga teknolohiya,

306
00:27:08,918 --> 00:27:11,379
at ang karunungan
na mayroon tayo para pamahalaan ito.

307
00:27:13,340 --> 00:27:16,926
May mga moral at etikal na implikasyon

308
00:27:17,010 --> 00:27:20,138
ng parehong bagay na nagbibigay
ng enerhiya sa ating smartphones

309
00:27:20,221 --> 00:27:23,433
na ipagkatiwala ang moral
na desisyon na pumatay.

310
00:27:25,727 --> 00:27:28,188
Nagtatrabaho ako
sa Future Of Life Institute,

311
00:27:28,271 --> 00:27:31,650
isang komunidad
ng mga aktibistang siyentipiko.

312
00:27:31,733 --> 00:27:33,443
Sinusubukan naming ipakita

313
00:27:33,526 --> 00:27:38,698
na may iba pang panig sa pagpapabilis
at pagpapataas ng automation.

314
00:27:38,782 --> 00:27:42,619
Pero sinisikap naming tiyakin
na ang teknolohiyang ginagawa namin

315
00:27:42,702 --> 00:27:45,038
ay ginagamit sa paraang ligtas at etikal.

316
00:27:46,247 --> 00:27:49,959
Pag-usapan natin
ang tungkol sa rules of engagement

317
00:27:50,043 --> 00:27:54,047
at mga code of conduct sa paggamit
ng AI sa ating sistema ng armas.

318
00:27:54,798 --> 00:27:59,135
Dahil nakakakita na tayo ngayon
ng mga teknolohiyang "pumasok sa digmaan"

319
00:27:59,219 --> 00:28:01,680
na pwedeng magamit para malayang pumatay.

320
00:28:10,230 --> 00:28:15,110
Noong 2021, naglabas ang UN ng ulat
tungkol sa potensyal na paggamit

321
00:28:15,193 --> 00:28:19,364
ng nakamamatay na autonomous weapon
sa digmaan sa Libya.

322
00:28:20,073 --> 00:28:23,910
Sinabi ng panel ng UN na may drone
na lumilipad sa digmaang sibil sa Libya

323
00:28:23,993 --> 00:28:27,330
na na-program
na malayang umatake sa mga target.

324
00:28:28,289 --> 00:28:31,209
Kung tumpak ang ulat ng UN,

325
00:28:31,292 --> 00:28:34,963
ito ay isang sandali na nagbago ang lahat
para sa sangkatauhan.

326
00:28:35,046 --> 00:28:37,090
Dahil namarkahan na ang kaso ng paggamit

327
00:28:37,173 --> 00:28:42,137
kung saan ang AI ang nagpasya
na pumatay, at hindi ang tao.

328
00:28:49,686 --> 00:28:51,688
Nakikita mo
ang makabagong autonomous weapons

329
00:28:51,771 --> 00:28:55,150
na nagsisimula nang gamitin
sa iba't ibang lugar sa mundo.

330
00:28:56,276 --> 00:28:58,278
May mga ulat mula sa Israel.

331
00:28:59,028 --> 00:29:00,280
ANG 'MAGIC BULLET' DRONES

332
00:29:00,363 --> 00:29:05,702
Gumamit ang Azerbaijan ng autonomous
na sistema para i-target ang Armenia.

333
00:29:07,370 --> 00:29:09,998
Maaari itong lumipad
sa labanan nang ilang oras,

334
00:29:10,081 --> 00:29:12,500
maghahanap ng mga bagay
na kusa niyang titirahin,

335
00:29:12,584 --> 00:29:16,087
at pagkatapos ay araruhin
nang walang anumang intervention ng tao.

336
00:29:16,796 --> 00:29:21,760
At nakita namin kamakailan ang iba't ibang
video na naka-post sa Ukraine.

337
00:29:23,136 --> 00:29:26,890
Hindi malinaw kung anong mode sila
noong umaandar sila.

338
00:29:26,973 --> 00:29:30,393
May tao ba sa loop,
pumipili ng target na aatakihin,

339
00:29:30,477 --> 00:29:32,729
o nagsosolo ang makina?

340
00:29:32,812 --> 00:29:36,524
Pero tiyak na darating ang panahon,

341
00:29:36,608 --> 00:29:40,195
nangyari man ito sa Libya, Ukraine
o sa ibang lugar,

342
00:29:40,278 --> 00:29:44,449
kung saan ang makina ang magdedesisyon
kung sino ang papatayin sa digmaan.

343
00:29:47,035 --> 00:29:50,997
Ang mga makinang gumagamit
ng nakakamatay na kapangyarihan kontra tao

344
00:29:51,080 --> 00:29:53,374
nang walang intervention ng tao

345
00:29:53,458 --> 00:29:57,337
ay di katanggap-tanggap sa pulitika
at nakakarimarim.

346
00:29:59,088 --> 00:30:01,299
Kung ang pandaigdigang komunidad

347
00:30:01,382 --> 00:30:05,011
ba ay sapat para pamahalaan
ang mga hamong iyon

348
00:30:05,094 --> 00:30:06,888
ay isang malaking tandang pananong.

349
00:30:06,971 --> 00:30:08,848
ETIKA SA DIGMAAN:

350
00:30:08,932 --> 00:30:12,685
Kung titingnan ang hinaharap,
kahit ilang taon mula ngayon,

351
00:30:12,769 --> 00:30:15,730
nakakatakot ang hitsura ng landscape

352
00:30:16,564 --> 00:30:23,404
sa laki ng puhunan at yamang tao
papunta sa pagpapalakas ng AI

353
00:30:23,488 --> 00:30:26,950
at paggamit nito para sa iba't ibang
application na ito, ay napakalaki.

354
00:30:39,254 --> 00:30:43,424
Diyos ko, ang taong ito.
Alam niyang hindi siya mananalo.

355
00:30:46,761 --> 00:30:51,099
Kapag nanalo ang AI
sa iba't ibang problema, naiinspire ako.

356
00:30:51,683 --> 00:30:54,310
Papunta na sa Aba Ginoong Maria na aksyon.

357
00:30:54,394 --> 00:30:59,524
At maaaring gamitin ang parehong taktika,
teknik, at pamamaraan sa totoong aircraft.

358
00:31:00,900 --> 00:31:02,318
Magandang laro.

359
00:31:02,402 --> 00:31:03,653
Ayos, magandang laro.

360
00:31:08,658 --> 00:31:09,909
Nakakagulat sa akin

361
00:31:09,993 --> 00:31:14,122
na patuloy ang mga pahayag
tungkol sa hindi kayang gawin ng AI, tama?

362
00:31:14,205 --> 00:31:17,166
"Naku, di niya matatalo
ang isang world champion sa chess."

363
00:31:20,211 --> 00:31:22,672
Isang IBM computer ang nagbabalik

364
00:31:22,755 --> 00:31:25,925
sa Game 2 ng laban nito sa world chess
champion na si Garry Kasparov.

365
00:31:28,136 --> 00:31:30,847
Nag-resign na si Kasparov!

366
00:31:31,598 --> 00:31:34,642
Kapag may nakita akong di ko maintindihan,

367
00:31:34,726 --> 00:31:38,062
natatakot ako,
at iyon ay lagpas sa naiintindihan ko.

368
00:31:39,355 --> 00:31:41,107
At sasabihin ng mga tao,

369
00:31:41,190 --> 00:31:44,402
"Hindi nito matatalo
ang isang world champion sa larong Go."

370
00:31:44,485 --> 00:31:50,700
Naniniwala ako na mas nangunguna pa rin
ang intuition ng tao

371
00:31:50,783 --> 00:31:52,827
para mahabol ng AI.

372
00:31:55,330 --> 00:31:58,416
Ang Go ay isa sa pinakakumplikadong laro
na matututunan ng sinuman

373
00:31:58,499 --> 00:32:02,211
dahil ang bilang ng mga galaw sa board,
kung kakalkulahin,

374
00:32:02,295 --> 00:32:05,256
ay parehong mas maraming atom
kaysa sa buong universe.

375
00:32:06,799 --> 00:32:08,968
May pangkat sa Google na DeepMind,

376
00:32:09,052 --> 00:32:11,471
at gumawa sila ng programang AlphaGo

377
00:32:11,554 --> 00:32:14,766
para talunin ang pinakamahuhusay
na manlalaro sa mundo.

378
00:32:16,559 --> 00:32:18,394
Pagbati sa…

379
00:32:18,478 --> 00:32:19,437
-AlphaGo.
-AlphaGo.

380
00:32:19,520 --> 00:32:23,107
Tinalo ng computer program
ang isang propesyonal na 9 dan.

381
00:32:25,610 --> 00:32:31,532
Pagkatapos ay pinili ng DeepMind
ang StarCraft sa susunod na AI challenge.

382
00:32:33,743 --> 00:32:38,081
Ang StarCraft ay ang pinakasikat
na real-time na pag-istratehiyang laro.

383
00:32:38,665 --> 00:32:40,249
KAYANG TALUNIN NG AI NG DEEPMIND

384
00:32:40,333 --> 00:32:44,712
Sumikat ang AlphaStar
nang matalo nito ang mga world champion.

385
00:32:45,338 --> 00:32:48,800
Dinurog ng AlphaStar ang Immortal Arc.

386
00:32:48,883 --> 00:32:52,762
Alam mo ba? Hindi ito isang laban
na pwedeng ipanalo ng mga pro.

387
00:32:53,680 --> 00:32:54,806
Medyo kalokohan.

388
00:32:54,889 --> 00:32:57,558
NAGING GRANDMASTER ANG AI
SA COMPLEX NA STARCRAFT II

389
00:32:57,642 --> 00:33:00,895
Sinabi ng mga propesyonal,
"Di ko susubukan ang taktika na 'yan.

390
00:33:00,979 --> 00:33:04,816
Hindi ko susubukan ang diskarteng 'yan.
Iyang bagay na hindi tao."

391
00:33:07,151 --> 00:33:10,655
At iyon na siguro ang "a-ha"
na sandali para sa akin.

392
00:33:13,574 --> 00:33:16,661
Napagtanto kong ngayon na ang oras.

393
00:33:17,412 --> 00:33:21,082
May mahalagang teknolohiya
at pagkakataon na gumawa ng pagbabago.

394
00:33:24,502 --> 00:33:29,382
Alam ko lang ang problemang kinaharap ko
bilang SEAL sa malapitang labanan,

395
00:33:30,383 --> 00:33:34,470
pero sa matalik kong kaibigan,
na piloto ng F-18, ang nagsabi sa akin,

396
00:33:34,554 --> 00:33:37,724
"Pareho tayo ng problema
sa komunidad ng fighter jet.

397
00:33:37,807 --> 00:33:39,434
Sinisira nila ang komunikasyon.

398
00:33:39,517 --> 00:33:42,562
May dumaraming
surface-to-air missile sites

399
00:33:42,645 --> 00:33:44,439
kaya naging mapanganib na mag-operate."

400
00:33:47,483 --> 00:33:50,987
Isipin kung may fighter jet tayo
na minamandohan ng AI.

401
00:33:51,070 --> 00:33:52,739
Welcome sa AlphaDogfight trials.

402
00:33:52,822 --> 00:33:56,159
Ilang minuto pa bago ang unang semifinal.

403
00:33:56,242 --> 00:33:59,871
DARPA, ang Defense Advanced Research
Projects Agency,

404
00:33:59,954 --> 00:34:03,624
ay nakita ang AlphaGo at AlphaStar,

405
00:34:04,292 --> 00:34:08,171
kaya nabuhay ang ideya
ng kumpetisyon ng AlphaDogfight.

406
00:34:09,005 --> 00:34:11,466
Ito ang gusto mong makitang gawin
ng mga taong piloto.

407
00:34:11,549 --> 00:34:13,593
Mukhang dogfighting ito ng tao.

408
00:34:15,595 --> 00:34:19,057
Ang dogfighting ay ginagawa
ng fighter-on-fighter aircraft.

409
00:34:19,849 --> 00:34:23,269
Maaari mong isipin
na isang boxing match sa kalangitan.

410
00:34:23,853 --> 00:34:26,314
Baka napanood na ng mga tao ang Top Gun.

411
00:34:26,397 --> 00:34:30,068
-Pwede ba nating malampasan ang mga 'to?
-Hindi ang mga missile at baril.

412
00:34:30,151 --> 00:34:31,277
Dogfight nga ito.

413
00:34:35,531 --> 00:34:39,911
Aabutin ng walo hanggang sampung taon
ang pag-aaral ng dogfighting.

414
00:34:42,288 --> 00:34:46,209
Napakasalimuot na hamon ang pagbuo ng AI.

415
00:34:54,092 --> 00:34:58,679
Ang mga naunang pamamaraan
sa awtonomiya at dogfighting ay mahina.

416
00:34:59,222 --> 00:35:03,017
Naisip namin na machine learning
ang paraan para malutas ang problema.

417
00:35:04,477 --> 00:35:08,189
Noong una, walang alam ang AI sa mundo
kung saan ito ibinagsak.

418
00:35:08,272 --> 00:35:11,025
Hindi nito alam na lumilipad ito
o ano ang dogfighting.

419
00:35:11,109 --> 00:35:13,152
Hindi nito alam kung ano ang F-16.

420
00:35:13,236 --> 00:35:15,905
Alam lang nito
ay ang mga magagamit nitong aksyon,

421
00:35:15,988 --> 00:35:18,407
at random nitong gagamitin
ang mga pagkilos na iyon.

422
00:35:19,325 --> 00:35:23,204
Kaunting panahon lang nagsanay
ang asul na aircraft.

423
00:35:23,287 --> 00:35:25,832
Makikita mo itong pabalik-balik
na umaalog,

424
00:35:26,624 --> 00:35:30,545
lumilipad nang pabalang,
karaniwang palayo sa kalaban.

425
00:35:31,587 --> 00:35:36,134
Habang tumatagal ang laban, nagsisimula
ng magkaroon ng game plan ang asul.

426
00:35:36,676 --> 00:35:38,636
Mas nasa posisyon na ito para tumira.

427
00:35:39,178 --> 00:35:41,305
Minsan, sabi ng learning algorithm,

428
00:35:41,389 --> 00:35:43,891
"May cookie dito. Ipagpatuloy mo pa 'yan."

429
00:35:45,143 --> 00:35:50,064
Samantalahin ang lakas ng computer,
sanayin ang mga ahente nang magkahilera.

430
00:35:51,357 --> 00:35:52,775
Parang basketball team.

431
00:35:53,276 --> 00:35:55,778
Sa halip na laruin ang iisang koponan
nang paulit-ulit,

432
00:35:55,862 --> 00:35:59,198
naglalakbay tayo sa buong mundo
na nilalaro ang 512 na koponan

433
00:35:59,699 --> 00:36:00,950
nang sabay-sabay.

434
00:36:01,492 --> 00:36:03,452
Magiging magaling ka at napakabilis.

435
00:36:04,162 --> 00:36:07,456
Nagawa namin ang simulation na iyon 24/7

436
00:36:07,540 --> 00:36:11,919
at nakakuha ng parang 30 taong
pilot training, sa loob ng 10 buwan.

437
00:36:12,879 --> 00:36:17,717
Mula sa halos di makontrol na aircraft,
na naging napakalamig na assassin.

438
00:36:19,010 --> 00:36:23,514
Sa pagsasanay, nakikipagkumpitensya lang
kami sa ibang artificial intelligence.

439
00:36:24,473 --> 00:36:28,561
Pero ang direktang pakikipagkumpitensya
sa tao ang pinaka-target.

440
00:36:34,192 --> 00:36:38,362
Ako si Mike Benitez,
Lieutenant Colonel sa US Air Force,

441
00:36:39,155 --> 00:36:41,157
at nasa aktibong tungkulin ng 25 taon.

442
00:36:42,825 --> 00:36:44,869
Mayroon akong 250 combat mission

443
00:36:45,578 --> 00:36:49,832
at nagtapos ako sa weapons school,
na bersyon ng Air Force sa Top Gun.

444
00:36:52,627 --> 00:36:55,171
Di pa ako nakalipad laban sa AI.

445
00:36:55,254 --> 00:36:58,549
Medyo nasasabik akong makita
kung gaano ako kagaling.

446
00:36:59,634 --> 00:37:03,054
Mayroon tayong 6,000 talampakan
na opensiba, nose-to-nose.

447
00:37:04,388 --> 00:37:05,223
Labanan na.

448
00:37:13,314 --> 00:37:14,148
Wala na siya.

449
00:37:14,732 --> 00:37:16,651
Wow, nakakamangha talaga iyan.

450
00:37:20,780 --> 00:37:23,658
-Patay.
-Nahuli na siya. Malinis na panalo.

451
00:37:25,910 --> 00:37:27,453
Sige, round two.

452
00:37:35,461 --> 00:37:40,508
Ang ginagawa ng artificial intelligence
ay nagmamaniobra nang may katumpakan

453
00:37:41,384 --> 00:37:43,219
na di ko kayang sabayan.

454
00:37:48,474 --> 00:37:51,894
Kung saan magsasalubong.
Tapos ka na ngayon.

455
00:37:53,145 --> 00:37:53,980
Nakita ko na.

456
00:37:54,063 --> 00:37:55,273
Nahuli pa rin ako.

457
00:37:58,567 --> 00:38:00,069
Hindi natatakot ang AI.

458
00:38:00,736 --> 00:38:03,781
May emosyonal na elemento ng tao
sa cockpit na wala ang AI.

459
00:38:04,991 --> 00:38:08,077
Isa sa mga mas interesanteng diskarte
na binuo ng AI,

460
00:38:08,160 --> 00:38:10,538
ay ang tinatawag nating harapang tira.

461
00:38:10,621 --> 00:38:14,000
Kadalasan, gusto ng tao na bumaril
mula sa likod

462
00:38:14,083 --> 00:38:16,460
dahil mahirap para sa kanila
na sindakin ang kalaban.

463
00:38:17,044 --> 00:38:20,548
Di nila sinusubukan ang harapang tira
dahil naglalaro ka ng laro ng manok.

464
00:38:21,424 --> 00:38:25,511
Pagdating namin, 3,000 talampakan
hanggang 500 talampakan ang layo,

465
00:38:25,594 --> 00:38:27,513
maaaring mangyari sa isang kisap mata.

466
00:38:27,596 --> 00:38:31,183
Malaki ang tsansang magbanggahan,
kaya di ito sinusubukan ng tao.

467
00:38:32,893 --> 00:38:35,938
Ang AI, maliban kung sabihang matakot
sa kamatayan, ay di matatakot.

468
00:38:37,857 --> 00:38:40,234
Para akong nakikipaglaban sa isang tao,

469
00:38:40,776 --> 00:38:44,113
pero sa taong walang pagpapahalaga
sa kaligtasan.

470
00:38:45,489 --> 00:38:47,325
Di siya makakaligtas sa panghuli.

471
00:38:57,168 --> 00:38:58,461
Wala siyang sapat na oras.

472
00:39:01,964 --> 00:39:02,965
Magandang gabi.

473
00:39:04,091 --> 00:39:04,925
Patay na ako.

474
00:39:16,812 --> 00:39:20,900
Nakakatuwang malaman na hindi ako
ang pinakamahusay sa misyong ito,

475
00:39:21,484 --> 00:39:24,320
na ang bagay na 'yon
ay baka ang pumalit sa akin balang-araw.

476
00:39:25,696 --> 00:39:26,906
Parehong 6 CAV.

477
00:39:27,615 --> 00:39:28,824
Isang libong offset.

478
00:39:29,450 --> 00:39:32,078
Gamit ang AI pilot
commanding fighter aircraft,

479
00:39:32,828 --> 00:39:34,830
walang humpay ang panalo,
nangingibabaw ito.

480
00:39:34,914 --> 00:39:37,249
Di lang ito panalo sa malawak na hanay.

481
00:39:37,333 --> 00:39:41,545
Ito ay, "Okay, paano natin mailalagay 'yan
sa aircraft?" Ganoon kalakas.

482
00:39:43,672 --> 00:39:47,802
Makatotohanang asahan na ang AI
ay magpi-pilot ng F-16,

483
00:39:47,885 --> 00:39:49,970
at hindi ito ganoon katagal.

484
00:39:51,305 --> 00:39:56,769
Kung kakalabanin mo ang AI pilot
na may 99.99999% rate na manalo,

485
00:39:56,852 --> 00:39:58,646
di ka magkakaroon ng tsansa.

486
00:39:59,605 --> 00:40:02,733
Kapag naiisip ko ang pilot ng AI
na di natatalo,

487
00:40:02,817 --> 00:40:06,695
iniisip ko ang pangkat ng 50 o 100,

488
00:40:07,279 --> 00:40:12,535
o 1,000 AI piloto, kung ano
ang patuloy nilang makakamit.

489
00:40:13,702 --> 00:40:17,415
Ang swarming ay isang pangkat
ng napakatalinong mga aircraft

490
00:40:17,498 --> 00:40:18,791
na nagtutulungan.

491
00:40:19,291 --> 00:40:23,462
Nagbabahagi sila ng impormasyon
sa gagawin, paano lutasin ang problema.

492
00:40:24,672 --> 00:40:30,469
Ang swarming ay ang pang-iba ng laro
at pampabago ng kakayahan

493
00:40:30,553 --> 00:40:32,638
ng ating militar at mga kapanalig.

494
00:41:42,750 --> 00:41:47,379
Nakuha na ang target,
at sinusubaybayan na ito ng mga drone.

495
00:42:02,019 --> 00:42:03,604
Ayos, pa-landing na.

496
00:42:07,566 --> 00:42:10,402
Ang pangunahing layunin
ng swarming research na ginagawa namin

497
00:42:11,153 --> 00:42:13,697
ay maglagay ng maraming drone

498
00:42:13,781 --> 00:42:17,910
sa lugar na mahirap puntahan o mapanganib.

499
00:42:21,705 --> 00:42:26,085
Sinusuportahan ng Army Research Lab
ang proyektong ito ng pananaliksik.

500
00:42:26,919 --> 00:42:28,963
Kung gusto mong malaman
ano ang nasa lokasyon,

501
00:42:29,046 --> 00:42:32,883
pero mahirap makarating sa lugar na iyon,
o napakalawak ng lugar,

502
00:42:33,676 --> 00:42:35,886
natural na paraan ang paglalagay ng swarm

503
00:42:35,970 --> 00:42:38,389
para mapalawak ang maabot
ng mga indibidwal

504
00:42:38,472 --> 00:42:41,934
at mangolekta
ng impormasyong kritikal sa misyon.

505
00:42:46,689 --> 00:42:48,983
Kaya, sa deployment ng swarm,

506
00:42:49,066 --> 00:42:53,904
magbibigay kami ng iisang utos
para subaybayan ang target ng interes.

507
00:42:54,488 --> 00:42:57,700
Pagkatapos ay pupunta ang mga drone
at gagawin iyon nang sila lang.

508
00:42:59,493 --> 00:43:04,081
Ang AI ay nagbibigay-daan sa mga robot
na gumalaw nang sama-sama

509
00:43:04,164 --> 00:43:06,166
sa desentralisadong paraan.

510
00:43:10,671 --> 00:43:12,506
Sa mga pulutong na nakikita natin,

511
00:43:13,299 --> 00:43:18,178
walang amo, walang pangunahing hayop
na nagsasabi kung ano ang gagawin.

512
00:43:20,556 --> 00:43:25,019
Lumilitaw ang pag-uugali
sa bawat indibidwal na hayop

513
00:43:25,102 --> 00:43:27,605
na sumusunod sa ilang simpleng panuntunan.

514
00:43:27,688 --> 00:43:32,443
At mula doon ay lumalaki ang lumilitaw
na sama-samang pag-uugali na nakikita mo.

515
00:43:33,944 --> 00:43:37,031
Ang kahanga-hanga sa kalikasan
ng mga swarms

516
00:43:37,114 --> 00:43:39,992
ay ang kaaya-ayang kakayahan ng mga ito.

517
00:43:40,576 --> 00:43:44,288
Para silang binuo
para maging bahagi ng grupong ito.

518
00:43:46,790 --> 00:43:51,128
Ang gusto naming makita
sa aming drone swarm ay,

519
00:43:51,211 --> 00:43:53,172
katulad sa kalikasan,

520
00:43:53,672 --> 00:43:56,717
ang mga desisyong ginagawa ng grupo
nang sama-sama.

521
00:43:59,928 --> 00:44:02,765
Ang isa pang inspirasyon para sa amin

522
00:44:02,848 --> 00:44:06,268
ay ang pagiging maaasahan at matatag,

523
00:44:07,311 --> 00:44:09,188
Hindi basta babagsak ang swarm

524
00:44:09,271 --> 00:44:13,567
kung di gagawin ng isang hayop
ang dapat niyang gawin.

525
00:44:15,194 --> 00:44:18,697
Kahit na ang isa sa mga ahente
ay bumagsak, o mabigo,

526
00:44:18,781 --> 00:44:20,866
o hindi magawa ang gawain,

527
00:44:21,909 --> 00:44:23,869
magpapatuloy ang pulutong.

528
00:44:25,204 --> 00:44:27,873
At sa huli, 'yon ang gusto naming makuha.

529
00:44:29,333 --> 00:44:33,879
May ganitong pangangailangan sa labanan
para matukoy ang aircraft ng kalaban,

530
00:44:33,962 --> 00:44:37,841
at dati ay kailangan ng isang tao
na kokontrol sa isang robot.

531
00:44:38,592 --> 00:44:40,552
Habang tumataas ang awtonomiya,

532
00:44:40,636 --> 00:44:43,555
inaasahan kong makakita ng maraming robot

533
00:44:43,639 --> 00:44:46,558
na kinokontrol ng napakaliit
na bilang ng tao.

534
00:44:47,768 --> 00:44:51,271
Wala akong makitang dahilan
ba't di makamit ang libo kalaunan

535
00:44:51,355 --> 00:44:54,942
dahil ang bawat ahente
ay makakakilos sa sarili nitong kusa,

536
00:44:55,025 --> 00:44:56,443
at langit ang hangganan.

537
00:44:57,027 --> 00:44:59,071
Mapapalawak natin ang ating pagkatuto…

538
00:44:59,154 --> 00:45:03,325
Matagal na naming trinatrabaho
ang swarming simulation,

539
00:45:03,409 --> 00:45:07,246
at oras na para dalhin iyon
sa totoong sasakyang panghimpapawid.

540
00:45:07,329 --> 00:45:12,042
Inaasahan namin ang tatlong robot
nang sabay-sabay sa network,

541
00:45:12,126 --> 00:45:15,295
at pagkatapos ay magdadagdag
ng mas maraming kakayahan.

542
00:45:15,879 --> 00:45:18,549
Gusto naming masubukan iyon
sa mas maliliit na sistema,

543
00:45:18,632 --> 00:45:22,219
pero kunin ang parehong konsepto
at ilapat ito sa mas malaking sistema,

544
00:45:22,302 --> 00:45:23,679
tulad ng fighter jet.

545
00:45:24,596 --> 00:45:26,014
Marami kaming pag-uusap

546
00:45:26,098 --> 00:45:31,937
kung paano mabibigyan ang isang platoon
ng lakas na panlaban ng isang batalyon?

547
00:45:34,982 --> 00:45:39,528
O sa isang batalyon, ang kapangyarihang
panlaban ng isang brigada?

548
00:45:39,611 --> 00:45:41,488
Magagawa mo iyon sa swarming.

549
00:45:42,614 --> 00:45:45,200
'Pag nabuksan mo na ang lakas ng swarming,

550
00:45:45,284 --> 00:45:49,455
nakagawa ka na ng bagong pampigin
na istratehiya sa agresyon ng militar.

551
00:45:52,332 --> 00:45:57,004
Ang pinaka-kapana-panabik ay ang bilang
ng mga kabataang babae at lalaki

552
00:45:57,087 --> 00:46:00,299
na maililigtas natin
kung magagawa natin ito nang tama.

553
00:46:01,091 --> 00:46:05,846
At isinusugal natin ang makina
sa halip na buhay ng tao.

554
00:46:06,638 --> 00:46:10,893
Sinasabi na gagawing mas tumpak
ang digmaan ng armas na may awtonomiya

555
00:46:10,976 --> 00:46:12,311
at mas makatao,

556
00:46:12,853 --> 00:46:16,356
pero mahirap itong hulaan nang eksakto

557
00:46:16,440 --> 00:46:19,443
paano mababago
ng mga armas na ito ang digmaan.

558
00:46:21,320 --> 00:46:23,238
Parang pag-imbento ng Gatling gun.

559
00:46:25,073 --> 00:46:27,117
Si Richard Gatling ay isang imbentor,

560
00:46:27,201 --> 00:46:31,455
at nakita niya ang mga sundalong bumalik,
nasugatan sa Digmaang Sibil,

561
00:46:32,289 --> 00:46:35,793
at gusto niyang humanap ng paraan
para maging mas makatao ang digmaan.

562
00:46:36,293 --> 00:46:39,797
Para mabawasan
ang mga sundalong napatay sa digmaan

563
00:46:40,422 --> 00:46:42,633
sa pagbabawas
ng bilang ng sundalo sa labanan.

564
00:46:44,092 --> 00:46:48,388
Kaya naimbento niya ang Gatling gun,
isang automated gun ng crank

565
00:46:48,472 --> 00:46:50,516
na pwedeng awtomatiko ang pagpapaputok.

566
00:46:53,268 --> 00:46:57,981
Mabisang tumaas ng 100 beses ang lakas
ng putok na kayang ibigay ng mga sundalo.

567
00:47:01,235 --> 00:47:05,239
Sa pagsisikap na gawing
mas tumpak at makatao ang digmaan

568
00:47:06,490 --> 00:47:08,492
ay nagkakaroon ng kabaligtarang epekto.

569
00:47:10,160 --> 00:47:14,540
Isipin ang epekto ng isang maling
pag-atake ng drone sa rural na lugar

570
00:47:14,623 --> 00:47:17,209
na nagtutulak sa mga lokal na tao
laban sa Estados Unidos,

571
00:47:17,292 --> 00:47:20,712
laban sa lokal na pamahalaan,
ang mga dapat na mabubuting tao.

572
00:47:22,589 --> 00:47:25,008
Palakihin mo 'yan ng libo.

573
00:47:26,802 --> 00:47:28,720
Ang paggawa ng sistema ng sandata

574
00:47:28,804 --> 00:47:34,560
na mura, nasusukat,
at hindi nangangailangan ng mga tao

575
00:47:34,643 --> 00:47:37,896
ay lubos na nagpabago
sa mga hadlang sa kaguluhan.

576
00:47:40,107 --> 00:47:44,486
Di ako nakakatulog kakaisip ng mundo
na may digmaan kahit saan

577
00:47:44,987 --> 00:47:48,657
at di na natin madala ang tao
at pinansiyal na halaga ng digmaan

578
00:47:48,740 --> 00:47:51,410
dahil malayo tayo sa…

579
00:47:52,369 --> 00:47:54,037
mga buhay na mawawala.

580
00:47:59,501 --> 00:48:01,420
Hinahabol ako ng lahat ng ito.

581
00:48:02,212 --> 00:48:05,924
Kailangan ko lang ng halimbawa
ng maling paggamit ng AI.

582
00:48:06,800 --> 00:48:10,888
Ang hindi inaasahang kahihinatnan
ng paggawa ng simpleng eksperimento

583
00:48:10,971 --> 00:48:12,848
na nasobrahan.

584
00:48:13,348 --> 00:48:16,226
AI SA PAGKATUKLAS NG GAMOT:

585
00:48:17,352 --> 00:48:22,524
Nang magbigay ako ng presentasyon sa toxic
molecules na likha ng teknolohiyang AI,

586
00:48:22,608 --> 00:48:24,318
nasorpresa ang mga manonood.

587
00:48:25,402 --> 00:48:27,613
NANGUNGUNANG 5,000 SCORING COMPOUNDS

588
00:48:29,406 --> 00:48:33,577
Ang susunod na desisyon ay kung dapat
na ilathala ang impormasyong ito.

589
00:48:34,912 --> 00:48:36,914
Gusto mong bigyan ng babala ang mundo

590
00:48:36,997 --> 00:48:40,125
sa mga ganitong klaseng kakayahan,
pero sa kabilang banda,

591
00:48:40,208 --> 00:48:44,087
ayaw mong bigyan ng ideya ang tao
kung wala pa sila nito.

592
00:48:46,381 --> 00:48:48,133
Napagpasyahan na dapat itong ilathala

593
00:48:48,216 --> 00:48:52,679
para makahanap ng ilang paraan
para mabawasan ang maling paggamit ng AI

594
00:48:52,763 --> 00:48:54,139
bago ito mangyari.

595
00:48:54,222 --> 00:48:56,975
DALAWANG GAMIT
NG PAGKATUKLAS NG GAMOT GAMIT ANG AI

596
00:48:57,559 --> 00:49:00,437
PAANO ANG AI NA TEKNOLOHIYA
SA PAGKATUKLAS NG GAMOT

597
00:49:00,520 --> 00:49:01,813
MAAARING MAGAMIT SA MALI

598
00:49:01,897 --> 00:49:04,775
Nakakagulat ang reaksyon ng publiko.

599
00:49:07,194 --> 00:49:10,656
Makikita natin ang metrics sa page,
gaano karaming tao ang tumingin dito.

600
00:49:10,739 --> 00:49:14,451
Ang uri ng artikulong karaniwang
isinusulat, masuwerte tayo kung--

601
00:49:14,534 --> 00:49:19,831
Ilang libo ang tumitingin sa artikulo
sa loob ng isang taon o maraming taon.

602
00:49:19,915 --> 00:49:22,084
Sa isang linggo,
may 10,000 ang nakabasa nito.

603
00:49:22,167 --> 00:49:25,337
Tapos ay 20,000, 30,000, 40,000,

604
00:49:25,837 --> 00:49:28,715
pagkatapos ay umabot ng 10,000 tao
sa isang araw.

605
00:49:30,300 --> 00:49:33,512
Ginawa namin ang The Economist,
ang Financial Times.

606
00:49:33,595 --> 00:49:34,763
MAITIM NA BAHAGI NG GAMOT

607
00:49:35,639 --> 00:49:39,977
Radiolab, tumawag sila.
Narinig ko na ang Radiolab!

608
00:49:41,937 --> 00:49:45,899
Pero ang mga reaksyon ay nauwi
sa kawalan ng kontrol.

609
00:49:48,819 --> 00:49:49,695
NAKAKATAKOT.

610
00:49:49,778 --> 00:49:53,532
Kung tinitingnan natin ang mga tweet,
parang, "May malala ba silang magagawa?"

611
00:49:54,324 --> 00:49:55,993
Bakit nila ito ginawa?

612
00:49:56,076 --> 00:49:57,411
WALANG KWENTANG NABASA KO

613
00:49:57,911 --> 00:50:01,081
LAHAT TAYO AY PAPATAYIN
NG MGA NERDS NA 'TO.

614
00:50:01,164 --> 00:50:04,501
At nakatanggap kami ng imbitasyon
na hindi ko inaasahan.

615
00:50:08,797 --> 00:50:12,926
Nagkaroon ng maraming talakayan
sa White House tungkol sa artikulo,

616
00:50:13,010 --> 00:50:15,345
at gusto nila kaming makausap agad.

617
00:50:18,849 --> 00:50:23,020
Malinaw, isang napakalaking karangalan
na makausap ang mga tao sa antas na ito.

618
00:50:23,603 --> 00:50:25,272
Pero maiisip mo,

619
00:50:25,355 --> 00:50:28,900
"Hala, ang White House iyon. Ang boss."

620
00:50:29,693 --> 00:50:33,196
Kasama rito ang pagsasama-sama
ng mga data set na nasa open source…

621
00:50:33,280 --> 00:50:37,701
Sa loob ng anim na oras, nakagawa
ang modelo ng mahigit 40,000…

622
00:50:37,784 --> 00:50:41,079
Nagtanong sila kung gaano karaming
computing power ang kailangan,

623
00:50:41,872 --> 00:50:44,249
at sinabi namin na walang espesyal dito.

624
00:50:44,332 --> 00:50:48,211
Literal na karaniwang ordinaryong,
anim na taong gulang na Mac.

625
00:50:49,546 --> 00:50:51,256
At nabigla sila.

626
00:50:54,968 --> 00:50:59,473
Ang mga taong namamahala
sa pag-unawa sa chemical warfare agents

627
00:50:59,556 --> 00:51:04,019
at ahensya ng gobyerno,
hindi nila alam ang potensyal na ito.

628
00:51:06,605 --> 00:51:10,150
May cookbook kami
para gawin ang mga sandatang kemikal,

629
00:51:10,650 --> 00:51:15,572
at sa kamay ng isang masamang aktor
na may malisyosong layunin,

630
00:51:16,573 --> 00:51:18,992
maaari itong maging nakakatakot.

631
00:51:21,703 --> 00:51:23,205
Dapat umupo at makinig ang tao,

632
00:51:23,288 --> 00:51:26,458
at kailangang gumawa ng mga hakbang
para makontrol ang teknolohiya

633
00:51:27,250 --> 00:51:30,670
o pigilan ito
sa paraang hindi magagamit sa mali.

634
00:51:31,880 --> 00:51:35,175
Dahil potensyal na nakakamatay ito…

635
00:51:36,176 --> 00:51:37,344
ay nakakatakot.

636
00:51:40,680 --> 00:51:45,977
Ang tanong tungkol sa etika ng AI
ay higit na tinutugunan ng lipunan,

637
00:51:46,561 --> 00:51:50,273
hindi ng mga inhinyero o technologist,
ng mga mathematician.

638
00:51:52,484 --> 00:51:56,822
Bawat teknolohiyang inilalabas natin,
bawat bagong inobasyon,

639
00:51:56,905 --> 00:52:00,617
ay hawak ng lipunan
kung paano ito dapat gamitin.

640
00:52:01,201 --> 00:52:02,953
INADOPT NG DOD ANG ETIKAL NA PRINSIPYO

641
00:52:03,036 --> 00:52:06,498
Sa ngayon, sinabi ng Department of Defense

642
00:52:06,581 --> 00:52:09,960
na, "Ang tanging nagsasabi
na may papatayin tayo

643
00:52:10,043 --> 00:52:11,920
sa larangan ng digmaan ay tao."

644
00:52:12,504 --> 00:52:14,548
Magagawa ng makina ang pumatay,

645
00:52:15,674 --> 00:52:18,927
pero sa utos lang ng taong operator,

646
00:52:19,636 --> 00:52:21,429
at hindi 'yon magbabago.

647
00:52:24,808 --> 00:52:28,103
Tinitiyak nila na ligtas
ang ganitong uri ng teknolohiya.

648
00:52:29,729 --> 00:52:33,692
Ngunit ang militar ng US
ay may reputasyong di mapagkatiwalaan

649
00:52:33,775 --> 00:52:35,485
sa drone warfare.

650
00:52:35,569 --> 00:52:36,736
KUNG PAANO ITINAGO NG US

651
00:52:36,820 --> 00:52:41,783
At pagdating sa pagkakatiwala
sa militar ng US sa AI,

652
00:52:41,867 --> 00:52:44,911
masasabi ko na ang ang track record
na ang magsasalita.

653
00:52:46,288 --> 00:52:50,125
Ang patakaran ng US Defense Department
sa paggamit ng awtonomiya sa mga armas

654
00:52:50,208 --> 00:52:52,919
ay di nagbabawal sa anumang uri
ng sistema ng armas.

655
00:52:53,003 --> 00:52:56,715
At kahit na ayaw ng mga militar
ang mga autonomous na armas,

656
00:52:56,798 --> 00:53:01,678
makikita nating ibinibigay ng militar
ang desisyon sa mga makina

657
00:53:01,761 --> 00:53:03,680
para lang makasabay sa mga kakumpitensya.

658
00:53:04,764 --> 00:53:08,351
Iyon ang magtutulak sa militar
na i-automate ang mga desisyon

659
00:53:08,435 --> 00:53:09,978
na maaaring ayaw nila.

660
00:53:12,022 --> 00:53:13,440
Sinabi ni Vladimir Putin,

661
00:53:13,523 --> 00:53:17,068
"Kung sino ang mamumuno sa AI,
siya ang mamumuno sa mundo."

662
00:53:17,736 --> 00:53:23,325
Nilinaw ni Pangulong Xi na isa ang AI
sa mga numero unong teknolohiya

663
00:53:23,408 --> 00:53:25,702
na gustong dominahin ng China.

664
00:53:26,786 --> 00:53:29,831
Malinaw na nasa kompetisyon tayo
sa teknolohiya.

665
00:53:33,501 --> 00:53:35,670
Maririnig mong pinag-uusapan
ang mga harang

666
00:53:36,463 --> 00:53:39,966
at naniniwala ako
na iyon ang dapat gawin ng mga tao.

667
00:53:40,467 --> 00:53:45,180
Pero may totoong karera
para sa superiority ng AI.

668
00:53:47,265 --> 00:53:51,603
At ang mga kalaban natin,
China man, Russia, o Iran,

669
00:53:51,686 --> 00:53:56,566
ay hindi magdadalawang-isip
sa sinasabi ng aming patakaran sa AI.

670
00:54:00,820 --> 00:54:04,324
Marami pang nakikitang pag-uusap
tungkol sa patakaran ng AI,

671
00:54:06,117 --> 00:54:09,287
pero sana mas marami pang lider
ang mag-uusap

672
00:54:09,371 --> 00:54:11,790
na sasabihing,
''Gaano tayo kabilis makabuo nito?

673
00:54:12,707 --> 00:54:15,168
Gawin natin ito at buuin."

674
00:54:18,922 --> 00:54:21,299
AUSA TAUNANG MEETING AT PAGLALAHAD

675
00:54:24,177 --> 00:54:26,805
HUKBO NG ESTADOS UNIDOS

676
00:54:33,478 --> 00:54:38,358
Kami ay nasa pinakamalaking trade show
ng taon ng Asosasyon ng Hukbo ng U.S.

677
00:54:39,609 --> 00:54:46,616
Sinumang nagbebenta ng produkto
o teknolohiya sa militar ay magpapakita.

678
00:54:47,701 --> 00:54:50,537
Ang Tyndall Air Force Base
ay may apat ng aming robot

679
00:54:50,620 --> 00:54:54,249
na nagpapatrol sa base nila
24 oras araw-araw, 7 araw bawat linggo.

680
00:54:55,750 --> 00:55:00,130
Maaaring idagdag lahat mula sa mga camera
hanggang sensor sa anumang kailangan mo.

681
00:55:00,213 --> 00:55:05,135
Mga manipulator arms. Para makumpleto
ang misyon na nasa isip ng customer.

682
00:55:06,678 --> 00:55:08,638
Paano kung ipakilala ng kalaban mo ng AI?

683
00:55:09,431 --> 00:55:12,976
Isang sistema ng labanan
na mas mabilis mag-isip, tumugon,

684
00:55:13,059 --> 00:55:14,811
kaysa sa magagawa ng tao?.

685
00:55:14,894 --> 00:55:17,022
Kailangan nating maging handa.

686
00:55:17,564 --> 00:55:21,526
Sinasanay namin ang aming sistema
na mangolekta ng intel sa kalaban,

687
00:55:22,027 --> 00:55:26,531
pamahalaan ang mga target ng kalaban
na may taong nagbabantay sa mga pagpatay.

688
00:55:33,288 --> 00:55:34,956
-Hi, Heneral.
-Kumusta ka?

689
00:55:35,040 --> 00:55:36,583
Maayos po, sir. Kumusta?

690
00:55:37,709 --> 00:55:40,962
Sasabihin ko lang
na walang namumuhunan sa AI pilot.

691
00:55:41,046 --> 00:55:43,214
Tinatawag na Hivemind ang pilotong AI,

692
00:55:43,298 --> 00:55:45,925
kaya inilapat namin ito
sa quadcopter Nova.

693
00:55:46,009 --> 00:55:50,805
Papasok ito sa mga gusali, mauunang umikot
sa special operation at infantry forces.

694
00:55:50,889 --> 00:55:52,891
Inilalapat namin si Hivemind sa V-BAT,

695
00:55:52,974 --> 00:55:56,811
kaya naisipan kong maglagay
ng daan-daang pangkat doon.

696
00:55:56,895 --> 00:55:58,730
Kahit sa Taiwan Strait ito,

697
00:55:58,813 --> 00:56:01,608
o sa Ukraine, humahadlang ito
sa aming kalaban.

698
00:56:01,691 --> 00:56:03,360
Excited ako doon.

699
00:56:03,943 --> 00:56:06,196
-Ayos. Salamat.
-Salamat, Heneral.

700
00:56:07,947 --> 00:56:13,370
Dapat nasa lahat ng dako ang piloto ng AI,
at mangyayari iyon sa 2025, 2030.

701
00:56:14,204 --> 00:56:17,624
Magiging mabilis ang paglapat nito
sa buong militar sa buong mundo.

702
00:56:19,250 --> 00:56:22,962
Anong gagawin mo
sa militar ng Romania, sa UAS nila?

703
00:56:23,046 --> 00:56:24,589
High-tech sa militar.

704
00:56:25,256 --> 00:56:29,803
Gumastos kami ng kalahating bilyong dolyar
hanggang ngayon sa paggawa ng AI pilot.

705
00:56:29,886 --> 00:56:33,181
Gagastos kami ng isa pang bilyong dolyar
sa susunod na limang taon.

706
00:56:33,264 --> 00:56:37,769
Ito ang dahilan kaya tayo nananalo
sa mga programa ng record sa US.

707
00:56:37,852 --> 00:56:38,853
Ayos.

708
00:56:38,937 --> 00:56:42,732
Ibig kong sabihin, kahanga-hanga.
Nagtagumpay ka bang lagyan sila ng armas?

709
00:56:43,650 --> 00:56:45,568
Wala pa itong armas.

710
00:56:45,652 --> 00:56:48,321
Kaya hindi pa. Pero sa hinaharap.

711
00:56:48,405 --> 00:56:52,534
Trak lang ang tingin ng mga customer dito.
Ang tingin namin ay isang matalinong trak

712
00:56:52,617 --> 00:56:54,452
na kayang gawin ang iba't ibang bagay.

713
00:56:54,536 --> 00:56:55,703
-Salamat, tol.
-Oo.

714
00:56:55,787 --> 00:56:57,914
Sisiguraduhin kong
magpa-follow up ako sa iyo.

715
00:57:01,668 --> 00:57:04,129
Kung babalik ka sa loob ng 10 taon,

716
00:57:04,212 --> 00:57:10,802
makikita mo na ang AI at autonomy
ang nangingibabaw sa buong merkado.

717
00:57:14,889 --> 00:57:19,352
Ang mga puwersang sinusuportahan
ng AI at awtonomiya

718
00:57:19,436 --> 00:57:25,108
ay ganap na mangingibabaw, dudurog,
at sisira ng mga puwersang wala nito.

719
00:57:26,401 --> 00:57:30,780
Katumbas ito ng mga kabayong tumatayo
laban sa mga tangke,

720
00:57:31,781 --> 00:57:34,826
mga taong may espada na tumatayo
laban sa machine gun.

721
00:57:34,909 --> 00:57:37,120
Hindi rin ito ganoon malapit.

722
00:57:38,746 --> 00:57:42,750
Magiging laganap ito sa lahat ng dako,
ginamit sa lahat ng digmaan,

723
00:57:43,585 --> 00:57:46,546
ang antas ng taktika,
ang antas ng istratehiya,

724
00:57:47,172 --> 00:57:50,800
kumikilos sa bilis
na hindi mawari ng tao ngayon.

725
00:57:53,094 --> 00:57:57,098
Ang mga commander ay nalilito na
sa napakaraming impormasyon.

726
00:57:57,599 --> 00:58:01,019
Larawan mula sa mga satellite,
drone, at mga sensor.

727
00:58:02,103 --> 00:58:03,396
Isa sa mga magagawa ng AI

728
00:58:03,480 --> 00:58:06,774
ay tulungan ang commander na mas mabilis
na maunawaan ang nangyayari.

729
00:58:07,650 --> 00:58:09,986
At, "Ano ang mga desisyon
na kailangan kong gawin?"

730
00:58:11,237 --> 00:58:14,866
Isasaalang-alang ng AI ang lahat ng salik

731
00:58:14,949 --> 00:58:17,702
na tumutukoy sa paraan
ng paglaban sa digmaan,

732
00:58:17,785 --> 00:58:20,246
gumawa ng mga istratehiya…

733
00:58:22,540 --> 00:58:25,668
at magbigay ng mga rekomendasyon
kung paano manalo sa laban.

734
00:58:32,217 --> 00:58:34,344
LOCKHEED MARTIN SENTRO PARA SA INOBASYON

735
00:58:36,971 --> 00:58:40,266
Kami sa Lockheed Martin, tulad
ng customer naming Department of Defense,

736
00:58:40,350 --> 00:58:43,770
tinitingnan namin ang AI
bilang pangunahing teknolohiya

737
00:58:43,853 --> 00:58:45,104
para sa utos at sa kontrol.

738
00:58:47,065 --> 00:58:50,109
Ang bilis ay may average
na dalawang talampakan bawat segundo.

739
00:58:50,193 --> 00:58:52,695
Ang perimeter
ay humigit-kumulang 700 ektarya.

740
00:58:52,779 --> 00:58:55,782
Reyalidad para sa atin sa panig
ng depensa ang fog of war

741
00:58:57,158 --> 00:59:00,495
pero may pagkakatulad ito sa kapaligiran

742
00:59:00,578 --> 00:59:03,206
at kailangan ding magdesisyon
para sa malalaking sunog.

743
00:59:03,289 --> 00:59:06,543
Ang sunog sa Washburn
ay nasa hilaga lang ng lungsod ng Wawona.

744
00:59:06,626 --> 00:59:09,629
Kailangang magpasya gamit
ang di perpektong data.

745
00:59:10,630 --> 00:59:14,300
At paano tayo matutulungan ng AI
sa fog of war?

746
00:59:17,637 --> 00:59:19,597
Napakagulo ng malaking mga sunog.

747
00:59:20,181 --> 00:59:26,354
Napaka-complex nito
kaya trinatrabaho namin na magamit ang AI

748
00:59:26,437 --> 00:59:28,273
para tumulong sa pagpapasya.

749
00:59:31,442 --> 00:59:33,987
Ang Cognitive Mission Manager
ay programa namin

750
00:59:34,070 --> 00:59:37,949
na kumukuha ng aerial infrared na video

751
00:59:38,032 --> 00:59:41,786
at pagkatapos ay ipoproseso ito
sa pamamagitan ng AI algorithm

752
00:59:41,869 --> 00:59:45,248
para mahulaan
ang magiging kalagayan ng sunog.

753
00:59:48,042 --> 00:59:49,794
Habang papunta tayo sa hinaharap,

754
00:59:49,877 --> 00:59:52,922
gagamit ang Cognitive Mission Manager
ng simulation,

755
00:59:53,006 --> 00:59:57,093
dadaanan ang mga sitwasyon ng libong ikot,

756
00:59:57,176 --> 01:00:00,722
para magrekomenda ng pinakamabisang paraan
para mag-deploy ng mga mapagkukunan

757
01:00:00,805 --> 01:00:04,559
para sugpuin ang mga mataas
na prayoridad na lugar ng sunog.

758
01:00:08,062 --> 01:00:12,817
Sasabihin dito, "Magsagawa
ng aerial suppression gamit ang Firehawk."

759
01:00:13,568 --> 01:00:15,903
"Kunin ang mga ground crew na naglilinis,

760
01:00:16,946 --> 01:00:19,032
mga bumbero na nagho-hose pababa,

761
01:00:19,657 --> 01:00:23,077
at pagkatapos ay hilahin sila
sa pinakamataas na prayoridad na lugar."

762
01:00:26,289 --> 01:00:31,044
Mas mabilis at mas mahusay
na nabubuo ang mga desisyong iyon.

763
01:00:35,840 --> 01:00:38,468
Tinitingnan ang AI
bilang nagbibigay-daan sa tao

764
01:00:38,551 --> 01:00:42,305
na makasabay sa pabago-bagong kapaligiran.

765
01:00:43,389 --> 01:00:46,517
At maraming kapani-paniwalang
numero ng pagkakatulad

766
01:00:46,601 --> 01:00:50,355
ng nakasanayan namin sa Lockheed Martin
sa panig ng depensa.

767
01:00:52,231 --> 01:00:55,860
Hindi na nagsasalita ang militar
tungkol sa paggamit ng AI

768
01:00:55,943 --> 01:01:00,782
at mga indibidwal na sistema ng armas
para magdesisyon sa target at pagpatay,

769
01:01:00,865 --> 01:01:02,200
ngunit pagsasama ng AI

770
01:01:02,283 --> 01:01:05,787
sa buong arkitektura
ng paggawa ng desisyon ng militar.

771
01:01:09,457 --> 01:01:13,378
May malaking proyekto ang Army
na tinatawag na Project Convergence.

772
01:01:14,545 --> 01:01:16,589
May Overmatch ang Navy.

773
01:01:16,673 --> 01:01:19,592
At ang Air Force
ay may Advanced Battle Management System.

774
01:01:21,886 --> 01:01:24,138
Sinusubukang alamin
ng Department of Defense,

775
01:01:24,222 --> 01:01:26,683
"Paano natin pagsasama-samahin
ang lahat ng ito,

776
01:01:26,766 --> 01:01:32,355
para mas mabilis tayong makakilos
sa kalaban at talagang makalamang?"

777
01:01:33,481 --> 01:01:37,527
Ang AI Battle Manager ay isang may mataas
na katungkulang Heneral

778
01:01:37,610 --> 01:01:39,821
na namamahala sa labanan.

779
01:01:41,155 --> 01:01:44,158
Tumulong na magbigay ng utos
sa malaking bilang ng pwersa,

780
01:01:45,118 --> 01:01:49,247
mag-coordinate sa lahat ng aksyon
sa mga sandata na nandoon,

781
01:01:49,330 --> 01:01:51,958
at mabilis itong gawin
na hindi kayang sabayan ng tao.

782
01:01:53,543 --> 01:01:55,294
Ginugol namin ang nakalipas na 70 taon

783
01:01:55,378 --> 01:01:58,798
sa pagbuo ng pinaka-sopistikadong
militar sa planeta,

784
01:01:58,881 --> 01:02:03,177
at ngayon ay nahaharap tayo sa desisyon
kung gusto nating isuko ang kontrol

785
01:02:03,261 --> 01:02:07,598
ng imprastraktura
sa isang algorithm, sa software.

786
01:02:10,351 --> 01:02:13,187
At ang kahihinatnan ng desisyong iyon

787
01:02:13,271 --> 01:02:16,774
ay maaaring magdulot ng buong bigat
ng arsenal ng ating militar.

788
01:02:16,858 --> 01:02:19,902
Hindi 'yon isang Hiroshima.
Iyon ay daan-daan.

789
01:02:25,616 --> 01:02:27,869
Ito na ang oras na kailangang kumilos

790
01:02:27,952 --> 01:02:33,166
dahil malapit nang magsara
ang pagkakataong ito.

791
01:02:34,625 --> 01:02:39,338
Ngayong hapon, sisimulan natin
ang mga hamon sa seguridad

792
01:02:39,422 --> 01:02:42,133
na dulot ng mga umuusbong
na teknolohiya sa lugar

793
01:02:42,216 --> 01:02:44,343
ng mga delikadong
autonomous weapons system.

794
01:02:44,427 --> 01:02:50,016
May mga pag-uusap sa UN tungkol sa banta
ng mga mapanganib na autonomous weapons

795
01:02:50,099 --> 01:02:56,564
at ang pagbabawal na gumamit ng AI
para mamili at mag-target ng mga tao.

796
01:02:56,647 --> 01:03:00,777
Malinaw at matunog
ang pinagkasunduan ng mga technologist.

797
01:03:00,860 --> 01:03:04,822
Tutol kami sa mga autonomous
na armas na tao ang target.

798
01:03:05,615 --> 01:03:08,993
Sa loob ng maraming taon, tumutulong
ang estado, tinatalakay ang isyu

799
01:03:09,076 --> 01:03:11,788
ng mapanganib na autonomous weapon system.

800
01:03:12,288 --> 01:03:16,793
Ito ay tungkol sa panlahat
na pakiramdam ng seguridad.

801
01:03:17,710 --> 01:03:20,505
Pero, siyempre, hindi to madali.

802
01:03:21,339 --> 01:03:25,968
Ilang tiyak na bansa,
lalo na ang nasa kapangyarihang militar,

803
01:03:26,052 --> 01:03:27,762
gusto nilang manguna

804
01:03:28,429 --> 01:03:31,599
para manguna sila sa kanilang mga kalaban.

805
01:03:32,600 --> 01:03:36,187
Ang problema, kailangang sumang-ayon
lahat para magawa ito.

806
01:03:36,896 --> 01:03:39,065
May isang bansa na tututol,

807
01:03:39,148 --> 01:03:42,109
at parehong nilinaw
ng United States at Russia

808
01:03:42,193 --> 01:03:46,155
na tutol sila sa isang kasunduan
na magbabawal sa autonomous na armas.

809
01:03:47,198 --> 01:03:53,204
Kung iisipin ang dami ng taong nagtrabaho
para gawing mas malakas ang AI,

810
01:03:54,747 --> 01:03:56,457
sobrang sikip na ng silid na iyon.

811
01:03:57,750 --> 01:04:02,880
Kapag iisipin ang silid na may taong
naninigurado na ligtas ang AI,

812
01:04:04,340 --> 01:04:07,510
mas kakaunti ang tao sa silid na iyon.

813
01:04:11,764 --> 01:04:13,724
Pero di ako nasisiraan ng loob.

814
01:04:16,060 --> 01:04:19,480
Tinitingnan ko ang isang bagay tulad
ng Biological Weapons Convention,

815
01:04:19,564 --> 01:04:22,358
na nangyari sa kalagitnaan ng Cold War,

816
01:04:23,025 --> 01:04:27,655
sa kabila ng tensyon sa pagitan
ng Unyong Sobyet at Estados Unidos.

817
01:04:29,156 --> 01:04:33,536
Napagtanto nila na
ang pagbuo ng mga biyolohikal na armas

818
01:04:33,619 --> 01:04:36,247
ay hindi para sa ikabubuti nila,

819
01:04:36,330 --> 01:04:38,749
at hindi para sa ikabubuti ng mundo.

820
01:04:41,335 --> 01:04:45,214
Mas pabor ang paligsahan sa paggawa
ng armas sa bilis kaysa kaligtasan.

821
01:04:45,715 --> 01:04:48,342
Pero ang mahalagang isaalang-alang ay,

822
01:04:48,426 --> 01:04:52,430
sa isang punto, ang gastos sa mabilis
na paggalaw ay masyadong mataas.

823
01:04:56,225 --> 01:04:59,270
Hindi kami pwedeng gumawa
ng mga bagay nang nakahiwalay

824
01:05:00,021 --> 01:05:06,611
at ilabas nang hindi iniisip
kung saan sila mapupunta sa hinaharap.

825
01:05:07,862 --> 01:05:11,324
Kailangan nating pigilan
ang sandali ng atom bomb.

826
01:05:14,577 --> 01:05:18,205
Malaki ang nakataya sa paligsahan ng AI.

827
01:05:18,289 --> 01:05:22,001
Sa palagay ko, marami ang di nagpapahalaga
sa pandaigdigang katatagan

828
01:05:22,084 --> 01:05:28,174
na ibinibigay ng pagkakaroon
ng mas mataas na puwersang militar

829
01:05:28,257 --> 01:05:31,135
sa nakalipas na 75 taon.

830
01:05:32,887 --> 01:05:35,681
At kaya ang Estados Unidos
at ang ating mga kaalyadong pwersa,

831
01:05:36,557 --> 01:05:39,101
kailangan nilang malagpasan
ang kalabang AI.

832
01:05:43,314 --> 01:05:44,774
Walang pangalawa sa digmaan.

833
01:05:45,524 --> 01:05:49,111
Inilatag ng China ang plano na maging
pandaigdigang lider sa AI sa 2030.

834
01:05:49,195 --> 01:05:51,656
Natatalo ang Amerika sa karerang ito…

835
01:05:52,740 --> 01:05:56,160
Papabilisin mo
ang paggamit ng artificial intelligence

836
01:05:56,243 --> 01:05:59,246
para matiyak ang kalamangan ng militar.

837
01:06:02,875 --> 01:06:05,461
Nakikipag-unahan tayo
gamit ang teknolohiyang ito.

838
01:06:05,544 --> 01:06:08,673
Sa tingin ko ang malabo
ay kung hanggang saan tayo?

839
01:06:09,507 --> 01:06:13,135
Kinokontrol ba natin ang teknolohiya,
o kinokontrol tayo nito?

840
01:06:14,136 --> 01:06:16,973
Wala talagang pagkakataon para umulit.

841
01:06:17,807 --> 01:06:21,394
Kapag nalakabas na ang genie sa bote,
nakalabas na ito.

842
01:06:22,019 --> 01:06:25,189
At napakahirap nang ibalik ito sa loob.

843
01:06:28,609 --> 01:06:32,238
At kung hindi tayo kikilos ngayon
sobrang huli na.

844
01:06:33,114 --> 01:06:34,657
Baka sobrang huli na.



