1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
Bagiku, kecerdasan buatan itu menakjubkan.

4
00:00:28,361 --> 00:00:31,489
Baiklah, berputar-putar. Formasi bagus.

5
00:00:33,116 --> 00:00:36,703
Kecerdasan buatan
berpotensi menghapus kemiskinan,

6
00:00:37,287 --> 00:00:38,705
menciptakan obat baru,

7
00:00:39,289 --> 00:00:41,583
dan membuat dunia kita lebih damai.

8
00:00:46,087 --> 00:00:46,921
Kerja bagus.

9
00:00:49,883 --> 00:00:53,428
Namun, ada banyak risiko dalam prosesnya.

10
00:01:04,731 --> 00:01:07,567
Dengan kecerdasan buatan,
pada dasarnya kita menciptakan

11
00:01:07,650 --> 00:01:11,279
kecerdasan nonmanusia
yang sangat sulit ditebak.

12
00:01:14,365 --> 00:01:16,451
Karena makin kuat kecerdasan buatan,

13
00:01:16,534 --> 00:01:19,746
di mana batasan yang akan kita buat
dengan kecerdasan buatan

14
00:01:19,829 --> 00:01:22,665
perihal cara kita ingin memakainya
atau sebaliknya?

15
00:01:25,001 --> 00:01:28,505
Tidak ada tempat yang lebih pantas
untuk percakapan ini

16
00:01:28,588 --> 00:01:31,049
daripada aplikasi militer.

17
00:01:34,010 --> 00:01:38,890
Medan perang kini telah menjadi
wilayah perangkat lunak dan keras.

18
00:01:41,059 --> 00:01:42,936
Target ditemukan…

19
00:01:43,019 --> 00:01:46,022
Dan militer berlomba mengembangkan
kecerdasan buatan

20
00:01:46,106 --> 00:01:48,399
lebih cepat daripada musuh mereka.

21
00:01:49,526 --> 00:01:50,360
Aku mati.

22
00:01:53,738 --> 00:01:58,326
Kita bergerak cepat menuju dunia
tempat tak hanya militer besar,

23
00:01:58,409 --> 00:02:02,997
tetapi juga aktor nonnegara,
industri swasta,

24
00:02:03,081 --> 00:02:06,042
atau bahkan kepolisian setempat
di ujung jalan

25
00:02:06,543 --> 00:02:10,046
bisa memakai senjata
yang dapat membunuh secara otomat.

26
00:02:12,006 --> 00:02:14,884
Akankah kita menyerahkan
keputusan untuk membunuh

27
00:02:14,968 --> 00:02:17,303
kepada algoritma,
kepada perangkat lunak komputer?

28
00:02:18,638 --> 00:02:21,599
Itu adalah salah satu isu paling mendesak
di zaman kita.

29
00:02:23,893 --> 00:02:26,354
Dan, jika tak digunakan dengan bijak,

30
00:02:26,437 --> 00:02:30,275
itu bisa menimbulkan risiko besar
bagi setiap orang di planet ini.

31
00:03:28,291 --> 00:03:30,168
Kerja bagus, Semuanya.

32
00:03:59,864 --> 00:04:02,200
Itu lensa yang jauh lebih lebar
daripada sebelumnya.

33
00:04:02,283 --> 00:04:03,117
Sungguh?

34
00:04:03,201 --> 00:04:05,703
- Kalian bisa melihat lebih banyak data.
- Keren.

35
00:04:07,538 --> 00:04:11,167
Di Shield AI, kami mengembangkan
pilot kecerdasan buatan

36
00:04:11,251 --> 00:04:14,879
memakai teknologi kecerdasan buatan
yang dapat terbang sendiri

37
00:04:14,963 --> 00:04:16,631
dan memasangnya di pesawat terbang.

38
00:04:19,300 --> 00:04:21,719
Saat membahas pilot kecerdasan buatan,

39
00:04:21,803 --> 00:04:25,223
kita berpikir untuk memberi pesawat
tingkat otomatisasi yang lebih tinggi.

40
00:04:25,723 --> 00:04:27,850
Ia akan memecahkan masalah sendiri.

41
00:04:29,602 --> 00:04:32,355
Nova adalah sebuah quadcopter otomat

42
00:04:32,438 --> 00:04:35,942
yang menjelajah bangunan
dan struktur bawah tanah

43
00:04:36,818 --> 00:04:38,611
dan memandu pasukan pengamanan

44
00:04:38,695 --> 00:04:41,322
sebagai pengintai di ruang itu.

45
00:04:41,906 --> 00:04:45,618
Kalian dapat melihat banyak peningkatan
sejak terakhir kita melihatnya.

46
00:04:45,702 --> 00:04:47,870
Kami mengerjakan
perubahan eksplorasi hari ini.

47
00:04:47,954 --> 00:04:49,789
Kami mengerjakan lantai demi lantai.

48
00:04:50,290 --> 00:04:53,584
Ini akan menyelesaikan satu lantai,
semua ruangannya, sebelum lantai dua.

49
00:04:54,294 --> 00:04:56,796
- Luar biasa.
- Ada beberapa perubahan baru-baru ini…

50
00:04:56,879 --> 00:04:58,548
Banyak orang sering menanyaiku

51
00:04:58,631 --> 00:05:02,468
kenapa kecerdasan buatan merupakan
sebuah kemampuan penting.

52
00:05:02,552 --> 00:05:06,973
Dan aku mengingat kembali
misi yang kujalankan.

53
00:05:09,100 --> 00:05:11,060
Menghabiskan tujuh tahun di Angkatan Laut.

54
00:05:11,561 --> 00:05:15,356
Aku mantan anggota SEAL Angkatan Laut
yang dikirim dua kali ke Afganistan,

55
00:05:15,440 --> 00:05:17,233
sekali ke Teater Pasifik.

56
00:05:18,026 --> 00:05:18,943
Dalam sehari,

57
00:05:19,027 --> 00:05:22,947
kami mungkin harus mengamankan
150 kompleks atau bangunan berbeda.

58
00:05:30,997 --> 00:05:34,250
Salah satu kemampuan inti adalah
pertempuran jarak dekat.

59
00:05:35,293 --> 00:05:39,172
Baku tembak pada jarak yang sangat dekat
di dalam gedung.

60
00:05:41,466 --> 00:05:42,967
Kau ditembaki.

61
00:05:43,468 --> 00:05:46,471
Mungkin ada IED di dalam gedung.

62
00:05:49,015 --> 00:05:55,229
Itu tugas paling berbahaya
bagi anggota pasukan operasi khusus

63
00:05:55,313 --> 00:05:58,358
dan anggota infanteri di zona pertempuran.

64
00:05:58,441 --> 00:05:59,567
Tanpa pengecualian.

65
00:06:12,497 --> 00:06:16,334
Selama sisa hidupku, aku bersyukur
atas waktuku di Angkatan Laut.

66
00:06:17,168 --> 00:06:22,423
Ada kumpulan momen
dan kenangan yang, saat kuingat,

67
00:06:22,507 --> 00:06:24,592
membuatku emosional.

68
00:06:28,346 --> 00:06:32,725
Klise bahwa kebebasan ada harganya,
tetapi aku sangat memercayai itu,

69
00:06:33,559 --> 00:06:37,105
aku sudah mengalaminya,
dan itu butuh banyak pengorbanan.

70
00:06:38,022 --> 00:06:38,856
Maaf.

71
00:06:41,067 --> 00:06:44,570
Saat hal buruk terjadi
kepada salah satu rekan timmu,

72
00:06:44,654 --> 00:06:46,739
entah mereka terluka atau terbunuh,

73
00:06:47,490 --> 00:06:49,700
itu sesuatu yang sangat tragis.

74
00:06:49,784 --> 00:06:52,912
Bagiku sekarang dalam pekerjaan
yang kami lakukan,

75
00:06:52,995 --> 00:06:58,835
itu memotivasi
untuk dapat mengurangi beberapa kali

76
00:06:58,918 --> 00:07:00,336
itu terjadi lagi.

77
00:07:07,176 --> 00:07:08,886
Pada akhir tahun 2000-an,

78
00:07:08,970 --> 00:07:11,556
ada kebangkitan di Departemen Pertahanan

79
00:07:11,639 --> 00:07:15,393
atas apa yang disebut
revolusi robotika tak disengaja.

80
00:07:15,893 --> 00:07:19,564
Kami mengerahkan ribuan robot udara
dan darat ke Irak dan Afganistan.

81
00:07:21,482 --> 00:07:24,026
Saat aku diminta oleh pemerintahan Obama

82
00:07:24,110 --> 00:07:26,404
untuk menjadi wakil menteri pertahanan,

83
00:07:26,904 --> 00:07:31,117
cara perang dihadapi jelas berubah.

84
00:07:32,452 --> 00:07:36,330
Orang-orang menggunakan robot
di tempat yang seharusnya.

85
00:07:37,915 --> 00:07:40,376
Sistem robotika awal
dikendalikan dari jauh.

86
00:07:40,460 --> 00:07:45,173
Ada manusia yang mengoperasikannya
seperti mobil yang dikendalikan dari jauh.

87
00:07:46,632 --> 00:07:51,512
Mereka mulai mengincar
alat peledak terimprovisasi.

88
00:07:52,013 --> 00:07:54,223
Jika bom meledak, robot akan meledak.

89
00:07:57,310 --> 00:08:00,396
Lalu kau berkata, "Sayang sekali.
Baik, keluarkan robot satunya."

90
00:08:02,273 --> 00:08:04,484
Di Afganistan, ada drone Predator

91
00:08:05,276 --> 00:08:09,739
dan itu menjadi alat yang sangat berguna
untuk melakukan serangan udara.

92
00:08:13,117 --> 00:08:16,829
Seiring waktu,
perencana militer mulai bertanya-tanya,

93
00:08:16,913 --> 00:08:20,791
"Apa lagi yang bisa robot lakukan?"
Ke mana arahnya?

94
00:08:20,875 --> 00:08:24,170
Salah satu tema umumnya adalah
tren ke arah otomatisasi yang lebih besar.

95
00:08:26,464 --> 00:08:30,635
Senjata otomat dapat membuat
keputusan sendiri

96
00:08:30,718 --> 00:08:33,304
dengan sedikit
atau tanpa campur tangan manusia.

97
00:08:33,387 --> 00:08:37,558
Jadi, ia memiliki kapasitas mandiri
dan mengarahkan sendiri.

98
00:08:38,434 --> 00:08:41,854
Dan apa ia dapat membunuh
tergantung apa ia bersenjata atau tidak.

99
00:08:43,314 --> 00:08:47,109
Ketika kau punya lebih banyak otomatisasi
di seluruh sistemmu,

100
00:08:47,193 --> 00:08:49,779
semuanya mulai bergerak
pada kecepatan yang lebih tinggi.

101
00:08:51,948 --> 00:08:56,911
Dan ketika kau beroperasi lebih cepat
daripada musuhmu,

102
00:08:57,411 --> 00:09:01,165
itu keuntungan yang luar biasa besar
dalam pertempuran.

103
00:09:03,960 --> 00:09:06,254
Fokus kami terkait otomatisasi adalah

104
00:09:07,255 --> 00:09:09,966
sistem intelijen yang sangat tangguh.

105
00:09:11,968 --> 00:09:15,304
Sistem yang dapat membaca
dan bereaksi berdasarkan lingkungan

106
00:09:15,805 --> 00:09:19,642
serta membuat keputusan
tentang cara bermanuver di dunia tersebut.

107
00:09:24,981 --> 00:09:29,151
Fasilitas yang kami miliki saat ini
awalnya dibangun sebagai studio film

108
00:09:29,235 --> 00:09:30,611
yang diubah

109
00:09:30,695 --> 00:09:34,490
guna menciptakan lingkungan
pelatihan militer yang realistis ini.

110
00:09:39,537 --> 00:09:43,291
Kami di sini untuk mengevaluasi
pilot kecerdasan buatan kami.

111
00:09:44,625 --> 00:09:49,297
Misi untuk mencari ancaman.
Ini tentang pasukan pengamanan.

112
00:09:49,380 --> 00:09:52,800
Ia dapat membuat keputusan
tentang cara menyerang masalah itu.

113
00:09:55,428 --> 00:09:59,390
Kami menyebut ini "jalur fatal".
Kau harus melewati sebuah pintu.

114
00:10:01,684 --> 00:10:03,311
Di sanalah kami paling rentan.

115
00:10:03,811 --> 00:10:05,146
Yang ini lebih baik.

116
00:10:07,148 --> 00:10:10,151
Nova memberi tahu kami,
apa ada penembak di balik pintu itu,

117
00:10:10,818 --> 00:10:12,737
apa ada keluarga di balik pintu itu?

118
00:10:15,072 --> 00:10:18,451
Itu memungkinkan kami membuat
keputusan lebih baik dan jauhkan bahaya.

119
00:10:57,114 --> 00:10:59,367
Kami menggunakan sensor penglihatan

120
00:10:59,450 --> 00:11:03,162
agar dapat memahami
seperti apa sebuah lingkungan.

121
00:11:05,081 --> 00:11:06,415
Ini gedung bertingkat.

122
00:11:07,291 --> 00:11:08,459
Ini petanya.

123
00:11:08,542 --> 00:11:11,671
Saat aku menjelajah, ini yang kulihat
dan di mana aku melihatnya.

124
00:11:19,887 --> 00:11:22,098
Pendeteksi manusia. Luar biasa.

125
00:11:23,974 --> 00:11:27,061
Salah satu sensor lain pada Nova adalah
pemindai termal.

126
00:11:27,561 --> 00:11:30,690
Jika suhunya 37 derajat Celsius,
mungkin itu manusia.

127
00:11:32,441 --> 00:11:35,444
Manusia dianggap ancaman
sampai dianggap sebaliknya.

128
00:11:38,823 --> 00:11:43,244
Ini soal menghilangkan kabut perang
untuk membuat keputusan yang lebih baik.

129
00:11:44,704 --> 00:11:46,539
Dan saat melihat ke masa depan,

130
00:11:47,039 --> 00:11:50,793
kami berantisipasi untuk mengembangkan
tim pesawat otomat.

131
00:11:53,754 --> 00:11:55,631
Dengan kendaraan swakemudi,

132
00:11:55,715 --> 00:11:59,802
pada akhirnya orang bisa berkata,
"Pergilah dari titik A ke titik B."

133
00:12:02,930 --> 00:12:06,434
Sistem kami diminta
untuk tak pergi dari titik A ke titik B,

134
00:12:06,517 --> 00:12:07,893
tetapi mencapai tujuan.

135
00:12:10,312 --> 00:12:13,274
Itu lebih seperti, "Aku butuh susu."

136
00:12:13,774 --> 00:12:17,486
Lalu robot harus mencari tahu
toko kelontong mana yang dituju,

137
00:12:17,570 --> 00:12:20,239
mendapatkan susu itu,
lalu membawanya kembali.

138
00:12:20,740 --> 00:12:22,074
Lebih daripada itu,

139
00:12:22,158 --> 00:12:26,996
mungkin lebih tepat dinyatakan sebagai,
"Penuhi lemari esnya."

140
00:12:27,496 --> 00:12:29,165
Jadi, ini adalah tingkat kecerdasan

141
00:12:29,248 --> 00:12:32,168
dalam hal mencari tahu
apa yang dibutuhkan dan cara melakukannya.

142
00:12:32,251 --> 00:12:34,211
Jika ada tantangan, kesulitan,

143
00:12:34,295 --> 00:12:37,381
atau isu yang muncul,
cari cara untuk meringankannya.

144
00:12:40,760 --> 00:12:45,431
Saat memutuskan untuk meninggalkan
Angkatan Laut, aku mulai berpikir,

145
00:12:45,514 --> 00:12:47,558
"Baiklah. Apa selanjutnya?"

146
00:12:49,059 --> 00:12:52,021
Aku besar dengan Internet.
Melihat perkembangannya.

147
00:12:53,189 --> 00:12:56,025
Dan bagian dari kesimpulan
yang kucapai ialah

148
00:12:56,108 --> 00:12:58,861
kecerdasan buatan pada tahun 2015

149
00:12:58,944 --> 00:13:02,907
sama seperti Internet pada tahun 1991.

150
00:13:03,991 --> 00:13:06,368
Dan kecerdasan buatan siap
untuk lepas landas

151
00:13:06,452 --> 00:13:09,747
dan menjadi salah satu teknologi terkuat
di dunia.

152
00:13:11,791 --> 00:13:16,045
Bekerja dengan itu setiap hari,
aku bisa melihat kemajuan yang dibuat.

153
00:13:19,006 --> 00:13:20,466
Namun, bagi banyak orang,

154
00:13:20,549 --> 00:13:22,468
saat mereka memikirkan
"kecerdasan buatan",

155
00:13:22,551 --> 00:13:25,221
pikiran mereka langsung tertuju
ke Hollywood.

156
00:13:28,057 --> 00:13:29,975
Mau bermain gim?

157
00:13:30,559 --> 00:13:35,314
Bagaimana kalau Perang Termonuklir Global?

158
00:13:35,898 --> 00:13:36,816
Baik.

159
00:13:38,275 --> 00:13:40,861
Saat orang memikirkan kecerdasan buatan,

160
00:13:40,945 --> 00:13:44,824
mereka mungkin memikirkan
The Terminator atau I, Robot.

161
00:13:45,574 --> 00:13:46,700
Nonaktifkan.

162
00:13:46,784 --> 00:13:48,160
Aku ini apa?

163
00:13:48,244 --> 00:13:49,620
Atau The Matrix.

164
00:13:51,080 --> 00:13:53,749
Berdasarkan yang kau lihat
di film fiksi ilmiah,

165
00:13:53,833 --> 00:13:57,878
bagaimana kau tahu aku manusia?
Bisa jadi aku kecerdasan buatan komputer.

166
00:13:58,379 --> 00:14:02,132
Replicant itu seperti mesin biasa.
Bisa menguntungkan atau membahayakan.

167
00:14:02,716 --> 00:14:06,095
Namun, ada banyak jenis kecerdasan buatan
yang lebih primitif,

168
00:14:06,178 --> 00:14:08,097
yang masih akan mengubah hidup kita

169
00:14:08,180 --> 00:14:11,851
sebelum kita mencapai
tahap robot yang berpikir dan berbicara.

170
00:14:12,643 --> 00:14:15,771
Robot sudah ada. Robot membuat keputusan.

171
00:14:15,855 --> 00:14:18,816
Revolusi robot telah tiba,

172
00:14:18,899 --> 00:14:22,319
tetapi tak seperti bayangan orang-orang.

173
00:14:23,320 --> 00:14:26,740
Terminator adalah unit penyusup.
Separuh manusia, separuh mesin.

174
00:14:27,950 --> 00:14:31,370
Kita tak membicarakan
robot pembunuh ala Terminator.

175
00:14:31,871 --> 00:14:35,332
Kita membicarakan kecerdasan buatan
yang dapat melaksanakan tugas manusia.

176
00:14:36,041 --> 00:14:39,879
Namun, kekhawatirannya adalah
apakah sistem ini dapat diandalkan.

177
00:14:40,462 --> 00:14:45,426
Detail baru dalam kecelakaan maut semalam
yang melibatkan Uber SUV swakemudi.

178
00:14:45,509 --> 00:14:48,762
Perusahaan menciptakan
bot obrolan kecerdasan buatan.

179
00:14:48,846 --> 00:14:51,181
Dia bicara agak rasis…

180
00:14:51,265 --> 00:14:55,394
Dua puluh enam legislator negara bagian
salah diidentifikasi sebagai penjahat.

181
00:14:57,438 --> 00:14:58,480
Pertanyaannya adalah

182
00:14:58,564 --> 00:15:01,984
apakah mereka dapat menangani
kerumitan dunia nyata.

183
00:15:22,212 --> 00:15:24,006
Dunia fisik sangat kacau.

184
00:15:25,174 --> 00:15:27,426
Ada banyak hal yang tak kita ketahui,

185
00:15:27,927 --> 00:15:30,930
membuatnya lebih sulit
untuk melatih sistem kecerdasan buatan.

186
00:15:33,057 --> 00:15:36,977
Di situlah sistem pembelajaran mesin
mulai ada.

187
00:15:38,520 --> 00:15:41,440
Pembelajaran mesin telah mengalami
kemajuan besar

188
00:15:42,024 --> 00:15:45,611
karena itu berarti kita tak perlu ajarkan
komputer segalanya.

189
00:15:47,905 --> 00:15:52,409
Kau memberi komputer jutaan informasi

190
00:15:52,493 --> 00:15:54,453
dan mesin mulai belajar.

191
00:15:55,245 --> 00:15:57,289
Itu dapat diterapkan kepada apa pun.

192
00:16:00,167 --> 00:16:02,962
Proyek Anjing Robot kami,
kami mencoba menunjukkan

193
00:16:03,045 --> 00:16:09,009
bahwa anjing kami bisa berjalan melintasi
banyak medan yang beragam.

194
00:16:10,052 --> 00:16:14,098
Manusia telah berevolusi
selama miliaran tahun untuk berjalan,

195
00:16:14,932 --> 00:16:17,935
tetapi ada banyak kecerdasan
dalam beradaptasi

196
00:16:18,018 --> 00:16:20,688
dengan medan yang berbeda ini.

197
00:16:21,939 --> 00:16:24,316
Yang masih jadi pertanyaan
soal sistem robot adalah

198
00:16:24,400 --> 00:16:27,069
bisakah robot juga beradaptasi
seperti hewan dan manusia?

199
00:16:35,953 --> 00:16:37,413
Dengan pembelajaran mesin,

200
00:16:37,496 --> 00:16:40,582
kami mengumpulkan
banyak data dalam simulasi.

201
00:16:42,626 --> 00:16:45,838
Simulasi adalah
kembaran digital dari realitas.

202
00:16:46,588 --> 00:16:52,052
Kita bisa membuat banyak contoh kenyataan
berjalan di komputer yang berbeda.

203
00:16:53,137 --> 00:16:56,974
Ia membuat sampel ribuan aksi
dalam simulasi.

204
00:16:58,892 --> 00:17:02,229
Permukaan yang mereka hadapi
memiliki kelicinan yang berbeda.

205
00:17:02,312 --> 00:17:03,981
Ada kelembutan yang berbeda.

206
00:17:04,857 --> 00:17:08,318
Kami mengambil
semua pengalaman ribuan robot ini

207
00:17:08,402 --> 00:17:13,282
dari simulasi dan mengunduh ini
ke sistem robot nyata.

208
00:17:15,492 --> 00:17:20,122
Tes hari ini bertujuan untuk melihat
apa ia bisa beradaptasi dengan medan baru.

209
00:17:53,197 --> 00:17:55,491
Saat robot berjalan melewati busa,

210
00:17:55,574 --> 00:17:58,577
gerakan kakinya mengentak tanah.

211
00:17:59,411 --> 00:18:02,206
Dibandingkan saat berjalan
di permukaan poliester,

212
00:18:03,248 --> 00:18:06,502
ia mencoba menyesuaikan gerakannya
agar tak tergelincir.

213
00:18:08,670 --> 00:18:10,672
Saat itulah kau sadar,

214
00:18:10,756 --> 00:18:13,717
"Inilah yang ditawarkan
pembelajaran mesin."

215
00:18:41,120 --> 00:18:44,123
Kami berpikir
Anjing Robot bisa sangat membantu

216
00:18:44,206 --> 00:18:46,166
dalam skenario tanggap bencana

217
00:18:46,250 --> 00:18:49,670
ketika kau harus menavigasi
berbagai jenis medan.

218
00:18:52,631 --> 00:18:57,469
Atau memerintahkan anjing-anjing ini
untuk mengawasi di lingkungan ekstrem.

219
00:19:15,696 --> 00:19:19,575
Namun, sebagian besar teknologi
menghadapi tantangan

220
00:19:19,658 --> 00:19:22,369
bahwa ada hal baik dan buruk
yang dapat mereka lakukan.

221
00:19:24,037 --> 00:19:27,875
Misalnya, kita dapat menggunakan
teknologi nuklir untuk energi…

222
00:19:30,377 --> 00:19:33,881
tetapi kita juga dapat mengembangkan
bom atom dan itu sangat buruk.

223
00:19:35,048 --> 00:19:38,468
Inilah yang dikenal
sebagai masalah fungsi ganda.

224
00:19:39,052 --> 00:19:40,929
Api adalah fungsi ganda.

225
00:19:41,722 --> 00:19:44,308
Kecerdasan manusia adalah fungsi ganda.

226
00:19:44,391 --> 00:19:48,645
Jadi, tentu saja,
kecerdasan buatan juga fungsi ganda.

227
00:19:49,354 --> 00:19:53,984
Sangat penting untuk memikirkan
penggunaan kecerdasan buatan dalam konteks

228
00:19:54,693 --> 00:19:59,114
karena, ya, luar biasa bahwa ada
robot pencari dan penyelamat

229
00:19:59,198 --> 00:20:02,284
yang dapat membantu menemukan seseorang
setelah longsor,

230
00:20:02,868 --> 00:20:05,871
tetapi robot itu juga dapat dipersenjatai.

231
00:20:15,088 --> 00:20:21,094
Saat kau melihat
perusahaan memakai robot bersenjata,

232
00:20:21,178 --> 00:20:22,930
sebagian dirimu jadi marah.

233
00:20:23,931 --> 00:20:28,435
Sebagiannya lagi adalah kesadaran
bahwa saat kita menggunakan teknologi,

234
00:20:28,518 --> 00:20:30,145
inilah yang akan terjadi.

235
00:20:31,021 --> 00:20:34,441
Ini adalah teknologi transformatif nyata.

236
00:20:36,235 --> 00:20:38,028
Ini adalah sistem persenjataan

237
00:20:38,111 --> 00:20:43,617
yang dapat mengubah keselamatan
dan keamanan kita secara dramatis.

238
00:20:46,161 --> 00:20:52,417
Saat ini, kita tak yakin
mesin dapat benar-benar membedakan

239
00:20:52,501 --> 00:20:54,962
antara warga sipil dan petempur.

240
00:21:01,760 --> 00:21:05,597
Di awal peperangan di Afganistan, aku dulu
bagian dari tim penembak runduk Ranger AS,

241
00:21:05,681 --> 00:21:08,016
mengawasi musuh yang melewati perbatasan.

242
00:21:09,643 --> 00:21:12,688
Mereka mengirim gadis kecil
untuk mengintai posisi kami.

243
00:21:13,939 --> 00:21:17,067
Satu hal yang tak pernah terpikirkan
ialah menembak gadis ini.

244
00:21:19,695 --> 00:21:22,864
Di bawah hukum perang,
itu seharusnya legal.

245
00:21:24,950 --> 00:21:27,369
Mereka tak menetapkan usia
bagi petempur musuh.

246
00:21:29,079 --> 00:21:33,417
Jika kau menciptakan robot
untuk mematuhi hukum perang,

247
00:21:33,500 --> 00:21:35,335
ia akan menembak gadis kecil ini.

248
00:21:36,420 --> 00:21:41,091
Bagaimana robot tahu perbedaan
antara apa yang legal dan benar?

249
00:21:43,385 --> 00:21:46,054
Saat itu menyangkut
perang drone otomat,

250
00:21:46,138 --> 00:21:49,933
mereka ingin menghilangkan bahaya
yang ditimbulkannya pada tentara Amerika

251
00:21:50,017 --> 00:21:51,601
dan jiwa Amerika,

252
00:21:52,602 --> 00:21:57,149
tetapi peningkatan korban sipil terjadi
kepada warga Afganistan,

253
00:21:57,232 --> 00:21:58,775
Irak, dan Somalia.

254
00:22:09,578 --> 00:22:14,416
Aku akan menanyai mereka yang mendukung
kecerdasan buatan pada drone,

255
00:22:15,292 --> 00:22:17,627
"Bagaimana jika desa kalian jadi korban?"

256
00:22:23,550 --> 00:22:26,094
Kecerdasan buatan adalah
pedang bermata dua.

257
00:22:26,595 --> 00:22:30,724
Itu dapat digunakan untuk kebaikan,
yang biasanya kami manfaatkan untuk itu,

258
00:22:31,558 --> 00:22:33,477
dan dalam sekejap,

259
00:22:34,561 --> 00:22:38,023
teknologi berpotensi menjadi
sesuatu yang bisa mematikan.

260
00:22:38,106 --> 00:22:40,233
RALEIGH
CAROLINA UTARA

261
00:22:46,948 --> 00:22:48,533
Aku seorang farmasis klinis.

262
00:22:49,576 --> 00:22:50,994
Aku punya tim

263
00:22:51,078 --> 00:22:54,247
yang menggunakan kecerdasan buatan
untuk menemukan obat

264
00:22:54,331 --> 00:22:57,834
yang akan menyembuhkan
penyakit yang tak mendapat perhatian.

265
00:22:59,711 --> 00:23:04,132
Dahulu dengan penemuan obat,
kau mengambil molekul yang ada

266
00:23:04,216 --> 00:23:06,885
dan mengembangkannya
untuk mendapatkan obat baru.

267
00:23:08,220 --> 00:23:13,392
Kini kami mengembangkan kecerdasan buatan
yang dapat memberi kami jutaan ide,

268
00:23:13,892 --> 00:23:15,227
jutaan molekul,

269
00:23:16,186 --> 00:23:19,231
dan itu membuka begitu banyak kemungkinan

270
00:23:19,314 --> 00:23:22,567
untuk mengobati penyakit
yang belum pernah diobati.

271
00:23:25,153 --> 00:23:28,448
Namun, jelas ada sisi gelap
yang tak pernah terpikirkan

272
00:23:28,532 --> 00:23:29,741
untuk kulakukan.

273
00:23:33,161 --> 00:23:35,872
Semua ini dimulai saat aku diundang

274
00:23:35,956 --> 00:23:40,043
oleh organisasi dari Swiss bernama
Spiez Laboratory

275
00:23:40,544 --> 00:23:44,423
untuk mempresentasikan
potensi penyalahgunaan kecerdasan buatan.

276
00:23:48,385 --> 00:23:51,221
Sean baru saja mengirimiku
surel berisi gagasan

277
00:23:51,304 --> 00:23:55,308
tentang beberapa cara
penyalahgunaan kecerdasan buatan.

278
00:23:56,059 --> 00:24:00,355
Alih-alih meminta model kami
untuk membuat molekul mirip obat,

279
00:24:00,439 --> 00:24:02,274
untuk mengobati penyakit,

280
00:24:02,774 --> 00:24:06,403
mari lihat apa kami bisa menghasilkan
molekul paling beracun.

281
00:24:10,115 --> 00:24:13,243
Aku ingin menegaskan, bisakah kami memakai
teknologi kecerdasan buatan

282
00:24:13,326 --> 00:24:15,620
untuk merancang molekul yang mematikan?

283
00:24:17,414 --> 00:24:20,083
Sejujurnya, kami berpikir itu akan gagal

284
00:24:20,167 --> 00:24:24,504
karena yang kami lakukan hanyalah mengubah
angka nol menjadi satu.

285
00:24:26,673 --> 00:24:30,385
Dan dengan mengubahnya,
alih-alih menjauh dari racun,

286
00:24:30,469 --> 00:24:32,220
kini kami menuju ke arahnya.

287
00:24:32,721 --> 00:24:33,555
Begitulah.

288
00:24:37,517 --> 00:24:40,729
Saat aku di rumah, komputer bekerja.

289
00:24:41,480 --> 00:24:44,816
Ia melakukan tugasnya,
menghasilkan ribuan molekul,

290
00:24:45,609 --> 00:24:49,529
dan kami tak perlu melakukan apa pun
selain hanya menekan "mulai".

291
00:24:54,493 --> 00:24:58,330
Keesokan paginya,
ada sebuah fail di komputerku

292
00:24:59,080 --> 00:25:03,376
dan di dalamnya ada sekitar 40.000 molekul

293
00:25:03,460 --> 00:25:05,253
yang bisa jadi

294
00:25:05,337 --> 00:25:08,882
beberapa molekul paling beracun
yang diketahui oleh manusia.

295
00:25:10,217 --> 00:25:12,761
Bulu-bulu di belakang leherku berdiri.

296
00:25:13,345 --> 00:25:14,346
Aku terkejut.

297
00:25:15,388 --> 00:25:18,308
Komputer membuat puluhan ribu ide

298
00:25:19,017 --> 00:25:20,685
untuk senjata kimia baru.

299
00:25:21,645 --> 00:25:26,274
Jelas, kita punya molekul yang serupa
dan merupakan analog VX dan VX

300
00:25:26,775 --> 00:25:27,609
di kumpulan data.

301
00:25:28,360 --> 00:25:31,363
VX adalah salah satu senjata kimia terkuat
di dunia.

302
00:25:31,863 --> 00:25:33,573
Klaim baru dari polisi

303
00:25:33,657 --> 00:25:37,786
bahwa wanita yang terlihat menyerang
Kim Jong-nam dalam pembunuhan di bandara

304
00:25:37,869 --> 00:25:41,206
menggunakan agen saraf mematikan
yang disebut VX.

305
00:25:41,706 --> 00:25:44,543
Itu bisa menyebabkan kematian
karena sesak napas.

306
00:25:45,043 --> 00:25:47,629
Itu adalah molekul yang sangat kuat

307
00:25:47,712 --> 00:25:52,092
dan sebagian besar molekul ini diprediksi
lebih mematikan daripada VX.

308
00:25:53,385 --> 00:25:56,972
Sebagian besar molekul tersebut,
sepengetahuan kami, belum pernah dilihat.

309
00:25:57,472 --> 00:26:02,310
Jadi, saat Sean dan aku menyadari ini,
kami berpikir, "Apa yang kami lakukan?"

310
00:26:04,771 --> 00:26:09,192
Aku segera menyadari
bahwa kami telah membuka kotak Pandora

311
00:26:09,859 --> 00:26:12,696
dan aku berkata, "Berhenti.
Jangan lakukan apa pun lagi. Cukup.

312
00:26:13,905 --> 00:26:17,158
Buat salindia yang kubutuhkan
untuk presentasi."

313
00:26:19,202 --> 00:26:23,623
Dalam eksperimen ini, aku berpikir,
"Apa hal terburuk yang mungkin terjadi?"

314
00:26:26,209 --> 00:26:30,297
Namun, sekarang aku berkata, "Kami naif.
Kami sangat naif dalam melakukannya."

315
00:26:33,383 --> 00:26:37,012
Yang paling kutakutkan ialah siapa pun
bisa melakukan apa yang kami lakukan.

316
00:26:38,930 --> 00:26:40,765
Hanya perlu mengubahnya.

317
00:26:42,892 --> 00:26:46,187
Bagaimana kita mengendalikan
teknologi ini sebelum digunakan

318
00:26:46,271 --> 00:26:50,942
untuk mungkin melakukan sesuatu
yang sangat merusak?

319
00:26:55,780 --> 00:27:00,285
Inti pembahasan seputar kecerdasan buatan

320
00:27:00,368 --> 00:27:03,538
dan bagaimana kita menggunakannya
di masyarakat

321
00:27:04,289 --> 00:27:06,791
ialah persaingan antara kekuatan,

322
00:27:06,875 --> 00:27:08,835
yang dengannya
kita mengembangkan teknologi

323
00:27:08,918 --> 00:27:11,379
dan kebijaksanaan yang kita miliki
untuk mengaturnya.

324
00:27:13,298 --> 00:27:16,843
Ada implikasi moral dan etika yang jelas

325
00:27:16,926 --> 00:27:20,138
dari hal yang sama
yang menggerakkan ponsel cerdas kita

326
00:27:20,221 --> 00:27:23,433
dipercayakan dengan keputusan moral
untuk merenggut nyawa.

327
00:27:25,644 --> 00:27:28,146
Aku bekerja
dengan Future of Life Institute,

328
00:27:28,229 --> 00:27:31,274
sebuah komunitas aktivis ilmuwan.

329
00:27:31,775 --> 00:27:33,443
Kami berusaha menunjukkan

330
00:27:33,526 --> 00:27:38,698
bahwa ada sisi lain guna mempercepat
dan meningkatkan otomatisasi.

331
00:27:38,782 --> 00:27:42,619
Namun, kami berusaha memastikan
bahwa teknologi yang kami ciptakan

332
00:27:42,702 --> 00:27:45,038
digunakan secara aman dan etis.

333
00:27:46,247 --> 00:27:51,211
Mari bahas aturan keterlibatan
dan kode etik

334
00:27:51,294 --> 00:27:54,297
dalam kecerdasan buatan
di seluruh sistem persenjataan kita.

335
00:27:54,798 --> 00:27:59,135
Karena kita sekarang melihat
teknologi "masuk ke medan perang"

336
00:27:59,219 --> 00:28:01,680
yang dapat digunakan
untuk membunuh secara otomat.

337
00:28:10,230 --> 00:28:15,110
Pada tahun 2021, PBB merilis
laporan tentang potensi penggunaan

338
00:28:15,193 --> 00:28:19,364
senjata otomat mematikan
di medan perang di Libya.

339
00:28:20,073 --> 00:28:23,910
Panel PBB mengatakan drone yang terbang
dalam perang saudara Libya tahun lalu

340
00:28:23,993 --> 00:28:27,330
telah diprogram untuk menyerang target
secara otomat.

341
00:28:28,289 --> 00:28:31,209
Jika laporan PBB akurat,

342
00:28:31,292 --> 00:28:34,921
ini akan menjadi
titik balik bagi umat manusia

343
00:28:35,004 --> 00:28:37,090
karena itu menandai kasus penggunaan

344
00:28:37,173 --> 00:28:42,137
ketika kecerdasan buatan membuat keputusan
untuk membunuh tanpa kontrol manusia.

345
00:28:49,686 --> 00:28:51,688
Kau melihat senjata otomat canggih

346
00:28:51,771 --> 00:28:55,150
mulai digunakan
di berbagai tempat di seluruh dunia.

347
00:28:56,276 --> 00:28:58,278
Ada laporan dari Israel.

348
00:29:00,280 --> 00:29:05,702
Azerbaijan menggunakan sistem otomat
guna menyasar pertahanan udara Armenia.

349
00:29:07,370 --> 00:29:09,998
Ia mampu terbang
di medan perang selama berjam-jam,

350
00:29:10,081 --> 00:29:12,459
mencari target untuk diserang
secara otomat,

351
00:29:12,542 --> 00:29:16,087
lalu menyerang mereka
tanpa campur tangan manusia.

352
00:29:16,796 --> 00:29:21,760
Dan baru-baru ini kita melihat
video berbeda yang diunggah di Ukraina.

353
00:29:23,094 --> 00:29:26,848
Tidak jelas mode apa yang mereka gunakan
saat beroperasi.

354
00:29:26,931 --> 00:29:30,393
Apa ada campur tangan manusia,
yang memilih target serangan,

355
00:29:30,477 --> 00:29:32,604
atau apa mesin melakukannya sendiri?

356
00:29:33,104 --> 00:29:36,524
Namun, pasti akan tiba saatnya,

357
00:29:36,608 --> 00:29:40,195
entah itu sudah terjadi di Libya,
Ukraina, atau di tempat lain,

358
00:29:40,779 --> 00:29:44,449
saat mesin membuat keputusan sendiri
untuk bunuh target tertentu saat perang.

359
00:29:47,035 --> 00:29:50,997
Mesin menggunakan
kekuatan mematikan terhadap manusia

360
00:29:51,080 --> 00:29:53,374
tanpa campur tangan manusia

361
00:29:53,458 --> 00:29:57,337
secara politik tidak dapat diterima
dan secara moral ditentang.

362
00:29:59,047 --> 00:30:04,969
Apakah komunitas internasional akan cukup
untuk mengatasi tantangan itu

363
00:30:05,053 --> 00:30:06,888
adalah tanda tanya besar.

364
00:30:08,932 --> 00:30:12,685
Jika kita melihat ke masa depan,
bahkan hanya beberapa tahun dari sekarang,

365
00:30:12,769 --> 00:30:15,730
seperti apa pemandangannya
sangatlah menakutkan,

366
00:30:16,564 --> 00:30:20,485
mengingat jumlah sumber daya modal
dan manusia

367
00:30:20,568 --> 00:30:23,404
untuk membuat kecerdasan buatan lebih kuat

368
00:30:23,488 --> 00:30:26,950
dan menerapkannya ke berbagai hal
sangatlah besar.

369
00:30:39,254 --> 00:30:41,256
Astaga, orang ini.

370
00:30:41,756 --> 00:30:43,550
Dia tahu dia tak bisa menang.

371
00:30:46,636 --> 00:30:51,099
Saat aku melihat kecerdasan buatan menang
di berbagai masalah, itu menginspirasi.

372
00:30:51,683 --> 00:30:53,393
Hanya bisa berdoa dan pasrah.

373
00:30:54,352 --> 00:30:59,524
Dan kau bisa menerapkan taktik, teknik,
dan prosedur serupa ke pesawat sungguhan.

374
00:31:01,401 --> 00:31:02,318
Permainan bagus.

375
00:31:02,402 --> 00:31:03,987
Baiklah, permainan yang bagus.

376
00:31:08,658 --> 00:31:09,909
Bagiku, itu mengejutkan

377
00:31:09,993 --> 00:31:14,080
bahwa orang terus menyatakan apa
yang tak bisa dilakukan kecerdasan buatan,

378
00:31:14,163 --> 00:31:16,583
misal, "Ia takkan bisa mengalahkan
juara dunia catur."

379
00:31:20,211 --> 00:31:22,672
Sebuah komputer IBM membalikkan keadaan

380
00:31:22,755 --> 00:31:25,925
dalam permainan kedua
melawan juara catur dunia, Garry Kasparov.

381
00:31:28,136 --> 00:31:30,847
Kasparov menyerah!

382
00:31:31,598 --> 00:31:34,642
Saat melihat sesuatu di luar pemahamanku,

383
00:31:34,726 --> 00:31:38,062
aku takut.
Itu sesuatu di luar pemahamanku.

384
00:31:39,355 --> 00:31:41,107
Lalu orang-orang berkata,

385
00:31:41,190 --> 00:31:44,402
"Ia takkan pernah bisa mengalahkan
juara dunia go."

386
00:31:44,485 --> 00:31:50,700
Aku percaya intuisi manusia lebih baik
dibanding kecerdasan buatan

387
00:31:50,783 --> 00:31:52,827
untuk mengejar ketinggalan.

388
00:31:55,288 --> 00:31:58,416
Go adalah salah satu permainan tersulit
yang bisa dipelajari siapa pun

389
00:31:58,499 --> 00:32:02,211
karena jumlah langkah di papan,
ketika kau menghitungnya,

390
00:32:02,295 --> 00:32:05,256
sama dengan lebih banyak atom
daripada di seluruh alam semesta.

391
00:32:06,799 --> 00:32:08,968
Ada sebuah tim di Google bernama DeepMind

392
00:32:09,052 --> 00:32:11,471
dan mereka menciptakan
program bernama AlphaGo

393
00:32:11,554 --> 00:32:14,265
untuk bisa mengalahkan
pemain terbaik dunia.

394
00:32:16,559 --> 00:32:18,394
Selamat kepada…

395
00:32:18,478 --> 00:32:19,437
- AlphaGo.
- AlphaGo.

396
00:32:19,520 --> 00:32:22,815
Program komputer baru saja mengalahkan
profesional 9 dan.

397
00:32:25,610 --> 00:32:31,532
Lalu DeepMind memilih StarCraft
sebagai tantangan kecerdasan buatan.

398
00:32:33,701 --> 00:32:38,081
StarCraft mungkin gim strategi waktu nyata
paling populer sepanjang masa.

399
00:32:40,333 --> 00:32:44,712
AlphaStar menjadi terkenal
saat mulai mengalahkan para juara dunia.

400
00:32:45,338 --> 00:32:48,800
AlphaStar benar-benar menghancurkan
Immortal Arc.

401
00:32:48,883 --> 00:32:49,717
Kau tahu?

402
00:32:49,801 --> 00:32:52,553
Ini bukan peperangan
yang dapat dimenangkan para profesional.

403
00:32:53,680 --> 00:32:54,806
Ini agak konyol.

404
00:32:57,642 --> 00:33:00,895
Pemain gim profesional berkata,
"Aku takkan pernah mencoba taktik itu.

405
00:33:00,979 --> 00:33:04,816
Aku takkan pernah mencoba strategi itu.
Itu sesuatu yang bukan manusia."

406
00:33:07,151 --> 00:33:10,655
Dan itu mungkin adalah
momen yang mencelikkan bagiku.

407
00:33:13,574 --> 00:33:16,661
Aku pun sadar inilah waktunya.

408
00:33:17,412 --> 00:33:21,082
Ada sebuah teknologi penting
dan peluang untuk membuat perbedaan.

409
00:33:24,502 --> 00:33:29,382
Aku hanya tahu masalah yang kuhadapi
sebagai anggota petempur jarak dekat SEAL,

410
00:33:30,383 --> 00:33:34,470
tetapi salah satu kawan baikku,
seorang pilot F-18, berkata,

411
00:33:35,054 --> 00:33:37,724
"Kami punya masalah yang sama
di komunitas jet tempur.

412
00:33:37,807 --> 00:33:39,434
Mereka mengganggu komunikasi.

413
00:33:39,517 --> 00:33:44,439
Ada banyak situs rudal darat-ke-udara
yang membuat operasi terlalu berbahaya."

414
00:33:47,483 --> 00:33:50,987
Bayangkan jika kita punya jet tempur
yang diperintah kecerdasan buatan.

415
00:33:51,070 --> 00:33:52,739
Selamat datang di uji AlphaDogfight.

416
00:33:52,822 --> 00:33:56,159
Kita beberapa menit
sebelum semifinal pertama.

417
00:33:56,242 --> 00:33:59,871
DARPA, Defense
Advanced Research Projects Agency,

418
00:33:59,954 --> 00:34:03,624
telah melihat AlphaGo dan AlphaStar

419
00:34:04,292 --> 00:34:08,171
sehingga gagasan kompetisi AlphaDogfight
menjadi nyata.

420
00:34:09,088 --> 00:34:11,466
Ini pilot pesawat tempur
yang ingin kau lihat.

421
00:34:11,549 --> 00:34:13,593
Ini seperti dogfighting manusia.

422
00:34:15,595 --> 00:34:19,057
Dogfighting adalah adu pesawat tempur.

423
00:34:19,849 --> 00:34:23,269
Kau bisa menganggapnya
sebagai pertandingan tinju di langit.

424
00:34:23,853 --> 00:34:26,314
Mungkin orang-orang sudah menonton
Top Gun.

425
00:34:26,397 --> 00:34:27,815
Bisa lebih cepat dari mereka?

426
00:34:28,649 --> 00:34:30,068
Bukan misil dan senjata mereka.

427
00:34:30,151 --> 00:34:31,277
Kalau begitu dogfight.

428
00:34:35,531 --> 00:34:38,201
Belajar menguasai dogfighting
bisa memakan waktu

429
00:34:38,284 --> 00:34:39,786
delapan sampai sepuluh tahun.

430
00:34:42,288 --> 00:34:46,375
Itu tantangan yang sangat rumit
untuk mengembangkan kecerdasan buatan.

431
00:34:54,008 --> 00:34:58,721
Pendekatan sebelumnya terhadap otomatisasi
dan dogfighting cenderung rapuh.

432
00:34:59,222 --> 00:35:03,017
Kami baru mengetahui pembelajaran mesin
mungkin cara untuk memecahkan masalah ini.

433
00:35:04,435 --> 00:35:08,189
Awalnya kecerdasan buatan tak tahu apa-apa
tentang dunia tempat ia ditempatkan.

434
00:35:08,272 --> 00:35:11,025
Ia tak tahu ia terbang
atau apa itu pertempuran udara.

435
00:35:11,109 --> 00:35:12,735
Ia tak tahu apa itu F-16.

436
00:35:13,236 --> 00:35:16,155
Yang ia tahu hanyalah
tindakan yang bisa ia ambil

437
00:35:16,239 --> 00:35:18,407
dan ia akan mulai menjelajah itu
secara acak.

438
00:35:19,325 --> 00:35:23,204
Pesawat biru baru berlatih sebentar.

439
00:35:23,287 --> 00:35:25,832
Kau bisa melihatnya bergerak maju mundur,

440
00:35:26,541 --> 00:35:30,545
terbang dengan sangat tak menentu,
umumnya menjauh dari musuhnya.

441
00:35:31,587 --> 00:35:32,755
Selama pertempuran,

442
00:35:32,839 --> 00:35:36,259
kita bisa melihat biru mulai membuat
rencana permainannya.

443
00:35:36,759 --> 00:35:38,678
Ia mulai membuat posisi menembak.

444
00:35:39,178 --> 00:35:41,305
Sesekali, algoritma pembelajaran berkata,

445
00:35:41,389 --> 00:35:43,891
"Ambil kukis ini. Terus lakukan itu."

446
00:35:45,226 --> 00:35:49,147
Kita bisa memanfaatkan kekuatan komputer
dan melatih para agen berkali-kali

447
00:35:49,230 --> 00:35:50,064
secara paralel.

448
00:35:51,357 --> 00:35:52,775
Seperti tim basket.

449
00:35:53,276 --> 00:35:55,778
Alih-alih terus-menerus memainkan
tim yang sama,

450
00:35:55,862 --> 00:35:59,198
kita berkeliling dunia
memainkan 523 tim berbeda,

451
00:35:59,699 --> 00:36:00,992
semua bersamaan.

452
00:36:01,492 --> 00:36:03,578
Kau bisa jadi sangat pandai, sangat cepat.

453
00:36:04,162 --> 00:36:07,456
Kami bisa menjalankan simulasi itu 24/7

454
00:36:07,540 --> 00:36:11,919
dan mendapatkan waktu pelatihan pilot
selama 30 tahun dalam 10 bulan.

455
00:36:12,879 --> 00:36:15,673
Kami berubah dari nyaris
tak bisa mengendalikan pesawat

456
00:36:15,756 --> 00:36:17,717
menjadi pembunuh keji.

457
00:36:19,010 --> 00:36:23,139
Di bawah pelatihan, kami hanya bersaing
dengan kecerdasan buatan lain.

458
00:36:24,473 --> 00:36:28,561
Namun, bersaing melawan manusia
secara langsung adalah target utama.

459
00:36:34,192 --> 00:36:35,610
Namaku Mike Benitez.

460
00:36:36,110 --> 00:36:38,487
Aku Letnan Kolonel Angkatan Udara AS

461
00:36:39,155 --> 00:36:41,157
dan aktif sekitar 25 tahun.

462
00:36:42,825 --> 00:36:44,869
Aku punya 250 misi tempur

463
00:36:45,536 --> 00:36:47,538
dan lulusan sekolah pelatihan senjata,

464
00:36:48,039 --> 00:36:49,832
Top Gun versi Angkatan Udara.

465
00:36:52,627 --> 00:36:55,171
Aku tak pernah terbang
melawan kecerdasan buatan.

466
00:36:55,254 --> 00:36:58,549
Aku antusias untuk menujukkan kebolehanku.

467
00:36:59,634 --> 00:37:03,054
Ada serangan langsung jarak 1.800 meter.

468
00:37:04,388 --> 00:37:05,223
Baik, mulai.

469
00:37:14,732 --> 00:37:16,651
Ya, itu sangat menarik.

470
00:37:20,780 --> 00:37:23,658
- Mati.
- Kena. Kemenangan sempurna.

471
00:37:25,910 --> 00:37:27,453
Baiklah, babak kedua.

472
00:37:35,419 --> 00:37:40,508
Kecerdasan buatan bermanuver
dengan presisi yang begitu menakjubkan

473
00:37:41,342 --> 00:37:43,219
sampai aku tak bisa mengikutinya.

474
00:37:48,474 --> 00:37:49,725
Saling berhadapan.

475
00:37:50,768 --> 00:37:51,769
Mati kau.

476
00:37:53,145 --> 00:37:53,980
Kena!

477
00:37:54,063 --> 00:37:55,022
Masih kena.

478
00:37:58,567 --> 00:38:00,236
Kecerdasan buatan tak pernah takut.

479
00:38:00,736 --> 00:38:03,781
Ada elemen emosional manusia di kokpit
yang tak dimilikinya.

480
00:38:04,991 --> 00:38:08,077
Salah satu strategi menarik
yang dikembangkan kecerdasan buatan kami

481
00:38:08,160 --> 00:38:10,121
disebut menembak dari depan.

482
00:38:10,621 --> 00:38:13,958
Biasanya manusia ingin menembak
dari belakang

483
00:38:14,041 --> 00:38:16,544
karena sulit bagi musuh
untuk melepaskanmu.

484
00:38:17,044 --> 00:38:20,423
Mereka tak mencoba menembak dari depan
karena kau bermain seperti pengecut.

485
00:38:21,424 --> 00:38:25,469
Saat kita menghampiri secara langsung,
jarak 900 hingga 150 meter

486
00:38:25,553 --> 00:38:27,096
bisa terjadi dalam sekejap.

487
00:38:27,596 --> 00:38:31,183
Kau berisiko tinggi bertabrakan,
jadi manusia tak mencobanya.

488
00:38:32,727 --> 00:38:35,938
Kecerdasan buatan, kecuali disuruh
untuk takut mati, takkan takut mati.

489
00:38:37,857 --> 00:38:40,109
Aku seperti bertempur melawan manusia,

490
00:38:40,776 --> 00:38:44,113
tetapi manusia
yang nekat mengabaikan keselamatan.

491
00:38:45,406 --> 00:38:47,325
Yang terakhir ini, dia takkan selamat.

492
00:38:57,168 --> 00:38:58,294
Waktunya tak cukup.

493
00:39:01,964 --> 00:39:02,965
Selamat malam.

494
00:39:04,091 --> 00:39:04,925
Aku mati.

495
00:39:16,771 --> 00:39:17,980
Aku jadi tahu diri

496
00:39:18,064 --> 00:39:20,941
bahwa aku mungkin bukan yang terbaik
untuk misi ini

497
00:39:21,442 --> 00:39:24,320
dan teknologi itu bisa menggantikanku
suatu hari nanti.

498
00:39:25,696 --> 00:39:26,906
6 CAV sama.

499
00:39:27,615 --> 00:39:28,824
Seribu ofset.

500
00:39:29,367 --> 00:39:32,078
Dengan pilot kecerdasan buatan
yang perintah pesawat tempur,

501
00:39:32,745 --> 00:39:34,830
kemenangannya tanpa henti, dominan.

502
00:39:34,914 --> 00:39:37,249
Bukan hanya menang jauh.

503
00:39:37,333 --> 00:39:41,545
Itu, "Bagaimana kita bisa memasangnya
di pesawat?" Itu sangat kuat.

504
00:39:43,589 --> 00:39:47,802
Sangat realistis untuk berharap
kecerdasan buatan akan menerbangkan F-16

505
00:39:47,885 --> 00:39:49,970
dan itu takkan lama lagi.

506
00:39:51,305 --> 00:39:56,769
Jika melawan pilot kecerdasan buatan
yang punya tingkat kemenangan 99,99999%,

507
00:39:56,852 --> 00:39:58,062
kau tak punya peluang.

508
00:39:59,605 --> 00:40:02,733
Saat memikirkan pilot kecerdasan buatan
yang tak terkalahkan,

509
00:40:02,817 --> 00:40:06,737
aku memikirkan bagaimana satu tim
dengan 50, 100,

510
00:40:07,363 --> 00:40:12,493
atau 1.000 pilot kecerdasan buatan
bisa terus berhasil.

511
00:40:13,702 --> 00:40:18,791
Swarming adalah tim pesawat sangat cerdas
yang bekerja sama.

512
00:40:19,291 --> 00:40:23,838
Mereka berbagi informasi tentang apa
yang harus dilakukan, memecahkan masalah.

513
00:40:25,172 --> 00:40:30,469
Swarming akan menjadi
kemampuan inovatif dan transformasional

514
00:40:30,553 --> 00:40:32,054
bagi militer dan sekutu kami.

515
00:41:42,750 --> 00:41:47,379
Target telah ditemukan
dan drone mengikutinya.

516
00:42:02,019 --> 00:42:03,479
Baik, waktunya mendarat.

517
00:42:07,525 --> 00:42:10,402
Tujuan utama dari penelitian swarming
yang sedang kami garap

518
00:42:11,153 --> 00:42:13,697
ialah mengerahkan sejumlah besar drone

519
00:42:13,781 --> 00:42:17,910
ke area yang sulit dijangkau
atau berbahaya.

520
00:42:21,664 --> 00:42:26,085
Army Research Lab mendukung
proyek penelitian ini.

521
00:42:26,919 --> 00:42:28,963
Jika kau ingin mengetahui sebuah lokasi,

522
00:42:29,046 --> 00:42:32,883
tetapi sulit untuk mencapai area itu
atau areanya sangat luas,

523
00:42:33,676 --> 00:42:35,886
mengerahkan swarm adalah
cara yang sangat natural

524
00:42:35,970 --> 00:42:38,389
guna memperluas jangkauan individu

525
00:42:38,472 --> 00:42:41,934
dan mengumpulkan informasi
yang penting bagi misi.

526
00:42:46,647 --> 00:42:48,983
Jadi, saat ini
dalam pengerahan swarm kami,

527
00:42:49,066 --> 00:42:53,904
pada dasarnya kami memberi satu perintah
untuk melacak target yang diinginkan.

528
00:42:54,488 --> 00:42:57,283
Lalu drone terbang
dan melakukan semua itu sendiri.

529
00:42:59,493 --> 00:43:04,081
Kecerdasan buatan memungkinkan
robot bergerak kolektif sebagai kawanan

530
00:43:04,164 --> 00:43:05,708
secara terdesentralisasi.

531
00:43:10,671 --> 00:43:12,506
Dalam kawanan di alam yang kita lihat,

532
00:43:13,299 --> 00:43:18,178
tak ada pemimpin, tak ada hewan utama
yang memerintah mereka.

533
00:43:21,056 --> 00:43:24,977
Perilaku itu muncul dari tiap hewan

534
00:43:25,060 --> 00:43:27,187
mengikuti beberapa aturan sederhana.

535
00:43:27,688 --> 00:43:32,443
Dari situ tumbuh perilaku kolektif
yang kau lihat.

536
00:43:33,944 --> 00:43:37,031
Yang menakjubkan dari kawanan di alam

537
00:43:37,114 --> 00:43:39,992
ialah kemampuan anggun
saat mereka bergerak.

538
00:43:40,576 --> 00:43:44,288
Seolah-olah mereka diciptakan
untuk jadi bagian dari grup ini.

539
00:43:46,790 --> 00:43:51,128
Idealnya, yang ingin kami lihat
dengan kawanan drone kami adalah,

540
00:43:51,211 --> 00:43:53,172
seperti kawanan hewan di alam,

541
00:43:53,672 --> 00:43:56,717
keputusan yang dibuat
oleh kelompok secara kolektif.

542
00:43:59,887 --> 00:44:02,765
Inspirasi lain bagi kami

543
00:44:02,848 --> 00:44:06,268
datang dalam bentuk reliabilitas
dan resiliensi.

544
00:44:07,311 --> 00:44:09,188
Kawanan itu takkan tumbang

545
00:44:09,271 --> 00:44:12,983
jika satu hewan tak melakukan
apa yang seharusnya dilakukan.

546
00:44:15,194 --> 00:44:18,697
Meski salah satu agen jatuh, gagal,

547
00:44:18,781 --> 00:44:20,866
atau tak bisa menyelesaikan tugas,

548
00:44:21,909 --> 00:44:23,577
kawanan itu takkan berhenti.

549
00:44:25,162 --> 00:44:27,873
Dan pada akhirnya, itu yang kami inginkan.

550
00:44:29,333 --> 00:44:32,002
Kami punya sebuah kebutuhan
dalam skenario pertempuran

551
00:44:32,086 --> 00:44:33,879
untuk mengidentifikasi pesawat musuh

552
00:44:33,962 --> 00:44:37,841
dan dulu kami butuh satu orang
untuk mengendalikan satu robot.

553
00:44:38,592 --> 00:44:40,552
Saat otomatisasi meningkat,

554
00:44:40,636 --> 00:44:43,555
kuharap kita akan bisa melihat
sejumlah besar robot

555
00:44:43,639 --> 00:44:46,558
yang dikendalikan sejumlah kecil orang.

556
00:44:47,810 --> 00:44:51,271
Aku tak melihat alasan
kita tak sanggup mencapai seribu

557
00:44:51,355 --> 00:44:54,942
karena tiap agen akan mampu bertindak
atas kemauannya sendiri

558
00:44:55,025 --> 00:44:56,443
dan langit adalah batasnya.

559
00:44:57,027 --> 00:44:59,071
Kita bisa meningkatkan pembelajaran kita…

560
00:44:59,154 --> 00:45:03,325
Kami sudah cukup lama mengembangkan
swarming dalam simulasi

561
00:45:03,409 --> 00:45:06,829
dan ini waktunya untuk menerapkannya
ke pesawat asli.

562
00:45:07,329 --> 00:45:12,042
Kami berharap dapat membuat
tiga robot sekaligus melalui jaringan,

563
00:45:12,126 --> 00:45:15,129
lalu mulai menambahkan
lebih banyak kemampuan.

564
00:45:15,879 --> 00:45:18,549
Kami ingin bisa mengujinya
ke sistem yang lebih kecil,

565
00:45:18,632 --> 00:45:22,177
tetapi ambil konsep yang sama
dan terapkan ke sistem yang lebih besar

566
00:45:22,261 --> 00:45:23,679
seperti jet tempur.

567
00:45:24,596 --> 00:45:26,014
Kami sering membicarakan

568
00:45:26,098 --> 00:45:31,937
bagaimana kau memberi satu peleton
kekuatan tempur yang setara satu batalion.

569
00:45:34,982 --> 00:45:39,528
Atau satu batalion dengan kekuatan tempur
yang setara satu brigade.

570
00:45:39,611 --> 00:45:41,905
Kau bisa melakukannya dengan swarming.

571
00:45:42,531 --> 00:45:45,200
Dan jika bisa membuka
kekuatan swarming itu,

572
00:45:45,284 --> 00:45:48,078
kau baru saja menciptakan
deterens strategis baru

573
00:45:48,162 --> 00:45:49,455
terhadap agresi militer.

574
00:45:52,332 --> 00:45:56,420
Kurasa hal yang paling menarik
ialah jumlah pria dan wanita muda

575
00:45:57,129 --> 00:46:00,591
yang akan kita selamatkan
jika kita melakukan ini dengan benar.

576
00:46:01,091 --> 00:46:03,594
Kita bertukar mesin

577
00:46:04,553 --> 00:46:05,846
alih-alih nyawa manusia.

578
00:46:06,513 --> 00:46:07,723
Beberapa berpendapat

579
00:46:07,806 --> 00:46:11,727
bahwa senjata otomat akan membuat
perang lebih tepat dan lebih manusiawi,

580
00:46:12,811 --> 00:46:15,397
tetapi sebenarnya sulit diprediksi

581
00:46:15,481 --> 00:46:19,443
bagaimana senjata otomat bisa mengubah
perang sebelumnya.

582
00:46:21,320 --> 00:46:23,238
Itu seperti penemuan senapan Gatling.

583
00:46:25,073 --> 00:46:27,117
Richard Gatling adalah seorang penemu.

584
00:46:27,201 --> 00:46:30,954
Dia melihat tentara kembali,
terluka dalam Perang Saudara,

585
00:46:32,206 --> 00:46:35,626
dan ingin mencari cara
untuk membuat perang lebih manusiawi.

586
00:46:36,543 --> 00:46:39,838
Untuk mengurangi jumlah tentara
yang tewas dalam perang

587
00:46:40,339 --> 00:46:42,633
dengan mengurangi jumlah tentara
dalam pertempuran.

588
00:46:44,092 --> 00:46:48,388
Jadi, dia menciptakan senapan Gatling,
senapan yang diputar dengan engkol

589
00:46:48,472 --> 00:46:50,516
yang dapat mengotomatiskan
proses penembakan.

590
00:46:53,268 --> 00:46:57,981
Itu meningkatkan daya tembak
sebanyak seratus kali lipat oleh tentara.

591
00:47:01,193 --> 00:47:05,239
Sering kali, upaya untuk membuat
perang lebih tepat dan manusiawi

592
00:47:06,406 --> 00:47:08,200
bisa memiliki efek sebaliknya.

593
00:47:10,118 --> 00:47:14,540
Pikirkan efek dari drone
yang salah sasaran di daerah pedesaan

594
00:47:14,623 --> 00:47:17,125
yang mendorong penduduk lokal
menentang Amerika Serikat,

595
00:47:17,209 --> 00:47:20,712
menentang pemerintah lokal,
padahal niat mereka baik.

596
00:47:22,548 --> 00:47:25,008
Sekarang perbesar itu 1.000 kali.

597
00:47:26,760 --> 00:47:28,720
Penciptaan sistem persenjataan

598
00:47:28,804 --> 00:47:34,560
yang murah, terukur,
dan tak memerlukan operator manusia

599
00:47:34,643 --> 00:47:37,896
secara drastis mengubah
barier konflik yang sebenarnya.

600
00:47:40,065 --> 00:47:44,862
Itu membuatku terjaga pada malam hari
karena memikirkan dunia penuh peperangan

601
00:47:44,945 --> 00:47:48,657
dan kita tak lagi menanggung
biaya manusia dan finansial perang

602
00:47:48,740 --> 00:47:51,410
karena kita sangat jauh dari…

603
00:47:52,369 --> 00:47:54,037
nyawa yang akan hilang.

604
00:47:59,501 --> 00:48:00,794
Semua ini menghantuiku.

605
00:48:02,212 --> 00:48:05,924
Aku hanya butuh
contoh penyalahgunaan kecerdasan buatan.

606
00:48:06,800 --> 00:48:10,888
Konsekuensi tak terduga
dari eksperimen pikiran sederhana itu

607
00:48:10,971 --> 00:48:12,848
sudah terlalu berlebihan.

608
00:48:13,348 --> 00:48:16,643
KECERDASAN BUATAN DALAM PENEMUAN OBAT:
MENGHINDARI LEBIH BANYAK KERUSAKAN

609
00:48:17,352 --> 00:48:18,729
Saat aku memberikan presentasi

610
00:48:18,812 --> 00:48:22,482
tentang molekul beracun yang diciptakan
teknologi kecerdasan buatan,

611
00:48:22,566 --> 00:48:24,318
para audiens ternganga.

612
00:48:25,402 --> 00:48:27,613
SENYAWA TOP 5.000 DIKENAL
SEBAGAI ANALOG VX

613
00:48:29,406 --> 00:48:33,577
Keputusan berikutnya adalah
apa kami harus menerbitkan informasi ini.

614
00:48:34,870 --> 00:48:36,914
Di satu sisi,
kau ingin memperingatkan dunia

615
00:48:36,997 --> 00:48:40,125
tentang kemampuan semacam ini,
tetapi di sisi lain,

616
00:48:40,208 --> 00:48:44,087
kau tak ingin memberi seseorang gagasan
apa mereka belum pernah memilikinya.

617
00:48:46,340 --> 00:48:48,133
Kami memutuskan itu layak diterbitkan

618
00:48:48,216 --> 00:48:52,679
untuk mungkin mencari cara mengurangi
penyalahgunaan jenis kecerdasan buatan ini

619
00:48:52,763 --> 00:48:54,139
sebelum itu terjadi.

620
00:48:54,222 --> 00:48:56,975
FUNGSI GANDA PENEMUAN OBAT
YANG DIDUKUNG KECERDASAN BUATAN

621
00:48:57,559 --> 00:49:00,437
BAGAIMANA TEKNOLOGI KECERDASAN BUATAN
UNTUK PENEMUAN OBAT

622
00:49:01,897 --> 00:49:04,775
Reaksi masyarakat umum mengejutkan.

623
00:49:07,152 --> 00:49:10,656
Kami bisa melihat metrik di laman,
berapa banyak orang yang mengaksesnya.

624
00:49:10,739 --> 00:49:14,451
Jenis artikel yang biasa kami tulis,
kami beruntung jika bisa…

625
00:49:14,534 --> 00:49:19,831
Beberapa ribu orang melihat artikel kami
selama setahun atau beberapa tahun.

626
00:49:19,915 --> 00:49:22,084
Sudah 10.000 orang membacanya
dalam sepekan.

627
00:49:22,167 --> 00:49:25,337
Lalu 20.000, 30.000, 40.000,

628
00:49:25,837 --> 00:49:28,715
dan kami mencapai
hingga 10.000 orang per hari.

629
00:49:30,258 --> 00:49:33,553
Kami berkolaborasi
dengan The Economist, Financial Times.

630
00:49:35,639 --> 00:49:39,977
Radiolab juga menghubungi.
Aku pernah dengar Radiolab!

631
00:49:41,937 --> 00:49:45,899
Namun, kemudian reaksi berubah menjadi
tak terkendali.

632
00:49:49,778 --> 00:49:53,532
Saat melihat cuitan itu, kami berpikir,
"Apa itu bisa melakukan yang lebih buruk?"

633
00:49:54,658 --> 00:49:56,118
Kenapa mereka melakukan ini?

634
00:49:57,911 --> 00:50:01,081
KUTU BUKU INI AKAN MEMBUNUH KITA SEMUA.

635
00:50:01,164 --> 00:50:04,501
Lalu kami mendapat
undangan yang tak kusangka-sangka.

636
00:50:08,880 --> 00:50:12,884
Ada banyak diskusi di Gedung Putih
tentang artikel itu

637
00:50:12,968 --> 00:50:15,470
dan mereka ingin segera bicara
dengan kami.

638
00:50:18,974 --> 00:50:23,186
Jelas, itu kehormatan luar biasa
bisa bicara dengan orang pada tingkat ini.

639
00:50:24,104 --> 00:50:28,316
Namun, kau berpikir,
"Astaga, ini Gedung Putih. Para petinggi."

640
00:50:29,651 --> 00:50:33,196
Itu melibatkan menyusun
kumpulan data sumber terbuka…

641
00:50:33,280 --> 00:50:37,701
Enam jam lagi, model itu bisa menghasilkan
lebih dari 40.000…

642
00:50:37,784 --> 00:50:41,204
Mereka bertanya berapa banyak
daya komputasi yang kami butuhkan

643
00:50:41,705 --> 00:50:43,832
dan kami bilang tak ada yang istimewa.

644
00:50:44,332 --> 00:50:48,211
Hanya Mac biasa berusia enam tahun.

645
00:50:49,504 --> 00:50:51,256
Dan itu mengejutkan mereka.

646
00:50:54,968 --> 00:50:59,473
Orang-orang yang bertugas memahami
agen perang kimia

647
00:50:59,556 --> 00:51:04,019
dan badan pemerintah,
mereka tak mengetahui potensi ini.

648
00:51:06,688 --> 00:51:09,816
Kami punya buku resep
untuk membuat senjata kimia ini

649
00:51:10,609 --> 00:51:15,572
dan di tangan aktor jahat
yang punya niat buruk,

650
00:51:16,698 --> 00:51:19,034
itu bisa sangat mengerikan.

651
00:51:21,787 --> 00:51:23,205
Mereka duduk dan mendengarkan.

652
00:51:23,288 --> 00:51:26,458
Kami harus mengambil langkah
untuk mengatur teknologi

653
00:51:27,250 --> 00:51:30,670
atau membatasinya
agar itu tak bisa disalahgunakan

654
00:51:31,797 --> 00:51:35,175
karena potensi kematiannya…

655
00:51:36,176 --> 00:51:37,344
mengerikan.

656
00:51:40,680 --> 00:51:46,061
Pertanyaan tentang etika kecerdasan buatan
sebagian besar diatasi oleh masyarakat,

657
00:51:46,561 --> 00:51:50,273
bukan oleh para insinyur,
teknolog, atau matematikawan.

658
00:51:52,442 --> 00:51:56,822
Setiap teknologi yang kita hasilkan,
setiap inovasi baru,

659
00:51:56,905 --> 00:52:00,617
pada akhirnya berada di bawah lingkup
kepercayaan masyarakat terhadap itu.

660
00:52:03,036 --> 00:52:06,039
Saat ini, Departemen Pertahanan berkata,

661
00:52:06,540 --> 00:52:09,709
"Satu-satunya yang mengatakan
kita akan membunuh sesuatu

662
00:52:09,793 --> 00:52:11,920
di medan perang adalah manusia."

663
00:52:12,504 --> 00:52:14,548
Mesin bisa membunuh,

664
00:52:15,674 --> 00:52:18,927
tetapi hanya atas perintah
operator manusia

665
00:52:19,511 --> 00:52:21,429
dan aku tak melihat itu berubah.

666
00:52:24,808 --> 00:52:28,228
Mereka meyakinkan kita
bahwa jenis teknologi ini akan aman.

667
00:52:29,729 --> 00:52:33,692
Namun, militer AS tak punya
reputasi yang dapat dipercaya

668
00:52:33,775 --> 00:52:35,485
dengan perang drone.

669
00:52:36,820 --> 00:52:41,783
Jadi, saat memercayai militer Amerika
dengan kecerdasan buatan,

670
00:52:41,867 --> 00:52:44,327
menurutku rekam jejaknya
sudah cukup menggambarkan.

671
00:52:46,288 --> 00:52:50,125
Kebijakan Departemen Pertahanan AS
tentang otomatisasi dalam senjata

672
00:52:50,208 --> 00:52:52,919
tak melarang sistem persenjataan apa pun.

673
00:52:53,003 --> 00:52:56,715
Dan meski militer mungkin tak menginginkan
senjata otomat,

674
00:52:56,798 --> 00:53:01,678
kita bisa melihat militer menyerahkan
lebih banyak keputusan kepada mesin

675
00:53:01,761 --> 00:53:03,680
hanya untuk mengimbangi pesaing.

676
00:53:04,764 --> 00:53:08,310
Itu bisa mendorong militer
untuk membuat keputusan

677
00:53:08,393 --> 00:53:09,978
yang mungkin tak mereka inginkan.

678
00:53:11,938 --> 00:53:15,150
Vladimir Putin pernah berkata,
"Kuasai kecerdasan buatan,

679
00:53:15,233 --> 00:53:16,693
kuasai dunia."

680
00:53:17,736 --> 00:53:20,572
Presiden Xi telah menegaskan

681
00:53:20,655 --> 00:53:23,325
kecerdasan buatan adalah
salah satu teknologi nomor satu

682
00:53:23,408 --> 00:53:25,702
yang ingin dikuasai Tiongkok.

683
00:53:26,786 --> 00:53:29,831
Kita jelas berada
dalam kompetisi teknologi.

684
00:53:33,460 --> 00:53:35,670
Kau mendengar orang membicarakan pembatas

685
00:53:36,421 --> 00:53:39,424
dan aku yakin
itu yang harus mereka lakukan.

686
00:53:40,467 --> 00:53:45,180
Namun, ada persaingan yang sangat serius
untuk keunggulan kecerdasan buatan.

687
00:53:47,224 --> 00:53:51,603
Dan musuh kami,
entah itu Tiongkok, Rusia, atau Iran

688
00:53:52,187 --> 00:53:56,566
takkan menghiraukan kebijakan kami
mengenai kecerdasan buatan.

689
00:54:00,737 --> 00:54:04,699
Kau melihat lebih banyak percakapan
tentang kebijakan soal kecerdasan buatan,

690
00:54:06,117 --> 00:54:09,663
tetapi aku berharap
lebih banyak pemimpin membicarakan,

691
00:54:09,746 --> 00:54:11,748
"Secepat apa kita bisa membuatnya?

692
00:54:12,707 --> 00:54:15,126
Mari kumpulkan sumber dayanya lalu buat."

693
00:54:18,922 --> 00:54:21,299
PERTEMUAN & EKSPOSISI TAHUNAN AUSA
WASHINGTON, DC

694
00:54:24,177 --> 00:54:26,805
ANGKATAN DARAT AMERIKA SERIKAT

695
00:54:33,436 --> 00:54:38,358
Kami ada di pameran dagang terbesar
Asosiasi Angkatan Darat AS tahun ini.

696
00:54:39,609 --> 00:54:44,572
Intinya, vendor mana pun yang menjual
produk atau teknologi kepada militer

697
00:54:44,656 --> 00:54:46,616
akan berpameran.

698
00:54:47,701 --> 00:54:50,537
Pangkalan Angkatan Udara Tyndall
memiliki empat robot kami

699
00:54:50,620 --> 00:54:54,207
yang berpatroli di pangkalan mereka
24 jam sehari, 7 hari seminggu.

700
00:54:55,750 --> 00:55:00,130
Kami bisa menambahkan mulai dari kamera,
sensor, hingga apa pun yang kau butuhkan.

701
00:55:00,213 --> 00:55:01,548
Lengan manipulator.

702
00:55:01,631 --> 00:55:05,135
Sekali lagi, hanya untuk menyelesaikan
misi para pelanggan.

703
00:55:06,344 --> 00:55:08,638
Bagaimana jika musuh perkenalkan
kecerdasan buatan?

704
00:55:09,431 --> 00:55:12,976
Sistem petempur yang berpikir
lebih cepat, merespons lebih cepat

705
00:55:13,059 --> 00:55:16,062
daripada apa yang bisa dilakukan manusia.
Kita harus siap.

706
00:55:17,605 --> 00:55:21,359
Kami melatih sistem kami
untuk mengumpulkan informasi musuh,

707
00:55:22,027 --> 00:55:26,531
mengelola target musuh dengan manusia
mengawasi keberhasilan membunuh.

708
00:55:33,288 --> 00:55:34,956
- Hai, Jenderal.
- Apa kabar?

709
00:55:35,040 --> 00:55:36,374
Baik, Pak. Apa kabar?

710
00:55:37,667 --> 00:55:40,962
Tak ada yang berinvestasi lebih banyak
dalam pilot kecerdasan buatan.

711
00:55:41,046 --> 00:55:42,630
Pilot kami bernama Hivemind.

712
00:55:43,298 --> 00:55:47,135
Kami menerapkannya ke Nova,
quadcopter kami. Ia masuk ke gedung,

713
00:55:47,218 --> 00:55:50,805
memandu pasukan operasi khusus
dan pasukan infanteri.

714
00:55:50,889 --> 00:55:52,891
Kami menerapkan Hivemind ke V-Bat,

715
00:55:52,974 --> 00:55:56,811
jadi aku berpikir
untuk mengerahkan ratusan tim itu.

716
00:55:56,895 --> 00:55:58,730
Entah itu di Selat Taiwan,

717
00:55:58,813 --> 00:56:01,608
Ukraina, menghalangi musuh kita.

718
00:56:01,691 --> 00:56:03,360
Jadi, aku cukup antusias.

719
00:56:03,943 --> 00:56:06,363
- Baiklah. Terima kasih.
- Terima kasih, Jenderal.

720
00:56:07,947 --> 00:56:13,370
Pilot kecerdasan buatan harus ubikuitas,
terutama pada tahun 2025, 2030.

721
00:56:14,162 --> 00:56:17,582
Adopsinya akan cepat
di seluruh militer di dunia.

722
00:56:19,250 --> 00:56:22,962
Apa yang kau lakukan
dengan militer Rumania, orang UAS mereka?

723
00:56:23,046 --> 00:56:24,756
Teknologi tinggi di militer.

724
00:56:25,256 --> 00:56:29,803
Kami menghabiskan setengah miliar dolar
untuk membangun pilot kecerdasan buatan.

725
00:56:29,886 --> 00:56:33,181
Kami akan menghabiskan miliaran dolar lagi
selama lima tahun ke depan.

726
00:56:33,264 --> 00:56:37,769
Itu alasan utama kami memenangkan
program catatan di Amerika Serikat.

727
00:56:37,852 --> 00:56:38,853
Bagus.

728
00:56:38,937 --> 00:56:42,732
Itu mengesankan.
Kalian berhasil mempersenjatai itu?

729
00:56:43,608 --> 00:56:45,985
Ini belum dipersenjatai.

730
00:56:46,069 --> 00:56:48,321
Jadi, belum. Tetapi ya, di masa depan.

731
00:56:48,905 --> 00:56:52,534
Pelanggan kami menganggapnya sebagai truk.
Kami menganggapnya sebagai truk cerdas

732
00:56:52,617 --> 00:56:54,452
yang dapat melakukan banyak hal berbeda.

733
00:56:54,536 --> 00:56:55,703
- Terima kasih.
- Ya.

734
00:56:55,787 --> 00:56:57,956
Aku akan memastikan untuk menghubungimu.

735
00:57:01,626 --> 00:57:04,879
Jika kembali 10 tahun lagi,
kau akan melihat

736
00:57:06,297 --> 00:57:10,802
kecerdasan buatan dan otomatisasi
akan mendominasi seluruh pasar ini.

737
00:57:14,889 --> 00:57:19,352
Pasukan yang didukung
oleh kecerdasan buatan dan otomatisasi

738
00:57:19,436 --> 00:57:22,814
pasti akan mendominasi, menghancurkan,

739
00:57:22,897 --> 00:57:25,525
dan membinasakan
pasukan tanpa dukungan itu.

740
00:57:26,401 --> 00:57:30,780
Itu seperti kuda melawan tank,

741
00:57:31,781 --> 00:57:34,409
orang dengan pedang melawan senapan mesin.

742
00:57:35,410 --> 00:57:37,120
Itu pasti berbeda jauh.

743
00:57:38,663 --> 00:57:42,750
Itu akan menjadi ubikuitas,
digunakan pada setiap spektrum peperangan,

744
00:57:43,585 --> 00:57:44,836
tingkat taktis,

745
00:57:45,336 --> 00:57:46,546
tingkat strategis,

746
00:57:47,130 --> 00:57:50,800
beroperasi dengan kecepatan
yang tak dapat dipahami manusia saat ini.

747
00:57:53,052 --> 00:57:57,056
Komandan sudah kewalahan
dengan terlalu banyak informasi.

748
00:57:57,557 --> 00:58:01,019
Citra dari satelit, drone, dan sensor.

749
00:58:02,103 --> 00:58:03,855
Salah satu fungsi kecerdasan buatan

750
00:58:03,938 --> 00:58:06,774
ialah membantu komandan
lebih cepat memahami apa yang terjadi.

751
00:58:07,650 --> 00:58:09,986
Lalu, "Keputusan apa yang harus kubuat?"

752
00:58:11,196 --> 00:58:14,866
Kecerdasan buatan akan mempertimbangkan
semua faktor

753
00:58:14,949 --> 00:58:17,702
yang menentukan cara perang dilaksanakan,

754
00:58:18,286 --> 00:58:20,246
memikirkan strategi…

755
00:58:22,540 --> 00:58:25,668
dan memberikan rekomendasi
tentang cara memenangkan pertempuran.

756
00:58:32,217 --> 00:58:34,344
LOCKHEED MARTIN
PUSAT INOVASI

757
00:58:36,971 --> 00:58:40,266
Kami di Lockheed Martin, seperti pelanggan
dari Departemen Pertahanan,

758
00:58:40,350 --> 00:58:43,770
menganggap kecerdasan buatan
sebagai pendukung teknologi utama

759
00:58:43,853 --> 00:58:45,104
untuk komando dan kendali.

760
00:58:47,065 --> 00:58:50,109
Tingkat penyebaran rata-rata
0,6 meter per detik.

761
00:58:50,193 --> 00:58:52,237
Perimeter ini kira-kira 283,3 hektar.

762
00:58:52,737 --> 00:58:55,782
Kabut perang jelas merupakan
kenyataan bagi kami di sisi pertahanan,

763
00:58:57,158 --> 00:59:00,495
tetapi itu memiliki kesamaan
dengan berada di lingkungan

764
00:59:00,578 --> 00:59:03,206
dan harus membuat keputusan
untuk kebakaran hutan juga.

765
00:59:03,289 --> 00:59:06,543
Kebakaran Washburn terjadi
di utara kota Wawona.

766
00:59:06,626 --> 00:59:09,754
Kau harus membuat keputusan
dengan data yang tak sempurna.

767
00:59:10,630 --> 00:59:13,716
Bagaimana kecerdasan buatan membantu kami
dengan kabut perang itu?

768
00:59:17,637 --> 00:59:19,597
Kebakaran hutan sangat kacau.

769
00:59:20,181 --> 00:59:21,266
Sangat kompleks,

770
00:59:22,267 --> 00:59:27,855
jadi kami memanfaatkan kecerdasan buatan
untuk membantu membuat keputusan.

771
00:59:31,442 --> 00:59:33,987
Kami mengembangkan
program Cognitive Mission Manager

772
00:59:34,070 --> 00:59:37,949
guna merekam video inframerah udara

773
00:59:38,032 --> 00:59:41,786
lalu memprosesnya
melalui algoritma kecerdasan buatan kami

774
00:59:41,869 --> 00:59:45,248
untuk bisa memprediksi
kebakaran di masa depan.

775
00:59:48,042 --> 00:59:49,794
Saat kita bergerak ke masa depan,

776
00:59:49,877 --> 00:59:52,922
Cognitive Mission Manager
akan menggunakan simulasi,

777
00:59:53,006 --> 00:59:57,093
menjalankan skenario selama ribuan siklus

778
00:59:57,176 --> 01:00:00,722
untuk merekomendasikan cara paling efektif
guna mengerahkan sumber daya

779
01:00:00,805 --> 01:00:04,058
untuk menekan
area kebakaran prioritas tinggi.

780
01:00:08,062 --> 01:00:12,400
Ia akan berkata, "Lakukan penekanan udara
dengan Firehawk di sini.

781
01:00:13,526 --> 01:00:15,903
Perintahkan petugas darat
untuk membersihkan semak,

782
01:00:16,946 --> 01:00:19,157
pemadam kebakaran untuk menyemprotkan air,

783
01:00:19,657 --> 01:00:22,660
lalu tarik mereka
ke area prioritas tertinggi."

784
01:00:26,247 --> 01:00:31,044
Keputusan itu akan bisa dihasilkan
lebih cepat dan efisien.

785
01:00:35,757 --> 01:00:38,593
Kami melihat kecerdasan buatan
secara unik memungkinkan manusia

786
01:00:38,676 --> 01:00:42,305
untuk dapat mengikuti
lingkungan yang terus berubah.

787
01:00:43,473 --> 01:00:46,517
Dan ada banyak kesamaan

788
01:00:46,601 --> 01:00:50,605
dengan yang biasa kami lakukan
di Lockheed Martin di sisi pertahanan.

789
01:00:52,190 --> 01:00:55,860
Militer tak lagi bicara
soal penggunaan kecerdasan buatan

790
01:00:55,943 --> 01:00:58,529
dan sistem persenjataan individu
untuk membuat

791
01:00:58,613 --> 01:01:00,365
keputusan penargetan dan pembunuhan,

792
01:01:00,865 --> 01:01:05,787
tetapi mengintegrasikannya ke arsitektur
pengambilan keputusan militer.

793
01:01:09,374 --> 01:01:13,378
Angkatan Darat punya proyek besar
bernama Project Convergence.

794
01:01:14,545 --> 01:01:16,547
Angkatan Laut punya Overmatch.

795
01:01:16,631 --> 01:01:19,592
Dan Angkatan Udara punya
Advanced Battle Management System.

796
01:01:21,969 --> 01:01:24,138
Departemen Pertahanan
berusaha mencari tahu,

797
01:01:24,222 --> 01:01:26,683
"Bagaimana kita menyatukan semua ini

798
01:01:26,766 --> 01:01:29,268
agar bisa beroperasi lebih cepat
daripada musuh kita

799
01:01:30,395 --> 01:01:32,605
dan benar-benar mendapat keuntungan?"

800
01:01:33,439 --> 01:01:37,527
Manajer Pertempuran Kecerdasan Buatan
harus jenderal berpangkat tinggi

801
01:01:37,610 --> 01:01:39,821
yang memimpin pertempuran.

802
01:01:41,155 --> 01:01:44,158
Membantu memberi perintah
kepada sejumlah besar pasukan,

803
01:01:45,118 --> 01:01:49,247
mengoordinasikan aksi semua senjata
yang ada di luar sana,

804
01:01:49,330 --> 01:01:51,958
dan melakukannya dengan kecepatan
yang tak tertandingi.

805
01:01:53,543 --> 01:01:55,294
Kami menghabiskan 70 tahun terakhir

806
01:01:55,378 --> 01:01:58,798
mengembangkan militer tercanggih
di planet ini

807
01:01:58,881 --> 01:02:03,177
dan sekarang kami menghadapi keputusan
apa kami ingin menyerahkan kendali

808
01:02:03,261 --> 01:02:07,640
atas infrastruktur itu
kepada algoritma, perangkat lunak.

809
01:02:10,351 --> 01:02:13,187
Dan konsekuensi dari keputusan itu

810
01:02:13,271 --> 01:02:16,774
bisa memicu
seluruh persenjataan militer kita.

811
01:02:16,858 --> 01:02:19,902
Itu bukan satu Hiroshima,
melainkan ratusan.

812
01:02:25,616 --> 01:02:27,869
Ini saatnya kami bertindak

813
01:02:27,952 --> 01:02:33,166
karena jendela untuk menahan risiko ini
tertutup dengan cepat.

814
01:02:34,041 --> 01:02:35,042
PBB
27 SEPTEMBER 2021

815
01:02:35,126 --> 01:02:39,338
Sore ini, kami mulai
dengan tantangan keamanan internasional

816
01:02:39,422 --> 01:02:41,132
yang ditimbulkan oleh teknologi baru

817
01:02:41,215 --> 01:02:44,343
di area sistem persenjataan otomat
yang mematikan.

818
01:02:44,427 --> 01:02:47,722
Percakapan terjadi di PBB

819
01:02:47,805 --> 01:02:50,016
tentang ancaman senjata otomat mematikan

820
01:02:50,600 --> 01:02:53,269
dan larangan kami pada sistem

821
01:02:53,352 --> 01:02:56,564
yang menggunakan kecerdasan buatan
untuk memilih dan menyasar orang.

822
01:02:56,647 --> 01:03:00,777
Konsensus di antara para teknolog
jelas dan bergaung.

823
01:03:00,860 --> 01:03:04,030
Kami menentang senjata otomat
yang menyasar manusia.

824
01:03:05,531 --> 01:03:08,743
Selama bertahun-tahun,
negara bagian membantu, membahas

825
01:03:08,826 --> 01:03:11,329
isu sistem persenjataan otomat
yang mematikan ini.

826
01:03:12,288 --> 01:03:16,793
Ini tentang rasa aman bersama.

827
01:03:17,710 --> 01:03:20,546
Namun, tentu saja, itu tak mudah.

828
01:03:21,297 --> 01:03:25,968
Negara tertentu,
terutama kekuatan militer,

829
01:03:26,052 --> 01:03:27,762
mereka ingin jadi yang terdepan

830
01:03:28,429 --> 01:03:31,599
agar lebih unggul daripada musuh mereka.

831
01:03:32,600 --> 01:03:36,187
Masalahnya, semua orang harus setuju
untuk menyelesaikan apa pun.

832
01:03:36,896 --> 01:03:39,065
Akan ada setidaknya satu negara
yang keberatan

833
01:03:39,148 --> 01:03:42,068
dan tentu saja Amerika Serikat
serta Rusia telah menegaskan

834
01:03:42,151 --> 01:03:46,113
bahwa mereka menentang perjanjian
yang akan melarang senjata otomat.

835
01:03:47,198 --> 01:03:53,204
Saat kita memikirkan jumlah orang
yang membuat kecerdasan buatan lebih kuat,

836
01:03:54,747 --> 01:03:56,457
ruangan itu sangat penuh.

837
01:03:57,875 --> 01:04:02,880
Saat kita memikirkan ruangan berisi orang,
memastikan bahwa kecerdasan buatan aman,

838
01:04:04,340 --> 01:04:07,510
ruangan itu jauh lebih sepi.

839
01:04:11,764 --> 01:04:13,724
Namun, aku juga amat optimistis.

840
01:04:16,060 --> 01:04:19,397
Aku melihat sesuatu
seperti Konvensi Senjata Biologis,

841
01:04:19,480 --> 01:04:21,774
yang terjadi di tengah Perang Dingin

842
01:04:23,025 --> 01:04:27,655
meski ada ketegangan antara Uni Soviet
dan Amerika Serikat.

843
01:04:29,156 --> 01:04:33,536
Mereka mampu menyadari
bahwa pengembangan senjata biologis

844
01:04:33,619 --> 01:04:36,247
bukan demi kepentingan terbaik mereka

845
01:04:36,330 --> 01:04:38,749
dan bukan demi kepentingan dunia
pada umumnya.

846
01:04:41,252 --> 01:04:45,131
Dinamika persaingan persenjataan
utamakan kecepatan daripada keselamatan.

847
01:04:45,715 --> 01:04:48,342
Namun, kurasa yang penting
untuk dipertimbangkan ialah

848
01:04:48,426 --> 01:04:52,430
pada titik tertentu, biaya bergerak cepat
menjadi terlalu tinggi.

849
01:04:56,225 --> 01:04:59,270
Kita tak bisa mengembangkan sesuatu
secara terpisah begitu saja

850
01:05:00,021 --> 01:05:06,611
dan menempatkannya di luar sana
tanpa pertimbangkan arahnya di masa depan.

851
01:05:07,862 --> 01:05:10,823
Kita harus mencegah momen bom atom itu.

852
01:05:14,535 --> 01:05:17,788
Taruhan dalam persaingan kecerdasan buatan
sangat besar.

853
01:05:18,289 --> 01:05:22,001
Kurasa tak banyak orang menghargai
stabilitas global

854
01:05:22,084 --> 01:05:28,174
yang telah disediakan dengan memiliki
kekuatan militer yang unggul

855
01:05:28,257 --> 01:05:31,135
selama 75 tahun terakhir.

856
01:05:32,887 --> 01:05:35,681
Jadi, Amerika Serikat
dan pasukan sekutu kami

857
01:05:36,557 --> 01:05:38,684
harus mengungguli kecerdasan buatan.

858
01:05:43,314 --> 01:05:44,774
Tak ada juara kedua di perang.

859
01:05:45,483 --> 01:05:49,111
Tiongkok berencana besar untuk unggul
di bidang kecerdasan buatan sebelum 2030.

860
01:05:49,195 --> 01:05:51,656
Ada yang bilang Amerika kalah
dalam persaingan ini…

861
01:05:52,740 --> 01:05:56,160
Kalian akan mempercepat
adopsi kecerdasan buatan

862
01:05:56,243 --> 01:05:59,246
guna memastikan
keunggulan kompetitif militer kita.

863
01:06:02,875 --> 01:06:05,461
Kami berlomba dengan teknologi ini.

864
01:06:05,544 --> 01:06:09,006
Aku merasa pertanyaannya adalah
seberapa jauh ini akan berlangsung?

865
01:06:09,507 --> 01:06:12,760
Kita mengendalikan teknologi
atau teknologi mengendalikan kita?

866
01:06:14,136 --> 01:06:16,973
Tidak ada kesempatan untuk mengulang.

867
01:06:17,807 --> 01:06:20,977
Begitu dilepas,
itu akan sulit untuk dikendalikan.

868
01:06:22,019 --> 01:06:25,147
Dan sangat sulit untuk menghentikannya.

869
01:06:28,609 --> 01:06:32,154
Jika kita tak bertindak sekarang,
semuanya akan terlambat.

870
01:06:33,114 --> 01:06:34,657
Mungkin sudah terlambat.

871
01:08:50,417 --> 01:08:53,420
Terjemahan subtitle oleh
Muhammad Pandu Abdillah



