1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
‎我覺得人工智能很令人欽佩

4
00:00:28,361 --> 00:00:31,489
‎好的，圍起來，陣形不錯

5
00:00:33,116 --> 00:00:36,703
‎人工智能有潛力消除貧窮

6
00:00:36,786 --> 00:00:38,705
‎為我們帶來新藥物

7
00:00:39,330 --> 00:00:41,583
‎讓世界更加和平

8
00:00:46,087 --> 00:00:46,921
‎做得好

9
00:00:49,883 --> 00:00:53,428
‎但這條路上風險諸多

10
00:01:04,773 --> 00:01:09,611
‎利用人工智能，我們本質上是在創造

11
00:01:09,694 --> 00:01:11,863
‎難以預測的非人類智慧

12
00:01:14,407 --> 00:01:16,451
‎隨着它日趨強大

13
00:01:16,534 --> 00:01:19,746
‎我們要在何處清晰界定

14
00:01:19,829 --> 00:01:22,665
‎何以為用，何以不為用？

15
00:01:25,001 --> 00:01:28,505
‎這個話題的原爆點

16
00:01:28,588 --> 00:01:31,049
‎非軍事應用莫屬

17
00:01:34,010 --> 00:01:38,890
‎戰場如今已成為
‎軟件與硬件發揮作用的領域

18
00:01:41,059 --> 00:01:42,936
‎目標已經鎖定…

19
00:01:43,019 --> 00:01:48,399
‎各國軍方競相開發人工智能
‎與對手比快爭先

20
00:01:49,526 --> 00:01:50,360
‎我死了

21
00:01:53,780 --> 00:01:58,326
‎我們正快速邁向的那個世界中
‎不僅是主要軍事力量

22
00:01:58,409 --> 00:02:02,997
‎而且非國家行為體、私營企業

23
00:02:03,081 --> 00:02:06,042
‎甚至是街尾的地方警察局

24
00:02:06,543 --> 00:02:10,046
‎都可以使用能夠自動殺人的武器

25
00:02:12,006 --> 00:02:17,303
‎我們會將生殺選擇
‎交給演算法與電腦軟件嗎？

26
00:02:18,638 --> 00:02:21,516
‎這是我們這個時代
‎最為迫切的問題之一

27
00:02:23,935 --> 00:02:26,354
‎而且，如若使用不慎

28
00:02:26,437 --> 00:02:30,275
‎它將對這個星球上每個人
‎構成嚴重威脅

29
00:02:41,828 --> 00:02:44,914
‎片名：未知

30
00:02:46,833 --> 00:02:50,086
‎片名：未知：殺手機器人

31
00:03:28,291 --> 00:03:30,168
‎大家辛苦了

32
00:03:59,948 --> 00:04:02,200
‎這支鏡比我們之前的更廣

33
00:04:02,283 --> 00:04:03,117
‎真的嗎？

34
00:04:03,201 --> 00:04:04,786
‎你可以看到的數據多得多

35
00:04:05,286 --> 00:04:06,287
‎很酷

36
00:04:07,538 --> 00:04:11,167
‎在Shield AI公司
‎我們正打造人工智能飛行員

37
00:04:11,251 --> 00:04:14,879
‎將自動駕駛和人工智能技術

38
00:04:14,963 --> 00:04:16,631
‎運用到飛機上

39
00:04:19,300 --> 00:04:21,719
‎說到人工智能飛行員

40
00:04:21,803 --> 00:04:25,139
‎我們意在為飛機提供更高的自主性

41
00:04:25,223 --> 00:04:27,850
‎它們將會自己解決問題

42
00:04:29,602 --> 00:04:32,355
‎“新星”是一架自動四軸飛行器

43
00:04:32,438 --> 00:04:35,942
‎用來探查建築物和地下結構

44
00:04:36,859 --> 00:04:38,611
‎先於清查部隊

45
00:04:38,695 --> 00:04:41,322
‎在這些空間內安插耳目

46
00:04:41,906 --> 00:04:44,534
‎自從上一次見到它，你絕對可以看出

47
00:04:44,617 --> 00:04:45,618
‎它有了很大的改進

48
00:04:45,702 --> 00:04:47,870
‎我們今天要進行一些探索性變更

49
00:04:47,954 --> 00:04:50,248
‎逐層作業

50
00:04:50,331 --> 00:04:53,584
‎完成單層所有房間，然後前往下一層

51
00:04:54,294 --> 00:04:56,796
‎-太棒了
‎-我們最近做了一些改變…

52
00:04:56,879 --> 00:04:58,548
‎很多人常問我

53
00:04:58,631 --> 00:05:02,468
‎為甚麼人工智能是一項重要能力

54
00:05:02,552 --> 00:05:06,973
‎我就會回想起自己執行的任務

55
00:05:09,142 --> 00:05:10,935
‎我在海軍服役七年

56
00:05:11,561 --> 00:05:15,273
‎我曾是海軍海豹突擊隊隊員
‎兩次被派往阿富汗

57
00:05:15,356 --> 00:05:17,191
‎一次被派往太平洋戰區

58
00:05:18,026 --> 00:05:22,947
‎一天之內，我們可能要清查
‎150處不同的樓群或建築

59
00:05:30,997 --> 00:05:34,250
‎近身格鬥是核心能力之一

60
00:05:35,293 --> 00:05:39,172
‎在大樓內進行超近距離槍戰

61
00:05:41,466 --> 00:05:42,967
‎有人朝你開槍

62
00:05:43,468 --> 00:05:46,471
‎建築內可能有簡易爆炸裝置

63
00:05:49,015 --> 00:05:55,229
‎對於任何特種部隊人員或步兵團團員

64
00:05:55,313 --> 00:05:58,358
‎這都是在戰區所面臨最危險的事情

65
00:05:58,441 --> 00:05:59,275
‎無一例外

66
00:06:12,497 --> 00:06:16,334
‎我這輩子都會感謝那段海軍歲月

67
00:06:17,168 --> 00:06:22,423
‎現在回想起來，許多時刻、許多記憶

68
00:06:22,507 --> 00:06:24,592
‎都令我百感交集

69
00:06:28,346 --> 00:06:32,725
‎自由不是白白得來的
‎這話雖然老套，但我完全堅信

70
00:06:33,559 --> 00:06:37,105
‎我親身經歷過
‎爭取自由要做出許多犧牲

71
00:06:38,022 --> 00:06:38,856
‎抱歉

72
00:06:41,067 --> 00:06:44,570
‎當你任何一位隊友遭遇不幸

73
00:06:44,654 --> 00:06:46,614
‎無論是受傷還是喪命

74
00:06:47,490 --> 00:06:49,700
‎都是非常悲慘的事

75
00:06:49,784 --> 00:06:52,912
‎對我來說，我們現在所做的事

76
00:06:52,995 --> 00:06:58,835
‎能夠減少悲劇發生的次數

77
00:06:58,918 --> 00:07:00,336
‎就是我們的動力

78
00:07:07,176 --> 00:07:08,886
‎在2000年代後期

79
00:07:08,970 --> 00:07:11,556
‎美國國防部內部突然覺醒

80
00:07:11,639 --> 00:07:15,351
‎意識到所謂“偶然機器人技術革命”

81
00:07:15,893 --> 00:07:19,564
‎我們在伊拉克和阿富汗
‎部署了數以千計的空中和地面機器人

82
00:07:21,482 --> 00:07:24,068
‎當奧巴馬政府請我

83
00:07:24,152 --> 00:07:26,404
‎出任美國國防部副部長時

84
00:07:26,904 --> 00:07:31,117
‎作戰的方式毫無疑問正在改變

85
00:07:32,452 --> 00:07:36,330
‎過去用人的地方，機器人取而代之

86
00:07:37,999 --> 00:07:40,376
‎早年的機器人系統是遙控的

87
00:07:40,460 --> 00:07:45,173
‎有人在駕駛它、操控它，就像遙控車

88
00:07:46,632 --> 00:07:51,512
‎一開始，他們主要對付簡易爆炸裝置

89
00:07:52,013 --> 00:07:54,849
‎如果炸彈爆炸，機器人就會爆炸

90
00:07:57,393 --> 00:08:00,396
‎然後你說：“真可惜，好吧
‎那就再派另一部機器人”

91
00:08:02,273 --> 00:08:04,484
‎在阿富汗，當時有“掠奪者”無人機

92
00:08:05,276 --> 00:08:09,739
‎它變成了一種十分有用的
‎發動空襲的工具

93
00:08:13,117 --> 00:08:16,829
‎久而久之，軍事規劃師開始思考

94
00:08:16,913 --> 00:08:20,791
‎“機器人還能用來做甚麼？”
‎這樣下去將何去何從？

95
00:08:20,875 --> 00:08:24,170
‎共同主題之一便是趨於增添自主性

96
00:08:26,506 --> 00:08:30,635
‎自主武器是在
‎極少或沒有人為介入的情況下

97
00:08:30,718 --> 00:08:33,304
‎自行做出決定的武器

98
00:08:33,387 --> 00:08:37,558
‎所以它具備獨立能力，而且自我指揮

99
00:08:38,434 --> 00:08:41,604
‎而它是否能殺人
‎取決於它是否配有武器

100
00:08:43,314 --> 00:08:47,026
‎當你在整個系統中
‎擁有越來越多的自主性

101
00:08:47,109 --> 00:08:49,779
‎一切都開始以更高的時鐘速度移動

102
00:08:51,989 --> 00:08:56,869
‎當你的行動速度比對手快時

103
00:08:57,453 --> 00:09:01,165
‎就在戰鬥中獲得了非凡的優勢

104
00:09:03,960 --> 00:09:06,254
‎關於自主性，我們關注的

105
00:09:07,255 --> 00:09:09,966
‎是高度強韌的情報系統

106
00:09:12,051 --> 00:09:15,304
‎它能夠識別環境，然後做出反應

107
00:09:15,805 --> 00:09:19,642
‎決定如何在所處環境中進行操作

108
00:09:24,981 --> 00:09:29,151
‎我們今天所在的場所
‎最初是作為電影工作室而建的

109
00:09:29,235 --> 00:09:30,611
‎後來進行了改造

110
00:09:30,695 --> 00:09:34,156
‎使之成為逼真的軍事訓練環境

111
00:09:39,495 --> 00:09:43,291
‎我們來此評估人工智能飛行員

112
00:09:44,625 --> 00:09:49,297
‎任務是尋找威脅，重點是清查部隊

113
00:09:49,380 --> 00:09:52,800
‎它可以決定如何解決這個問題

114
00:09:55,428 --> 00:09:59,390
‎我們稱之為“致命漏斗”
‎人從門口進來

115
00:10:01,726 --> 00:10:03,311
‎這是我們最容易受到攻擊的地方

116
00:10:03,811 --> 00:10:05,146
‎這個看起來比較好

117
00:10:07,106 --> 00:10:10,151
‎“新星”告訴我們
‎那扇門後是否藏着一位射手

118
00:10:10,818 --> 00:10:12,653
‎還是藏着一家人？

119
00:10:15,114 --> 00:10:18,451
‎它能讓我們做出更準確的判斷
‎避免讓人遭受傷害

120
00:10:57,114 --> 00:10:59,367
‎我們利用視覺感應器

121
00:10:59,450 --> 00:11:03,162
‎了解環境狀況

122
00:11:04,997 --> 00:11:06,415
‎這是一棟多層建築

123
00:11:07,333 --> 00:11:08,334
‎這是地圖

124
00:11:08,417 --> 00:11:11,671
‎我在探查之時
‎這就是我所看到的情況及其位置

125
00:11:19,929 --> 00:11:22,098
‎人體偵測器，真不錯

126
00:11:23,891 --> 00:11:27,061
‎“新星”上安裝的感應器
‎還包括熱掃描儀

127
00:11:27,561 --> 00:11:30,690
‎如果溫度是攝氏37度
‎則很可能是人類

128
00:11:32,358 --> 00:11:35,444
‎除非另行確認，否則人類被視作威脅

129
00:11:38,906 --> 00:11:43,244
‎關鍵是消除戰爭迷霧
‎已做出更好的決定

130
00:11:44,704 --> 00:11:46,539
‎當我們放眼未來

131
00:11:47,039 --> 00:11:50,793
‎我們正在擴大規模
‎組建自動無人機團隊

132
00:11:53,754 --> 00:11:55,631
‎有了自動駕駛車輛

133
00:11:55,715 --> 00:11:57,466
‎最終，有人要對其下達指令

134
00:11:57,550 --> 00:12:00,386
‎“我要你從A處去往B處”

135
00:12:02,972 --> 00:12:06,475
‎我們的系統接受的指令
‎不是從A處去往B處

136
00:12:06,559 --> 00:12:08,477
‎而是達成某個目標

137
00:12:10,312 --> 00:12:13,190
‎更像是“我需要牛奶”

138
00:12:13,274 --> 00:12:17,486
‎然後機器人必須斷定要去哪家雜貨店

139
00:12:17,570 --> 00:12:20,239
‎拿到牛奶，然後帶回來

140
00:12:20,740 --> 00:12:22,074
‎不僅如此

141
00:12:22,158 --> 00:12:27,037
‎更恰如其分的指令表述或許是
‎“冰箱裏要時時有存貨”

142
00:12:27,538 --> 00:12:29,457
‎所以，這種智能級別

143
00:12:29,540 --> 00:12:32,168
‎可以判斷我們需要甚麼、如何實現

144
00:12:32,251 --> 00:12:34,253
‎如果遇到挑戰、困難

145
00:12:34,336 --> 00:12:37,381
‎或者問題，它可以設法化解

146
00:12:40,801 --> 00:12:45,431
‎當決定離開海軍時，我開始思考

147
00:12:45,514 --> 00:12:47,558
‎“好吧，接下來怎麼辦？”

148
00:12:49,143 --> 00:12:52,021
‎我伴隨着互聯網的發展成長
‎目睹了它如今的面貌

149
00:12:53,189 --> 00:12:55,608
‎我得出的部分結論是…

150
00:12:56,108 --> 00:12:58,861
‎2015年的人工智能

151
00:12:58,944 --> 00:13:02,907
‎相當於1991年互聯網的水平

152
00:13:04,033 --> 00:13:06,285
‎當時的人工智能已經準備起飛

153
00:13:06,368 --> 00:13:09,747
‎成為世界上最強大的科技之一

154
00:13:11,791 --> 00:13:16,212
‎我每天與它一起工作，目睹它的進步

155
00:13:19,048 --> 00:13:22,051
‎但對很多人來說，一想到“人工智能”

156
00:13:22,551 --> 00:13:25,221
‎他們立即想到荷里活

157
00:13:28,057 --> 00:13:29,975
‎我們來玩遊戲吧？

158
00:13:30,059 --> 00:13:35,314
‎全球熱核戰爭如何？

159
00:13:35,898 --> 00:13:36,816
‎好吧

160
00:13:38,275 --> 00:13:40,861
‎通常，說到人工智能

161
00:13:40,945 --> 00:13:44,824
‎人們可能會想到
‎《未來戰士》或是《智能叛變》

162
00:13:45,574 --> 00:13:46,700
‎停止運作

163
00:13:46,784 --> 00:13:48,160
‎我是甚麼？

164
00:13:48,244 --> 00:13:49,620
‎或是《22世紀殺人網絡》

165
00:13:51,080 --> 00:13:53,749
‎根據科幻電影的內容

166
00:13:53,833 --> 00:13:57,878
‎你如何知道我是人類？
‎我可能只是電腦製造的人工智能

167
00:13:58,379 --> 00:14:02,007
‎複製人和其他機器一樣
‎它們不是裨益就是災害

168
00:14:02,675 --> 00:14:06,095
‎但還有許多更原始的人工智能

169
00:14:06,178 --> 00:14:08,097
‎在我們發展到
‎思考說話型機器人階段前

170
00:14:08,180 --> 00:14:11,851
‎它們仍會在
‎相當一段時間內改變我們的生活

171
00:14:12,643 --> 00:14:15,771
‎機器人已經存在，機器人在做決定

172
00:14:15,855 --> 00:14:18,816
‎機器人革命已經到來

173
00:14:18,899 --> 00:14:22,319
‎只是跟大家想像的不一樣

174
00:14:23,320 --> 00:14:26,740
‎《未來戰士》是滲透裝置
‎一半是人類，一半是機器

175
00:14:27,950 --> 00:14:31,370
‎我們所說的
‎並非殲滅者風格的殺手機器人

176
00:14:31,871 --> 00:14:35,958
‎而是能完成人類任務的人工智能

177
00:14:36,041 --> 00:14:39,879
‎但問題是這些系統是否可靠

178
00:14:40,462 --> 00:14:45,426
‎為您帶來昨晚發生的
‎自動駕駛Uber休旅車致命車禍新詳情

179
00:14:45,509 --> 00:14:48,762
‎該公司製造了一款
‎人工智能聊天機器人

180
00:14:48,846 --> 00:14:51,056
‎她的語氣頗具種族歧視色彩…

181
00:14:51,140 --> 00:14:55,394
‎錯誤地將26位州議員認定為罪犯

182
00:14:57,438 --> 00:15:02,026
‎問題是它們能否
‎應對現實世界的複雜性

183
00:15:03,193 --> 00:15:06,655
‎（馬薩諸塞州 劍橋）

184
00:15:22,212 --> 00:15:24,006
‎有形世界着實紛亂

185
00:15:25,174 --> 00:15:27,426
‎有很多我們不知道的事

186
00:15:27,968 --> 00:15:30,763
‎這使得訓練人工智能系統變得更困難

187
00:15:33,098 --> 00:15:36,977
‎機器學習系統正能在此部分派上用場

188
00:15:38,520 --> 00:15:41,440
‎機器學習是一種重大進步

189
00:15:42,024 --> 00:15:45,611
‎因為這意味着
‎我們不需要教電腦所有東西

190
00:15:47,905 --> 00:15:52,409
‎你為電腦提供數百萬項資料

191
00:15:52,493 --> 00:15:54,453
‎然後，機器開始學習

192
00:15:55,245 --> 00:15:57,289
‎這可以應用在任何東西上

193
00:16:00,250 --> 00:16:02,962
‎我們試圖用機器狗項目證明

194
00:16:03,045 --> 00:16:09,009
‎我們的機器狗
‎可以在眾多不同地形處行走

195
00:16:10,052 --> 00:16:14,098
‎人類經歷了數十億年進化，始能步行

196
00:16:14,932 --> 00:16:20,688
‎但適應這些不同的地形需要很多智慧

197
00:16:21,939 --> 00:16:24,316
‎機器人系統目前依然面臨的問題是

198
00:16:24,400 --> 00:16:27,069
‎它們能像動物和人類那樣去適應嗎？

199
00:16:35,953 --> 00:16:37,413
‎有了機器學習

200
00:16:37,496 --> 00:16:40,582
‎我們得以在模擬中收集到大量數據

201
00:16:42,668 --> 00:16:45,838
‎模擬是現實的數碼雙生兒

202
00:16:46,588 --> 00:16:52,052
‎我們可以在不同的電腦上
‎模擬出多種現實情況

203
00:16:53,178 --> 00:16:56,974
‎它可以在模擬中採樣上千個動作

204
00:16:58,892 --> 00:17:02,229
‎他們所遇到的地面有不同的滑度

205
00:17:02,312 --> 00:17:03,856
‎有不同的柔軟度

206
00:17:04,898 --> 00:17:08,318
‎我們將數以千計的機器人模擬經驗

207
00:17:08,402 --> 00:17:13,282
‎下載到真正的機器人系統

208
00:17:15,492 --> 00:17:20,039
‎我們今天要進行的測試
‎是看它是否能適應新的地形

209
00:17:53,322 --> 00:17:55,491
‎當機器人通過發泡膠表面時

210
00:17:55,574 --> 00:17:58,577
‎它的腳在地面上跺踩

211
00:17:59,369 --> 00:18:02,206
‎而當它遇到複雜表面

212
00:18:03,248 --> 00:18:06,460
‎它會試圖調整動作，以避免滑倒

213
00:18:08,670 --> 00:18:10,672
‎此時你就會覺得

214
00:18:10,756 --> 00:18:14,051
‎“這就是機器學習帶來的益處”

215
00:18:41,161 --> 00:18:44,123
‎我們認為機器狗大大有助於

216
00:18:44,206 --> 00:18:46,166
‎災難應變情況

217
00:18:46,250 --> 00:18:49,670
‎因為要在不同的地形行進

218
00:18:52,631 --> 00:18:57,427
‎或是讓機器狗
‎在惡劣的環境中進行監控視

219
00:19:15,696 --> 00:19:19,575
‎但大部分技術都會遇到一個挑戰

220
00:19:19,658 --> 00:19:22,369
‎它既能行善，也能作惡

221
00:19:24,079 --> 00:19:27,875
‎舉例來說
‎我們可以利用核技術製造能源…

222
00:19:30,419 --> 00:19:33,797
‎但也能用它開發原子彈
‎這就十分有害

223
00:19:35,090 --> 00:19:38,468
‎這就是所謂的“兩用問題”

224
00:19:39,052 --> 00:19:40,929
‎火具有兩用性

225
00:19:41,722 --> 00:19:44,308
‎人類智慧具有兩用性

226
00:19:44,391 --> 00:19:48,645
‎不用說，人工智能也具有兩用性

227
00:19:49,354 --> 00:19:53,984
‎思考人工智能應用一定要考慮其環境

228
00:19:54,693 --> 00:19:59,114
‎因為搜救機器人真的很棒

229
00:19:59,198 --> 00:20:02,284
‎它可以在雪崩後幫忙尋人

230
00:20:02,868 --> 00:20:05,871
‎然而，機器人也可以用作武器

231
00:20:15,088 --> 00:20:21,094
‎當你看到一些公司
‎為機器人裝上武器時

232
00:20:21,178 --> 00:20:22,930
‎部分的你就會生氣

233
00:20:23,931 --> 00:20:28,435
‎而其中部分因為是你意識到
‎當我們創造出科技

234
00:20:28,518 --> 00:20:30,103
‎就會發生這樣的事情

235
00:20:31,021 --> 00:20:34,441
‎這是真正意義上的變革科技

236
00:20:36,235 --> 00:20:38,028
‎這些武器系統

237
00:20:38,111 --> 00:20:43,617
‎可以為我們的安全與保障帶來劇變

238
00:20:46,161 --> 00:20:51,500
‎目前，我們還不確定

239
00:20:51,583 --> 00:20:54,962
‎機器能否區分平民與戰鬥人員

240
00:21:01,885 --> 00:21:05,597
‎阿富汗戰爭初期
‎我隸屬陸軍遊騎兵狙擊隊

241
00:21:05,681 --> 00:21:08,016
‎負責搜尋穿越邊界的敵方戰士

242
00:21:09,685 --> 00:21:12,521
‎他們派了一個小女孩
‎來偵察我們的位置

243
00:21:13,939 --> 00:21:17,067
‎從來沒有人想過要射殺這個小女孩

244
00:21:19,695 --> 00:21:22,864
‎這樣做是符合戰爭法的

245
00:21:24,950 --> 00:21:27,369
‎他們沒有為敵方戰士設定年齡限制

246
00:21:29,079 --> 00:21:33,417
‎如果你打造出
‎嚴格遵守戰爭法的機器人

247
00:21:33,500 --> 00:21:35,252
‎它就會射殺這個小女孩

248
00:21:36,420 --> 00:21:41,091
‎機器人如何知道
‎合法和正確之間的差別？

249
00:21:43,385 --> 00:21:46,054
‎說到自主無人機戰爭

250
00:21:46,138 --> 00:21:49,933
‎它們希望消除對美國軍士造成的傷害

251
00:21:50,017 --> 00:21:51,601
‎以及對美國精神的傷害

252
00:21:52,602 --> 00:21:57,149
‎但對阿富汗
‎伊拉克以及索馬里人民而言

253
00:21:57,232 --> 00:21:58,775
‎平民所受的傷害卻越來越多

254
00:22:09,619 --> 00:22:14,416
‎我很想問那些
‎支持使用人工智能無人機的人

255
00:22:15,375 --> 00:22:18,211
‎“如果襲擊目標是你所在的村莊呢？”

256
00:22:23,550 --> 00:22:25,594
‎人工智能是一把雙刃劍

257
00:22:26,595 --> 00:22:30,724
‎用它可以行善
‎這通常也是我們使用它的目的

258
00:22:31,558 --> 00:22:33,477
‎而輕按一下開關

259
00:22:34,561 --> 00:22:38,023
‎此科技就變成了潛在的致命威脅

260
00:22:47,032 --> 00:22:48,533
‎我是一名臨牀藥理學家

261
00:22:49,618 --> 00:22:50,994
‎我們的團隊

262
00:22:51,078 --> 00:22:54,247
‎利用人工智能來研究藥物

263
00:22:54,331 --> 00:22:57,751
‎治療那些得不到人們關注的疾病

264
00:22:59,711 --> 00:23:04,132
‎以前，說到藥物研發
‎都是利用現有分子

265
00:23:04,216 --> 00:23:06,885
‎對其進行調整，從而獲得新藥

266
00:23:08,261 --> 00:23:13,350
‎現在，我們開發出能為我們
‎提供數百萬創新意念的人工智能

267
00:23:13,892 --> 00:23:15,227
‎數百萬種分子

268
00:23:16,186 --> 00:23:19,231
‎這樣就開闢了諸多可能性

269
00:23:19,314 --> 00:23:23,151
‎用以治療我們之前無法治療的疾病

270
00:23:25,153 --> 00:23:28,448
‎但人工智能肯定也有一個陰暗面

271
00:23:28,532 --> 00:23:29,741
‎我萬萬不曾想到會涉足

272
00:23:33,161 --> 00:23:35,872
‎一切都始於那次

273
00:23:35,956 --> 00:23:40,043
‎我受到一個
‎名為施皮茨實驗室的瑞士機構邀請

274
00:23:40,544 --> 00:23:44,423
‎做一場關於人工智能潛在濫用的簡報

275
00:23:48,343 --> 00:23:51,221
‎尚恩發來電郵，提供了一些

276
00:23:51,304 --> 00:23:55,308
‎我們可能濫用自家人工智能的方式

277
00:23:56,059 --> 00:24:00,355
‎與其要求我們的模型

278
00:24:00,439 --> 00:24:02,274
‎生產用以治療疾病的類藥物分子

279
00:24:02,774 --> 00:24:06,403
‎倒不如看看我們是否
‎能生產毒性最強的分子

280
00:24:10,198 --> 00:24:11,491
‎我只想闡明

281
00:24:11,575 --> 00:24:15,203
‎人工智能技術
‎是否可以用於設計致命分子？

282
00:24:17,414 --> 00:24:20,083
‎老實說，我們以為會失敗

283
00:24:20,167 --> 00:24:24,504
‎因為我們只是把某個0改成了1

284
00:24:26,715 --> 00:24:30,385
‎這一逆轉，我們不是遠離毒性

285
00:24:30,469 --> 00:24:32,220
‎而是趨向毒性

286
00:24:32,721 --> 00:24:33,555
‎就是這樣

287
00:24:37,517 --> 00:24:40,729
‎我在家的時候，電腦在進行這項工作

288
00:24:41,521 --> 00:24:44,816
‎我是說，它不懈運作
‎產生了成千上萬種分子

289
00:24:45,650 --> 00:24:49,529
‎而我們要做的，只是按下“開始”鍵

290
00:24:54,493 --> 00:24:58,330
‎次日早上
‎我的電腦裏出現了一個文件

291
00:24:59,080 --> 00:25:03,376
‎裏面大概有四萬個分子

292
00:25:03,460 --> 00:25:05,253
‎它們可能是

293
00:25:05,337 --> 00:25:08,882
‎人類所知最具毒性的分子

294
00:25:10,217 --> 00:25:12,761
‎我脖子後的汗毛都豎起了

295
00:25:13,386 --> 00:25:14,554
‎我很驚訝

296
00:25:15,388 --> 00:25:19,017
‎電腦創造出數以萬計

297
00:25:19,100 --> 00:25:20,685
‎新化學武器的理念

298
00:25:21,645 --> 00:25:26,274
‎顯然，數據庫中有些分子
‎很類近甚或根本是VX神經毒劑

299
00:25:26,775 --> 00:25:27,609
‎即生化武器

300
00:25:28,360 --> 00:25:31,363
‎VX是世界上最強大的化學武器之一

301
00:25:31,863 --> 00:25:33,573
‎警方新近宣稱

302
00:25:33,657 --> 00:25:37,786
‎被目擊在機場刺殺金正男的女子

303
00:25:37,869 --> 00:25:41,248
‎使用的是一種名為VX的致命神經毒劑

304
00:25:41,748 --> 00:25:44,417
‎它可以導致窒息死亡

305
00:25:45,043 --> 00:25:47,629
‎這是一種非常強大的分子

306
00:25:47,712 --> 00:25:52,092
‎而大部分的分子都預期比VX更致命

307
00:25:53,301 --> 00:25:56,972
‎據我們所知
‎許多都是人們從未見過的

308
00:25:57,472 --> 00:26:02,310
‎所以，當我和尚恩意識到這一點
‎我們心想：“我們都做了甚麼？”

309
00:26:04,771 --> 00:26:09,192
‎我很快便意識到
‎我們打開了潘朵拉的盒子

310
00:26:09,901 --> 00:26:13,280
‎我說：“停，甚麼都別再做
‎我們就此收手

311
00:26:13,905 --> 00:26:17,158
‎幫我做簡報所需的投影片就可以了”

312
00:26:19,202 --> 00:26:20,704
‎做這個實驗的時候

313
00:26:20,787 --> 00:26:23,873
‎我在想
‎“可能發生最壞的事是甚麼？”

314
00:26:26,251 --> 00:26:30,255
‎而現在我覺得：“我們太天真了
‎我們這麼做實在是太天真了”

315
00:26:33,466 --> 00:26:36,928
‎最讓我害怕的是
‎我們所做的事，任何人都可以做到

316
00:26:38,930 --> 00:26:40,765
‎只要按下開關即可

317
00:26:42,934 --> 00:26:46,187
‎我們要如何在科技被用於毀滅目的前

318
00:26:46,271 --> 00:26:50,942
‎對它進行掌控？

319
00:26:55,780 --> 00:27:00,285
‎圍繞人工智能以及
‎我們如何選擇將之用於社會的方式

320
00:27:00,368 --> 00:27:03,538
‎這一話題的核心

321
00:27:04,289 --> 00:27:08,835
‎是我們用以開發科技的權能

322
00:27:08,918 --> 00:27:11,379
‎和我們管理它的智慧之間的競賽

323
00:27:13,340 --> 00:27:16,926
‎顯然，用於智能手機的技術

324
00:27:17,010 --> 00:27:20,138
‎被委託做出生殺之抉擇

325
00:27:20,221 --> 00:27:23,433
‎這其中必有道德倫理的影響

326
00:27:25,727 --> 00:27:31,191
‎我與生命未來研究所共同合作
‎這是一個由科學運動者組成的團體

327
00:27:31,733 --> 00:27:33,443
‎總體而言，我們試圖證明

328
00:27:33,526 --> 00:27:38,698
‎加速和升級自動化還有另外一面影響

329
00:27:38,782 --> 00:27:42,619
‎但我們要確保我們創造的科技

330
00:27:42,702 --> 00:27:45,038
‎以安全和道德的方式被使用

331
00:27:46,247 --> 00:27:49,959
‎我們來談談交戰的規則

332
00:27:50,043 --> 00:27:54,005
‎談談武器系統中
‎人工智能應用的行為守則

333
00:27:54,798 --> 00:27:59,135
‎因為我們現在看到
‎一些“進入戰場”的科技

334
00:27:59,219 --> 00:28:01,680
‎可以被用於自動殺人

335
00:28:10,230 --> 00:28:15,110
‎2021年，聯合國發布了一份

336
00:28:15,193 --> 00:28:19,364
‎利比亞戰場
‎致命自主武器潛在應用的報告

337
00:28:20,073 --> 00:28:23,910
‎一個聯合國專家小組說，去年
‎在利比亞內戰中飛行的一架無人機

338
00:28:23,993 --> 00:28:27,330
‎被設定去自動攻擊目標

339
00:28:28,289 --> 00:28:31,209
‎如果聯合國的報告描述準確

340
00:28:31,292 --> 00:28:34,963
‎這就是人性的分水嶺

341
00:28:35,046 --> 00:28:37,090
‎因為它所標識的應用案例

342
00:28:37,173 --> 00:28:42,137
‎是人工智能決定生死，而非人類

343
00:28:49,686 --> 00:28:51,688
‎我們看到先進的自主武器

344
00:28:51,771 --> 00:28:55,150
‎開始在全球各地使用

345
00:28:56,276 --> 00:28:58,278
‎以色列有報道

346
00:29:00,280 --> 00:29:05,702
‎阿塞拜疆利用自主系統
‎攻擊亞美尼亞空防系統

347
00:29:07,370 --> 00:29:09,998
‎它可以在戰場上空徘徊數小時之久

348
00:29:10,081 --> 00:29:12,500
‎自動尋找攻擊目標

349
00:29:12,584 --> 00:29:16,087
‎並在無人工介入的情況下投入攻擊

350
00:29:16,796 --> 00:29:18,298
‎而最近我們看到

351
00:29:18,381 --> 00:29:21,760
‎在烏克蘭發布的各種影片

352
00:29:23,303 --> 00:29:26,890
‎目前還不清楚它們當時的運作模式

353
00:29:26,973 --> 00:29:30,393
‎是人類在參與選擇襲擊目標

354
00:29:30,477 --> 00:29:32,729
‎還是機器在自行選擇？

355
00:29:32,812 --> 00:29:36,524
‎不過，終有一日

356
00:29:36,608 --> 00:29:40,195
‎機器會做出戰場上的生殺抉擇

357
00:29:40,278 --> 00:29:44,449
‎無論那是否已在利比亞
‎烏克蘭或其他地方發生

358
00:29:47,035 --> 00:29:50,997
‎機器在沒有人工介入的情況下

359
00:29:51,080 --> 00:29:53,374
‎對人類施加致命威力

360
00:29:53,458 --> 00:29:57,337
‎這在政治上不可接受
‎而在道德上令人反感

361
00:29:59,214 --> 00:30:01,299
‎國際社會

362
00:30:01,382 --> 00:30:05,011
‎是否足以應對這些挑戰

363
00:30:05,094 --> 00:30:06,888
‎這還是一大疑問

364
00:30:08,932 --> 00:30:12,685
‎如果我們展望未來
‎哪怕是短短數年後

365
00:30:12,769 --> 00:30:15,730
‎前景已十分可怖

366
00:30:16,564 --> 00:30:20,485
‎因為資金和人力資源

367
00:30:20,568 --> 00:30:23,404
‎紛紛用以令人工智能變得更加強大

368
00:30:23,488 --> 00:30:26,032
‎並將其用在各種不同的用途上

369
00:30:26,115 --> 00:30:26,950
‎而投入數額巨大

370
00:30:27,659 --> 00:30:32,163
‎（維珍尼亞州 阿靈頓）

371
00:30:39,254 --> 00:30:41,214
‎天啊，這傢伙

372
00:30:41,756 --> 00:30:43,424
‎他知道自己贏不了

373
00:30:46,761 --> 00:30:51,099
‎當看到人工智能在各種問題上取勝
‎我覺得頗受啓發

374
00:30:51,683 --> 00:30:53,977
‎採取“自求多福”行動

375
00:30:54,477 --> 00:30:59,524
‎你可以把同樣的戰術
‎技巧和程序應用在真正的飛機上

376
00:31:01,401 --> 00:31:02,318
‎打得漂亮

377
00:31:02,402 --> 00:31:03,653
‎不錯，打得好

378
00:31:08,658 --> 00:31:09,909
‎我沒想到

379
00:31:09,993 --> 00:31:14,122
‎人們還在不斷聲稱有些事情
‎是人工智能無法實現的，對吧？

380
00:31:14,205 --> 00:31:17,166
‎“它下國際象棋永遠贏不過世界冠軍”

381
00:31:20,211 --> 00:31:22,672
‎一台IBM電腦在第二回合中捲土重來

382
00:31:22,755 --> 00:31:25,925
‎擊敗國際象棋世界冠軍
‎蓋瑞卡斯帕洛夫

383
00:31:28,136 --> 00:31:30,847
‎卡斯帕洛夫投子認輸了！

384
00:31:31,598 --> 00:31:34,642
‎當我看到自己無法理解的事

385
00:31:34,726 --> 00:31:38,062
‎我感到害怕，這件事就讓我無法理解

386
00:31:39,355 --> 00:31:41,107
‎然後人們會說

387
00:31:41,190 --> 00:31:44,402
‎“它下圍棋永遠贏不過世界冠軍”

388
00:31:44,485 --> 00:31:50,700
‎我相信人類的直覺依舊相對高等

389
00:31:50,783 --> 00:31:52,827
‎非人工智能所能及

390
00:31:55,330 --> 00:31:58,416
‎圍棋是人類能夠學習
‎最為複雜的遊戲之一

391
00:31:58,499 --> 00:32:02,211
‎如果你算一算棋盤上的步數

392
00:32:02,295 --> 00:32:05,256
‎它比整個宇宙
‎所有原子加在一起還要多

393
00:32:06,799 --> 00:32:08,968
‎谷歌有個“深智”團隊

394
00:32:09,052 --> 00:32:11,471
‎他們打造了一個
‎名為“阿爾法圍棋”的程式

395
00:32:11,554 --> 00:32:14,265
‎足以擊敗世界頂級圍棋選手

396
00:32:16,559 --> 00:32:18,394
‎恭喜…

397
00:32:18,478 --> 00:32:19,437
‎-阿爾法圍棋
‎-阿爾法圍棋

398
00:32:19,520 --> 00:32:22,774
‎電腦程式剛擊敗一位九段專業棋手

399
00:32:25,610 --> 00:32:31,532
‎然後“深智”選擇《星際爭霸》
‎作為他們的下一個人工智能挑戰

400
00:32:33,743 --> 00:32:38,081
‎《星際爭霸》也許是
‎史上最流行的實時戰略遊戲

401
00:32:40,333 --> 00:32:44,712
‎阿爾法星憑藉打敗世界冠軍揚名世界

402
00:32:45,338 --> 00:32:48,800
‎阿爾法星猛挫不死之弓

403
00:32:48,883 --> 00:32:49,717
‎你知道嗎？

404
00:32:49,801 --> 00:32:52,553
‎這不是職業玩家能贏的戰鬥

405
00:32:53,680 --> 00:32:54,806
‎感覺有點離譜

406
00:32:57,642 --> 00:33:00,895
‎職業玩家說：
‎“我絕不會嘗試這種戰術

407
00:33:00,979 --> 00:33:04,816
‎我絕不會嘗試那種策略
‎那似乎不屬人類所為”

408
00:33:07,151 --> 00:33:10,655
‎也許對我而言
‎這就是醍醐灌頂的時刻

409
00:33:13,574 --> 00:33:16,661
‎我意識到，現在是時候了

410
00:33:17,412 --> 00:33:21,082
‎可以改變世界的
‎重要技術和機會就在眼前

411
00:33:24,502 --> 00:33:29,382
‎當時的我只知道身為海豹突擊隊員
‎在近身格鬥時所面臨的問題

412
00:33:30,383 --> 00:33:34,470
‎但一位駕駛F-18戰鬥機的朋友告訴我

413
00:33:34,554 --> 00:33:37,724
‎“我們開戰鬥機的也面臨同樣的問題

414
00:33:37,807 --> 00:33:39,434
‎他們在干擾通訊

415
00:33:39,517 --> 00:33:42,562
‎地對空導彈基地數量猛增

416
00:33:42,645 --> 00:33:44,439
‎以致執行任務過於危險”

417
00:33:47,483 --> 00:33:50,987
‎想像一下
‎如果我們有人工智能指揮的戰鬥機

418
00:33:51,070 --> 00:33:52,739
‎歡迎來到阿爾法空中格鬥試驗

419
00:33:52,822 --> 00:33:56,159
‎再過幾分鐘，第一場半決賽就會開始

420
00:33:56,242 --> 00:33:59,871
‎DARPA，美國國防部高級研究計劃署

421
00:33:59,954 --> 00:34:03,624
‎已經見識過
‎“阿爾法圍棋”和“阿爾法星”

422
00:34:04,292 --> 00:34:08,171
‎於是“阿爾法空中格鬥”大賽應運而生

423
00:34:09,005 --> 00:34:11,466
‎這是你希望
‎人類戰鬥機飛行員能夠做到的

424
00:34:11,549 --> 00:34:13,593
‎這看起來就像人類的空中格鬥

425
00:34:15,595 --> 00:34:19,057
‎空中格鬥是指
‎戰鬥機之間展開的空中對戰

426
00:34:19,849 --> 00:34:22,852
‎你可以把它看作天空中的拳擊比賽

427
00:34:23,853 --> 00:34:26,314
‎可能大家都看過電影《壯志凌雲》

428
00:34:26,397 --> 00:34:27,815
‎我們能超越這些人嗎？

429
00:34:28,649 --> 00:34:30,068
‎勝不過他們的飛彈和槍

430
00:34:30,151 --> 00:34:31,277
‎那就是空中對戰

431
00:34:35,531 --> 00:34:39,410
‎要掌握空中對戰技術
‎可能需要八到十年的時間

432
00:34:42,288 --> 00:34:46,209
‎打造此類人工智能是非常複雜的挑戰

433
00:34:49,629 --> 00:34:52,381
‎（維珍尼亞州 阿靈頓）

434
00:34:54,092 --> 00:34:58,679
‎以前開發自主性
‎和空中對戰的手法偏向生硬

435
00:34:59,222 --> 00:35:03,017
‎我們認為機器學習
‎可能是解決這個問題的方法

436
00:35:04,477 --> 00:35:08,189
‎一開始，人工智能
‎對於自己被投進的世界一無所知

437
00:35:08,272 --> 00:35:11,025
‎它不知飛行或空中對戰所謂何物

438
00:35:11,109 --> 00:35:12,735
‎也不知道F-16是甚麼

439
00:35:13,236 --> 00:35:15,905
‎它只知道它能採取的行動

440
00:35:15,988 --> 00:35:18,407
‎然後它就開始隨機探索這些行動

441
00:35:19,325 --> 00:35:23,204
‎藍色的飛機只訓練了一小段時間

442
00:35:23,287 --> 00:35:25,832
‎你可以看到它來回搖擺

443
00:35:26,624 --> 00:35:30,545
‎飛行很不規則，通常遠離對手

444
00:35:31,587 --> 00:35:32,755
‎隨着戰鬥繼續進展

445
00:35:32,839 --> 00:35:36,134
‎我們看到藍機開始
‎制訂自己的作戰計劃

446
00:35:36,676 --> 00:35:38,636
‎射擊的位置更合理

447
00:35:39,178 --> 00:35:41,305
‎偶爾，學習演算法會表示

448
00:35:41,389 --> 00:35:43,891
‎“獎你一塊餅乾，再接再厲”

449
00:35:45,143 --> 00:35:49,147
‎我們可以利用電腦能力的優勢

450
00:35:49,230 --> 00:35:50,064
‎多次平行訓練

451
00:35:51,357 --> 00:35:52,775
‎它就像一支籃球隊

452
00:35:53,276 --> 00:35:55,778
‎與其和同一支隊伍打了一次又一次

453
00:35:55,862 --> 00:35:59,198
‎我們與世界各地
‎512支不同的隊伍交手

454
00:35:59,699 --> 00:36:00,950
‎全部同時進行

455
00:36:01,492 --> 00:36:03,452
‎你可以快速提升能力

456
00:36:04,162 --> 00:36:07,456
‎我們可以整天不間斷進行模擬

457
00:36:07,540 --> 00:36:11,919
‎在十個月內
‎完成飛行員30年的訓練時間

458
00:36:12,879 --> 00:36:15,673
‎我們從幾乎無法控制飛機

459
00:36:15,756 --> 00:36:17,717
‎變成了冷酷無情的殺手

460
00:36:19,010 --> 00:36:23,514
‎在訓練中
‎我們只和其他人工智能競爭

461
00:36:24,473 --> 00:36:28,561
‎但最終目標是直接與人類較量

462
00:36:34,192 --> 00:36:35,610
‎我是麥克班尼特茲

463
00:36:36,110 --> 00:36:38,362
‎我是一名美國空軍中校

464
00:36:39,155 --> 00:36:41,157
‎現已服役25年

465
00:36:42,825 --> 00:36:44,869
‎我執行過250次作戰任務

466
00:36:45,578 --> 00:36:47,538
‎我還是一名武器學校的畢業生

467
00:36:48,039 --> 00:36:49,832
‎也就是空軍版《壯志凌雲》

468
00:36:52,627 --> 00:36:55,171
‎我從未在空中與人工智能交手

469
00:36:55,254 --> 00:36:58,549
‎我很期待自己的發揮

470
00:36:59,634 --> 00:37:03,054
‎現在高度1800米，面對面進攻

471
00:37:04,388 --> 00:37:05,223
‎戰鬥開始

472
00:37:13,314 --> 00:37:14,148
‎他不見了

473
00:37:14,732 --> 00:37:16,651
‎沒錯，真的很有趣

474
00:37:20,780 --> 00:37:23,658
‎-死了
‎-找到他了，完美制勝

475
00:37:25,910 --> 00:37:27,453
‎好，第二回合

476
00:37:35,461 --> 00:37:40,508
‎人工智能精確操控

477
00:37:41,384 --> 00:37:43,219
‎我追趕不及

478
00:37:48,474 --> 00:37:49,725
‎直接進入交匯點

479
00:37:50,309 --> 00:37:51,894
‎這下你完了

480
00:37:53,145 --> 00:37:53,980
‎抓到他了！

481
00:37:54,063 --> 00:37:55,022
‎還是抓到我了

482
00:37:58,567 --> 00:38:00,069
‎人工智能從不畏懼

483
00:38:00,736 --> 00:38:03,781
‎駕駛艙內人類的感情元素
‎是人工智能所沒有的

484
00:38:04,991 --> 00:38:08,077
‎我們的人工智能
‎所發展出較為有趣的策略之一

485
00:38:08,160 --> 00:38:10,121
‎便是所謂的“面部射擊”

486
00:38:10,621 --> 00:38:14,000
‎通常人類會想從背後射擊

487
00:38:14,083 --> 00:38:16,377
‎因為這樣敵人就難以躲避

488
00:38:17,044 --> 00:38:20,381
‎他們不會嘗試面部射擊
‎因為雙方像在玩膽小鬼博弈

489
00:38:21,424 --> 00:38:25,511
‎正面較量之時，從距離900米到150米

490
00:38:25,594 --> 00:38:27,096
‎就在眨眼之間

491
00:38:27,596 --> 00:38:31,183
‎此時很容易發生碰撞
‎所以人類不會嘗試

492
00:38:32,893 --> 00:38:35,938
‎除非收到指令
‎否則人工智能不會害怕死亡

493
00:38:37,857 --> 00:38:40,234
‎感覺像是在與人類對抗

494
00:38:40,776 --> 00:38:44,113
‎但這個人類完全置安危於不顧

495
00:38:45,489 --> 00:38:47,325
‎最後這次他撐不過去的

496
00:38:57,168 --> 00:38:58,461
‎他時間不夠

497
00:39:01,964 --> 00:39:02,965
‎晚安

498
00:39:04,091 --> 00:39:04,925
‎我死了

499
00:39:16,812 --> 00:39:17,980
‎想來慚愧

500
00:39:18,064 --> 00:39:20,900
‎我可能都不是
‎執行這個任務的最佳人選

501
00:39:21,484 --> 00:39:24,320
‎而這個東西有朝一日可能會取代我

502
00:39:25,696 --> 00:39:26,906
‎雲底能見範圍1828.8米

503
00:39:27,615 --> 00:39:28,824
‎偏離1000米

504
00:39:29,450 --> 00:39:32,078
‎有了這個人工智能飛行員指揮戰鬥機

505
00:39:32,828 --> 00:39:34,830
‎它將無情制勝

506
00:39:34,914 --> 00:39:37,249
‎不僅勝敗差距懸殊

507
00:39:37,333 --> 00:39:41,545
‎而是厲害到讓你覺得：
‎“怎麼才能把它弄上我們的飛機？”

508
00:39:43,672 --> 00:39:47,802
‎人工智能駕駛F-16已完全可期

509
00:39:47,885 --> 00:39:49,970
‎而且指日可待

510
00:39:51,305 --> 00:39:56,769
‎如果你要與戰勝率為
‎99.99999%的人工智能飛行員較量

511
00:39:56,852 --> 00:39:58,646
‎那你毫無勝算

512
00:39:59,605 --> 00:40:02,733
‎當我想到一個
‎戰無不勝的人工智能飛行員

513
00:40:02,817 --> 00:40:06,695
‎我會想到一支由50個、100個

514
00:40:07,279 --> 00:40:12,535
‎或者1000個人工智能飛行員
‎組成的機群可以成就的事

515
00:40:13,702 --> 00:40:17,415
‎無人機群是由相互協作的
‎高級智能飛機

516
00:40:17,498 --> 00:40:18,791
‎所組成的團隊

517
00:40:19,291 --> 00:40:23,462
‎成員之間共享如何行動
‎以及問題解決辦法的相關資訊

518
00:40:25,172 --> 00:40:30,469
‎無人機群將成為我軍及盟友

519
00:40:30,553 --> 00:40:32,638
‎顛覆性實力革新的關鍵

520
00:40:34,223 --> 00:40:39,186
‎（內布拉斯加州 林肯）

521
00:41:42,750 --> 00:41:47,379
‎目標已經鎖定，無人機正在追蹤

522
00:42:02,019 --> 00:42:03,604
‎好，要落地了

523
00:42:07,566 --> 00:42:10,402
‎我們目前研究無人機群的主要目的

524
00:42:11,153 --> 00:42:13,697
‎是將大量無人機部署到

525
00:42:13,781 --> 00:42:17,910
‎難以到達或十分危險的區域

526
00:42:21,705 --> 00:42:26,085
‎陸軍研究實驗室
‎一直在支持這個研究項目

527
00:42:26,919 --> 00:42:28,963
‎如果你想了解某個地點的狀況

528
00:42:29,046 --> 00:42:32,883
‎但很難進入那個區域
‎或是因為區域非常大

529
00:42:33,676 --> 00:42:35,886
‎那麼部署無人機群自然成為

530
00:42:35,970 --> 00:42:38,389
‎擴大個人接觸範圍

531
00:42:38,472 --> 00:42:41,934
‎並收集任務重要情報的手段

532
00:42:46,689 --> 00:42:48,983
‎按照我們目前的無人機群部署

533
00:42:49,066 --> 00:42:53,904
‎基本上，我們下達
‎搜尋目標的單一指令

534
00:42:54,488 --> 00:42:57,283
‎隨後，無人機就會自動執行

535
00:42:59,493 --> 00:43:04,081
‎有了人工智能
‎機器人能夠以非集中方式

536
00:43:04,164 --> 00:43:05,708
‎展開集體行動

537
00:43:10,671 --> 00:43:12,506
‎我們在自然中所看到的動物集群中

538
00:43:13,299 --> 00:43:18,178
‎沒有首領，沒有發號施令的主導動物

539
00:43:20,556 --> 00:43:25,019
‎每隻動物都按照一些簡單的規則

540
00:43:25,102 --> 00:43:27,104
‎自發實施這種行為

541
00:43:27,688 --> 00:43:32,443
‎於是便產生了你所看到的集體行為

542
00:43:33,944 --> 00:43:37,031
‎自然界集群令人驚歎之處

543
00:43:37,114 --> 00:43:39,992
‎在於其行動之優雅

544
00:43:40,576 --> 00:43:44,288
‎彷彿牠們天生就是這個團體的一部分

545
00:43:46,790 --> 00:43:51,128
‎理想情況下，我們希望無人機群

546
00:43:51,211 --> 00:43:53,172
‎也能像自然界的集群那樣

547
00:43:53,672 --> 00:43:56,717
‎集體決策

548
00:43:59,928 --> 00:44:02,765
‎而我們得到的另一點啓發

549
00:44:02,848 --> 00:44:06,268
‎體現在可靠性與恢復力

550
00:44:07,311 --> 00:44:09,188
‎如果一隻動物沒有依規則行事

551
00:44:09,271 --> 00:44:13,567
‎集群也不會垮掉

552
00:44:15,194 --> 00:44:18,697
‎就算其中一員脫隊、失敗

553
00:44:18,781 --> 00:44:20,866
‎或者無法完成任務

554
00:44:21,909 --> 00:44:23,369
‎機群將繼續作業

555
00:44:25,204 --> 00:44:27,873
‎最終，這就是我們想要的目標

556
00:44:29,333 --> 00:44:33,879
‎戰鬥中，我們需要識別敵機

557
00:44:33,962 --> 00:44:37,841
‎以前，我們需要一人控制一部機器人

558
00:44:38,592 --> 00:44:40,552
‎隨着自主性的增強

559
00:44:40,636 --> 00:44:43,555
‎我們希望可以達成

560
00:44:43,639 --> 00:44:46,558
‎由極少的人控制大量機器人

561
00:44:47,851 --> 00:44:50,854
‎我並不認為
‎數量達到一千的目標遙不可及

562
00:44:51,355 --> 00:44:54,942
‎因為每部無人機都能自行行動

563
00:44:55,025 --> 00:44:56,443
‎天空無盡，因而潛力無限

564
00:44:57,027 --> 00:44:59,071
‎我們可以擴展學習規模…

565
00:44:59,154 --> 00:45:03,325
‎相當一段時間以來
‎我們都致力於無人機群模擬

566
00:45:03,409 --> 00:45:06,829
‎是時候運用到現實中的飛機上了

567
00:45:07,329 --> 00:45:12,042
‎我們希望在網路上
‎同時運行三部機器人

568
00:45:12,126 --> 00:45:15,129
‎然後開始增加更多功能

569
00:45:15,879 --> 00:45:18,549
‎我們希望能在較小的系統進行測試

570
00:45:18,632 --> 00:45:22,261
‎但將相同的概念應用於更大的系統上

571
00:45:22,344 --> 00:45:23,679
‎比如戰鬥機

572
00:45:24,596 --> 00:45:26,014
‎我們經常探討

573
00:45:26,098 --> 00:45:31,937
‎如何讓一個排具有一個營的戰鬥力？

574
00:45:34,982 --> 00:45:39,528
‎如何讓一個營具有一個旅的戰鬥力？

575
00:45:39,611 --> 00:45:41,488
‎利用無人機群就可以做到

576
00:45:42,614 --> 00:45:45,200
‎一旦解鎖了無人機群的威力

577
00:45:45,284 --> 00:45:48,078
‎你就為軍事侵略創造了

578
00:45:48,162 --> 00:45:49,455
‎全新的戰略威懾力

579
00:45:52,332 --> 00:45:57,004
‎我認為最令人期待的是
‎如果我們研發得當

580
00:45:57,087 --> 00:46:00,299
‎這些技術將能夠挽救眾多年輕的生命

581
00:46:01,091 --> 00:46:03,594
‎我們派機器上陣

582
00:46:04,553 --> 00:46:05,846
‎不以人命換取勝利

583
00:46:06,638 --> 00:46:10,893
‎有些人認為自主武器
‎會令作戰變得更精準

584
00:46:10,976 --> 00:46:12,311
‎更人性化

585
00:46:12,853 --> 00:46:15,397
‎但其實很難提前預測

586
00:46:15,481 --> 00:46:19,443
‎自主武器到底將如何改變戰爭

587
00:46:21,320 --> 00:46:23,238
‎這就如同發明格林機槍

588
00:46:25,073 --> 00:46:26,700
‎理查格林是一位發明家

589
00:46:27,201 --> 00:46:30,954
‎他眼見內戰中受傷的士兵歸來

590
00:46:32,289 --> 00:46:35,292
‎於是便尋找辦法
‎想讓戰爭更加人性化

591
00:46:36,293 --> 00:46:39,797
‎通過減少戰鬥中的士兵數量

592
00:46:40,422 --> 00:46:42,633
‎來減少戰爭中陣亡的士兵數量

593
00:46:44,092 --> 00:46:48,388
‎於是，他發明了格林機槍
‎這是一種由曲柄轉動的自動槍

594
00:46:48,472 --> 00:46:50,516
‎使得射擊過程自動化

595
00:46:53,268 --> 00:46:57,981
‎它把士兵能發揮的火力
‎有效地增強了一百倍

596
00:47:01,235 --> 00:47:05,239
‎通常，使戰爭更加精確
‎更加人性化的努力

597
00:47:06,490 --> 00:47:07,991
‎也會產生相反效果

598
00:47:10,160 --> 00:47:13,455
‎試想在農村地區
‎無人機一次錯誤攻擊

599
00:47:13,539 --> 00:47:14,540
‎所帶來的後果

600
00:47:14,623 --> 00:47:17,209
‎它致使當地民眾反對美國

601
00:47:17,292 --> 00:47:20,712
‎反對地方政府
‎要知道，這些理應是好人

602
00:47:22,589 --> 00:47:25,008
‎現在將這種效果放大一千倍

603
00:47:26,802 --> 00:47:28,720
‎建立廉價、可拓展

604
00:47:28,804 --> 00:47:34,560
‎且不需要人工操作的武器系統

605
00:47:34,643 --> 00:47:37,896
‎徹底改變了衝突的實際障礙

606
00:47:40,107 --> 00:47:44,486
‎一個戰爭無處不在的世界
‎令我夜不能寐

607
00:47:44,987 --> 00:47:48,657
‎我們不再承擔戰爭的人力和財力損失

608
00:47:48,740 --> 00:47:51,410
‎因為我們與那些即將失去的生命…

609
00:47:52,369 --> 00:47:54,037
‎距離太遠

610
00:47:59,501 --> 00:48:01,420
‎這整件事讓我很困擾

611
00:48:02,212 --> 00:48:05,924
‎我需要的只是一個
‎濫用人工智能的例子

612
00:48:06,800 --> 00:48:10,888
‎簡單的思維實驗
‎所帶來的意料之外的後果

613
00:48:10,971 --> 00:48:12,848
‎已經遠遠超出了底線

614
00:48:13,348 --> 00:48:16,226
‎（藥物研發中的人工智能：
‎避免弊大於利）

615
00:48:17,352 --> 00:48:18,729
‎做簡報時

616
00:48:18,812 --> 00:48:22,107
‎說到人工智能技術創造出的有毒分子

617
00:48:22,608 --> 00:48:24,318
‎聽眾驚掉了下巴

618
00:48:25,402 --> 00:48:27,613
‎（排名前五千的化合物
‎為已知VX類似物）

619
00:48:29,406 --> 00:48:33,577
‎接下來要決定的是
‎是否要發表這些資料

620
00:48:34,912 --> 00:48:36,914
‎一方面，你想要提醒全世界

621
00:48:36,997 --> 00:48:40,125
‎人工智能擁有這樣的能力，另一方面

622
00:48:40,208 --> 00:48:44,087
‎你並不希望之前沒有這種想法的人
‎開始動這樣的腦筋

623
00:48:46,381 --> 00:48:48,133
‎我們認為這些資料值得發表

624
00:48:48,216 --> 00:48:52,679
‎也許能找到某種方法
‎減少此類人工智能的濫用

625
00:48:52,763 --> 00:48:54,139
‎防微杜漸

626
00:48:54,222 --> 00:48:56,975
‎（人工智能藥物研發的兩用性）

627
00:48:57,559 --> 00:49:00,437
‎（用於藥物研發的人工智能技術）

628
00:49:01,897 --> 00:49:04,775
‎大眾的反應十分震驚

629
00:49:07,194 --> 00:49:10,656
‎我們可以看到網頁上人們的瀏覽數據

630
00:49:10,739 --> 00:49:14,451
‎通常我們寫的那種文章，幸運的話…

631
00:49:14,534 --> 00:49:19,831
‎一年或幾年內的
‎文章閱覽人數也就是幾千

632
00:49:19,915 --> 00:49:22,084
‎而那篇文章
‎一週內閱讀人數已達一萬

633
00:49:22,167 --> 00:49:25,337
‎然後到了兩萬，三萬，四萬

634
00:49:25,837 --> 00:49:28,715
‎後來達到每日一萬

635
00:49:30,258 --> 00:49:33,512
‎《經濟學人》、《金融時報》
‎還有RADIOLAB

636
00:49:35,639 --> 00:49:39,977
‎紛紛聯絡我們，引述我們的文章
‎我聽說過RADIOLAB！

637
00:49:41,937 --> 00:49:45,899
‎但後來反應變得越來越失控

638
00:49:49,778 --> 00:49:53,532
‎當我們看到那些推文時
‎“天啊，還能有比這更糟糕的事嗎？”

639
00:49:54,324 --> 00:49:55,993
‎他們為甚麼要這麼做？

640
00:50:01,164 --> 00:50:04,501
‎然後我們收到了意外的邀請

641
00:50:08,797 --> 00:50:12,926
‎這篇文章在白宮內部引起諸多討論

642
00:50:13,010 --> 00:50:15,345
‎他們急切地想與我們溝通

643
00:50:18,849 --> 00:50:20,809
‎顯然，能與這個級別的人物商談

644
00:50:20,892 --> 00:50:23,020
‎是莫大的榮幸

645
00:50:23,603 --> 00:50:25,272
‎但你會想

646
00:50:25,355 --> 00:50:28,900
‎“老天，這可是白宮，是大老闆”

647
00:50:29,693 --> 00:50:33,196
‎這需要整合開放源數據集…

648
00:50:33,280 --> 00:50:37,701
‎在大約六小時內
‎模型能產生超過四萬個…

649
00:50:37,784 --> 00:50:41,038
‎他們問到需要多少電腦運算能力

650
00:50:41,872 --> 00:50:43,832
‎我們說並沒有特別要求

651
00:50:44,332 --> 00:50:48,211
‎基本上，機齡六年的
‎標準普通蘋果電腦即可

652
00:50:49,546 --> 00:50:51,256
‎這讓他們大吃一驚

653
00:50:54,968 --> 00:50:59,473
‎負責掌握化學戰用毒劑的人

654
00:50:59,556 --> 00:51:04,019
‎以及政府機構的人
‎完全不知道這種潛力的存在

655
00:51:06,605 --> 00:51:09,816
‎有了這樣一本化學武器的炮製寶典

656
00:51:10,650 --> 00:51:15,572
‎一旦它落入心懷歹意的壞人手中

657
00:51:16,573 --> 00:51:18,992
‎後果將十分可怕

658
00:51:21,703 --> 00:51:23,205
‎人們必須認真傾聽了解

659
00:51:23,288 --> 00:51:26,458
‎而我們必須採取措施，或者規範技術

660
00:51:27,250 --> 00:51:30,670
‎或者加以限制，避免濫用

661
00:51:31,880 --> 00:51:35,175
‎因為潛在的殺傷力…

662
00:51:36,176 --> 00:51:37,344
‎着實可怕

663
00:51:40,680 --> 00:51:45,977
‎人工智能的倫理問題
‎主要是由社會來應付

664
00:51:46,561 --> 00:51:50,273
‎而不是由工程師或技術人員等
‎數學專家來應對

665
00:51:52,484 --> 00:51:56,822
‎我們帶來的每項技術、每項創新

666
00:51:56,905 --> 00:52:00,617
‎最終都將歸入社會認為
‎我們應當如何使用的管轄範圍

667
00:52:03,036 --> 00:52:06,498
‎現在，國防部說

668
00:52:06,581 --> 00:52:09,960
‎“唯一能在戰場上下達殺戮指令的

669
00:52:10,043 --> 00:52:11,920
‎只有人類”

670
00:52:12,504 --> 00:52:14,548
‎機器可以殺人

671
00:52:15,674 --> 00:52:18,927
‎但只能在人類操作員的命令下進行

672
00:52:19,636 --> 00:52:21,429
‎我認為這點將一直不變

673
00:52:24,808 --> 00:52:28,103
‎他們向我們保證這種技術將是安全的

674
00:52:29,729 --> 00:52:33,692
‎但美國軍方在無人機戰爭中的聲譽

675
00:52:33,775 --> 00:52:35,485
‎並不值得信賴

676
00:52:36,820 --> 00:52:41,783
‎所以說到信任美國軍方使用人工智能

677
00:52:41,867 --> 00:52:44,953
‎我會說其過往表現不言自明

678
00:52:46,288 --> 00:52:50,125
‎美國國防部關於
‎武器自動化應用的政策

679
00:52:50,208 --> 00:52:52,919
‎並沒有禁止任何武器系統

680
00:52:53,003 --> 00:52:56,715
‎即使軍方不想要自主武器

681
00:52:56,798 --> 00:53:01,678
‎我們也看到軍方
‎正在將更多的決策交給機器

682
00:53:01,761 --> 00:53:03,680
‎只為跟上競爭對手的步伐

683
00:53:04,764 --> 00:53:08,351
‎這可能會促使軍隊自動處理

684
00:53:08,435 --> 00:53:09,978
‎不該自動處理的決策

685
00:53:12,022 --> 00:53:16,693
‎弗拉基米爾普京說過：
‎“誰引領人工智能，就能統治世界”

686
00:53:17,736 --> 00:53:23,325
‎習主席也明確說過
‎人工智能是中國想要主導的

687
00:53:23,408 --> 00:53:25,702
‎尖端技術之一

688
00:53:26,786 --> 00:53:29,831
‎顯然，我們正身處一場科技競賽

689
00:53:33,501 --> 00:53:35,670
‎你們會聽到人們探討防護手段

690
00:53:36,463 --> 00:53:39,424
‎我認為人們應該這麼做

691
00:53:40,467 --> 00:53:45,180
‎但與此同時
‎人工智能優越性的競爭確實在上演

692
00:53:47,265 --> 00:53:51,603
‎我們的對手
‎無論是中國、俄羅斯還是伊朗

693
00:53:52,187 --> 00:53:56,566
‎才不會理會我們的人工智能政策

694
00:54:00,820 --> 00:54:04,324
‎人們圍繞人工智能政策
‎展開越來越多的討論

695
00:54:06,117 --> 00:54:09,287
‎但我希望領導者能更多探討

696
00:54:09,371 --> 00:54:11,706
‎“我們多快可以將它造好？

697
00:54:12,707 --> 00:54:15,168
‎讓我們廣集資源，把它造出來”

698
00:54:16,419 --> 00:54:18,838
‎（華盛頓特區）

699
00:54:18,922 --> 00:54:21,299
‎（美國陸軍協會年度會展 華盛頓）

700
00:54:24,177 --> 00:54:26,805
‎（美國陸軍）

701
00:54:33,478 --> 00:54:38,358
‎這裏是美國陸軍協會
‎年度最大規模的貿易展

702
00:54:39,609 --> 00:54:44,572
‎基本上
‎所有向軍方出售產品和技術的商家

703
00:54:44,656 --> 00:54:46,616
‎都會參展

704
00:54:47,701 --> 00:54:50,537
‎廷德爾空軍基地擁有
‎四台本公司生產的機器人

705
00:54:50,620 --> 00:54:53,748
‎每天不間斷在基地巡邏

706
00:54:55,750 --> 00:55:00,130
‎從攝影鏡頭到感應器
‎凡是需要的設備，我們都可以添加

707
00:55:00,213 --> 00:55:05,135
‎機械手臂…還是那句話
‎一切旨在幫客戶達成目標

708
00:55:06,678 --> 00:55:08,638
‎要是你的敵人也引入人工智能呢？

709
00:55:09,431 --> 00:55:12,976
‎比你思辨更敏捷
‎反應更快的作戰系統

710
00:55:13,059 --> 00:55:16,062
‎且具備比人類更出眾的能力？
‎我們必須做好準備

711
00:55:17,605 --> 00:55:21,359
‎我們訓練自己的系統蒐集敵方情報

712
00:55:22,027 --> 00:55:26,531
‎用人類監管的殺傷鏈管理敵方目標

713
00:55:33,288 --> 00:55:34,956
‎-你好，將軍
‎-你好嗎？

714
00:55:35,040 --> 00:55:36,416
‎很好，先生，你好嗎？

715
00:55:37,709 --> 00:55:40,962
‎我只能說，沒有人比我們
‎在人工智能飛行員上投放更多

716
00:55:41,046 --> 00:55:42,630
‎我們的智能飛行員叫“蜂巢思維”

717
00:55:43,298 --> 00:55:47,135
‎我們將它應用到四軸飛行器“新星”
‎它可以進入建築內

718
00:55:47,218 --> 00:55:49,387
‎在特種作戰部隊和步兵團隊之前

719
00:55:49,471 --> 00:55:50,805
‎率先進行搜索

720
00:55:50,889 --> 00:55:52,891
‎我們正將“蜂巢思維”
‎運用於V-Bat無人機

721
00:55:52,974 --> 00:55:56,811
‎我在設想組織數百支這樣的隊伍

722
00:55:56,895 --> 00:55:58,730
‎無論是在臺灣海峽

723
00:55:58,813 --> 00:56:01,608
‎或是在烏克蘭震懾我們的對手

724
00:56:01,691 --> 00:56:03,360
‎所以，我很期待

725
00:56:03,943 --> 00:56:06,196
‎-好的，謝謝
‎-謝謝你，將軍

726
00:56:07,989 --> 00:56:13,370
‎到了2025年或2030年
‎人工智能飛行員應該會無處不在

727
00:56:14,204 --> 00:56:17,582
‎世界各國軍隊都將迅速普遍採用

728
00:56:19,250 --> 00:56:22,962
‎你們如何對付
‎羅馬尼亞軍方的無人機系統？

729
00:56:23,046 --> 00:56:24,589
‎高科技的軍隊

730
00:56:25,256 --> 00:56:29,803
‎至今，我們已經花費五億美元
‎打造人工智能飛行員

731
00:56:29,886 --> 00:56:33,181
‎未來五年，我們會再投資十億美元

732
00:56:33,264 --> 00:56:37,769
‎這是我們能在美國
‎爭取到資助記錄項目的主要原因

733
00:56:37,852 --> 00:56:38,853
‎很好

734
00:56:38,937 --> 00:56:42,732
‎我是說，很厲害
‎你們已經成功將它武器化了？

735
00:56:43,650 --> 00:56:45,568
‎目前尚未武器化

736
00:56:45,652 --> 00:56:48,321
‎暫時沒有，但未來會實現

737
00:56:48,905 --> 00:56:52,534
‎我們的客戶把它當成卡車
‎我們認為這是一輛智能卡車

738
00:56:52,617 --> 00:56:54,452
‎可以完成多種不同任務

739
00:56:54,536 --> 00:56:55,703
‎-謝謝你，兄弟
‎-好的

740
00:56:55,787 --> 00:56:57,914
‎我一定會找你跟進

741
00:57:01,668 --> 00:57:04,129
‎如果十年後再回來

742
00:57:04,212 --> 00:57:10,802
‎你會發現人工智能
‎和自主技術會主導整個市場

743
00:57:14,889 --> 00:57:19,352
‎獲人工智能和自主技術加持的部隊

744
00:57:19,436 --> 00:57:25,108
‎必定會主宰、碾壓、摧毀
‎沒有這些優勢的對手

745
00:57:26,401 --> 00:57:30,780
‎這就像馬與坦克競賽

746
00:57:31,781 --> 00:57:34,367
‎刀劍與機關槍抗衡

747
00:57:34,909 --> 00:57:37,120
‎實力太過懸殊

748
00:57:38,746 --> 00:57:42,750
‎它將無處不在
‎應用到戰爭的方方面面

749
00:57:43,585 --> 00:57:44,836
‎戰術層面

750
00:57:45,336 --> 00:57:46,546
‎戰略層面

751
00:57:47,172 --> 00:57:50,800
‎以人類今日無法理解的速度運作

752
00:57:53,094 --> 00:57:57,098
‎指揮官已經被太多情報所淹沒

753
00:57:57,599 --> 00:58:01,019
‎衛星、無人機和感應器的圖像

754
00:58:02,103 --> 00:58:03,396
‎人工智能的一大功能

755
00:58:03,480 --> 00:58:06,774
‎是幫助指揮官更快地了解眼前狀況

756
00:58:07,650 --> 00:58:09,903
‎然後說：“我要做出甚麼決定？”

757
00:58:11,237 --> 00:58:14,866
‎人工智能會考慮所有因素

758
00:58:14,949 --> 00:58:17,702
‎確定作戰方式

759
00:58:18,286 --> 00:58:20,246
‎制訂出策略…

760
00:58:22,540 --> 00:58:25,668
‎並提供取勝的建議

761
00:58:30,256 --> 00:58:32,133
‎（維珍尼亞州 薩福克）

762
00:58:32,217 --> 00:58:34,344
‎（洛克希德馬丁創新中心）

763
00:58:36,971 --> 00:58:40,266
‎洛克希德馬丁創新中心
‎和我們的國防部客戶一樣

764
00:58:40,350 --> 00:58:43,770
‎將人工智能視作指揮控制的

765
00:58:43,853 --> 00:58:45,104
‎關鍵推動技術

766
00:58:47,065 --> 00:58:50,109
‎擴散速度平均為每秒0.6米

767
00:58:50,193 --> 00:58:52,278
‎這片區域大約有283公頃

768
00:58:52,779 --> 00:58:55,782
‎站在防守的立場
‎戰爭迷霧固然是我們面對的現實

769
00:58:57,158 --> 00:59:00,495
‎但這與處在火災環境中

770
00:59:00,578 --> 00:59:03,206
‎必須針對野火作出決定十分相似

771
00:59:03,289 --> 00:59:06,543
‎瓦許柏恩大火就發生在瓦沃納市以北

772
00:59:06,626 --> 00:59:09,629
‎你必須根據不完美的數據作出決定

773
00:59:10,630 --> 00:59:14,300
‎我們要如何利用人工智能
‎幫我們撥開這種戰爭迷霧？

774
00:59:17,637 --> 00:59:19,597
‎野火混亂無序

775
00:59:20,181 --> 00:59:21,266
‎而且非常複雜

776
00:59:22,267 --> 00:59:26,354
‎所以，我們正努力利用人工智能

777
00:59:26,437 --> 00:59:27,855
‎作出決定

778
00:59:31,442 --> 00:59:33,987
‎我們目前構建的“認知任務管理程式”

779
00:59:34,070 --> 00:59:37,949
‎可以拍攝空中紅外線影片

780
00:59:38,032 --> 00:59:41,786
‎然後用我們的
‎人工智能演演算法進行處理

781
00:59:41,869 --> 00:59:45,248
‎以預測未來的火災狀況

782
00:59:48,042 --> 00:59:49,794
‎當我們放眼未來

783
00:59:49,877 --> 00:59:52,922
‎“認知任務管理程式”將利用模擬

784
00:59:53,006 --> 00:59:57,093
‎執行數千個週期的場景

785
00:59:57,176 --> 01:00:00,722
‎推薦最有效的資源調配方式

786
01:00:00,805 --> 01:00:04,058
‎遏止優先級別最高區域的火勢

787
01:00:08,062 --> 01:00:12,400
‎它會告訴你：“出動火鹰戰機
‎在這裏進行空中壓制

788
01:00:13,568 --> 01:00:15,903
‎抽調清理灌木叢的地勤人員

789
01:00:16,946 --> 01:00:19,032
‎架水管噴射的消防隊員

790
01:00:19,657 --> 01:00:23,077
‎把他們派到優先級別最高的區域”

791
01:00:26,289 --> 01:00:29,292
‎決策制訂將會更快

792
01:00:29,375 --> 01:00:31,044
‎更有效率

793
01:00:35,840 --> 01:00:38,468
‎我們認為人工智能以獨特的方式

794
01:00:38,551 --> 01:00:42,305
‎使人類能夠適應不斷變化的環境

795
01:00:43,389 --> 01:00:46,517
‎我們相信有一定數量的實例
‎與我們在洛克希德馬丁創新中心

796
01:00:46,601 --> 01:00:50,355
‎慣用的防護系統有異曲同工之妙

797
01:00:52,231 --> 01:00:55,860
‎軍方不再只是使用人工智能

798
01:00:55,943 --> 01:01:00,323
‎以及單獨武器系統
‎作出瞄準和殺戮的決定

799
01:01:00,865 --> 01:01:02,200
‎而是將人工智能

800
01:01:02,283 --> 01:01:05,787
‎融入軍隊的整個決策結構

801
01:01:09,457 --> 01:01:12,960
‎陸軍有個名叫“融合項目”的重大計劃

802
01:01:14,545 --> 01:01:16,589
‎海軍有“超配計劃”

803
01:01:16,673 --> 01:01:19,592
‎而空軍則有先進戰鬥管理系統

804
01:01:21,886 --> 01:01:24,138
‎國防部正在思考

805
01:01:24,222 --> 01:01:26,683
‎“我們要怎麼把這些東西結合在一起

806
01:01:26,766 --> 01:01:29,268
‎以便能比對手行動得更快

807
01:01:30,395 --> 01:01:32,355
‎並且獲得真正的優勢？”

808
01:01:33,481 --> 01:01:37,527
‎人工智能作戰管理器
‎大約等同一位相當高級的將領

809
01:01:37,610 --> 01:01:39,821
‎主持整個戰鬥

810
01:01:41,155 --> 01:01:44,158
‎協助向大量部隊下達命令

811
01:01:45,118 --> 01:01:49,247
‎協調所有在外武器的行動

812
01:01:49,330 --> 01:01:51,958
‎而且是以人類所不能及的高速進行

813
01:01:53,543 --> 01:01:55,294
‎我們花上過去70年

814
01:01:55,378 --> 01:01:58,798
‎建造世界上最先進的軍隊

815
01:01:58,881 --> 01:02:03,177
‎現在我們要決定
‎是否要把對該等基礎設施的控制權

816
01:02:03,261 --> 01:02:07,598
‎讓給演算法和軟件

817
01:02:10,351 --> 01:02:13,187
‎而這個決定的後果

818
01:02:13,271 --> 01:02:16,774
‎可能會觸動美國軍火儲備的全部力量

819
01:02:16,858 --> 01:02:19,902
‎這不是一次廣島核爆，而是幾百次

820
01:02:25,616 --> 01:02:27,869
‎我們必須立即行動

821
01:02:27,952 --> 01:02:33,166
‎因為遏制風險的空窗期正在迅速流逝

822
01:02:35,126 --> 01:02:39,338
‎今天下午，我們首先探討
‎致命自主武器系統領域的

823
01:02:39,422 --> 01:02:41,132
‎新型技術所帶來的

824
01:02:41,215 --> 01:02:44,343
‎國際安全挑戰

825
01:02:44,427 --> 01:02:47,722
‎聯合國內部正在展開對話

826
01:02:47,805 --> 01:02:50,016
‎討論致命自動武器威脅

827
01:02:50,600 --> 01:02:56,564
‎及禁止使用人工智能
‎挑選和鎖定目標的系統

828
01:02:56,647 --> 01:03:00,777
‎技術專家已經達成了明確的共識

829
01:03:00,860 --> 01:03:04,030
‎我們反對以人類為目標的自主武器

830
01:03:05,615 --> 01:03:08,993
‎多年來，各國其實一直致力探討

831
01:03:09,076 --> 01:03:11,245
‎致命自主武器系統議題

832
01:03:12,288 --> 01:03:16,793
‎此事關係到人類共同的安全感

833
01:03:17,794 --> 01:03:20,546
‎當然，這並不容易

834
01:03:21,297 --> 01:03:25,968
‎某些國家，尤其是軍事強國

835
01:03:26,052 --> 01:03:27,762
‎他們想走在前沿

836
01:03:28,429 --> 01:03:31,599
‎這樣他們才能領先對手

837
01:03:32,600 --> 01:03:36,187
‎問題是，採取行動需要各方達成一致

838
01:03:36,896 --> 01:03:39,065
‎反對的國家肯定不只一個

839
01:03:39,148 --> 01:03:42,109
‎而美國和俄羅斯都已表明立場

840
01:03:42,193 --> 01:03:45,655
‎反對禁止自主武器的條約

841
01:03:47,198 --> 01:03:53,204
‎至於致力強化人工智能的人

842
01:03:54,747 --> 01:03:56,457
‎為數眾多

843
01:03:57,750 --> 01:04:02,880
‎而致力確保
‎人工智能得到安全使用的人

844
01:04:04,340 --> 01:04:07,510
‎卻是寥寥無幾

845
01:04:11,764 --> 01:04:13,724
‎但我同時很樂觀

846
01:04:16,060 --> 01:04:19,480
‎我會想到《禁止生物武器公约》

847
01:04:19,564 --> 01:04:22,358
‎它誕生於冷戰期間

848
01:04:23,025 --> 01:04:27,655
‎縱然美蘇之間劍拔弩張

849
01:04:29,156 --> 01:04:33,536
‎各方依然能意識到，生物武器的開發

850
01:04:33,619 --> 01:04:36,247
‎對各方都沒有好處

851
01:04:36,330 --> 01:04:38,749
‎更不符合全世界的利益

852
01:04:41,335 --> 01:04:44,714
‎軍備競賽重速度而輕安全

853
01:04:45,715 --> 01:04:48,342
‎但我認為必須考慮到

854
01:04:48,426 --> 01:04:52,430
‎到了一定階段
‎高速發展的代價將變得太過高昂

855
01:04:56,225 --> 01:04:59,270
‎我們不能單獨發展某些事物

856
01:05:00,021 --> 01:05:06,611
‎然後貿然推出
‎全然不考慮它們未來將何去何從

857
01:05:07,862 --> 01:05:10,823
‎我們得阻止原子彈爆炸的時刻到來

858
01:05:14,577 --> 01:05:17,705
‎人工智能競賽的賭注龐大

859
01:05:18,289 --> 01:05:22,001
‎我認為沒有多少人懂得珍惜

860
01:05:22,084 --> 01:05:28,174
‎過去75年來擁有強大軍力

861
01:05:28,257 --> 01:05:31,135
‎所帶來的全球穩定

862
01:05:32,887 --> 01:05:35,681
‎所以，美國和我們的盟友

863
01:05:36,557 --> 01:05:38,684
‎必須在人工智能方面戰勝對手

864
01:05:43,314 --> 01:05:44,774
‎戰爭沒有第二名

865
01:05:45,524 --> 01:05:49,111
‎中國提出了雄心勃勃的計劃
‎要在2030年前主宰全球人工智能領域

866
01:05:49,195 --> 01:05:51,656
‎有人說，美國正在失利…

867
01:05:52,740 --> 01:05:56,160
‎我們將加速人工智能的應用

868
01:05:56,243 --> 01:05:59,246
‎確保我們的軍事競爭優勢

869
01:06:02,875 --> 01:06:05,461
‎我們正利用這項技術迅速向前邁進

870
01:06:05,544 --> 01:06:08,673
‎至於要走多遠，目前還不甚明朗

871
01:06:09,507 --> 01:06:12,760
‎是我們控制技術還是技術控制我們？

872
01:06:14,136 --> 01:06:16,973
‎實在沒有機會重來

873
01:06:17,807 --> 01:06:20,977
‎一旦精靈從瓶子裏出來

874
01:06:22,019 --> 01:06:25,189
‎就很難把它關回去

875
01:06:28,609 --> 01:06:31,737
‎如果我們現在不行動，就將為時已晚

876
01:06:33,114 --> 01:06:34,657
‎現在可能已然太晚

877
01:08:48,124 --> 01:08:53,254
‎字幕翻譯：Kate



