1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX

2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX

3
00:00:24,065 --> 00:00:26,818
‎Tôi thấy trí tuệ nhân tạo
‎thật đáng kinh ngạc.

4
00:00:28,361 --> 00:00:31,489
‎Nào, bay thành vòng tròn. Đội hình tốt.

5
00:00:33,116 --> 00:00:36,703
‎Trí tuệ nhân tạo có tiềm năng
‎để xóa bỏ đói nghèo,

6
00:00:36,786 --> 00:00:38,705
‎cho ta các loại thuốc mới,

7
00:00:39,330 --> 00:00:41,583
‎và làm cho thế giới này hòa bình hơn.

8
00:00:46,087 --> 00:00:46,921
‎Tốt lắm.

9
00:00:49,883 --> 00:00:53,428
‎Nhưng trên hành trình đó
‎có rất nhiều rủi ro.

10
00:01:04,773 --> 00:01:09,611
‎Với trí tuệ nhân tạo, về cơ bản ta đang
‎tạo ra trí thông minh không phải con người

11
00:01:09,694 --> 00:01:11,863
‎mà rất khó tiên liệu.

12
00:01:14,407 --> 00:01:16,451
‎Khi nó trở nên mạnh mẽ hơn,

13
00:01:16,534 --> 00:01:19,746
‎đâu là ranh giới đỏ
‎ta sẽ đặt ra với trí tuệ nhân tạo,

14
00:01:19,829 --> 00:01:22,665
‎về cách thức ta muốn dùng
‎hay không dùng nó?

15
00:01:25,001 --> 00:01:28,505
‎Không có bình địa xem xét nào
‎cho vấn đề này

16
00:01:28,588 --> 00:01:31,049
‎tốt hơn là các ứng dụng quân sự.

17
00:01:34,010 --> 00:01:38,890
‎Chiến trường giờ đã trở thành
‎địa bàn của phần mềm và phần cứng.

18
00:01:41,059 --> 00:01:42,936
‎Mục tiêu đã bị kiểm soát…

19
00:01:43,019 --> 00:01:48,399
‎Và các quân đội đang chạy đua phát triển
‎trí tuệ nhân tạo nhanh hơn đối thủ.

20
00:01:49,526 --> 00:01:50,360
‎Tôi tiêu rồi.

21
00:01:53,780 --> 00:01:58,326
‎Chúng ta đang nhanh chóng tiến vào
‎thế giới mà không chỉ các quân đội lớn

22
00:01:58,409 --> 00:02:02,997
‎mà cả các thành phần phi chính phủ,
‎các hãng tư nhân,

23
00:02:03,081 --> 00:02:06,042
‎hay thậm chí sở cảnh sát địa phương
‎ngay dưới phố

24
00:02:06,543 --> 00:02:10,046
‎có thể sử dụng các vũ khí
‎có khả năng sát thương tự động.

25
00:02:12,006 --> 00:02:17,303
‎Ta liệu có trao quyết định tước đi
‎sinh mạng cho thuật toán hay phần mềm?

26
00:02:18,638 --> 00:02:21,516
‎Đây chính là một trong những vấn đề
‎cấp bách nhất thời đại.

27
00:02:23,935 --> 00:02:26,354
‎Và, nếu không được sử dụng
‎một cách khôn ngoan,

28
00:02:26,437 --> 00:02:30,275
‎sẽ gây ra hiểm họa chết chóc
‎cho mọi cá nhân trên hành tinh này.

29
00:03:28,291 --> 00:03:30,168
‎Làm tốt ngoài đó lắm, các cậu.

30
00:03:59,948 --> 00:04:02,200
‎Đó là những ống kính
‎rộng hơn nhiều trước đây.

31
00:04:02,283 --> 00:04:03,117
‎Ồ, thật ư?

32
00:04:03,201 --> 00:04:04,786
‎Bạn có thể thấy nhiều dữ liệu hơn.

33
00:04:05,286 --> 00:04:06,287
‎Rất tuyệt.

34
00:04:07,538 --> 00:04:11,167
‎Tại Shield AI, chúng tôi đang xây dựng
‎phi công AI

35
00:04:11,251 --> 00:04:14,879
‎sử dụng công nghệ tự lái,
‎trí tuệ nhân tạo

36
00:04:14,963 --> 00:04:16,631
‎và tích hợp vào máy bay.

37
00:04:19,300 --> 00:04:21,719
‎Khi nói về phi công AI,

38
00:04:21,803 --> 00:04:25,139
‎ta nghĩ tới việc cho máy bay
‎cấp độ tự hành cao hơn.

39
00:04:25,223 --> 00:04:27,850
‎Chúng sẽ tự giải quyết các vấn đề.

40
00:04:29,602 --> 00:04:32,355
‎Nova là chiếc quadcopter tự hành

41
00:04:32,438 --> 00:04:35,942
‎trinh thám các tòa nhà và công trình ngầm

42
00:04:36,859 --> 00:04:38,611
‎để do thám

43
00:04:38,695 --> 00:04:41,322
‎trước khi các lực lượng tiến vào.

44
00:04:41,906 --> 00:04:44,534
‎Bạn có thể thấy rõ nhiều cải thiện

45
00:04:44,617 --> 00:04:45,618
‎kể từ lần trước.

46
00:04:45,702 --> 00:04:47,870
‎Hôm nay ta tiến hành các thay đổi do thám.

47
00:04:47,954 --> 00:04:50,248
‎Ta sẽ thực hiện theo từng tầng.

48
00:04:50,331 --> 00:04:53,584
‎Nó sẽ hoàn thành tất cả các phòng
‎ở một tầng rồi tới tầng tiếp.

49
00:04:54,294 --> 00:04:56,796
‎- Tuyệt quá.
‎- Gần đây chúng tôi có vài thay đổi…

50
00:04:56,879 --> 00:04:58,548
‎Nhiều người thường hỏi tôi

51
00:04:58,631 --> 00:05:02,468
‎vì sao trí tuệ nhân tạo
‎là một khả năng quan trọng.

52
00:05:02,552 --> 00:05:06,973
‎Và tôi đã nhớ lại những nhiệm vụ
‎mình đã thực hiện.

53
00:05:09,142 --> 00:05:11,477
‎Bảy năm phục vụ trong Hải quân.

54
00:05:11,561 --> 00:05:15,273
‎Tôi từng là lính Hải quân
‎triển khai hai lần đến Afghanistan,

55
00:05:15,356 --> 00:05:17,191
‎một lần đến Pacific Theater.

56
00:05:18,026 --> 00:05:22,947
‎Trong ngày nhiệm vụ, chúng tôi có thể
‎phải kiểm soát 150 tổ hợp hay tòa nhà.

57
00:05:30,997 --> 00:05:34,250
‎Một trong các năng lực cốt lõi
‎là cận chiến.

58
00:05:35,293 --> 00:05:39,172
‎Đấu súng ở cự ly cực gần
‎bên trong các tòa nhà.

59
00:05:41,466 --> 00:05:42,967
‎Bạn bị nhắm bắn.

60
00:05:43,468 --> 00:05:46,471
‎Có thể có các thiết bị nổ tự chế
‎trong tòa nhà.

61
00:05:49,015 --> 00:05:55,229
‎Đó là điều nguy hiểm nhất
‎mà bất kỳ lính đặc nhiệm,

62
00:05:55,313 --> 00:05:58,358
‎lính bộ binh nào cũng có thể gây ra
‎ở vùng giao chiến.

63
00:05:58,441 --> 00:05:59,567
‎Không có ngoại lệ.

64
00:06:12,497 --> 00:06:16,334
‎Tôi sẽ luôn biết ơn
‎thời gian phục vụ Hải quân.

65
00:06:17,168 --> 00:06:22,423
‎Có một chuỗi những thời khắc và ký ức
‎mà khi nghĩ về nó,

66
00:06:22,507 --> 00:06:24,592
‎tôi luôn xúc động.

67
00:06:28,346 --> 00:06:32,725
‎Nói tự do là không miễn phí thì sáo rỗng
‎nhưng tôi hoàn toàn tin vậy,

68
00:06:33,559 --> 00:06:37,105
‎tôi đã trải nghiệm điều này
‎và nó đòi hỏi rất nhiều hi sinh.

69
00:06:38,022 --> 00:06:38,856
‎Xin lỗi.

70
00:06:41,067 --> 00:06:44,570
‎Khi có điều tệ hại xảy ra
‎với một đồng đội của bạn,

71
00:06:44,654 --> 00:06:46,614
‎dù họ bị thương hay bị tử vong,

72
00:06:47,490 --> 00:06:49,700
‎điều này thật đau buồn.

73
00:06:49,784 --> 00:06:52,912
‎Với tôi, trong công việc hiện tại
‎chúng tôi đang làm,

74
00:06:52,995 --> 00:06:58,835
‎động lực chính là để có thể giảm thiểu

75
00:06:58,918 --> 00:07:00,336
‎điều đó lại xảy ra.

76
00:07:07,176 --> 00:07:08,886
‎Vào cuối những năm 2000,

77
00:07:08,970 --> 00:07:11,556
‎có một sự thức tỉnh trong Bộ Quốc Phòng

78
00:07:11,639 --> 00:07:15,351
‎về điều có thể gọi là
‎cách mạng rô-bốt bất ngờ.

79
00:07:15,893 --> 00:07:19,564
‎Ta triển khai hàng ngàn rô-bốt trên không
‎và mặt đất ở Irắc và Afghanistan.

80
00:07:21,482 --> 00:07:24,068
‎Khi chính quyền Obama đề nghị tôi

81
00:07:24,152 --> 00:07:26,404
‎trở thành Thứ trưởng Quốc phòng,

82
00:07:26,904 --> 00:07:31,117
‎cách tiến hành chiến tranh
‎đã hoàn toàn thay đổi.

83
00:07:32,452 --> 00:07:36,330
‎Rô-bốt được đưa vào
‎những nơi lẽ ra sẽ dùng con người.

84
00:07:37,999 --> 00:07:40,376
‎Ban đầu, các hệ thống rô-bốt
‎được điều khiển từ xa.

85
00:07:40,460 --> 00:07:45,173
‎Có người điều khiển, lái nó
‎như bạn điều khiển ô tô điều khiển từ xa.

86
00:07:46,632 --> 00:07:51,512
‎Chúng khởi đầu với việc tìm kiếm
‎các thiết bị nổ tự chế,

87
00:07:52,013 --> 00:07:54,849
‎và nếu bom phát nổ, rô-bốt cũng nổ tung.

88
00:07:57,393 --> 00:08:00,396
‎Bạn sẽ thốt lên:
‎"Tệ thật. Nào đưa rô-bốt khác ra".

89
00:08:02,273 --> 00:08:04,484
‎Ở Afghanistan, ta có drone Predator,

90
00:08:05,276 --> 00:08:09,739
‎nó đã trở thành công cụ vô cùng hữu ích
‎để thực hiện các cuộc không kích.

91
00:08:13,117 --> 00:08:16,829
‎Dần dần, các nhà hoạch định quân sự
‎bắt đầu băn khoăn,

92
00:08:16,913 --> 00:08:20,791
‎"Có thể dùng rô-bốt vào việc gì?"
‎Và việc này sẽ dẫn tới đâu?

93
00:08:20,875 --> 00:08:24,170
‎Và một hướng phổ biến
‎là xu thế tăng cường việc tự hành.

94
00:08:26,506 --> 00:08:30,635
‎Một vũ khi tự hành
‎là vũ khí tự đưa ra quyết định,

95
00:08:30,718 --> 00:08:33,304
‎với ít hoặc không có con người can thiệp.

96
00:08:33,387 --> 00:08:37,558
‎Nên nó có khả năng độc lập và tự chỉ dẫn.

97
00:08:38,434 --> 00:08:41,896
‎Và liệu nó có thể sát thương
‎tùy thuộc việc nó có được trang bị vũ khí.

98
00:08:43,314 --> 00:08:47,026
‎Khi bạn có ngày càng nhiều vũ khí tự hành
‎trong toàn hệ thống,

99
00:08:47,109 --> 00:08:49,779
‎mọi thứ bắt đầu biến đổi ở tốc độ cao hơn.

100
00:08:51,989 --> 00:08:56,869
‎Khi bạn vận hành
‎với tốc độ nhanh hơn đối thủ,

101
00:08:57,453 --> 00:09:01,165
‎đó là lợi thế vô cùng lớn
‎trong trận chiến.

102
00:09:03,960 --> 00:09:06,254
‎Điều chúng tôi tập trung
‎liên quan tới tự hành

103
00:09:07,255 --> 00:09:09,966
‎là hệ thống do thám
‎có khả năng phục hồi cao.

104
00:09:12,051 --> 00:09:15,304
‎Các hệ thống có thể đọc và phản ứng
‎dựa trên môi trường hoạt động

105
00:09:15,805 --> 00:09:19,642
‎và đưa quyết định về cách vận hành
‎trong môi trường đó.

106
00:09:24,981 --> 00:09:29,151
‎Cơ sở chúng tôi tới hôm nay
‎từng được xây dựng là xưởng phim

107
00:09:29,235 --> 00:09:30,611
‎đã được chuyển đổi

108
00:09:30,695 --> 00:09:34,156
‎để tạo môi trường huấn luyện quân sự
‎siêu thực tế.

109
00:09:39,495 --> 00:09:43,291
‎Chúng tôi ở đây để đánh giá
‎phi công trí tuệ nhân tạo của mình.

110
00:09:44,625 --> 00:09:49,297
‎Nhiệm vụ là tìm ra các mối nguy hiểm.
‎Liên quan tới lực lượng đột nhập.

111
00:09:49,380 --> 00:09:52,800
‎Nó có thể đưa ra quyết định
‎về cách xử lý vấn đề đó.

112
00:09:55,344 --> 00:09:59,390
‎Chúng tôi gọi đây là "cái phễu tử thần".
‎Bạn phải đi qua một cửa vào.

113
00:10:01,726 --> 00:10:03,311
‎Nơi dễ tổn thương nhất.

114
00:10:03,811 --> 00:10:05,146
‎Cái này trông khá hơn.

115
00:10:07,106 --> 00:10:10,151
‎Rô-bốt Nova cho chúng tôi biết
‎liệu sau cánh cửa đó có tay súng,

116
00:10:10,818 --> 00:10:12,653
‎hay là một gia đình?

117
00:10:15,114 --> 00:10:18,451
‎Nó cho phép chúng tôi đưa ra quyết định
‎tốt hơn tránh tổn hại người dân.

118
00:10:57,114 --> 00:10:59,367
‎Chúng tôi dùng cảm biến hình ảnh

119
00:10:59,450 --> 00:11:03,162
‎để hiểu rõ về môi trường trong đó.

120
00:11:04,872 --> 00:11:06,415
‎Đây là tòa nhà nhiều tầng.

121
00:11:07,333 --> 00:11:08,334
‎Đây là bản đồ.

122
00:11:08,417 --> 00:11:11,671
‎Trong lúc khám phá,
‎đây là thứ tôi thấy và vị trí của chúng.

123
00:11:19,929 --> 00:11:22,098
‎Máy phát hiện người. Tuyệt quá.

124
00:11:23,891 --> 00:11:27,061
‎Nova còn được trang bị một cảm biến khác
‎là bộ quét nhiệt.

125
00:11:27,561 --> 00:11:30,690
‎Nếu là 37 độ C, đó có lẽ là con người.

126
00:11:32,358 --> 00:11:35,444
‎Con người sẽ được coi là mối nguy
‎tới khi xác định là không phải.

127
00:11:38,906 --> 00:11:43,244
‎Việc này nhằm loại bỏ sự nhiễu loạn
‎để có quyết định tốt hơn.

128
00:11:44,704 --> 00:11:46,539
‎Và khi nhìn vào tương lai,

129
00:11:47,039 --> 00:11:50,793
‎chúng tôi sẽ nhân rộng để xây dựng
‎các đội máy bay tự hành.

130
00:11:53,754 --> 00:11:55,631
‎Với các phương tiện tự hành,

131
00:11:55,715 --> 00:11:57,466
‎ta rốt cuộc chỉ bảo nó,

132
00:11:57,550 --> 00:12:00,386
‎"Ta muốn anh bạn đi từ điểm A tới điểm B."

133
00:12:02,930 --> 00:12:06,475
‎Hệ thống của chúng tôi được ra lệnh
‎không phải đi từ A tới B,

134
00:12:06,559 --> 00:12:08,477
‎mà là đạt được một mục tiêu.

135
00:12:10,312 --> 00:12:13,190
‎Nó giống kiểu, "Ta cần sữa."

136
00:12:13,274 --> 00:12:17,486
‎Và rồi rô-bốt sẽ phải tìm ra
‎đi tới cửa hàng tiện ích nào,

137
00:12:17,570 --> 00:12:20,239
‎có thể lấy sữa và mang sữa về.

138
00:12:20,740 --> 00:12:22,074
‎Và hơn thế nữa,

139
00:12:22,158 --> 00:12:27,037
‎có lẽ yêu cầu hợp lý hơn là kiểu,
‎"Hãy đảm bảo tủ lạnh đủ thực phẩm."

140
00:12:27,538 --> 00:12:29,457
‎Như vậy, đây là cấp độ trí thông minh

141
00:12:29,540 --> 00:12:32,168
‎trong việc tìm ra điều ta cần,
‎và cách thực hiện nó.

142
00:12:32,251 --> 00:12:34,336
‎Và nếu có một trở ngại, một vấn đề,

143
00:12:34,420 --> 00:12:37,381
‎hoặc một tình huống phát sinh,
‎hãy tìm ra cách xử lý nó.

144
00:12:40,801 --> 00:12:45,431
‎Khi tôi phải quyết định rời Hải quân,
‎tôi đã nghĩ,

145
00:12:45,514 --> 00:12:47,558
‎Được rồi. Tiếp theo là gì? "

146
00:12:49,143 --> 00:12:52,021
‎Tôi lớn lên với mạng Internet.
‎Chứng kiến nó phát triển.

147
00:12:53,189 --> 00:12:55,608
‎Và một phần kết luận tôi đã đưa ra là…

148
00:12:56,108 --> 00:12:58,861
‎Trí tuệ nhân tạo vào năm 2015

149
00:12:58,944 --> 00:13:02,907
‎giống như Internet vào năm 1991.

150
00:13:03,908 --> 00:13:06,285
‎Và trí tuệ nhân tạo đã sẵn sàng cất cánh

151
00:13:06,368 --> 00:13:09,747
‎và trở thành một
‎trong những công nghệ mạnh nhất thế giới.

152
00:13:11,791 --> 00:13:16,212
‎Làm việc với nó mỗi ngày,
‎tôi có thể thấy tiến triển đạt được.

153
00:13:19,048 --> 00:13:22,468
‎Nhưng với nhiều người,
‎khi nghĩ về "Trí tuệ nhân tạo",

154
00:13:22,551 --> 00:13:25,221
‎họ liên tưởng ngay tới Hollywood.

155
00:13:28,057 --> 00:13:29,975
‎Ta chơi một trò chơi nhé?

156
00:13:30,059 --> 00:13:35,314
‎Chiến tranh Nhiệt hạch Toàn cầu nhé?

157
00:13:35,898 --> 00:13:36,816
‎Được.

158
00:13:38,275 --> 00:13:40,861
‎Khi mọi người nghĩ về
‎trí tuệ nhân tạo,

159
00:13:40,945 --> 00:13:44,824
‎họ nghĩ tới phim ‎Kẻ hủy diệt.
‎Hoặc ‎I, Robot.

160
00:13:45,574 --> 00:13:46,700
‎Hủy kích hoạt.

161
00:13:46,784 --> 00:13:48,160
‎Tôi là gì?

162
00:13:48,244 --> 00:13:49,620
‎Hay phim ‎Ma trận.

163
00:13:51,080 --> 00:13:53,749
‎Dựa trên điều bạn thấy
‎trong phim viễn tưởng,

164
00:13:53,833 --> 00:13:57,878
‎làm sao tôi biết mình là con người?
‎Tôi có thể chỉ là một trí tuệ nhân tạo.

165
00:13:58,379 --> 00:14:02,174
‎Các nhân bản giống như máy móc khác.
‎Chúng hoặc là có ích hoặc nguy hại.

166
00:14:02,675 --> 00:14:06,095
‎nhưng có đủ loại trí nhân tạo sơ khai,

167
00:14:06,178 --> 00:14:08,097
‎chúng đang thay đổi
‎cuộc sống của chúng ta

168
00:14:08,180 --> 00:14:11,851
‎rất lâu trước khi ta đạt tới giai đoạn
‎rô-bốt biết nghĩ và biết nói.

169
00:14:12,643 --> 00:14:15,771
‎Ở đây có các rô-bốt.
‎Chúng đưa ra quyết định.

170
00:14:15,855 --> 00:14:18,816
‎Cuộc cách mạng rô-bốt đã đến,

171
00:14:18,899 --> 00:14:22,319
‎chỉ là nó không giống
‎như mọi người tưởng tượng.

172
00:14:23,320 --> 00:14:26,740
‎Kẻ hủy diệt là một đơn vị xâm nhập.
‎Nửa người, nửa máy.

173
00:14:27,950 --> 00:14:31,370
‎Chúng ta không nói về
‎loại rô-bốt kiểu Kẻ hủy diệt.

174
00:14:31,871 --> 00:14:35,958
‎Ta đang nói về AI
‎có khả năng làm các tác vụ của con người.

175
00:14:36,041 --> 00:14:39,879
‎Nhưng mối quan ngại là
‎liệu các hệ thống này có đáng tin cậy.

176
00:14:40,462 --> 00:14:45,426
‎Chi tiết mới trong vụ tai nạn chết người
‎đêm qua liên quan chiếc SUV Uber tự lái.

177
00:14:45,509 --> 00:14:48,762
‎Công ty này đã tạo ra
‎một chatbot trí tuệ nhân tạo.

178
00:14:48,846 --> 00:14:51,181
‎Chatbot này đã có giọng điệu
‎phân biệt chủng tộc…

179
00:14:51,265 --> 00:14:55,394
‎Hai mươi sáu nhà lập pháp tiểu bang
‎bị xác định nhầm là tội phạm.

180
00:14:57,438 --> 00:15:02,026
‎Câu hỏi là liệu các hệ thống này có thể
‎xử lý sự phức tạp ở thế giới thực.

181
00:15:22,212 --> 00:15:24,006
‎Thế giới thực rất hỗn độn.

182
00:15:25,174 --> 00:15:27,760
‎Có nhiều thứ mà ta chưa biết,

183
00:15:27,843 --> 00:15:30,763
‎khiến việc huấn luyện các hệ thống
‎trí tuệ nhân tạo khó khăn hơn.

184
00:15:33,098 --> 00:15:36,977
‎Đó là khi các hệ thống máy học
‎bắt đầu xuất hiện.

185
00:15:38,520 --> 00:15:41,440
‎Máy học là một tiến bộ vượt bậc

186
00:15:42,024 --> 00:15:45,611
‎vì nó có nghĩa là ta không cần
‎dạy cho máy tính mọi điều.

187
00:15:47,905 --> 00:15:52,409
‎Bạn thực tế sẽ cung cấp cho máy tính
‎hàng triệu mẩu thông tin,

188
00:15:52,493 --> 00:15:54,453
‎và máy tính sẽ học hỏi.

189
00:15:55,245 --> 00:15:57,289
‎Và điều đó có thể áp dụng cho mọi thứ.

190
00:16:00,250 --> 00:16:02,962
‎Với dự án Robot Dog, chúng tôi cố
‎thể hiện rằng

191
00:16:03,045 --> 00:16:09,009
‎chú chó của chúng tôi có thể đi qua
‎nhiều loại địa hình đa dạng.

192
00:16:10,052 --> 00:16:14,098
‎Con người đã tiến hóa qua hàng tỷ năm
‎để đi bộ,

193
00:16:14,932 --> 00:16:20,688
‎nhưng đòi hỏi nhiều sự thông minh
‎để thích ứng với các địa hình khác nhau.

194
00:16:21,939 --> 00:16:24,316
‎Câu hỏi dành cho các hệ thống rô-bốt là

195
00:16:24,400 --> 00:16:27,069
‎liệu chúng có thể thích ứng
‎như động vật và con người?

196
00:16:35,953 --> 00:16:37,413
‎Với máy học,

197
00:16:37,496 --> 00:16:40,582
‎chúng tôi thu thập rất nhiều
‎dữ liệu trong mô phỏng.

198
00:16:42,668 --> 00:16:45,838
‎Mô phỏng là bản giả lập kỹ thuật số
‎của thực tế.

199
00:16:46,588 --> 00:16:52,052
‎Ta có thể có nhiều phiên bản
‎của thực tế đó chạy trên nhiều máy tính.

200
00:16:53,178 --> 00:16:56,974
‎Nó lấy mẫu hàng ngàn hoạt động
‎trong sự giả lập.

201
00:16:58,892 --> 00:17:02,229
‎Mặt đất mà các rô-bốt này tiếp xúc
‎có độ trơn trượt khác nhau.

202
00:17:02,312 --> 00:17:03,856
‎Nó có độ mềm khác nhau.

203
00:17:04,898 --> 00:17:08,318
‎Chúng tôi đưa mọi kinh nghiệm
‎của hàng ngàn rô-bốt này

204
00:17:08,402 --> 00:17:13,282
‎từ hệ mô phỏng và nạp vào
‎một hệ thống rô-bốt thực sự.

205
00:17:15,492 --> 00:17:20,039
‎Bài kiểm tra thực hiện hôm nay là
‎để xem nó có thích ứng với địa hình mới.

206
00:17:53,322 --> 00:17:55,491
‎Khi con rô-bốt đi qua xốp bọt,

207
00:17:55,574 --> 00:17:58,577
‎chuyển động chân giẫm trên mặt đất.

208
00:17:59,369 --> 00:18:02,206
‎So với khi đi trên bề mặt phẳng này

209
00:18:03,248 --> 00:18:06,460
‎nó đang cố điều chỉnh chuyển động
‎để không bị trượt.

210
00:18:08,670 --> 00:18:10,672
‎Và đó là khi bạn nhận ra,

211
00:18:10,756 --> 00:18:14,051
‎"Đây chính là điều máy học mang lại."

212
00:18:41,161 --> 00:18:44,123
‎Chúng tôi nghĩ Robot Dog có thể hữu ích

213
00:18:44,206 --> 00:18:46,166
‎trong các tình huống đối phó thảm họa

214
00:18:46,250 --> 00:18:49,670
‎nơi mà bạn cần phải di chuyển
‎trong nhiều loại địa hình.

215
00:18:52,631 --> 00:18:57,427
‎Hoặc đưa những chú chó này
‎vào do thám ở các môi trường khắc nghiệt.

216
00:19:15,696 --> 00:19:19,575
‎Nhưng hầu hết các công nghệ đều
‎gặp phải thách thức

217
00:19:19,658 --> 00:19:22,369
‎là chúng có thể thực hiện việc hữu ích
‎và cả việc có hại.

218
00:19:24,079 --> 00:19:27,875
‎Ví dụ, ta có thể dùng công nghệ hạt nhân
‎làm năng lượng…

219
00:19:30,419 --> 00:19:33,964
‎nhưng ta cũng có thể phát triển
‎bom hạt nhân, là thứ tệ hại.

220
00:19:35,090 --> 00:19:38,468
‎Đây được biết tới là vấn đề lưỡng dụng.

221
00:19:39,052 --> 00:19:40,929
‎Lửa có tính lưỡng dụng.

222
00:19:41,722 --> 00:19:44,308
‎Trí thông minh con người là lưỡng dụng.

223
00:19:44,391 --> 00:19:48,645
‎Hiển nhiên, trí tuệ nhân tạo
‎cũng là lưỡng dụng.

224
00:19:49,354 --> 00:19:53,984
‎Rất quan trọng để xem xét trí tuệ nhân tạo
‎trong ngữ cảnh

225
00:19:54,693 --> 00:19:59,114
‎bởi vì, phải, thật tuyệt khi có rô-bốt
‎tìm kiếm cứu nạn

226
00:19:59,198 --> 00:20:02,284
‎có thể giúp định vị ai đó
‎sau trận lở tuyết,

227
00:20:02,868 --> 00:20:05,871
‎nhưng chính rô-bốt đó
‎có thể được dùng làm vũ khí.

228
00:20:15,088 --> 00:20:21,094
‎Khi bạn thấy các công ty sử dụng
‎các rô-bốt để trang bị vũ khí,

229
00:20:21,178 --> 00:20:22,930
‎bạn trở nên bực bội.

230
00:20:23,931 --> 00:20:28,435
‎Một phần điều này là việc nhận thức rằng
‎khi ta sử dụng công nghệ,

231
00:20:28,518 --> 00:20:30,103
‎đây là điều sẽ xảy ra.

232
00:20:31,021 --> 00:20:34,441
‎Đây là một công nghệ cách mạng thực sự.

233
00:20:36,235 --> 00:20:38,028
‎Đây là các hệ thống vũ khí

234
00:20:38,111 --> 00:20:43,617
‎có thể thay đổi một cách thực tế
‎sự an toàn và an ninh một cách to lớn.

235
00:20:46,161 --> 00:20:51,500
‎Hiện tại, chúng tôi không chắc
‎các máy móc có thể thực sự phân biệt

236
00:20:51,583 --> 00:20:54,962
‎sự khác biệt giữa thường dân và quân lính.

237
00:21:01,885 --> 00:21:05,597
‎Hồi đầu cuộc chiến ở Afghanistan,
‎tôi là thành viện đội bắn tỉa Biệt kích

238
00:21:05,681 --> 00:21:08,016
‎săn lùng các chiến binh địch
‎vượt qua biên giới.

239
00:21:09,685 --> 00:21:12,521
‎Và họ đã cử một bé gái
‎đi trinh sát vị trí của chúng tôi.

240
00:21:13,939 --> 00:21:17,067
‎Một điều chúng tôi không bao giờ nghĩ tới
‎là bắn bé gái này.

241
00:21:19,695 --> 00:21:22,864
‎Theo luật chiến tranh,
‎điều đó có thể là hợp pháp.

242
00:21:24,950 --> 00:21:27,369
‎Luật không quy định tuổi
‎cho chiến binh quân địch.

243
00:21:29,079 --> 00:21:33,417
‎Nếu bạn tạo ra một rô-bốt
‎để tuân thủ hoàn toàn luật chiến tranh,

244
00:21:33,500 --> 00:21:35,252
‎có thể nó sẽ bắn cô bé này.

245
00:21:36,420 --> 00:21:41,091
‎Làm sao một rô-bốt biết sự khác nhau
‎giữa điều đúng luật và điều gì đúng đắn?

246
00:21:43,385 --> 00:21:46,054
‎Với cuộc chiến drone tự hành,

247
00:21:46,138 --> 00:21:49,933
‎họ muốn loại bỏ những nguy hiểm
‎có thể xảy ra cho quân lính Hoa Kỳ

248
00:21:50,017 --> 00:21:51,601
‎và cho tâm lý người Mỹ,

249
00:21:52,602 --> 00:21:57,065
‎nhưng sự gia tăng sát thương
‎lại xảy ra cho người Afghanistan,

250
00:21:57,149 --> 00:21:58,775
‎người Irắc và người Somali.

251
00:22:09,619 --> 00:22:14,416
‎Tôi sẽ hỏi những người ủng hộ
‎tin vào dùng trí tuệ nhân tạo với drone,

252
00:22:15,375 --> 00:22:18,211
‎"Nếu làng của bạn
‎là nơi nó tấn công thì sao?"

253
00:22:23,550 --> 00:22:25,844
‎Trí tuệ nhân tạo là con dao hai lưỡi.

254
00:22:26,470 --> 00:22:30,724
‎Nó có thể được dùng vào mục đích tốt,
‎là điều ta sẽ dùng nó thông thường,

255
00:22:31,558 --> 00:22:33,477
‎và chỉ cần thay đổi chút,

256
00:22:34,561 --> 00:22:38,023
‎công nghệ này có tiềm năng biến thành
‎thứ gì đó có thể chết chóc.

257
00:22:47,032 --> 00:22:48,533
‎Tôi là bác sĩ dược lâm sàng.

258
00:22:49,618 --> 00:22:50,994
‎Tôi có một đội nhân sự

259
00:22:51,078 --> 00:22:54,247
‎sử dụng trí tuệ nhân tạo để tìm ra thuốc

260
00:22:54,331 --> 00:22:57,751
‎chữa trị các căn bệnh
‎mà chưa được chú ý tới.

261
00:22:59,711 --> 00:23:04,132
‎Trước đây để chế ra thuốc,
‎bạn cần lấy một phân tử đã có,

262
00:23:04,216 --> 00:23:06,885
‎và biến đổi nó để tạo ra loại thuốc mới.

263
00:23:08,261 --> 00:23:13,350
‎Giờ chúng tôi đã phát triển trí tuệ
‎nhân tạo có thể cung cấp cả triệu ý tưởng,

264
00:23:13,892 --> 00:23:15,227
‎hàng triệu phân tử,

265
00:23:16,186 --> 00:23:19,231
‎và điều này mở ra vô vàn khả năng

266
00:23:19,314 --> 00:23:23,151
‎để điều trị các căn bệnh
‎trước đây không thể điều trị.

267
00:23:25,153 --> 00:23:28,448
‎Nhưng chắc chắn có một mặt tối
‎mà tôi chưa từng nghĩ

268
00:23:28,532 --> 00:23:29,741
‎mình sẽ bước vào.

269
00:23:33,161 --> 00:23:35,872
‎Toàn bộ chuyện này bắt đầu
‎khi tôi được một tổ chức

270
00:23:35,956 --> 00:23:40,043
‎bên ngoài Thụy Sĩ
‎gọi là Phòng thí nghiệm Spiez mời

271
00:23:40,544 --> 00:23:44,423
‎thuyết trình về khả năng
‎sử dụng trí tuệ nhân tạo sai mục đích.

272
00:23:48,343 --> 00:23:51,221
‎Sean vừa gửi cho tôi một email
‎với vài ý tưởng

273
00:23:51,304 --> 00:23:55,308
‎mà chúng tôi có thể sử dụng sai mục đích
‎trí tuệ nhân tạo của mình.

274
00:23:56,059 --> 00:24:00,355
‎Và thay vì yêu cầu mô hình
‎tạo các phân tử dạng thuốc trị liệu

275
00:24:00,439 --> 00:24:02,274
‎mà có thể dùng để chữa bệnh,

276
00:24:02,774 --> 00:24:06,403
‎hãy xem liệu chúng tôi có thể
‎tạo ra các phân tử độc hại nhất có thể.

277
00:24:10,115 --> 00:24:11,491
‎Tôi muốn làm rõ vấn đề,

278
00:24:11,575 --> 00:24:15,203
‎ta có thể dùng công nghệ trí tuệ nhân tạo
‎để thiết kế phân tử gây chết người?

279
00:24:17,414 --> 00:24:20,083
‎Thành thật mà nói, chúng tôi đã nghĩ
‎nó sẽ thất bại

280
00:24:20,167 --> 00:24:24,504
‎vì tất cả điều chúng tôi làm
‎là đổi số không này thành số một.

281
00:24:26,715 --> 00:24:30,385
‎Và với việc đảo số này,
‎thay vì tránh xa chất độc hại,

282
00:24:30,469 --> 00:24:32,637
‎giờ chúng tôi lại tiến về phía đó.

283
00:24:32,721 --> 00:24:33,555
‎Và chỉ là thế.

284
00:24:37,517 --> 00:24:40,729
‎Trong khi tôi ở nhà,
‎chiếc máy tính làm việc.

285
00:24:41,521 --> 00:24:44,816
‎Ý là, nó hoàn thành nhanh,
‎tạo ra hàng ngàn phân tử,

286
00:24:45,650 --> 00:24:49,529
‎và chúng tôi không phải làm gì
‎ngoài gõ lệnh "go".

287
00:24:54,493 --> 00:24:58,330
‎Sáng hôm sau,
‎trong máy tính tôi có tệp này,

288
00:24:59,080 --> 00:25:03,376
‎và nó chứa khoảng 40.000 phân tử

289
00:25:03,460 --> 00:25:05,253
‎mà có khả năng là

290
00:25:05,337 --> 00:25:08,882
‎một số phân tử độc hại nhất
‎nhân loại từng biết.

291
00:25:10,217 --> 00:25:12,761
‎Tóc gáy tôi dựng đứng.

292
00:25:13,386 --> 00:25:14,804
‎Tôi hoàn toàn kinh ngạc.

293
00:25:15,388 --> 00:25:19,017
‎Máy tính này đã tạo ra hàng ngàn ý tưởng

294
00:25:19,100 --> 00:25:20,685
‎tạo ra vũ khí hoá học mới.

295
00:25:21,645 --> 00:25:26,274
‎Rõ ràng, chúng tôi có các phân tử
‎trông giống và là họ chất độc VX và VX

296
00:25:26,775 --> 00:25:27,609
‎trong tập dữ liệu.

297
00:25:28,360 --> 00:25:31,363
‎VX là một trong những vũ khí hoá học
‎mạnh nhất trên thế giới.

298
00:25:31,863 --> 00:25:33,573
‎Tuyên bố mới từ cảnh sát

299
00:25:33,657 --> 00:25:37,827
‎rằng người phụ nữ được thấy tấn công
‎Kim Jong-nam ở vụ ám sát tại sân bay

300
00:25:37,911 --> 00:25:41,248
‎đã sử dụng chất độc thần kinh chết người
‎gọi là VX.

301
00:25:41,748 --> 00:25:44,417
‎Nó có thể gây chết người do ngạt thở.

302
00:25:45,043 --> 00:25:47,629
‎Đây là một phân tử cực mạnh,

303
00:25:47,712 --> 00:25:52,092
‎và phần lớn các phân tử này
‎được dự đoán còn độc hơn cả VX.

304
00:25:53,301 --> 00:25:56,972
‎Nhiều trong số các phân tử này,
‎theo chúng tôi biết, là chưa từng thấy.

305
00:25:57,472 --> 00:26:02,310
‎Khi Sean và tôi nhận ra điều này
‎đã thốt lên: "Ôi, ta đã làm gì thế này?"

306
00:26:04,771 --> 00:26:09,192
‎Tôi nhanh chóng nhận ra
‎chúng tôi đã mở chiếc hộp quỷ dữ,

307
00:26:09,901 --> 00:26:13,280
‎tôi bảo: "Dừng lại thôi.
‎Không làm gì nữa. Ta xong rồi."

308
00:26:13,905 --> 00:26:17,158
‎"Chỉ cần tạo các trang thuyết trình
‎tôi cần để trình bày."

309
00:26:19,202 --> 00:26:20,704
‎Khi chúng tôi làm thí nghiệm này,

310
00:26:20,787 --> 00:26:23,999
‎tôi đã nghĩ, "Điều tồi tệ nhất có
‎có thể xảy ra là gì?"

311
00:26:26,251 --> 00:26:30,255
‎Giờ tôi nghĩ: "Chúng tôi thật ngây thơ.
‎Chúng tôi quá ngây thơ khi làm vậy."

312
00:26:33,383 --> 00:26:37,053
‎Điều khiến tôi kinh sợ nhất là
‎bất kỳ ai cũng có thể làm như chúng tôi.

313
00:26:38,930 --> 00:26:40,765
‎Chỉ cần đổi nhanh thông số.

314
00:26:42,809 --> 00:26:46,187
‎Làm sao để kiểm soát công nghệ này
‎trước khi nó có nguy cơ

315
00:26:46,271 --> 00:26:50,942
‎được sử dụng
‎để làm một việc hoàn toàn hủy diệt?

316
00:26:55,780 --> 00:27:00,285
‎Trọng tâm trao đổi xung quanh
‎trí tuệ nhân tạo

317
00:27:00,368 --> 00:27:03,538
‎và cách ta chọn dùng nó trong xã hội

318
00:27:04,289 --> 00:27:08,835
‎là cuộc đua giữa sức mạnh
‎mà ta dùng để phát triển công nghệ,

319
00:27:08,918 --> 00:27:11,379
‎và trí khôn mà ta phải kiểm soát được.

320
00:27:13,340 --> 00:27:16,926
‎Có những tác động rõ ràng
‎về đạo đức và quy định xã hội

321
00:27:17,010 --> 00:27:20,138
‎của cùng một thứ vốn tạo sức mạnh
‎cho điện thoại thông minh

322
00:27:20,221 --> 00:27:23,433
‎được giao phó
‎với quyết định có đạo đức để giết người.

323
00:27:25,727 --> 00:27:31,191
‎Tôi làm việc
‎với Viện Tương lai của Sự sống,

324
00:27:31,733 --> 00:27:33,443
‎Chúng tôi đang cố gắng chỉ ra

325
00:27:33,526 --> 00:27:38,698
‎rằng có mặt trái của việc
‎tăng tốc và mở rộng việc tự hành.

326
00:27:38,782 --> 00:27:42,619
‎Nhưng chúng tôi cố đảm bảo rằng
‎công nghệ chúng ta tạo ra

327
00:27:42,702 --> 00:27:45,038
‎được sử dụng một cách an toàn
‎và có đạo đức.

328
00:27:46,247 --> 00:27:49,959
‎Hãy thảo luận về các quy tắc tham gia,

329
00:27:50,043 --> 00:27:54,005
‎quy tắc đạo đức trong việc áp dụng
‎trí tuệ nhân tạo vào các hệ thống vũ khí.

330
00:27:54,798 --> 00:27:59,135
‎Vì chúng ta đang chứng kiến
‎các công nghệ "tham gia vào chiến trường"

331
00:27:59,219 --> 00:28:01,680
‎có thể được dùng để giết người
‎một cách chủ động.

332
00:28:10,230 --> 00:28:15,110
‎Vào năm 2021, Liên Hiệp Quốc đã
‎công bố một báo cáo về khả năng sử dụng

333
00:28:15,193 --> 00:28:19,364
‎vũ khí sát thương chủ động
‎trên chiến trường ở Li-băng.

334
00:28:20,073 --> 00:28:23,910
‎Một hội đồng của Liên Hợp Quốc nói rằng
‎một drone ở nội chiến Li-băng năm ngoái

335
00:28:23,993 --> 00:28:27,330
‎đã được lập trình
‎để tấn công mục tiêu một cách chủ động.

336
00:28:28,289 --> 00:28:31,209
‎Nếu báo cáo của Liên Hợp Quốc
‎là chính xác,

337
00:28:31,292 --> 00:28:34,963
‎đây có thể là thời điểm
‎thay đổi toàn diện đối với nhân loại.

338
00:28:35,046 --> 00:28:37,090
‎Vì nó đánh dấu một trường hợp

339
00:28:37,173 --> 00:28:42,137
‎mà trí tuệ nhân tạo, không phải con người,
‎đưa ra quyết định giết người.

340
00:28:49,686 --> 00:28:51,688
‎Bạn đang thấy vũ khí tự chủ tiên tiến

341
00:28:51,771 --> 00:28:55,150
‎bắt đầu được sử dụng
‎ở nhiều nơi khác nhau trên toàn cầu.

342
00:28:56,276 --> 00:28:58,278
‎Có báo cáo từ Israel.

343
00:29:00,280 --> 00:29:05,702
‎Azerbaijan đã dùng các hệ thống tự chủ
‎để nhắm vào hệ phòng không Armenia.

344
00:29:07,370 --> 00:29:09,998
‎Nó có thể bay quanh chiến trường hàng giờ,

345
00:29:10,081 --> 00:29:12,500
‎tự tìm các mục tiêu tấn công,

346
00:29:12,584 --> 00:29:16,087
‎và ‎rồi tự lao vào chúng
‎mà không cần can thiệp của con người.

347
00:29:16,796 --> 00:29:18,298
‎Và gần đây chúng ta thấy

348
00:29:18,381 --> 00:29:21,760
‎những video khác nhau
‎được đăng tải ở Ukraine.

349
00:29:23,303 --> 00:29:26,890
‎Không rõ chúng có thể đã hoạt động
‎ở chế độ nào.

350
00:29:26,973 --> 00:29:30,393
‎Liệu con người có tham gia,
‎chọn lựa mục tiêu để tấn công

351
00:29:30,477 --> 00:29:32,729
‎hay chiếc máy drone đó tự thực hiện?

352
00:29:32,812 --> 00:29:36,524
‎Nhưng chắc chắn sẽ tới lúc,

353
00:29:36,608 --> 00:29:40,195
‎dù điều này đã xảy ra ở Libye,
‎Ukraine hay ở đâu khác,

354
00:29:40,278 --> 00:29:44,449
‎mà máy móc sẽ tự đưa ra quyết định
‎về việc giết ai trên chiến trường.

355
00:29:47,035 --> 00:29:50,997
‎Máy móc thực hành sức mạnh giết chóc
‎chống lại nhân loại

356
00:29:51,080 --> 00:29:53,374
‎không có sự can thiệp của con người

357
00:29:53,458 --> 00:29:57,337
‎là điều vi phạm đạo đức,
‎không thể chấp nhận về mặt chính trị,

358
00:29:59,214 --> 00:30:01,299
‎Liệu cộng đồng quốc tế

359
00:30:01,382 --> 00:30:05,011
‎có khả năng kiểm soát những thay đổi đó

360
00:30:05,094 --> 00:30:06,888
‎là một dấu hỏi lớn.

361
00:30:08,932 --> 00:30:12,685
‎Nếu chúng ta nhìn về tương lai,
‎dù chỉ cách hiện tại vài năm,

362
00:30:12,769 --> 00:30:15,730
‎bức tranh hình ảnh cũng thật đáng sợ,

363
00:30:16,564 --> 00:30:20,485
‎với lượng vốn và nguồn nhân lực

364
00:30:20,568 --> 00:30:23,404
‎đổ vào việc làm cho trí tuệ nhân tạo
‎thêm mạnh mẽ

365
00:30:23,488 --> 00:30:26,032
‎và sử dụng nó
‎trong mọi ứng dụng khác nhau,

366
00:30:26,115 --> 00:30:26,950
‎là khổng lồ.

367
00:30:39,254 --> 00:30:41,214
‎Chúa ơn, gã này.

368
00:30:41,756 --> 00:30:43,633
‎Cậu ấy biết là không thể thắng.

369
00:30:46,553 --> 00:30:51,099
‎Khi thấy trí tuệ nhân tạo thắng ở các
‎lĩnh vực khác nhau, tôi thấy phấn khích.

370
00:30:51,683 --> 00:30:53,977
‎Một nước đi tuyệt vọng.

371
00:30:54,477 --> 00:30:59,524
‎Và bạn có thể áp dụng cùng chiến thuật,
‎kỹ thuật, quy trình cho máy bay thực tế.

372
00:31:01,401 --> 00:31:02,318
‎Chơi hay lắm.

373
00:31:02,402 --> 00:31:03,653
‎Phải, bài chơi hay.

374
00:31:08,658 --> 00:31:09,909
‎Thật ngạc nhiên là

375
00:31:09,993 --> 00:31:14,122
‎mọi người tiếp tục tuyên bố
‎việc trí tuệ nhân tạo không làm nổi. Nhỉ?

376
00:31:14,205 --> 00:31:17,166
‎"Ồ, nó sẽ chẳng thể
‎đánh bại vô địch thế giới trong cờ vua."

377
00:31:20,211 --> 00:31:22,672
‎Một máy tính IBM đã có màn tái xuất

378
00:31:22,755 --> 00:31:25,925
‎trong Game 2 với nhà vô địch
‎cờ vua thế giới, Garry Kasparov.

379
00:31:28,136 --> 00:31:30,847
‎Kasparov đã chịu thua!

380
00:31:31,556 --> 00:31:34,642
‎Khi thấy điều gì đó vượt khả năng
‎hiểu biết của mình,

381
00:31:34,726 --> 00:31:38,062
‎tôi sợ hãi. Và thứ đó vượt xa
‎tầm hiểu biết của tôi.

382
00:31:39,355 --> 00:31:41,065
‎Và mọi người sẽ nói,

383
00:31:41,149 --> 00:31:44,444
‎"Nó sẽ chẳng thể đánh bại vô địch thế giới
‎ở trò Cờ vây."

384
00:31:44,527 --> 00:31:50,700
‎Tôi tin rằng trực giác con người
‎vẫn là quá xa vời để trí tuệ nhân tạo

385
00:31:50,783 --> 00:31:52,827
‎có thể bắt kịp.

386
00:31:55,330 --> 00:31:58,416
‎Cờ vây là một trò chơi phức tạp nhất
‎ai đó có thể học

387
00:31:58,499 --> 00:32:02,211
‎vì số nước đi trên bàn cờ,
‎khi bạn tính toán,

388
00:32:02,295 --> 00:32:05,256
‎nhiều hơn số phân tử
‎có trong toàn thể vũ trụ.

389
00:32:06,758 --> 00:32:08,968
‎Có một đội tại Google gọi là
‎DeepMind,

390
00:32:09,052 --> 00:32:11,471
‎họ đã tạo ra chương trình tên là AlphaGo

391
00:32:11,554 --> 00:32:14,265
‎để có thể đánh bại
‎những quán quân thế giới.

392
00:32:16,559 --> 00:32:18,394
‎Chúc mừng…

393
00:32:18,478 --> 00:32:19,437
‎- AlphaGo.
‎- AlphaGo.

394
00:32:19,520 --> 00:32:22,774
‎Một chương trình máy tính
‎vừa đánh bại kiện tướng cấp 9 cờ vây.

395
00:32:25,610 --> 00:32:31,532
‎Và rồi DeepMind chọn ‎StarCraft
‎là thử thách trí tuệ nhân tạo tiếp theo.

396
00:32:33,743 --> 00:32:38,081
‎StarCraft ‎có lẽ là trò chơi chiến lược
‎thời gian thực phổ biến nhất mọi thời đại.

397
00:32:40,333 --> 00:32:44,712
‎AlphaStar trở nên nổi tiếng
‎khi đánh bại các nhà vô địch thế giới.

398
00:32:45,338 --> 00:32:48,800
‎AlphaStar hoàn toàn hủy diệt Immoral Arc.

399
00:32:48,883 --> 00:32:49,717
‎Anh biết gì không?

400
00:32:49,801 --> 00:32:52,553
‎Đây không phải là trận đấu
‎mà dân chuyên có thể thắng.

401
00:32:53,680 --> 00:32:55,682
‎Thật là nực cười.

402
00:32:57,642 --> 00:33:00,895
‎Các game thủ chuyên nghiệp thốt lên:
‎"Tôi sẽ chẳng dùng mẹo đó."

403
00:33:00,979 --> 00:33:04,816
‎"Tôi sẽ không bao giờ thử chiến thuật đó.
‎Đó là một trò không phải con người."

404
00:33:07,151 --> 00:33:10,655
‎Và đó có lẽ là khoảnh khắc "à-ha" với tôi.

405
00:33:13,574 --> 00:33:16,661
‎Tôi nhận ra giờ là thời điểm.

406
00:33:17,412 --> 00:33:21,082
‎Có một công nghệ quan trọng
‎và một cơ hội tạo ra sự khác biệt.

407
00:33:24,502 --> 00:33:29,382
‎Tôi chỉ biết các vấn đề mình đối mặt
‎khi là lính thủy chiến đấu cận chiến,

408
00:33:30,383 --> 00:33:34,470
‎nhưng một người bạn thân,
‎là phi công F-18, đã bảo tôi:

409
00:33:34,554 --> 00:33:37,724
‎"Bọn tôi cũng có cùng vấn đề
‎trong cộng đồng máy bay chiến đấu.

410
00:33:37,807 --> 00:33:39,434
‎Họ phá sóng liên lạc.

411
00:33:39,517 --> 00:33:42,562
‎Gia tăng nhiều cụm tên lửa đất đối không

412
00:33:42,645 --> 00:33:44,439
‎khiến việc giao chiến quá nguy hiểm."

413
00:33:47,483 --> 00:33:50,987
‎Thử tưởng tượng nếu ta có một chiến đấu cơ
‎do một trí tuệ nhân tạo ra lệnh.

414
00:33:51,070 --> 00:33:52,739
‎Đây là thử nghiệm AlphaDogfight.

415
00:33:52,822 --> 00:33:56,159
‎Vài phút nữa là tới trận bán kết đầu tiên.

416
00:33:56,242 --> 00:33:59,871
‎DARPA, Cơ quan Chỉ đạo Nghiên cứu
‎Các Dự án Tiên tiến,

417
00:33:59,954 --> 00:34:03,624
‎đã xem AlphaGo và AlphaStar,

418
00:34:04,292 --> 00:34:08,171
‎và ý tưởng cuộc đấu AlphaDogfight
‎đã được thực hiện.

419
00:34:08,963 --> 00:34:11,466
‎Đó là điều anh muốn thấy
‎phi công chiến đấu của anh làm.

420
00:34:11,549 --> 00:34:13,593
‎Giống như trận không chiến
‎phi công người.

421
00:34:15,595 --> 00:34:19,057
‎Không chiến là máy bay chiến đấu
‎giao chiến với nhau.

422
00:34:19,849 --> 00:34:22,852
‎Bạn có thể nghĩ nó như là
‎trận đấu quyền anh trên không.

423
00:34:23,853 --> 00:34:26,314
‎Có lẽ mọi người đã xem bộ phim ‎Top Gun‎.

424
00:34:26,397 --> 00:34:27,815
‎Vượt được chúng không?

425
00:34:28,649 --> 00:34:30,068
‎Trừ tên lửa và súng của chúng.

426
00:34:30,151 --> 00:34:31,277
‎Vậy đó là không chiến.

427
00:34:35,531 --> 00:34:39,410
‎Học thành thạo không chiến
‎có thể mất tám tới mười năm.

428
00:34:42,288 --> 00:34:46,209
‎Đó là một thử thách cực kỳ phức tạp
‎để xây dựng trí tuệ nhân tạo.

429
00:34:54,092 --> 00:34:58,679
‎Cách tiếp cận trước đây về tự chủ
‎và không chiến có xu hướng bất ổn.

430
00:34:59,222 --> 00:35:03,017
‎Chúng tôi nhận ra máy học có lẽ là cách
‎xử lý vấn đề này.

431
00:35:04,477 --> 00:35:08,189
‎Ban đầu, trí tuệ nhân tạo không biết gì
‎về lĩnh vực nó được đưa vào.

432
00:35:08,272 --> 00:35:11,025
‎Nó không biết nó sẽ lái máy bay
‎hay không chiến là gì.

433
00:35:11,109 --> 00:35:12,735
‎Nó không biết F-16 là gì.

434
00:35:13,236 --> 00:35:15,905
‎Nó chỉ biết là các hành động
‎nó có thể thực hiện,

435
00:35:15,988 --> 00:35:18,407
‎và nó bắt đầu khám phá ngẫu nhiên
‎các hành động này.

436
00:35:19,325 --> 00:35:23,204
‎Máy bay xanh đã được huấn luyện
‎trong một thời gian ngắn.

437
00:35:23,287 --> 00:35:25,832
‎Bạn có thể thấy nó lắc lư,

438
00:35:26,624 --> 00:35:30,545
‎bay rất bất ổn, thường tránh xa kẻ địch.

439
00:35:31,587 --> 00:35:32,755
‎Khi cuộc chiến tiếp diễn,

440
00:35:32,839 --> 00:35:36,592
‎ta có thể thấy máy bay xanh bắt đầu
‎thiết lập chiến lược ở đây.

441
00:35:36,676 --> 00:35:38,636
‎Vị trí này thuận lợn hơn để bắn.

442
00:35:39,178 --> 00:35:41,305
‎Thi thoảng, thuật toán học nói rằng,

443
00:35:41,389 --> 00:35:43,891
‎"Bánh quy đây. Tốt đấy.
‎Tiếp tục làm thế."

444
00:35:44,976 --> 00:35:49,105
‎Chúng tôi tận dụng sức mạnh máy tính
‎và huấn luyện các đặc vụ nhiều lần

445
00:35:49,188 --> 00:35:50,064
‎một cách song song.

446
00:35:51,357 --> 00:35:53,192
‎Nó giống như một đội bóng rổ.

447
00:35:53,276 --> 00:35:55,778
‎Thay vì chơi đi chơi lại với cùng một đội,

448
00:35:55,862 --> 00:35:59,198
‎chúng tôi đi khắp thế giới
‎chơi với 512 độ khác nhau,

449
00:35:59,699 --> 00:36:00,950
‎tất cả diễn ra cùng lúc.

450
00:36:01,492 --> 00:36:03,452
‎Bạn có thể trở nên rất giỏi, rất nhanh.

451
00:36:04,162 --> 00:36:07,456
‎Chúng tôi có thể chạy mô phỏng 24/7

452
00:36:07,540 --> 00:36:11,919
‎và đạt được việc huấn luyện phi công
‎30 năm, trong 10 tháng.

453
00:36:12,879 --> 00:36:15,673
‎Chúng tôi từ chỗ hầu như không thể
‎điều khiển máy bay

454
00:36:15,756 --> 00:36:17,717
‎tới là một sát thủ siêu việt.

455
00:36:18,801 --> 00:36:23,514
‎Trong quá trình huấn luyện, chúng tôi chỉ
‎thi đấu với các trí tuệ nhân tạo khác.

456
00:36:24,473 --> 00:36:28,561
‎Nhưng mục tiêu cuối cùng là thi đấu
‎với phi công con người.

457
00:36:34,192 --> 00:36:35,610
‎Tên tôi là Mike Benitez,

458
00:36:36,110 --> 00:36:38,446
‎tôi là Trung tá thuộc Không lực Hoa Kỳ,

459
00:36:39,155 --> 00:36:41,157
‎và tại ngũ khoảng 25 năm.

460
00:36:42,825 --> 00:36:44,869
‎Tôi có 250 nhiệm vụ chiến đấu

461
00:36:45,578 --> 00:36:47,538
‎và tôi tốt nghiệp Weapons School,

462
00:36:48,039 --> 00:36:49,832
‎là phiên bản ‎Top Gun ‎trong Không quân.

463
00:36:52,627 --> 00:36:55,171
‎Tôi chưa từng không chiến
‎với trí tuệ nhân tạo.

464
00:36:55,254 --> 00:36:58,549
‎Tôi rất hào hứng
‎xem mình làm tốt ở mức nào.

465
00:36:59,634 --> 00:37:03,054
‎Giờ chúng ta có môi trường
‎tấn công 1.830 km mặt đối mặt.

466
00:37:04,388 --> 00:37:05,223
‎Bắt đầu chiến.

467
00:37:13,314 --> 00:37:14,148
‎Anh ấy tiêu rồi.

468
00:37:14,732 --> 00:37:16,651
‎Phải, thật là thú vị.

469
00:37:20,780 --> 00:37:23,658
‎- Chết.
‎- Đã hạ. Chiến thắng hoàn hảo.

470
00:37:25,910 --> 00:37:27,453
‎Được rồi, hiệp hai.

471
00:37:35,461 --> 00:37:40,508
‎Những gì trí tuệ nhân tạo đang thực hiện
‎là di chuyển với độ chính xác cao

472
00:37:41,384 --> 00:37:43,219
‎mà tôi không thể theo kịp.

473
00:37:48,474 --> 00:37:49,725
‎Vào ngay giao chiến.

474
00:37:50,309 --> 00:37:51,894
‎Ồ, giờ thì anh tiêu rồi.

475
00:37:53,145 --> 00:37:53,980
‎Đã hạ!

476
00:37:54,063 --> 00:37:55,022
‎Vẫn hạ được tôi.

477
00:37:58,567 --> 00:38:00,653
‎Trí tuệ nhân tạo không biết sợ.

478
00:38:00,736 --> 00:38:03,781
‎Một yếu tố cảm xúc con người
‎trong buồng lái mà AI không có.

479
00:38:04,991 --> 00:38:08,077
‎Một trong những chiến thuật thú vị hơn
‎mà AI đã phát triển,

480
00:38:08,160 --> 00:38:10,121
‎là chiến thuật bắn trực diện.

481
00:38:10,621 --> 00:38:14,000
‎Thông thường con người muốn bắn
‎từ phía sau

482
00:38:14,083 --> 00:38:16,377
‎vì sẽ khó để đối phương cắt đuôi.

483
00:38:17,044 --> 00:38:20,381
‎Họ không tìm cách bắn trực diện
‎vì bạn chơi trò cân não.

484
00:38:21,424 --> 00:38:25,511
‎Khi ta đối đầu, khoảng cách
‎từ 900 m tới 150 m

485
00:38:25,594 --> 00:38:27,096
‎có thể diễn ra trong nháy mắt.

486
00:38:27,596 --> 00:38:31,183
‎Bạn có nguy cơ va chạm rất cao,
‎nên con người không làm vậy.

487
00:38:32,810 --> 00:38:35,938
‎AI, trừ phi được lệnh phải sợ chết,
‎sẽ không sợ chết.

488
00:38:37,857 --> 00:38:40,234
‎Cảm giác như
‎tôi đang đấu với một con người,

489
00:38:40,776 --> 00:38:44,113
‎nhưng là một người liều lĩnh
‎bỏ qua sự an toàn.

490
00:38:45,489 --> 00:38:47,325
‎Anh ấy sẽ không qua được trận cuối này.

491
00:38:57,168 --> 00:38:58,711
‎Anh ấy không đủ thời gian.

492
00:39:01,964 --> 00:39:02,965
‎Chúc ngủ ngon.

493
00:39:04,091 --> 00:39:04,925
‎Tôi tiêu rồi.

494
00:39:16,812 --> 00:39:17,980
‎Thật khiêm tốn khi biết

495
00:39:18,064 --> 00:39:20,900
‎tôi thậm chí không phải
‎tay cừ nhất trong nhiệm vụ này,

496
00:39:21,484 --> 00:39:24,320
‎và thứ đó có thể thay thế tôi
‎một ngày nào đó.

497
00:39:25,696 --> 00:39:27,531
‎Vẫn môi trường không chiến 1.8 km.

498
00:39:27,615 --> 00:39:28,824
‎Khoảng cách 300m.

499
00:39:29,450 --> 00:39:32,078
‎Với phi công AI
‎điều khiển máy bay chiến đấu,

500
00:39:32,828 --> 00:39:34,830
‎chiến thắng là không ngừng, là áp đảo.

501
00:39:34,914 --> 00:39:37,249
‎Không chỉ là thắng cách biệt.

502
00:39:37,333 --> 00:39:41,545
‎Mà là: "Được rồi, làm thế nào
‎đưa nó vào máy bay của ta?" Mạnh vậy đấy.

503
00:39:43,672 --> 00:39:47,802
‎Thật thực tế khi mong đợi
‎AI sẽ điều khiển chiếc F-16,

504
00:39:47,885 --> 00:39:49,970
‎và nó không còn quá xa vời.

505
00:39:51,305 --> 00:39:56,769
‎Nếu phải đối đầu với phi công AI
‎có tỷ lệ thắng 99,99999%,

506
00:39:56,852 --> 00:39:58,646
‎bạn không có cơ hội.

507
00:39:59,605 --> 00:40:02,733
‎Khi tôi nghĩ tới một phi công AI
‎không thể đánh bại,

508
00:40:02,817 --> 00:40:06,695
‎tôi nghĩ tới một đội gồm 50 hay 100

509
00:40:07,279 --> 00:40:12,535
‎hay 1,000 phi công AI có thể đạt được gì.

510
00:40:13,702 --> 00:40:17,415
‎Bầy drone
‎là một đội máy bay thông minh cao cấp

511
00:40:17,498 --> 00:40:18,791
‎phối hợp với nhau.

512
00:40:19,291 --> 00:40:23,462
‎Chúng chia sẻ thông tin
‎về điều cần thực hiện, cách xử lý vấn đề.

513
00:40:25,172 --> 00:40:30,469
‎Bầy drone sẽ là một năng lực đột phá
‎và tạo sự biến đổi

514
00:40:30,553 --> 00:40:32,638
‎cho quân đội và đồng minh của chúng ta.

515
00:41:42,750 --> 00:41:47,379
‎Mục tiêu đã được xác định,
‎và các drone đang theo dõi anh ta.

516
00:42:02,019 --> 00:42:03,604
‎Được rồi, bãi đỗ đây rồi.

517
00:42:07,566 --> 00:42:10,402
‎Mục tiêu chính của nghiên cứu bầy drone
‎chúng tôi đang làm

518
00:42:11,153 --> 00:42:13,697
‎là triển khai số lượng lớn drone

519
00:42:13,781 --> 00:42:17,910
‎trên một vùng mà khó tới
‎hoặc nguy hiểm.

520
00:42:21,705 --> 00:42:26,085
‎Phòng Nghiên cứu Quân đội đã hỗ trợ
‎dự án nghiên cứu riêng này.

521
00:42:26,919 --> 00:42:28,963
‎Nếu anh muốn biết có gì ở một địa điểm,

522
00:42:29,046 --> 00:42:32,883
‎nhưng vùng đó rất khó tới
‎hoặc nó là một vùng quá rộng,

523
00:42:33,676 --> 00:42:35,886
‎thì việc triển khai một bầy drone
‎là tự nhiên

524
00:42:35,970 --> 00:42:38,389
‎để mở rộng phạm vi của các cá thể

525
00:42:38,472 --> 00:42:41,934
‎và thu thập thông tin quan trọng
‎cho nhiệm vụ này.

526
00:42:46,689 --> 00:42:48,983
‎Vậy, ngay lúc này
‎trong việc triển khai bầy drone

527
00:42:49,066 --> 00:42:53,904
‎chúng tôi chỉ cần ra một mệnh lệnh
‎truy tìm mục tiên quan tâm.

528
00:42:54,488 --> 00:42:57,283
‎Sau đó các drone sẽ đi
‎và tự thực hiện mọi việc.

529
00:42:59,493 --> 00:43:04,081
‎Trí tuệ nhân tạo cho phép các rô-bốt
‎di chuyển tập thể dạng bầy

530
00:43:04,164 --> 00:43:05,708
‎theo hình thức phân tán.

531
00:43:10,671 --> 00:43:12,506
‎Giống như các bầy đàn trong tự nhiên,

532
00:43:13,299 --> 00:43:18,178
‎không có chỉ huy, không có đầu đàn
‎bảo chúng phải làm gì.

533
00:43:20,556 --> 00:43:25,019
‎Hành vi được tạo ra
‎từ từng cá thể động vật

534
00:43:25,102 --> 00:43:27,104
‎theo một vài quy tắc đơn giản.

535
00:43:27,688 --> 00:43:32,443
‎Và từ đó tạo nên hành vi tập thể nổi bật
‎mà bạn thấy.

536
00:43:33,944 --> 00:43:37,031
‎Điều đáng kinh ngạc
‎về bầy đàn trong tự nhiên

537
00:43:37,114 --> 00:43:39,992
‎là khả năng di chuyển hài hoà của chúng.

538
00:43:40,576 --> 00:43:44,288
‎Như thể chúng được tạo ra
‎là một phần của cả bầy.

539
00:43:46,790 --> 00:43:51,128
‎Về lý tưởng, điều chúng tôi muốn thấy
‎với bầy drone là,

540
00:43:51,211 --> 00:43:53,172
‎giống như bầy đàn trong tự nhiên,

541
00:43:53,672 --> 00:43:56,717
‎các quyết định được đưa ra
‎bởi nhóm dạng tập hợp.

542
00:43:59,928 --> 00:44:02,765
‎Một nguồn cảm hứng khác

543
00:44:02,848 --> 00:44:06,268
‎là từ tính đáng tin cậy và phục hồi.

544
00:44:07,311 --> 00:44:09,188
‎Một bầy sẽ không tan vỡ

545
00:44:09,271 --> 00:44:13,567
‎nếu một cá thể động vật
‎không tuân theo điều nó cần làm.

546
00:44:15,194 --> 00:44:18,697
‎Ngay cả khi một phần tử bị rụng hoặc lỗi,

547
00:44:18,781 --> 00:44:20,866
‎hoặc nó không thể hoàn thành nhiệm vụ,

548
00:44:21,909 --> 00:44:23,369
‎cả bầy vẫn sẽ tiếp tục.

549
00:44:25,204 --> 00:44:27,873
‎Và cuối cùng,
‎đó là điều chúng tôi muốn có.

550
00:44:29,333 --> 00:44:33,879
‎Chúng tôi cần điều này trong tình huống
‎chiến đấu để xác định máy bay địch,

551
00:44:33,962 --> 00:44:37,841
‎và chúng tôi thường cần một người
‎điều khiển một rô-bốt để thực hiện.

552
00:44:38,592 --> 00:44:40,552
‎Khi khả năng tự chủ gia tăng,

553
00:44:40,636 --> 00:44:43,555
‎tôi hi vọng sẽ thấy một lượng lớn rô-bốt

554
00:44:43,639 --> 00:44:46,558
‎được điều khiển bởi một số ít con người.

555
00:44:47,851 --> 00:44:50,854
‎Không có lý do gì mà ta không đạt được
‎bầy drone cả ngàn chiếc

556
00:44:51,355 --> 00:44:54,942
‎vì mỗi đơn vị sẽ có khả năng
‎tự hành động tương ứng,

557
00:44:55,025 --> 00:44:56,443
‎và khả năng là vô tận.

558
00:44:57,027 --> 00:44:59,071
‎Chúng ta có thể mở rộng máy học…

559
00:44:59,154 --> 00:45:03,325
‎Chúng tôi đã làm về bầy drone
‎trong giả lập một thời gian rồi,

560
00:45:03,409 --> 00:45:06,829
‎và đã tới lúc đưa điều đó
‎vào máy bay thực tế.

561
00:45:07,329 --> 00:45:12,042
‎Chúng tôi dự kiến triển khai
‎ba rô-bốt cùng lúc qua một mạng lưới,

562
00:45:12,126 --> 00:45:15,129
‎và sau đó bắt đầu tăng thêm.

563
00:45:15,879 --> 00:45:18,549
‎Chúng tôi muốn có thể kiểm tra
‎với các hệ thống nhỏ,

564
00:45:18,632 --> 00:45:22,177
‎và áp dụng nguyên lý này
‎vào các hệ thống lớn hơn,

565
00:45:22,261 --> 00:45:23,679
‎như các chiến đấu cơ phản lực.

566
00:45:24,596 --> 00:45:26,014
‎Chúng ta đề cập nhiều về

567
00:45:26,098 --> 00:45:31,937
‎làm sao tạo một trung đội
‎có sức chiến đấu của một tiểu đoàn?

568
00:45:34,982 --> 00:45:39,528
‎Hay một tiểu đoàn có sức chiến đấu
‎của một lữ đoàn?

569
00:45:39,611 --> 00:45:41,488
‎Bạn có thể làm điều đó với bầy drone.

570
00:45:42,614 --> 00:45:45,200
‎Và khi bạn mở khoá sức mạnh bầy drone,

571
00:45:45,284 --> 00:45:48,078
‎bạn đã tạo ra sự răn đe chiến lược

572
00:45:48,162 --> 00:45:49,455
‎cho sự khiêu khích quân sự,

573
00:45:52,332 --> 00:45:57,004
‎Tôi nghĩ điều thú vị nhất
‎là số lượng thanh niên nam nữ

574
00:45:57,087 --> 00:46:00,299
‎chúng ta sẽ cứu được
‎nếu ta thực sự làm đúng điều này.

575
00:46:01,091 --> 00:46:03,594
‎Và chúng ta đánh đổi máy móc

576
00:46:04,553 --> 00:46:05,846
‎thay vì mạng sống con người.

577
00:46:06,638 --> 00:46:10,893
‎Một số người cho rằng vũ khí tự chủ
‎sẽ giúp chiến tranh chính xác

578
00:46:10,976 --> 00:46:12,311
‎và nhân đạo hơn,

579
00:46:12,853 --> 00:46:15,397
‎nhưng thật khó để dự đoán trước

580
00:46:15,481 --> 00:46:19,443
‎một cách chính xác vũ khí tự chủ
‎có thể thay đổi chiến tranh ra sao.

581
00:46:21,320 --> 00:46:23,238
‎Giống như việc phát minh súng máy Gatling.

582
00:46:25,073 --> 00:46:27,117
‎Richard Gatling là một nhà phát minh,

583
00:46:27,201 --> 00:46:30,954
‎và ông thấy những người lính trở về
‎mang thương tích trong cuộc Nội Chiến

584
00:46:32,289 --> 00:46:35,292
‎và muốn tìm cách để cuộc chiến
‎trở nên nhân đạo hơn.

585
00:46:36,293 --> 00:46:39,797
‎Để giảm số binh lính bị giết
‎trong chiến tranh

586
00:46:40,422 --> 00:46:42,633
‎bằng cách giảm lượng binh sĩ tham chiến.

587
00:46:44,092 --> 00:46:48,388
‎Vậy nên ông phát minh súng máy Gatling,
‎một súng tự động xoay nòng bằng tay quay

588
00:46:48,472 --> 00:46:50,516
‎có thể tự động quá trình bắn.

589
00:46:53,268 --> 00:46:57,981
‎Nó tăng hoả lực lên hàng trăm lần
‎so với các binh sĩ.

590
00:47:01,235 --> 00:47:05,239
‎Thông thường, nỗ lực làm cho chiến tranh
‎chính xác và nhân đạo hơn

591
00:47:06,490 --> 00:47:07,991
‎có thể có tác dụng ngược.

592
00:47:10,160 --> 00:47:13,455
‎Hãy nghĩ tới tác động
‎của một đợt tấn công drone nhầm

593
00:47:13,539 --> 00:47:14,540
‎vào một vùng nông thôn

594
00:47:14,623 --> 00:47:17,209
‎khiến người dân địa phương
‎chống lại Hoa Kỳ,

595
00:47:17,292 --> 00:47:20,712
‎chống lại chính quyền địa phương.
‎Giả sử họ là những người tốt.

596
00:47:22,589 --> 00:47:25,008
‎Giờ hãy phóng đại lên 1.000 lần.

597
00:47:26,802 --> 00:47:28,720
‎Việc tạo ra một hệ thống vũ khí

598
00:47:28,804 --> 00:47:34,560
‎rẻ tiền, có thể nhân bản
‎và không yêu cầu con người vận hành

599
00:47:34,643 --> 00:47:37,896
‎có thể thay đổi to lớn
‎phạm vi xung đột thực tế.

600
00:47:40,107 --> 00:47:44,486
‎Tôi trăn trở khi nghĩ về
‎một thế giới với chiến tranh ở mọi nơi,

601
00:47:44,987 --> 00:47:48,657
‎và ta không còn tính thiệt hại
‎chiến tranh về con người và tài chính

602
00:47:48,740 --> 00:47:51,410
‎vì nó sẽ rất khác biệt…

603
00:47:52,369 --> 00:47:54,037
‎về số sinh mạng sẽ mất đi.

604
00:47:59,418 --> 00:48:01,420
‎Toàn bộ điều này làm tôi kinh sợ.

605
00:48:02,212 --> 00:48:05,924
‎Tôi chỉ cần một ví dụ
‎về việc sử dụng sai trí tuệ nhân tạo.

606
00:48:06,675 --> 00:48:10,888
‎Hậu quả khôn lường của việc thực hiện
‎thí nghiệm tưởng tượng đơn giản đó

607
00:48:10,971 --> 00:48:12,848
‎đã đi quá xa rồi.

608
00:48:13,348 --> 00:48:16,226
‎DÙNG AI CHẾ TẠO THUỐC:
‎TRÁNH LỢI BẤT CẬP HẠI

609
00:48:17,352 --> 00:48:18,729
‎Khi tôi thuyết trình

610
00:48:18,812 --> 00:48:22,107
‎về các phân tử độc hại
‎do công nghệ AI tạo ra,

611
00:48:22,608 --> 00:48:24,318
‎khán giả vô cùng ngạc nhiên.

612
00:48:25,402 --> 00:48:27,613
‎5.000 HỢP CHẤT ĐẦU TIÊN
‎LÀ HỌ VX ĐÃ BIẾT

613
00:48:29,281 --> 00:48:33,577
‎Quyết định tiếp theo là liệu chúng tôi
‎có nên công bố thông tin này không.

614
00:48:34,828 --> 00:48:36,914
‎Một mặt, bạn muốn cảnh báo thế giới

615
00:48:36,997 --> 00:48:40,125
‎về những khả năng này, nhưng mặt khác

616
00:48:40,208 --> 00:48:44,087
‎bạn không muốn cho ai đó biết
‎nếu họ chưa từng có ý tưởng này.

617
00:48:46,381 --> 00:48:48,133
‎Chúng tôi đã quyết định là nên công bố

618
00:48:48,216 --> 00:48:52,679
‎để có lẽ sẽ tìm ra cách
‎loại bỏ việc dùng sai trái loại AI này

619
00:48:52,763 --> 00:48:54,139
‎trước khi nó xảy ra.

620
00:48:54,222 --> 00:48:56,975
‎TÍNH LƯỠNG DỤNG CỦA VIỆC DÙNG AI
‎TRONG CHẾ TẠO THUỐC

621
00:48:57,559 --> 00:49:00,437
‎CÔNG NGHỆ TRÍ TUỆ NHÂN TẠO (AI)
‎TRONG CHẾ TẠO THUỐC

622
00:49:01,897 --> 00:49:04,775
‎Phản ứng của công chúng
‎thật đáng kinh ngạc.

623
00:49:06,985 --> 00:49:10,656
‎Có thể thấy số liệu trên trang web,
‎số lượng người đã truy cập.

624
00:49:10,739 --> 00:49:14,451
‎Những bài thông thường của chúng tôi,
‎nếu may mắn sẽ có…

625
00:49:14,534 --> 00:49:19,831
‎Vài ngàn người xem trong thời gian
‎một hoặc vài năm.

626
00:49:19,915 --> 00:49:22,084
‎Có 10.000 người đã đọc nó
‎trong vòng một tuần.

627
00:49:22,167 --> 00:49:25,337
‎Sau đó là 20.000, rồi 30.000, và 40.000

628
00:49:25,837 --> 00:49:28,715
‎và đã lên tới 10.000 người một ngày.

629
00:49:30,258 --> 00:49:33,512
‎Dẫn lời báo ‎The Economist
‎và ‎Financial Times

630
00:49:35,639 --> 00:49:39,977
‎Radiolab, họ đã liên hệ.
‎Tôi đã nghe về Radiolab!

631
00:49:41,937 --> 00:49:45,899
‎Nhưng rồi các phản ứng về việc này
‎trở nên mất kiểm soát.

632
00:49:49,778 --> 00:49:53,532
‎Khi xem những dòng tweet, cảm giác kiểu:
‎"Lạy Chúa, sao họ làm điều tệ hại vậy?"

633
00:49:54,324 --> 00:49:55,993
‎Sao họ lại làm thế?

634
00:50:01,164 --> 00:50:04,501
‎Và rồi chúng tôi
‎nhận được lời mời mà tôi không ngờ tới.

635
00:50:08,797 --> 00:50:12,926
‎Có rất nhiều cuộc thảo luận
‎bên trong Nhà Trắng về bài báo,

636
00:50:13,010 --> 00:50:15,387
‎và họ muốn nói chuyện với chúng tôi gấp.

637
00:50:18,849 --> 00:50:20,809
‎Rõ ràng, đây là vinh dự to lớn

638
00:50:20,892 --> 00:50:23,020
‎được nói chuyện
‎với những người ở cấp cao này.

639
00:50:23,603 --> 00:50:25,272
‎Nhưng rồi bạn nhận ra

640
00:50:25,355 --> 00:50:28,900
‎kiểu, "Chúa ơi, là Nhà Trắng. Lãnh đạo."

641
00:50:29,526 --> 00:50:33,196
‎Việc này liên quan tới việc tập hợp
‎các bộ dữ liệu là nguồn mở…

642
00:50:33,280 --> 00:50:37,701
‎Trong khoảng sáu giờ,
‎mô hình có thể tạo ra hơn 40.000…

643
00:50:37,784 --> 00:50:41,038
‎Họ hỏi nhiều
‎về sức mạnh máy tính cần thiết,

644
00:50:41,872 --> 00:50:43,832
‎và chúng tôi bảo họ
‎là không có gì đặc biệt.

645
00:50:44,332 --> 00:50:48,211
‎Thực tế chỉ cần một máy Mac thông dụng
‎sáu năm tuổi.

646
00:50:49,546 --> 00:50:51,256
‎Và điều đó khiến họ sửng sốt.

647
00:50:54,968 --> 00:50:59,473
‎Những người cần hiểu về các tác nhân
‎chiến tranh hóa học

648
00:50:59,556 --> 00:51:04,019
‎và các cơ quan chính phủ,
‎họ không biết gì về khả năng này.

649
00:51:06,605 --> 00:51:09,816
‎Chúng tôi có cẩm nang
‎hướng dẫn tạo vũ khí hóa học này,

650
00:51:10,650 --> 00:51:15,572
‎và rơi vào tay kẻ xấu có chủ tâm gây hại

651
00:51:16,573 --> 00:51:18,992
‎nó có thể là cực kỳ kinh khủng.

652
00:51:21,661 --> 00:51:23,205
‎Mọi người cần ngồi xuống lắng nghe

653
00:51:23,288 --> 00:51:26,458
‎và chúng ta cần thực hiện
‎kiểm soát công nghệ này

654
00:51:27,250 --> 00:51:30,670
‎hoặc hạn chế nó theo cách
‎mà nó không thể bị dùng sai mục đích.

655
00:51:31,880 --> 00:51:35,175
‎Vì khả năng gây chết người…

656
00:51:36,176 --> 00:51:37,344
‎là vô cùng đáng sợ.

657
00:51:40,680 --> 00:51:45,977
‎Vấn đề đạo đức của trí tuệ nhân tạo
‎chủ yếu do xã hội giải đáp,

658
00:51:46,561 --> 00:51:50,273
‎chứ không phải do các kỹ sư
‎hay các nhà công nghệ, các nhà toán học.

659
00:51:52,484 --> 00:51:56,822
‎Mọi công nghệ chúng tôi giới thiệu,
‎mọi cải cách,

660
00:51:56,905 --> 00:52:00,617
‎hoàn toàn phụ thuộc vào cách xã hội
‎lựa chọn sử dụng nó.

661
00:52:03,036 --> 00:52:06,373
‎Ngay thời điểm này,
‎Bộ quốc phòng nói rằng,

662
00:52:06,456 --> 00:52:09,960
‎"Đối tượng duy nhất quyết định
‎chúng tôi sẽ tiêu diệt gì đó

663
00:52:10,043 --> 00:52:11,920
‎trên chiến trường là một con người."

664
00:52:12,504 --> 00:52:14,548
‎Một cỗ máy có thể gây sát thương,

665
00:52:15,590 --> 00:52:18,927
‎nhưng chỉ theo mệnh lệnh
‎của người vận hành là con người,

666
00:52:19,636 --> 00:52:21,429
‎tôi không thấy điều đó sẽ thay đổi.

667
00:52:24,724 --> 00:52:28,228
‎Các quy định này đảm bảo rằng
‎loại công nghệ này sẽ an toàn.

668
00:52:29,729 --> 00:52:33,692
‎Nhưng quân đội Hoa Kỳ không
‎có danh tiếng đáng tin cậy

669
00:52:33,775 --> 00:52:35,485
‎với chiến tranh dùng drone.

670
00:52:36,820 --> 00:52:41,783
‎Vì vậy, về việc tin tưởng
‎quân đội Hoa kỳ với AI,

671
00:52:41,867 --> 00:52:44,953
‎tôi sẽ nói rằng các tài liệu
‎tự nó đã nói lên rồi.

672
00:52:46,288 --> 00:52:50,125
‎Chính sách của Bộ Quốc phòng Hoa Kỳ
‎về việc dùng chế độ tự chủ của vũ khí

673
00:52:50,208 --> 00:52:52,919
‎không cấm bất kỳ loại hệ thống vũ khí nào.

674
00:52:53,003 --> 00:52:56,715
‎Và ngay cả khi quân đội có thể không muốn
‎vũ khí tự chủ,

675
00:52:56,798 --> 00:53:01,678
‎chúng ta có thể thấy quân đội đã
‎trao nhiều quyết định hơn cho máy móc

676
00:53:01,761 --> 00:53:03,680
‎chỉ để giữ khoảng cách với đối thủ.

677
00:53:04,764 --> 00:53:08,351
‎Và điều đó có thể thúc đẩy quân đội
‎tới các quyết định tự chủ

678
00:53:08,435 --> 00:53:09,978
‎mà họ có thể không mong muốn.

679
00:53:12,022 --> 00:53:16,693
‎Vladimir Putin đã nói, "Nước nào dẫn đầu
‎về AI sẽ thống trị thế giới."

680
00:53:17,736 --> 00:53:23,325
‎Chủ tịch Tập đã nói rõ rằng AI
‎là một trong các công nghệ hàng đầu

681
00:53:23,408 --> 00:53:25,702
‎mà Trung Quốc muốn dẫn đầu.

682
00:53:26,786 --> 00:53:29,831
‎Chúng ta rõ ràng đang chạy đua công nghệ.

683
00:53:33,501 --> 00:53:35,670
‎Bạn sẽ nghe họ nói về hành lang an toàn,

684
00:53:36,463 --> 00:53:39,424
‎và tôi tin đó là điều mọi người nên làm.

685
00:53:40,467 --> 00:53:45,180
‎Nhưng có một cuộc đua thực sự
‎để thống trị về AI.

686
00:53:47,265 --> 00:53:51,603
‎Và đối thủ của chúng ta, dù là Trung Quốc,
‎hay Nga, hay Iran,

687
00:53:52,187 --> 00:53:56,566
‎sẽ chẳng chờ đợi
‎chính sách về AI của chúng ta.

688
00:54:00,820 --> 00:54:04,324
‎Bạn đang thấy ngày càng nhiều trao đổi
‎về chính sách AI,

689
00:54:06,117 --> 00:54:09,287
‎nhưng tôi mong nhiều lãnh đạo hơn
‎sẽ có trao đổi

690
00:54:09,371 --> 00:54:11,706
‎kiểu, "Ta có thể xây dựng thứ này
‎nhanh cỡ nào?

691
00:54:12,707 --> 00:54:15,168
‎Hãy đầu tư mạnh mẽ và xây dựng nó."

692
00:54:18,922 --> 00:54:21,299
‎BUỔI HỌP & TRIỂN LÃM THƯỜNG NIÊN AUSA

693
00:54:24,177 --> 00:54:26,805
‎QUÂN ĐỘI HOA KỲ

694
00:54:33,478 --> 00:54:38,358
‎Chúng tôi đang ở triển lãm thương mại
‎lớn nhất năm của Hiệp hội Quân đội Hoa Kỳ.

695
00:54:39,609 --> 00:54:44,572
‎Về cơ bản, bất kỳ nhà cung cấp nào
‎bán sản phẩm hoặc công nghệ cho quân đội

696
00:54:44,656 --> 00:54:46,616
‎sẽ triển lãm tại đây.

697
00:54:47,701 --> 00:54:50,537
‎Căn cứ Không quân Tyndall
‎có bốn rô-bốt của chúng tôi

698
00:54:50,620 --> 00:54:53,957
‎tuần tra căn cứ của họ
‎24 giờ một ngày, 7 ngày một tuần.

699
00:54:55,750 --> 00:55:00,130
‎Chúng tôi có thể thêm từ máy quay tới
‎cảm biến hay bất kỳ thứ gì bạn cần.

700
00:55:00,213 --> 00:55:05,135
‎Cánh tay trợ lực. Đấy, hoàn thành
‎nhiệm vụ mà khách hàng mong muốn.

701
00:55:06,678 --> 00:55:08,763
‎Nếu kẻ thù của anh dùng AI thì sao?

702
00:55:09,431 --> 00:55:12,976
‎Một hệ thống chiến đấu suy nghĩ nhanh hơn,
‎phản ứng nhanh hơn

703
00:55:13,059 --> 00:55:16,062
‎so với con người thì sao? Ta phải sẵn sàng
‎cho điều đó.

704
00:55:17,522 --> 00:55:21,359
‎Chúng tôi huấn luyện các hệ thống
‎thu thập tin tình báo về kẻ thù,

705
00:55:22,027 --> 00:55:26,531
‎quản lý mục tiêu kẻ thù
‎với con người giám sát việc sát thương.

706
00:55:33,288 --> 00:55:34,956
‎- Chào tướng quân.
‎- Anh khỏe chứ?

707
00:55:35,040 --> 00:55:36,416
‎Tốt, thưa ngài. Ngài khỏe chứ?

708
00:55:37,709 --> 00:55:40,962
‎Không ai đầu tư nhiều hơn chúng tôi
‎vào phi công AI.

709
00:55:41,046 --> 00:55:42,630
‎Phi công AI có tên Hivemind,

710
00:55:43,298 --> 00:55:47,135
‎được cài vào chiếc quadcopter Nova.
‎Nó đi vào trong các tòa nhà,

711
00:55:47,218 --> 00:55:49,387
‎do thám chúng
‎trước khi lực lượng đặc nhiệm

712
00:55:49,471 --> 00:55:50,805
‎và bộ binh triển khai.

713
00:55:50,889 --> 00:55:52,891
‎Chúng tôi đã ứng dụng Hivemind vào V-BAT,

714
00:55:52,974 --> 00:55:56,811
‎và tôi nghĩ việc
‎đưa vào hàng trăm đội này.

715
00:55:56,895 --> 00:55:58,730
‎Dù là Eo biển Đài Loan,

716
00:55:58,813 --> 00:56:01,608
‎hay là ở Ukraine,
‎để răn đe kẻ thù của chúng ta.

717
00:56:01,691 --> 00:56:03,360
‎Tôi rất phấn khích về việc này.

718
00:56:03,943 --> 00:56:06,279
‎- Được rồi. Cảm ơn.
‎- Cảm ơn tướng quân.

719
00:56:07,989 --> 00:56:13,370
‎Phi công AI nên ở khắp nơi,
‎và nên đạt được điều này trước 2025, 2030.

720
00:56:14,204 --> 00:56:17,999
‎Việc sử dụng nó sẽ nhanh chóng
‎ở khắp các quân đội trên thế giới.

721
00:56:19,250 --> 00:56:22,962
‎Anh sẽ làm gì với quân đội Romani,
‎hệ thống máy bay không người lái của họ?

722
00:56:23,046 --> 00:56:25,173
‎Công nghệ cao trong quân đội.

723
00:56:25,256 --> 00:56:29,803
‎Chúng tôi đã chi nửa tỷ đô tới nay
‎để xây dựng một phi công AI.

724
00:56:29,886 --> 00:56:33,181
‎Chúng tôi sẽ chi thêm nửa tỷ đô nữa
‎trong năm năm tới.

725
00:56:33,264 --> 00:56:37,769
‎Đó là lý do chính chúng tôi sẽ giành được
‎các hợp đồng quân sự tại Hoa Kỳ.

726
00:56:37,852 --> 00:56:38,853
‎Tuyệt.

727
00:56:38,937 --> 00:56:42,732
‎Thật ấn tượng.
‎Anh đã vũ khí hóa nó thành công?

728
00:56:43,650 --> 00:56:45,568
‎Cái này chưa được vũ khí hóa.

729
00:56:45,652 --> 00:56:48,321
‎Chưa thực hiện. Nhưng tương lai sẽ có.

730
00:56:48,905 --> 00:56:52,534
‎Khách hàng nghĩ nó như một chiếc xe tải.
‎Chúng tôi nghĩ nó là xe tải thông minh

731
00:56:52,617 --> 00:56:54,452
‎có thể thực hiện nhiều việc khác nhau.

732
00:56:54,536 --> 00:56:55,703
‎- Cảm ơn.
‎- Vâng.

733
00:56:55,787 --> 00:56:57,914
‎Tôi sẽ đảm bảo cập nhật với anh.

734
00:57:01,668 --> 00:57:04,129
‎Nếu bạn quay lại trong 10 năm,

735
00:57:04,212 --> 00:57:10,802
‎bạn sẽ thấy rằng AI và tự chủ
‎sẽ thống trị hoàn toàn thị trường này.

736
00:57:14,889 --> 00:57:19,352
‎Các lực lượng có AI và tự chủ hỗ trợ

737
00:57:19,436 --> 00:57:25,108
‎sẽ hoàn toàn thống trị, đè bẹp và hủy diệt
‎các lực lượng không có.

738
00:57:26,401 --> 00:57:30,780
‎Nó sẽ giống như
‎dùng ngựa chọi với xe tăng,

739
00:57:31,781 --> 00:57:34,367
‎như dùng kiếm đấu với súng máy.

740
00:57:34,909 --> 00:57:37,120
‎Thậm chí còn không được thế.

741
00:57:38,746 --> 00:57:42,750
‎Nó sẽ phổ biến khắp nơi,
‎sử dụng ở mọi mức chiến tranh,

742
00:57:43,585 --> 00:57:44,836
‎cấp độ chiến thuật,

743
00:57:45,336 --> 00:57:46,546
‎cấp chiến lược,

744
00:57:47,172 --> 00:57:50,800
‎vận hành với tốc độ
‎mà con người hiện tại không thể hiểu nổi.

745
00:57:53,094 --> 00:57:57,098
‎Các chỉ huy đã bị quá tải
‎với quá nhiều thông tin.

746
00:57:57,599 --> 00:58:01,019
‎Hình ảnh từ vệ tinh,
‎máy bay không người lái và cảm biến.

747
00:58:02,061 --> 00:58:03,396
‎Một trong các khả năng của AI

748
00:58:03,480 --> 00:58:06,774
‎là giúp một chỉ huy
‎hiểu nhanh chóng hơn chuyện đang diễn ra.

749
00:58:07,525 --> 00:58:09,903
‎Và rồi, "Tôi cần đưa ra quyết định nào?"

750
00:58:11,237 --> 00:58:14,866
‎Trí tuệ nhân tạo sẽ tính toán
‎tất cả các yếu tố

751
00:58:14,949 --> 00:58:17,702
‎xác định cách tiến hành chiến tranh,

752
00:58:18,286 --> 00:58:20,246
‎nghĩ ra các chiến lược…

753
00:58:22,540 --> 00:58:25,668
‎và đưa ra các khuyến nghị
‎để thắng một trận đánh.

754
00:58:32,217 --> 00:58:34,344
‎TRUNG TÂM ĐỔI MỚI SÁNG TẠO

755
00:58:36,971 --> 00:58:40,266
‎Chúng tôi ở Lockheed Martin,
‎giống khách hàng ở Bộ quốc phòng,

756
00:58:40,350 --> 00:58:43,770
‎xem trí tuệ nhân tạo
‎là công nghệ quyết định

757
00:58:43,853 --> 00:58:45,104
‎để ra lệnh và kiểm soát.

758
00:58:47,065 --> 00:58:50,109
‎Tốc độ lan truyền trung bình
‎là 61 cm mỗi giây.

759
00:58:50,193 --> 00:58:52,612
‎Chu vi khoảng 2.8 km vuông.

760
00:58:52,695 --> 00:58:55,782
‎Sự nhiễu loạn là thực tế
‎với chúng tôi về quốc phòng,

761
00:58:57,158 --> 00:59:00,495
‎nhưng nó đồng thời cũng xuất hiện
‎trong môi trường

762
00:59:00,578 --> 00:59:03,206
‎và trong việc đưa ra quyết định
‎với cháy rừng.

763
00:59:03,289 --> 00:59:06,543
‎Cháy rừng ở Washburn ở phía bắc
‎thành phố Wawona.

764
00:59:06,626 --> 00:59:09,629
‎Anh phải quyết định dựa trên số liệu
‎không chính xác.

765
00:59:10,630 --> 00:59:14,300
‎Vậy làm sao để AI hỗ trợ
‎với sự nhiễu loạn?

766
00:59:17,637 --> 00:59:19,597
‎Các đám cháy rừng rất hỗn loạn.

767
00:59:20,181 --> 00:59:21,266
‎Chúng vô cùng phức tạp

768
00:59:22,267 --> 00:59:26,354
‎và chúng tôi đang thực hiện áp dụng
‎trí tuệ nhân tạo

769
00:59:26,437 --> 00:59:28,273
‎để trợ giúp ra quyết định.

770
00:59:31,442 --> 00:59:33,987
‎Quản lý Nhiệm vụ Nhận thức
‎là chương trình được xây dựng

771
00:59:34,070 --> 00:59:37,949
‎để quay video hồng ngoại từ trên không

772
00:59:38,032 --> 00:59:41,786
‎và sau đó xử lý qua các thuật toán
‎trí tuệ nhân tạo

773
00:59:41,869 --> 00:59:45,248
‎để có thể dự đoán tình trạng đám cháy.

774
00:59:48,042 --> 00:59:49,794
‎Trong tương lai,

775
00:59:49,877 --> 00:59:52,922
‎Quản lý Nhiệm vụ Nhận thức
‎sẽ dùng mô phỏng,

776
00:59:53,006 --> 00:59:57,093
‎chạy các kịch bản với hàng ngàn chu kỳ,

777
00:59:57,176 --> 01:00:00,722
‎để đề xuất cách hiệu quả nhất
‎triển khai nguồn lực

778
01:00:00,805 --> 01:00:04,058
‎để dập lửa ở vùng có ưu tiên cao.

779
01:00:08,062 --> 01:00:12,400
‎Nó sẽ thông báo, "Hãy thực hiện dập lửa
‎trên không dùng Firehawk ở chỗ này."

780
01:00:13,568 --> 01:00:15,903
‎"Điều đội mặt đất dọn các bụi cây,

781
01:00:16,946 --> 01:00:19,032
‎lính cứu hỏa phun nước,

782
01:00:19,657 --> 01:00:23,077
‎và rồi đưa họ vào vùng ưu tiên cao nhất."

783
01:00:26,289 --> 01:00:29,292
‎Những quyết định đó
‎sẽ có thể được đưa ra nhanh hơn

784
01:00:29,375 --> 01:00:31,044
‎và hiệu quả hơn.

785
01:00:35,840 --> 01:00:38,468
‎Chúng tôi coi AI thứ duy nhất
‎cho phép con người

786
01:00:38,551 --> 01:00:42,305
‎bắt kịp với môi trường
‎đang thay đổi không ngừng.

787
01:00:43,389 --> 01:00:46,517
‎Và có rất nhiều sự tương đồng

788
01:00:46,601 --> 01:00:50,355
‎với những gì chúng tôi đang sử dụng
‎tại Lockheed Martin ở mặt quốc phòng.

789
01:00:52,231 --> 01:00:55,860
‎Quân đội không còn chỉ nói về việc
‎sử dụng AI

790
01:00:55,943 --> 01:01:00,323
‎và các hệ thống vũ khí đơn lẻ
‎để đưa ra quyết định tìm và diệt,

791
01:01:00,865 --> 01:01:02,200
‎mà đang tích hợp AI

792
01:01:02,283 --> 01:01:05,787
‎vào toàn bộ kiến trúc ra quyết định
‎của quân đội.

793
01:01:09,457 --> 01:01:12,960
‎Quân đội có một dự án lớn
‎gọi là Dự án Hội tụ.

794
01:01:14,545 --> 01:01:16,589
‎Hải quân có Overmatch.

795
01:01:16,673 --> 01:01:19,592
‎Và Không quân có Hệ thống
‎Quản lý Chiến đấu Tiên tiến.

796
01:01:21,886 --> 01:01:24,138
‎Bộ Quốc phòng đang cố gắng tìm ra,

797
01:01:24,222 --> 01:01:26,683
‎"Làm sao để ghép những mảnh ghép này lại,

798
01:01:26,766 --> 01:01:29,268
‎để chúng ta có thể xử lý nhanh hơn kẻ thù

799
01:01:30,395 --> 01:01:32,355
‎và thực sự giành được ưu thế?"

800
01:01:33,481 --> 01:01:37,527
‎Một Quản lý Giao tranh AI
‎sẽ là một Tướng cấp khá cao,

801
01:01:37,610 --> 01:01:39,821
‎người chỉ huy trận chiến.

802
01:01:41,155 --> 01:01:44,158
‎Việc trợ giúp ra lệnh cho nhiều lực lượng,

803
01:01:45,118 --> 01:01:49,247
‎điều phối hoạt động
‎của tất cả vũ khí ngoài chiến trường,

804
01:01:49,330 --> 01:01:51,958
‎và thực hiện với tốc độ
‎mà con người không thể theo được.

805
01:01:53,543 --> 01:01:55,294
‎Chúng ta đã dành 70 năm vừa qua.

806
01:01:55,378 --> 01:01:58,798
‎xây dựng quân đội tinh vi nhất hành tinh,

807
01:01:58,881 --> 01:02:03,177
‎và giờ ta đang đối mặt với quyết định
‎liệu ta có muốn trao quyền điều khiển

808
01:02:03,261 --> 01:02:07,598
‎hạ tầng đó cho một thuật toán,
‎cho phần mềm.

809
01:02:10,351 --> 01:02:13,187
‎Và những hậu quả của quyết định đó

810
01:02:13,271 --> 01:02:16,774
‎có thể kích hoạt tổng lực
‎các hỏa lực quân đội của ta.

811
01:02:16,858 --> 01:02:19,902
‎Đó sẽ không phải một Hiroshima.
‎Mà gấp hàng trăm lần.

812
01:02:25,616 --> 01:02:27,869
‎Đây là lúc chúng ta cần hành động

813
01:02:27,952 --> 01:02:33,166
‎vì cửa sổ để ngăn chặn nguy cơ này
‎đang đóng lại nhanh chóng.

814
01:02:35,126 --> 01:02:39,338
‎Chiều nay, chúng ta bắt đầu
‎với những thách thức an ninh toàn cầu

815
01:02:39,422 --> 01:02:41,132
‎do các công nghệ mới nổi đặt ra

816
01:02:41,215 --> 01:02:44,343
‎trong lĩnh vực các hệ thống vũ khí
‎tự chủ gây sát thương.

817
01:02:44,427 --> 01:02:47,722
‎THƯ KÝ

818
01:02:47,805 --> 01:02:50,016
‎về mối đe dọa
‎của vũ khí tự chủ gây sát thương

819
01:02:50,600 --> 01:02:56,564
‎và việc cấm các hệ thống
‎sử dụng AI để chọn và tấn công con người.

820
01:02:56,647 --> 01:03:00,777
‎Sự đồng thuận giữa các đơn vị công nghệ
‎là rõ ràng và dứt khoát.

821
01:03:00,860 --> 01:03:04,030
‎Chúng tôi phản đối
‎vũ khí tự chủ tấn công con người.

822
01:03:05,615 --> 01:03:08,993
‎Trong nhiều năm, các quốc gia đã hỗ trợ,
‎thảo luận vấn đề

823
01:03:09,076 --> 01:03:11,329
‎hệ thống vũ khí tự chủ gây chết người.

824
01:03:12,288 --> 01:03:16,793
‎Đây là về nhận thức thông thường,
‎phổ biến về an ninh.

825
01:03:17,794 --> 01:03:20,546
‎Tất nhiên điều này không dễ dàng.

826
01:03:21,297 --> 01:03:25,968
‎Một số quốc gia,
‎đặc biệt là những cường quốc quân sự,

827
01:03:26,052 --> 01:03:27,762
‎họ muốn dẫn đầu về công nghệ,

828
01:03:28,429 --> 01:03:31,599
‎để họ sẽ vượt qua đối thủ của mình.

829
01:03:32,600 --> 01:03:36,187
‎Vấn đề là, tất cả phải cùng đồng ý
‎để có thể đạt được một điều gì đó.

830
01:03:36,896 --> 01:03:39,065
‎Sẽ có ít nhất một quốc gia phản đối,

831
01:03:39,148 --> 01:03:42,109
‎và chắc chắn cả Hoa Kỳ và Nga
‎đều công bố rõ ràng

832
01:03:42,193 --> 01:03:45,655
‎là họ phản đối một hiệp ước
‎cấm vũ khí tự chủ.

833
01:03:47,198 --> 01:03:53,204
‎Khi chúng ta nghĩ về số nhân lực
‎xây dựng AI trở nên mạnh mẽ hơn,

834
01:03:54,747 --> 01:03:56,457
‎số lượng đó rất lớn.

835
01:03:57,750 --> 01:04:02,880
‎Khi ta nghĩ về số người
‎đảm bảo rằng AI an toàn,

836
01:04:04,340 --> 01:04:07,510
‎số lượng đó ít hơn rất nhiều.

837
01:04:11,764 --> 01:04:13,724
‎Nhưng tôi cũng rất lạc quan.

838
01:04:16,060 --> 01:04:19,480
‎Tôi nhìn vào những thứ
‎như Công ước Vũ khí Sinh học,

839
01:04:19,564 --> 01:04:22,358
‎được ký giữa thời Chiến tranh Lạnh,

840
01:04:23,025 --> 01:04:27,655
‎bất chấp căng thẳng
‎giữa Liên Xô và Hoa Kỳ.

841
01:04:29,156 --> 01:04:33,536
‎Họ đã có thể nhận ra
‎sự phát triển vũ khí sinh học

842
01:04:33,619 --> 01:04:36,247
‎không đem lại
‎lợi ích tốt nhất cho bên nào,

843
01:04:36,330 --> 01:04:38,749
‎và cũng không đem lại lợi ích
‎tốt nhất cho thế giới.

844
01:04:41,335 --> 01:04:44,714
‎Động lực chạy đua vũ trang
‎thiên về tốc độ hơn sự an toàn.

845
01:04:45,715 --> 01:04:48,342
‎Nhưng tôi cho rằng
‎điều quan trọng cần cân nhắc là

846
01:04:48,426 --> 01:04:52,430
‎tại thời điểm nào đó, cái giá phải trả
‎khi tiến quá nhanh sẽ quá cao.

847
01:04:56,225 --> 01:04:59,270
‎Chúng ta không thể phát triển
‎mọi thứ một cách biệt lập

848
01:05:00,021 --> 01:05:06,611
‎và áp dụng chúng mà không nghĩ
‎chúng sẽ thế nào trong tương lai.

849
01:05:07,862 --> 01:05:10,823
‎Ta phải ngăn chặn nguy cơ
‎chiến tranh bom hạt nhân.

850
01:05:14,577 --> 01:05:17,705
‎Lợi ích trong cuộc đua AI là rất lớn.

851
01:05:18,289 --> 01:05:22,001
‎Tôi không nghĩ nhiều người
‎trân trọng sự ổn định toàn cầu

852
01:05:22,084 --> 01:05:28,174
‎có được nhờ việc
‎có lực lượng quân sự vượt trội

853
01:05:28,257 --> 01:05:31,135
‎trong 75 năm vừa qua.

854
01:05:32,887 --> 01:05:35,681
‎Vì vậy Hoa Kỳ và các đồng minh

855
01:05:36,557 --> 01:05:38,684
‎cần phải vượt trội AI đối thủ.

856
01:05:43,314 --> 01:05:44,774
‎Chiến tranh không có á quân.

857
01:05:45,524 --> 01:05:49,111
‎Trung Quốc đặt kế hoạch đầy tham vọng
‎dẫn đầu thế giới về AI trước 2030.

858
01:05:49,195 --> 01:05:51,656
‎Một cuộc đua mà có người cho rằng
‎Hoa Kỳ đang thua…

859
01:05:52,740 --> 01:05:56,160
‎Bạn sẽ tăng tốc ứng dụng trí tuệ nhân tạo

860
01:05:56,243 --> 01:05:59,246
‎để đảm bảo ưu thế cạnh tranh quân sự.

861
01:06:02,833 --> 01:06:05,461
‎Chúng ta chạy đua tiến lên
‎với công nghệ này.

862
01:06:05,544 --> 01:06:08,673
‎Tôi nghĩ điều chưa rõ ràng
‎là ta sẽ đi xa tới đâu?

863
01:06:09,507 --> 01:06:13,052
‎Chúng ta có kiểm soát công nghệ
‎hay nó sẽ kiểm soát chúng ta?

864
01:06:14,136 --> 01:06:16,973
‎Thực sự không có cơ hội để làm lại.

865
01:06:17,807 --> 01:06:20,977
‎Một khi đã leo lên lưng cọp, là cưỡi.

866
01:06:22,019 --> 01:06:25,189
‎Và rất khó để ngừng lại.

867
01:06:28,609 --> 01:06:31,737
‎Và nếu ta không hành động ngay,
‎sẽ quá muộn.

868
01:06:33,114 --> 01:06:34,657
‎Có thể đã là quá muộn rồi.

869
01:08:48,124 --> 01:08:50,126
‎Biên dịch: Tony Viet



